JP2010193099A - Image capturing apparatus and method of controlling the same - Google Patents

Image capturing apparatus and method of controlling the same Download PDF

Info

Publication number
JP2010193099A
JP2010193099A JP2009034392A JP2009034392A JP2010193099A JP 2010193099 A JP2010193099 A JP 2010193099A JP 2009034392 A JP2009034392 A JP 2009034392A JP 2009034392 A JP2009034392 A JP 2009034392A JP 2010193099 A JP2010193099 A JP 2010193099A
Authority
JP
Japan
Prior art keywords
image
dynamic range
scene
imaging
range expansion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009034392A
Other languages
Japanese (ja)
Other versions
JP4999871B2 (en
JP2010193099A5 (en
Inventor
Takaaki Fukui
貴明 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009034392A priority Critical patent/JP4999871B2/en
Priority to US12/694,111 priority patent/US8355059B2/en
Priority to EP10151796.9A priority patent/EP2216987B1/en
Priority to EP13168007.6A priority patent/EP2645705B1/en
Priority to CN201010112169.8A priority patent/CN101800857B/en
Publication of JP2010193099A publication Critical patent/JP2010193099A/en
Publication of JP2010193099A5 publication Critical patent/JP2010193099A5/ja
Application granted granted Critical
Publication of JP4999871B2 publication Critical patent/JP4999871B2/en
Priority to US13/592,868 priority patent/US9007486B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image capturing apparatus which can perform image capture with a dynamic range in consideration of a subject and a scene. <P>SOLUTION: The image capturing apparatus determines a scene of a captured image, and, depending on the scene decision results, performs image capturing with an expanded dynamic range, or performs a dynamic range reduction processing based on the captured image. In executing the dynamic range expansion processing, the image capturing apparatus performs image capturing at a decreased imaging sensitivity and performs tone correction for compensating the decreased imaging sensitivity with respect to the captured image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像装置およびその制御方法に関する。   The present invention relates to an imaging apparatus and a control method thereof.

従来、CCDイメージセンサやCMOSイメージセンサなどの撮像素子を用いたデジタルカメラやデジタルビデオが広く用いられている。しかし、これらの撮像素子は銀塩フィルムと比較してダイナミックスレンジ(ラチチュード)が狭い。そのため、高コントラストのシーンを撮像すると、低輝度部分の階調性悪化(黒つぶれ)や高輝度部分の階調性悪化(白飛び)が発生しやすかった。   Conventionally, digital cameras and digital videos using image sensors such as CCD image sensors and CMOS image sensors have been widely used. However, these image sensors have a narrow dynamic range (latitude) compared to silver salt films. For this reason, when a high-contrast scene is imaged, it is easy to cause gradation deterioration (blackout) in a low luminance part and gradation deterioration (whiteout) in a high luminance part.

このような問題に対し、自動的にダイナミックスレンジをコントロール可能なシステムが提案されている。   In response to such a problem, a system capable of automatically controlling the dynamic range has been proposed.

例えば特許文献1では、撮像された画像から、主要被写体が逆光又はハイコントラストであると検出された場合には、画像のヒストグラムから黒色飽和点及び白色飽和点を特定し、主要被写体の明るさが適正となるように階調補正を行うことが提案されている。   For example, in Patent Document 1, when a main subject is detected to be backlit or high-contrast from a captured image, a black saturation point and a white saturation point are specified from the histogram of the image, and the brightness of the main subject is determined. It has been proposed to perform gradation correction so as to be appropriate.

また、特許文献2では、高感度の受光素子と低感度の受光素子を配置した撮像素子を用い、同一シーンを異なる感度の受光素子で撮像してダイナミックレンジの異なる2種類の画像を取得し、それらをシーン解析結果に応じて合成することが提案されている。   Moreover, in patent document 2, using the imaging device which has arrange | positioned the high sensitivity light receiving element and the low sensitivity light receiving element, the same scene is imaged with the light receiving element of different sensitivity, and two types of images with different dynamic ranges are acquired, It has been proposed to synthesize them according to the scene analysis results.

また、感度設定範囲を1段分高感度側にずらして、高輝度部分の白飛びを抑制する撮像モード(高輝度側・階調優先モード)を有するデジタルカメラも存在する(キヤノン社、EOS 5D Mark2)。   There is also a digital camera that has an imaging mode (high brightness side / gradation priority mode) that suppresses whiteout in high brightness areas by shifting the sensitivity setting range by one step to the high sensitivity side (Canon, EOS 5D). Mark2).

特開2005−209012号公報Japanese Patent Application Laid-Open No. 2005-209012 特開2004−186876号公報JP 2004-186876 A

しかし、特許文献1の方法では、コントラスト感を高めるための効果はあるものの、センサーが飽和するポイントは変わらないため、ダイナミックレンジを拡げる効果は得られない。   However, in the method of Patent Document 1, although there is an effect for enhancing the contrast feeling, the point at which the sensor is saturated does not change, so the effect of expanding the dynamic range cannot be obtained.

また、特許文献2の方法では、ダイナミックレンジを拡げる効果は得られるが、感度の異なる受光素子を配置した特別な撮像素子を用いる必要があるため、コストがかかるという問題点があった。   Further, although the method of Patent Document 2 can obtain the effect of expanding the dynamic range, there is a problem that it is expensive because it is necessary to use a special imaging device in which light receiving elements having different sensitivities are arranged.

また、階調優先モードを有するデジタルカメラにおいては、高輝度部分の白飛びが抑制された撮像結果を得るには、ユーザが明示的に階調優先モードを設定して撮像する必要がある。また、シーンによっては、階調優先モードの効果を感じにくい場合や、高輝度部の白飛び抑制よりも他の条件を優先させて撮像した方がよいこともある。例えば被写体が風景である場合には、高輝度部の白飛びが無いことが望ましいが、被写体が人物の場合には、背景が若干白飛びしても、人物の顔の明るさが適正であることのほうが望ましい。つまり、階調優先モードを活用して適切な撮像結果を得るには、ユーザが階調優先モードを設定することに加え、ユーザが適切にシーンを判別できることが要求されていた。   Further, in a digital camera having a gradation priority mode, in order to obtain an imaging result in which whiteout in a high-luminance portion is suppressed, it is necessary for the user to explicitly set the gradation priority mode for imaging. Depending on the scene, it may be more difficult to feel the effect of the gradation priority mode, or it may be better to take an image with priority given to other conditions than suppression of whiteout in a high luminance part. For example, when the subject is a landscape, it is desirable that there is no whiteout in the high luminance part. However, when the subject is a person, the brightness of the person's face is appropriate even if the background is slightly overexposed. It is more desirable. That is, in order to obtain an appropriate imaging result by using the gradation priority mode, it is required that the user can appropriately determine the scene in addition to setting the gradation priority mode.

本発明はこのような従来技術の課題に鑑みなされたものである。本発明は、被写体やシーンを考慮したダイナミックレンジで撮像することが可能な撮像装置及びその制御方法を提供することを目的とする。   The present invention has been made in view of the problems of the prior art. An object of the present invention is to provide an imaging apparatus capable of imaging in a dynamic range in consideration of a subject or a scene and a control method thereof.

上述の目的は、静止画撮像のスタンバイ時に撮像される動画像に基づいて、シーン判定を行うシーン判定手段と、撮像動作を制御する制御手段であって、シーン判定の結果に基づいて、撮像感度を低減させて静止画撮像し、静止画撮像された画像に対して撮像感度の低減を補償するための階調補正を適用するダイナミックレンジ拡大処理と、静止画撮像し、動画像又は静止画撮像された画像に基づく階調補正を静止画撮像された画像に適用するダイナミックレンジ縮小処理とのいずれかを実行する制御手段とを有することを特徴とする撮像装置によって達成される。   The above-described object is a scene determination unit that performs scene determination based on a moving image that is captured at the time of standby for still image capturing, and a control unit that controls the image capturing operation. A dynamic range expansion process that applies gradation correction to compensate for a reduction in imaging sensitivity for images taken with still images, and still images, moving images or still images And a control unit that executes any one of a dynamic range reduction process that applies gradation correction based on the captured image to a still image captured image.

このような構成により、本発明によれば、被写体やシーンを考慮したダイナミックレンジで撮像することが可能な撮像装置及びその制御方法が実現できる。   With such a configuration, according to the present invention, it is possible to realize an imaging apparatus capable of imaging in a dynamic range in consideration of a subject or a scene and a control method thereof.

本発明の実施形態に係る撮像装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the imaging device which concerns on embodiment of this invention. 原画像から顔が検出される過程を模式的に示した図である。It is the figure which showed typically the process in which a face is detected from an original image. 本発明の実施形態に係る撮像装置の顔検出回路における顔検出動作を説明するためのフローチャートである。It is a flowchart for demonstrating the face detection operation | movement in the face detection circuit of the imaging device which concerns on embodiment of this invention. CIE−L*a*b*色空間における代表色を示した色度図である。It is a chromaticity diagram showing representative colors in the CIE-L * a * b * color space. 本発明の実施形態に係る撮像装置の顔検出回路が用いる2次元ハイパスフィルタの係数の例を示す図である。It is a figure which shows the example of the coefficient of the two-dimensional high pass filter which the face detection circuit of the imaging device which concerns on embodiment of this invention uses. 本発明の実施形態に係る撮像装置のAFE回路の構成例を示すブロック図である。It is a block diagram showing an example of composition of an AFE circuit of an imaging device concerning an embodiment of the present invention. 本発明の実施形態に係る撮像装置のヒストグラム作成回路が作成するヒストグラムの例を模式的に示す図である。It is a figure which shows typically the example of the histogram which the histogram preparation circuit of the imaging device which concerns on embodiment of this invention produces. 本発明の実施形態に係る撮像装置における、撮像スタンバイ時の信号処理の流れを示したブロック図である。It is the block diagram which showed the flow of the signal processing at the time of imaging standby in the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置における、ダイナミックレンジ(Dレンジ)拡大量の決定動作を説明するためのフローチャートである。It is a flowchart for demonstrating the determination operation | movement of the dynamic range (D range) expansion amount in the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置において、顔領域のDレンジ拡大量と画像全体のDレンジ拡大量の大きさに応じて最終的に決定するDレンジ拡大量の具体例を示す図である。In the imaging device concerning an embodiment of the present invention, it is a figure showing the example of the D range expansion amount finally determined according to the size of the D range expansion amount of the face area, and the D range expansion amount of the whole image. 本発明の実施形態に係る撮像装置におけるDレンジの概念図を表す図である。It is a figure showing the conceptual diagram of D range in the imaging device concerning an embodiment of the present invention. 本発明の実施形態に係る撮像装置における、AE目標値、飽和信号値およびDレンジの関係例を示す図である。It is a figure which shows the example of a relationship between AE target value, a saturation signal value, and D range in the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置の信号処理回路における階調特性の設定例を示す図である。It is a figure which shows the example of a setting of the gradation characteristic in the signal processing circuit of the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置における、本撮像処理の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of this imaging process in the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置における、逆光判定時の領域分割例を示す図である。It is a figure which shows the example of an area | region division at the time of backlight determination in the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置において、夜景判定された時に選択する階調特性の例を示したものである。In the imaging device which concerns on embodiment of this invention, the example of the gradation characteristic selected when a night view is determined is shown. 本発明の実施形態に係る撮像装置における、ダイナミックレンジ縮小量(D−)の決定動作を説明するためのフローチャートである。It is a flowchart for demonstrating the determination operation | movement of the dynamic range reduction amount (D-) in the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置において、図17のS504で算出された最終的なゲイン値Gain_yhpの値と、撮像感度とに応じた最終ゲインアップ量の関係例を示す図である。FIG. 18 is a diagram illustrating a relationship example between the final gain value Gain_yhp calculated in S504 of FIG. 17 and the final gain increase amount according to the imaging sensitivity in the imaging apparatus according to the embodiment of the present invention. 本発明の実施形態に係る撮像装置における、ゲインアップ量と階調特性設定値の関係について示した図である。FIG. 6 is a diagram illustrating a relationship between a gain increase amount and a gradation characteristic setting value in the imaging apparatus according to the embodiment of the present invention. 本発明の実施形態に係る撮像装置における、シーン判定結果に応じた、露出制御、ダイナミックレンジ拡大処理(D+)、ダイナミックレンジ縮小処理(D−)、および夜景用階調特性の設定の関係例を示す図である。Example of relationship between exposure control, dynamic range expansion processing (D +), dynamic range reduction processing (D−), and setting of gradation characteristics for night scene according to the scene determination result in the imaging apparatus according to the embodiment of the present invention. FIG.

以下、添付図面を参照して、本発明を例示的な実施形態に基づき詳細に説明する。
図1は、本発明の実施形態に係る撮像装置の構成例を示すブロック図である。本実施形態の撮像装置は、撮像素子を用いて画像を撮像する機能を有する任意の装置を包含する。このような装置は、デジタルスチルカメラおよびデジタルビデオカメラはもとより、カメラを内蔵または接続した携帯電話、PDA、パーソナルコンピュータなどを含む。
Hereinafter, the present invention will be described in detail based on exemplary embodiments with reference to the accompanying drawings.
FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus according to an embodiment of the present invention. The imaging apparatus according to the present embodiment includes any apparatus having a function of capturing an image using an imaging element. Such devices include not only digital still cameras and digital video cameras, but also mobile phones, PDAs, personal computers, etc. that have built-in or connected cameras.

図1において、操作部112は、ボタン、スイッチなどを含み、ユーザが撮像装置に指示を与えたり、設定を行ったりするために用いられる。シャッターボタンも操作部112に含まれ、本実施形態ではシャッターボタンの半押し状態と全押し状態とを検出可能であるものとする。   In FIG. 1, the operation unit 112 includes buttons, switches, and the like, and is used by a user to give an instruction to the imaging apparatus or make settings. A shutter button is also included in the operation unit 112, and in this embodiment, it is possible to detect a half-pressed state and a fully-pressed state of the shutter button.

システムコントローラ107は、シャッターボタンの半押し状態を撮像準備開始指示、全押し状態を撮像開始指示として認識する。システムコントローラ107は、例えば、CPU、ROM、RAMなどを含み、ROMに記憶されたプログラムをRAMを用いてCPUが実行することにより、撮像装置の動作全般を制御する。   The system controller 107 recognizes the half-pressed state of the shutter button as an imaging preparation start instruction and the fully-pressed state as an imaging start instruction. The system controller 107 includes, for example, a CPU, a ROM, a RAM, and the like, and controls the overall operation of the imaging apparatus when the CPU executes a program stored in the ROM using the RAM.

姿勢センサ133は、撮像装置の姿勢を検出し、検出結果をシステムコントローラ107に出力する。システムコントローラ107は、姿勢センサ133からの出力に基づいて、撮像装置の姿勢が縦位置か横位置かを判定する。なお、縦位置か横位置かを姿勢センサ133が判別し、判別結果をシステムコントローラ107へ出力してもよい。   The attitude sensor 133 detects the attitude of the imaging device and outputs the detection result to the system controller 107. The system controller 107 determines whether the posture of the imaging device is the vertical position or the horizontal position based on the output from the posture sensor 133. Note that the attitude sensor 133 may determine whether the position is the vertical position or the horizontal position, and the determination result may be output to the system controller 107.

レンズ装置200は、フォーカスレンズを含むレンズ群と、フォーカスレンズを駆動する駆動装置と、絞りと、メカニカルシャッターとを有し、システムコントローラ107の制御に基づいて動作する。   The lens device 200 includes a lens group including a focus lens, a drive device that drives the focus lens, a diaphragm, and a mechanical shutter, and operates based on control of the system controller 107.

撮像素子101はCCDイメージセンサ、CMOSイメージセンサなどの光電変換素子である。アナログフロントエンド(AFE)回路150は、撮像素子101から出力されるアナログ画像信号に対してゲイン調整やA/D変換などを行い、デジタル画像信号として出力する。AFE回路150の詳細については後述する。   The imaging element 101 is a photoelectric conversion element such as a CCD image sensor or a CMOS image sensor. An analog front end (AFE) circuit 150 performs gain adjustment, A / D conversion, and the like on the analog image signal output from the image sensor 101 and outputs the digital image signal. Details of the AFE circuit 150 will be described later.

バッファメモリ103は、AFE回路150が出力するデジタル画像信号を一時的に記憶する。
圧縮・伸長回路104は、撮像画像データを記録用の画像ファイル(例えばJPEGファイル)の形式に符号化したり、記録媒体106から読み出された画像ファイルの復号化を行ったりする。
The buffer memory 103 temporarily stores the digital image signal output from the AFE circuit 150.
The compression / decompression circuit 104 encodes the captured image data into a recording image file (for example, JPEG file) format, or decodes the image file read from the recording medium 106.

記録装置105は、内蔵メモリや、着脱可能なメモリカードのような記録媒体106に対し、システムコントローラ107の制御に従ってデータの読み書きを行う。
表示制御回路108は、システムコントローラ107の制御に従い、LCDなどの表示デバイスを有する表示部110への表示動作を制御する。
D/Aコンバータ109は、表示制御回路108が出力する表示用のデジタル画像信号を表示部110が表示可能なアナログ画像信号に変換する。
The recording device 105 reads / writes data from / to a recording medium 106 such as a built-in memory or a removable memory card under the control of the system controller 107.
The display control circuit 108 controls the display operation on the display unit 110 having a display device such as an LCD in accordance with the control of the system controller 107.
The D / A converter 109 converts the display digital image signal output from the display control circuit 108 into an analog image signal that can be displayed by the display unit 110.

表示部110は、撮像した画像の表示はもとより、ユーザが撮像装置に対して各種の設定や指示を行うためのGUI画面や、撮像装置に関する各種情報などの表示を行う。また、連続的に撮像した画像を表示部110に逐次表示することにより、表示部110を電子ビューファインダ(EVF)として機能させることができる。この、表示部110をEVFとして機能させるための逐次撮像・表示動作は、スルー表示、ライブビュー表示とも呼ばれる。この逐次撮像動作は、動画像の撮像動作と実質的に同等であり、EVF用に撮像、表示される画像の実態は動画像である。   The display unit 110 displays not only the captured image but also a GUI screen for the user to make various settings and instructions to the imaging device, and various information related to the imaging device. In addition, by sequentially displaying continuously captured images on the display unit 110, the display unit 110 can function as an electronic viewfinder (EVF). This sequential imaging / display operation for causing the display unit 110 to function as an EVF is also referred to as a through display or a live view display. This sequential imaging operation is substantially equivalent to the moving image imaging operation, and the actual image captured and displayed for EVF is a moving image.

顔検出回路120は、撮像した画像から人物を検出するための手法の一例としての顔検出を行う。顔検出回路120は、バッファメモリ103に記憶された、YUV形式またはRAW形式の画像データに対して顔検出処理を行い、画像中の顔領域の大きさ、位置を含む顔検出結果をヒストグラム作成回路130に出力する。   The face detection circuit 120 performs face detection as an example of a technique for detecting a person from a captured image. The face detection circuit 120 performs face detection processing on image data in YUV format or RAW format stored in the buffer memory 103, and generates a face detection result including the size and position of the face area in the image as a histogram generation circuit. To 130.

顔検出回路120が用いる顔検出方法に特に制限はなく、任意かつ公知の方法を適用することができる。公知の顔検出技術としては、ニューラルネットワークなどを利用した学習に基づく手法、テンプレートマッチングを用いて目、鼻、口等の形状に特徴のある部位を画像から探し出し、類似度が高ければ顔とみなす手法などがある。また、他にも、肌の色や目の形といった画像特徴量を検出し、統計的解析を用いた手法等、多数提案されている。これらの手法を複数組み合わせ、顔検出の精度を向上させることもできる。具体的な例としては特開2002−251380号公報に記載のウェーブレット変換と画像特徴量を利用して顔検出する方法などが挙げられる。   The face detection method used by the face detection circuit 120 is not particularly limited, and any known method can be applied. As a known face detection technique, a method based on learning using a neural network or the like, template matching is used to search a part having a characteristic shape of eyes, nose, mouth, etc. from an image, and if the degree of similarity is high, it is regarded as a face There are methods. In addition, many other methods have been proposed, such as a method that detects image feature amounts such as skin color and eye shape and uses statistical analysis. A plurality of these methods can be combined to improve the accuracy of face detection. Specific examples include a face detection method using wavelet transform and image feature amount described in JP-A-2002-251380.

ここで、図2〜図4を参照して、顔検出回路120の具体的な顔検出動作例について説明する。
図2は、原画像から顔が検出される過程を模式的に示した図であり、図2(a)が原画像を示している。
Here, a specific face detection operation example of the face detection circuit 120 will be described with reference to FIGS.
FIG. 2 is a diagram schematically showing the process of detecting a face from an original image, and FIG. 2A shows the original image.

図3は、顔検出回路120の顔検出動作を説明するためのフローチャートである。
S101で顔検出回路120は原画像から、肌色領域を抽出する。図4は、CIE−L*a*b*色空間における代表色を示した色度図であり、その中の楕円は、肌色である可能性が高い領域である。
顔検出回路120は、RGB形式の原画像データを公知の方法でL*a*b*形式に変換し、図4の楕円で示した領域内の色度を有する画素からなる肌色領域を抽出する。図2(b)は、原画像から抽出された肌色領域を模式的に示している。
FIG. 3 is a flowchart for explaining the face detection operation of the face detection circuit 120.
In S101, the face detection circuit 120 extracts a skin color area from the original image. FIG. 4 is a chromaticity diagram showing representative colors in the CIE-L * a * b * color space, and an ellipse therein is an area that is highly likely to be a skin color.
The face detection circuit 120 converts the original image data in RGB format into the L * a * b * format by a known method, and extracts a skin color region composed of pixels having chromaticity within the region indicated by the ellipse in FIG. . FIG. 2B schematically shows a skin color area extracted from the original image.

次に、S102で顔検出回路120は、抽出した肌色領域から高周波成分を抽出する。具体的には、顔検出回路120は、肌色領域に対してハイパスフィルタを適用する。図5は、2次元ハイパスフィルタの係数の例を示す図である。図2(b)の画像にハイパスフィルタを適用した画像の例を図2(c)に示す。   Next, in S102, the face detection circuit 120 extracts a high frequency component from the extracted skin color region. Specifically, the face detection circuit 120 applies a high-pass filter to the skin color area. FIG. 5 is a diagram illustrating an example of coefficients of a two-dimensional high-pass filter. An example of an image obtained by applying a high-pass filter to the image of FIG. 2B is shown in FIG.

S103で顔検出回路120は、ハイパスフィルタを適用後の画像に対し、図2(d)二示すように目のテンプレートを用いたテンプレートマッチングを行い、画像中における目の検出を行う。
S104で顔検出回路120は、S103で検出した目の領域の位置関係などに基づいて顔領域を判定し、顔領域の位置や大きさ等を含んだ顔検出結果を求める。
In S103, the face detection circuit 120 performs template matching using an eye template as shown in FIG. 2D on the image after the high-pass filter is applied, and detects an eye in the image.
In S104, the face detection circuit 120 determines the face area based on the positional relationship of the eye area detected in S103, and obtains a face detection result including the position and size of the face area.

図1に戻って、ヒストグラム作成回路130は、顔領域の検出結果を顔検出回路120から取得し、顔領域に含まれる画素の輝度値に関するヒストグラムを作成する。ヒストグラム作成回路130はまた、画像を複数に分割した部分領域毎に、含まれる画素の輝度値のヒストグラムも作成することが可能である。作成したヒストグラムはバッファメモリ103に格納する。   Returning to FIG. 1, the histogram creation circuit 130 acquires the detection result of the face area from the face detection circuit 120, and creates a histogram related to the luminance value of the pixels included in the face area. The histogram creation circuit 130 can also create a histogram of the luminance values of the included pixels for each partial region obtained by dividing the image into a plurality of regions. The created histogram is stored in the buffer memory 103.

また、部分領域毎の色情報を取得する場合、バッファメモリ103に記憶された1画面分の画像解析用画像をリサイズ回路131で縮小した縮小画像に対して、色評価値取得回路132で部分領域毎の色情報を取得する。色情報は例えば彩度・色相・輝度などの色評価値であってよい。   When acquiring color information for each partial area, the color evaluation value acquisition circuit 132 uses the partial area for the reduced image obtained by reducing the image analysis image for one screen stored in the buffer memory 103 by the resize circuit 131. Get color information for each. The color information may be color evaluation values such as saturation, hue, and luminance.

信号処理回路140は、システムコントローラ107によって設定される信号処理パラメータ(ホワイトバランス補正係数や階調特性パラメータなど)に従って、バッファメモリ103に格納されている画像データに対して信号処理を適用する。そして、信号処理回路140は、YUV形式の画像データを生成し、再びバッファメモリ103に格納する。   The signal processing circuit 140 applies signal processing to the image data stored in the buffer memory 103 in accordance with signal processing parameters (such as white balance correction coefficients and gradation characteristic parameters) set by the system controller 107. Then, the signal processing circuit 140 generates YUV format image data and stores it again in the buffer memory 103.

後述するように、本実施形態の撮像装置は、AFE回路150における感度調整(ゲイン調整)と、信号処理回路140における階調特性の補正とによって、ダイナミックレンジの制御を実現する。   As will be described later, the imaging apparatus of the present embodiment realizes dynamic range control by sensitivity adjustment (gain adjustment) in the AFE circuit 150 and correction of gradation characteristics in the signal processing circuit 140.

図6は、AFE回路150の構成例を示すブロック図である。
クランプ回路151は、撮像素子101から出力された信号を、センサーの遮光レベルまたは基準電圧領域の出力値が0となるよう、基準黒レベルにクランプする。
CDSゲイン回路152は、クランプされた信号に対し、CDSゲイン(アナログゲイン)を適用する。一般的なAFE回路で適用されるCDSゲインは0,3,6[dB]といった離散的な値を有する。
FIG. 6 is a block diagram illustrating a configuration example of the AFE circuit 150.
The clamp circuit 151 clamps the signal output from the image sensor 101 to the reference black level so that the light shielding level of the sensor or the output value of the reference voltage region becomes zero.
The CDS gain circuit 152 applies a CDS gain (analog gain) to the clamped signal. The CDS gain applied in a general AFE circuit has discrete values such as 0, 3, 6 [dB].

アナログゲインが適用された信号は、A/Dコンバータ153でデジタルデータに変換される。次に、可変利得増幅器(VGA)ゲイン回路154が、デジタルデータに対してVGAゲインを適用する。本実施形態において、VGAゲインの値は、例えば0〜36dBの範囲で、0.125dB単位で調整可能であるとする。VGAゲインが適用された信号は、クリップ回路155で所定のビット数にクリップしてバッファメモリ103へ出力する。   The signal to which the analog gain is applied is converted into digital data by the A / D converter 153. Next, a variable gain amplifier (VGA) gain circuit 154 applies a VGA gain to the digital data. In the present embodiment, it is assumed that the value of the VGA gain can be adjusted in units of 0.125 dB, for example, in the range of 0 to 36 dB. The signal to which the VGA gain is applied is clipped to a predetermined number of bits by the clip circuit 155 and output to the buffer memory 103.

本実施形態において、撮像装置の撮像感度(ISO感度)設定は、AFE回路150で適用するCDSゲインおよびVGAゲインの値をシステムコントローラ107によって制御することにより実現される。   In this embodiment, the imaging sensitivity (ISO sensitivity) setting of the imaging apparatus is realized by controlling the values of the CDS gain and the VGA gain applied by the AFE circuit 150 by the system controller 107.

また、基準光量の光で撮像装置を照射し、撮像装置から一定の輝度信号値が出力されるようにCDSゲインおよびVGAゲインを制御することにより、撮像素子101の感度特性のバラツキを補正する感度調整を行うことができる。   Also, the sensitivity for correcting variations in the sensitivity characteristics of the image sensor 101 by irradiating the imaging device with a reference amount of light and controlling the CDS gain and VGA gain so that a constant luminance signal value is output from the imaging device. Adjustments can be made.

本実施形態において、感度設定はCDSゲインとVGAゲインの組み合わせて行う。例えば低感度時に全体で6dBのゲインを設定する場合、例えばCDSゲインを3dB、VGAゲインを3dBに設定する。また高感度時に24dBのゲインを設定する場合には、例えばCDSゲインを6dB、VGAゲインを18dBに設定する。上述の通り、一般にCDSゲインは細かい設定ができないため、大まかなゲインを前段のCDSゲインで設定し、感度調整部分など微妙な感度コントロールを行うためにVGAゲインをコントロールする。   In the present embodiment, sensitivity setting is performed by combining a CDS gain and a VGA gain. For example, when setting a gain of 6 dB as a whole at low sensitivity, for example, the CDS gain is set to 3 dB and the VGA gain is set to 3 dB. When a gain of 24 dB is set at high sensitivity, for example, the CDS gain is set to 6 dB and the VGA gain is set to 18 dB. As described above, since the CDS gain cannot generally be set finely, a rough gain is set by the preceding CDS gain, and the VGA gain is controlled in order to perform delicate sensitivity control such as a sensitivity adjustment portion.

一般的に、ゲイン回路は信号成分と同時にノイズ成分も増幅させる。そのため、アナログ回路で重畳するノイズ成分が増幅されることを抑制するために、合計のゲイン量を実現できるCDSゲインとVGAゲインの組み合わせにおいて、前段のCDSゲインをなるべく高めに設定することが好ましい。そのような設定により、A/Dコンバータ153の量子化精度を最大限に有効利用可能となるという効果も実現できる。   Generally, a gain circuit amplifies a noise component simultaneously with a signal component. Therefore, in order to suppress the amplification of the noise component superimposed in the analog circuit, it is preferable to set the preceding CDS gain as high as possible in the combination of the CDS gain and the VGA gain that can realize the total gain amount. Such a setting can also realize an effect that the quantization accuracy of the A / D converter 153 can be effectively utilized to the maximum extent.

次に、上述の構成を有する撮像装置における、撮像時の動作について説明する。
撮像モードで動作しており、撮像準備指示や撮像開始指示が入力されていないスタンバイ時において、本実施形態の撮像装置は動画像を撮像し、表示部110をEVFとして機能させている。すなわち、システムコントローラ107は、所定のレート(例えば30フレーム/秒)で連続的に撮像し、撮像した画像から表示用画像を生成して、表示部110に表示させる処理を実行している。
Next, an operation at the time of imaging in the imaging apparatus having the above-described configuration will be described.
The image capturing apparatus according to the present embodiment captures a moving image and operates the display unit 110 as an EVF during standby in which the image capturing mode is operated and an image capturing preparation instruction or an image capturing start instruction is not input. That is, the system controller 107 performs processing for continuously capturing images at a predetermined rate (for example, 30 frames / second), generating a display image from the captured images, and displaying the display image on the display unit 110.

顔検出の実行が設定されている場合、顔検出回路120は表示用画像(以下、EVF画像とも呼ぶ)に対して顔検出し、検出結果をシステムコントローラ107に出力する。そして、システムコントローラ107は、検出された顔領域をユーザに提示するための顔枠をEVF画像に重畳表示するよう、顔領域の位置情報とともに表示制御回路108に対して指示する。   When face detection execution is set, the face detection circuit 120 detects a face for a display image (hereinafter also referred to as an EVF image), and outputs the detection result to the system controller 107. Then, the system controller 107 instructs the display control circuit 108 together with the position information of the face area to superimpose and display the face frame for presenting the detected face area to the user on the EVF image.

また、顔検出結果はヒストグラム作成回路130にも供給され、ヒストグラム作成回路130はEVF画像中の顔領域に含まれる画素からヒストグラムを作成する。また、ヒストグラム作成回路130は、画像全体を複数に分割した領域ごとのヒストグラムを作成する。作成したヒストグラムはバッファメモリ103に格納される。   The face detection result is also supplied to the histogram creation circuit 130, which creates a histogram from pixels included in the face area in the EVF image. The histogram creation circuit 130 creates a histogram for each region obtained by dividing the entire image into a plurality of regions. The created histogram is stored in the buffer memory 103.

図7は、本実施形態においてヒストグラム作成回路130が作成するヒストグラムの例を模式的に示す図である。
図7は、画像全体を縦横それぞれ4等分して得られる部分領域71の各々についてのヒストグラム73と、顔領域72についてのヒストグラム74がそれぞれ作成されることを示している。なお、図7におけるヒストグラム73,74は累積ヒストグラムである。なお、部分領域についてヒストグラムを作成する際、顔領域を除外してもよい。そうすることで、顔領域とそれ以外(背景)とのヒストグラムを作成することができる。
FIG. 7 is a diagram schematically showing an example of a histogram created by the histogram creation circuit 130 in the present embodiment.
FIG. 7 shows that a histogram 73 for each of the partial areas 71 obtained by dividing the entire image into four equal parts in the vertical and horizontal directions and a histogram 74 for the face area 72 are created. Note that the histograms 73 and 74 in FIG. 7 are cumulative histograms. Note that when creating a histogram for a partial region, the face region may be excluded. By doing so, it is possible to create a histogram of the face region and the rest (background).

本実施形態において、部分領域71の累積ヒストグラム73において、頻度80%となる輝度値YHiと、顔領域72の累積ヒストグラム74において頻度90%となる輝度値YHiFaceは、後述するように、撮像画像の白飛び領域の評価に用いられる。   In the present embodiment, the luminance value YHi having a frequency of 80% in the cumulative histogram 73 of the partial region 71 and the luminance value YHiFace having a frequency of 90% in the cumulative histogram 74 of the face region 72 are as follows. It is used for evaluation of a whiteout area.

ユーザがシャッターボタンを全押しして撮像開始指示が入力されると、システムコントローラ107は、自動露出制御(AE)、自動焦点検出(AF)などの処理結果に基づく撮像動作を行う。具体的には、システムコントローラ107は、レンズ装置200の焦点位置や絞り、メカニカルシャッター、撮像素子101、さらに必要に応じてフラッシュ(図示せず)などを制御し、撮像する。   When the user fully presses the shutter button and an imaging start instruction is input, the system controller 107 performs an imaging operation based on processing results such as automatic exposure control (AE) and automatic focus detection (AF). Specifically, the system controller 107 controls the focal position and aperture of the lens device 200, the mechanical shutter, the image sensor 101, and further, if necessary, a flash (not shown) to capture an image.

撮像素子101から出力されるアナログ画像信号は、上述したAFE回路150を通じて、デジタル画像データとしてバッファメモリ103に格納される。このデジタル画像データに対し、信号処理回路140は、システムコントローラ107から設定された様々な信号処理パラメータに従って処理し、YUV形式の画像データを生成して、バッファメモリ103に再度格納する。   The analog image signal output from the image sensor 101 is stored in the buffer memory 103 as digital image data through the AFE circuit 150 described above. The signal processing circuit 140 processes the digital image data in accordance with various signal processing parameters set by the system controller 107, generates image data in YUV format, and stores it again in the buffer memory 103.

信号処理回路140で処理された画像データは、圧縮・伸長回路104によって例えばJPEG形式のファイルに符号化され、記録装置105によって記録媒体106に記録される。   The image data processed by the signal processing circuit 140 is encoded into, for example, a JPEG format file by the compression / decompression circuit 104 and recorded on the recording medium 106 by the recording device 105.

また、表示制御回路108は、バッファメモリ103に格納されたYUV形式の画像データから表示用の画像を生成し、クイックレビュー画像として、D/Aコンバータ109を通じて表示部110に表示させる。   Further, the display control circuit 108 generates a display image from the YUV format image data stored in the buffer memory 103 and causes the display unit 110 to display it as a quick review image through the D / A converter 109.

図8は、本実施形態の撮像装置における、撮像スタンバイ時の信号処理の流れを示したブロック図である。上述の通り、撮像スタンバイ時において、本実施形態の撮像装置は表示部110をEVFとして機能させるための連続的な撮像及び表示を行っている。   FIG. 8 is a block diagram illustrating the flow of signal processing during imaging standby in the imaging apparatus of the present embodiment. As described above, at the time of imaging standby, the imaging apparatus of the present embodiment performs continuous imaging and display for causing the display unit 110 to function as an EVF.

撮像素子101から出力されたアナログ画像信号は、AFE回路150によりゲイン調整(感度調整)及びデジタルデータ化される。そして、このRAW形式の画像データに対して信号処理回路140にて画素補間処理やホワイトバランス補正などの所謂現像処理を行い、YUV形式のデジタル画像データを生成する。   The analog image signal output from the image sensor 101 is converted into gain data (sensitivity adjustment) and digital data by the AFE circuit 150. Then, so-called development processing such as pixel interpolation processing and white balance correction is performed on the RAW format image data by the signal processing circuit 140 to generate YUV format digital image data.

このデジタル画像データは、バッファメモリ103の表示用領域(VRAMもしくは表示用バッファ)103aに格納され、表示制御回路108およびD/Aコンバータ109を通じて表示部110に出力される。   The digital image data is stored in a display area (VRAM or display buffer) 103 a of the buffer memory 103, and is output to the display unit 110 through the display control circuit 108 and the D / A converter 109.

一方、信号処理回路140が生成したデジタル画像データは、バッファメモリ103の画像解析用領域(画像解析用バッファ)103bにも格納される。画像解析用バッファ103bに格納された画像データは、顔検出回路120による顔検出および、ヒストグラム作成回路130によるヒストグラム作成に用いられる。なお、画像解析用バッファ103bには、全てのEVF画像データが格納される必要はなく、顔検出及びヒストグラム作成を行う周期に応じた一部のEVF画像データが格納される。   On the other hand, the digital image data generated by the signal processing circuit 140 is also stored in the image analysis area (image analysis buffer) 103 b of the buffer memory 103. The image data stored in the image analysis buffer 103 b is used for face detection by the face detection circuit 120 and histogram creation by the histogram creation circuit 130. Note that it is not necessary to store all EVF image data in the image analysis buffer 103b, and a part of EVF image data corresponding to the period of face detection and histogram creation is stored.

顔検出回路120は、画像解析用バッファ103bに格納されている画像データに対して顔検出を行い、顔が検出された場合には、顔領域を特定可能な情報(例えば位置及び大きさ)を含んだ顔検出結果を出力する。   The face detection circuit 120 performs face detection on the image data stored in the image analysis buffer 103b. When a face is detected, information (for example, position and size) that can specify the face area is detected. The included face detection result is output.

ヒストグラム作成回路130は、画像解析用バッファ103bに格納されている画像データと、顔検出回路120からの顔検出結果とに基づいて、ヒストグラムを作成する。上述の通り、ヒストグラム作成回路130は、顔領域についての顔領域ヒストグラム130aと、画像全体を分割した領域画像ごとの分割領域ヒストグラム130bとを作成する。   The histogram creation circuit 130 creates a histogram based on the image data stored in the image analysis buffer 103 b and the face detection result from the face detection circuit 120. As described above, the histogram creation circuit 130 creates the face area histogram 130a for the face area and the divided area histogram 130b for each area image obtained by dividing the entire image.

分割領域ヒストグラム130bは、画像全体について、顔領域を含んだ領域画像毎に作成することも、顔領域を除外した領域画像毎に求めることもできる。前者は処理が容易であるが、白飛びしている領域が顔領域か背景領域かを精度良く検出するためには、後者が好ましい。   The divided region histogram 130b can be created for each region image including the face region for the entire image, or can be obtained for each region image excluding the face region. The former is easy to process, but the latter is preferable in order to accurately detect whether a whiteout region is a face region or a background region.

上述のように、表示部110をEVFとして機能させている間は、連続的に撮像が繰り返され、VRAMは短時間で書き換えられてしまう。一般に、顔検出やヒストグラムの作成に要する時間は、EVF画像の表示周期(例えば1/30秒)よりも長い。そのため、本実施形態では、VRAMの他に画像解析用バッファ103bを設け、画像解析用バッファ103bに格納されている画像データに対する顔検出およびヒストグラム作成が終了するまでは、画像解析用バッファ103bを更新しない。   As described above, while the display unit 110 is functioning as an EVF, imaging is continuously repeated, and the VRAM is rewritten in a short time. In general, the time required for face detection and histogram creation is longer than the EVF image display period (for example, 1/30 second). Therefore, in this embodiment, an image analysis buffer 103b is provided in addition to the VRAM, and the image analysis buffer 103b is updated until face detection and histogram creation for the image data stored in the image analysis buffer 103b are completed. do not do.

この構成により、同一EVF画像に対して顔検出及びヒストグラム作成を行うことが可能になり、画像解析を容易かつ高精度に行うことが可能となる。もちろん、EVF画像の各フレームに対して顔検出及びヒストグラム作成が可能であれば実行しても構わないが、一般にはフレーム毎に撮像シーンが大幅に変化する可能性は低いため、各フレームに対して実行しなくてもよい。そのため、システムコントローラ107の負荷を軽減することができる。   With this configuration, face detection and histogram creation can be performed on the same EVF image, and image analysis can be performed easily and with high accuracy. Of course, it may be performed if face detection and histogram creation are possible for each frame of the EVF image. However, since it is generally unlikely that the captured scene will change significantly from frame to frame, It is not necessary to execute. Therefore, the load on the system controller 107 can be reduced.

また、画像解析用バッファ103bに格納されている画像データは、リサイズ回路131によって縮小され、色評価値取得回路132で色評価値が取得される。
例えば、画像解析用バッファ103bに格納されている画像データがVGAサイズの画像に対応するとする。リサイズ回路131は、まず、横640画素、縦480画素のYUV 4:2;2画像データから、例えば横64画素、縦48画素のYUV 4:2:2画像データを生成する。その後、リサイズ回路131は、水平方向2画素、垂直方向2画素の4画素からなるブロックでYを平均化し、垂直方向の2画素でUVを平均化して、横32画素、縦24画素のYUV 4:4:4画像データを生成する。
なお、リサイズ回路131におけるリサイズ方法は、所定の複数画素単位での平均化、単純リサンプル、線形補間による間引き、バイキュービック補間など、他の方法を用いてもよい。
The image data stored in the image analysis buffer 103 b is reduced by the resizing circuit 131, and the color evaluation value acquisition circuit 132 acquires the color evaluation value.
For example, it is assumed that the image data stored in the image analysis buffer 103b corresponds to a VGA size image. The resizing circuit 131 first generates, for example, YUV 4: 2: 2 image data of horizontal 64 pixels and vertical 48 pixels from YUV 4: 2; 2 image data of horizontal 640 pixels and vertical 480 pixels. After that, the resizing circuit 131 averages Y in a block composed of 4 pixels of 2 pixels in the horizontal direction and 2 pixels in the vertical direction, averages the UV in 2 pixels in the vertical direction, and has a YUV 4 of 32 pixels in the horizontal direction and 24 pixels in the vertical direction. : 4: 4 Image data is generated.
Note that as the resizing method in the resizing circuit 131, other methods such as averaging in predetermined plural pixel units, simple resampling, thinning out by linear interpolation, bicubic interpolation, and the like may be used.

リサイズ回路131が生成した横32画素、縦24画素、YUV 4:4:4フォーマットの縮小画像データに対し、色評価値取得回路132は、ブロックごとに、色評価値として輝度情報Y、色相情報H、彩度情報Cを算出する。
色評価値取得回路132は、例えば以下の式によって色評価値を算出することができる。
Y=Y
C=√(U+V
H=tan−1(U/V)
For the reduced image data in the horizontal 32 pixels, vertical 24 pixels, and YUV 4: 4: 4 format generated by the resizing circuit 131, the color evaluation value acquisition circuit 132 performs luminance information Y and hue information as color evaluation values for each block. H and saturation information C are calculated.
The color evaluation value acquisition circuit 132 can calculate a color evaluation value by the following formula, for example.
Y = Y
C = √ (U 2 + V 2 )
H = tan −1 (U / V)

もちろん、色評価値はCIELabの色空間における評価値であっても、他の色空間における評価値であってもよい。また、色評価値の算出も、上記演算を行う数学ライブラリを用いて行ってもよいし、予め用意したルックアップテーブルを参照することにより擬似的に算出してもよい。
このようにして、画面全体を横32、縦24に分割したブロックごとに、色評価値として、輝度情報、色相情報及び彩度情報を取得可能である。
Of course, the color evaluation value may be an evaluation value in the color space of CIELab or an evaluation value in another color space. The color evaluation value may also be calculated using a mathematical library that performs the above-described calculation, or may be calculated in a pseudo manner by referring to a lookup table prepared in advance.
In this way, luminance information, hue information, and saturation information can be acquired as color evaluation values for each block obtained by dividing the entire screen into 32 and 24.

図9は、本実施形態の撮像装置におけるダイナミックレンジ拡大量(D+)の決定動作を説明するためのフローチャートである。
本実施形態では、EVF画像に対する顔検出結果及びヒストグラム作成結果に基づいて撮像画像における白飛び量を求め、白飛び量に応じてダイナミックレンジ拡大量を決定する。そして、EVF画像を用いて予め決定しておいたダイナミックレンジ拡大量を用いて、本撮像時の露出や感度を調整する。
FIG. 9 is a flowchart for explaining the operation of determining the dynamic range expansion amount (D +) in the imaging apparatus of the present embodiment.
In the present embodiment, the amount of whiteout in the captured image is obtained based on the face detection result and the histogram creation result for the EVF image, and the dynamic range expansion amount is determined according to the amount of whiteout. Then, the exposure and sensitivity at the time of actual imaging are adjusted using a dynamic range expansion amount determined in advance using the EVF image.

S201で、システムコントローラ107は、上述のように連続的に撮像を行い、EVF画像を生成させ、信号処理回路140から順次、表示用バッファ103aに格納させる。また、予め定めた周期で、EVF画像をバッファメモリ103の画像解析用領域(画像解析用バッファ)103bにも格納させる。   In step S201, the system controller 107 continuously captures images as described above, generates an EVF image, and sequentially stores the EVF image from the signal processing circuit 140 in the display buffer 103a. The EVF image is also stored in the image analysis area (image analysis buffer) 103b of the buffer memory 103 at a predetermined cycle.

S202で顔検出回路120は、画像解析用バッファ103bに格納されたEVF画像に対して顔検出を行う。
顔検出に成功した場合(S203,Y)、ヒストグラム作成回路130は、顔検出回路120からの顔検出結果に基づいてEVF画像の顔領域から顔領域ヒストグラムを作成する(S204)。
S205で、白飛び量算出手段としてのシステムコントローラ107は、顔領域のヒストグラムから、顔領域の白飛び量を算出する。
In S202, the face detection circuit 120 performs face detection on the EVF image stored in the image analysis buffer 103b.
When the face detection is successful (S203, Y), the histogram creation circuit 130 creates a face area histogram from the face area of the EVF image based on the face detection result from the face detection circuit 120 (S204).
In step S <b> 205, the system controller 107 serving as a whiteout amount calculation unit calculates a whiteout amount of the face area from the histogram of the face area.

顔検出に失敗した場合(S203,N)および、顔領域の白飛び量の算出後、S206で、ヒストグラム作成回路130は、EVF画像全体を分割した領域画像ごとの分割領域ヒストグラムを作成する。ここでは一例として、EVF画像全体を縦横4等分した16の分割領域ごとに分割領域ヒストグラムを作成するものとする。   When face detection fails (S203, N), and after calculating the amount of whiteout in the face area, in S206, the histogram creation circuit 130 creates a divided area histogram for each area image obtained by dividing the entire EVF image. Here, as an example, a divided region histogram is created for each of 16 divided regions obtained by dividing the entire EVF image into four equal parts.

S207で、システムコントローラ107は、分割領域ヒストグラムからEVF画像全体における白飛び量を算出する。
S208で、ダイナミックレンジ拡大量決定手段としてのシステムコントローラ107は、少なくともS207で求めた画像全体における白飛び量に基づいて、ダイナミックレンジ拡大量を決定する。
In step S207, the system controller 107 calculates the amount of whiteout in the entire EVF image from the divided region histogram.
In step S208, the system controller 107 serving as a dynamic range expansion amount determination unit determines a dynamic range expansion amount based on at least the amount of whiteout in the entire image obtained in step S207.

次に、図9のS205及びS207でシステムコントローラ107が行う白飛び量の算出処理の具体例を説明する。
まず、顔領域の白飛び量の算出処理について説明する。
S205で、システムコントローラ107は、S204で作成された顔領域ヒストグラムから、顔領域の白飛び量として、累積ヒストグラムの累積頻度が所定値(図7の例では90%)となる輝度値YHiFaceを算出する。
Next, a specific example of the whiteout amount calculation process performed by the system controller 107 in S205 and S207 of FIG. 9 will be described.
First, the calculation process of the amount of whiteout in the face area will be described.
In step S205, the system controller 107 calculates a luminance value YHiFace from which the cumulative frequency of the cumulative histogram becomes a predetermined value (90% in the example of FIG. 7) as the amount of whiteout in the face region from the face region histogram created in S204. To do.

そして、S208で、システムコントローラ107は、顔領域の白飛び量YHiFaceの値と、予め定めたしきい値との大小関係に応じて、顔領域のダイナミックレンジ拡大量(D+(顔))を決定する。   In step S208, the system controller 107 determines the dynamic range expansion amount (D + (face)) of the face area according to the magnitude relationship between the value of the whiteout amount YHiFace of the face area and a predetermined threshold value. To do.

具体的には、例えば、予め定めたしきい値を、大きい値から順にTHHiFace、THMidFace、THLowFaceの3段階とすると、
D+(顔)=補正レベル1段 (YHiFace>THHiFaceの場合)
D+(顔)=補正レベル2/3段 (THHiFace≧YHiFace>THMidFaceの場合)
D+(顔)=補正レベル1/3段 (THMidFace≧YHiFace>THLowFaceの場合)
D+(顔)=補正レベル0段 (THLowFace≧YHiFaceの場合)
と決定する。
Specifically, for example, when the predetermined threshold is set in three stages of THHiFace, THMidFace, and THLowFace in descending order,
D + (face) = 1 correction level (when YHiFace> THHiFace)
D + (face) = correction level 2/3 stage (when THHiFace ≧ YHiFace> THMidFace)
D + (face) = correction level 1/3 step (when THMidFace ≧ YHiFace> THLowFace)
D + (face) = correction level 0 stage (when THLowFace ≧ YHiFace)
And decide.

またS206で、システムコントローラ107は、S206で作成された分割領域ヒストグラムの各々について、部分領域の白飛び量として、累積ヒストグラムの累積頻度が所定値(図7の例では80%)となる輝度値YHi_n(nは1〜分割数。図7の例では16)を算出する。   In S206, the system controller 107 determines the luminance value at which the cumulative frequency of the cumulative histogram is a predetermined value (80% in the example of FIG. 7) as the amount of whiteout in the partial region for each of the divided region histograms created in S206. YHi_n (n is 1 to the number of divisions, 16 in the example of FIG. 7) is calculated.

S207で、システムコントローラ107は、輝度値YHi_nが、予め定められたしきい値Y_B_Thを超えた領域の数YH_BNumをカウントする。そして、システムコントローラ107は、領域の数YH_BNumと、予め定めたしきい値(との大小関係に応じて、画像全体のダイナミックレンジ拡大量(D+(背景))を決定する。   In S207, the system controller 107 counts the number YH_BNum of regions where the luminance value YHi_n exceeds a predetermined threshold Y_B_Th. Then, the system controller 107 determines the dynamic range expansion amount (D + (background)) of the entire image in accordance with the size relationship between the number of regions YH_BNum and a predetermined threshold value.

具体的には、例えば、予め定めたしきい値を、大きい値から順にThYH_BNum6〜ThYH_BNum0とすると、

D+(背景)=補正レベル6/3段 (YH_BNum>ThYH_BNum6の場合)
D+(背景)=補正レベル5/3段 (ThYH_BNum6≧YH_BNum>ThYH_BNum5の場合)
D+(背景)=補正レベル4/3段 (ThYH_BNum5≧YH_BNum>ThYH_BNum4の場合)
D+(背景)=補正レベル3/3段 (ThYH_BNum4≧YH_BNum>ThYH_BNum3の場合)
D+(背景)=補正レベル2/3段 (ThYH_BNum3≧YH_BNum>ThYH_BNum2の場合)
D+(背景)=補正レベル1/3段 (ThYH_BNum2≧YH_BNum>ThYH_BNum1の場合)
D+(背景)=補正レベル0段 (ThYH_BNum1≧YH_BNumの場合)
と決定する。
Specifically, for example, if the predetermined threshold value is ThYH_BNum6 to ThYH_BNum0 in order from the largest value,

D + (background) = correction level 6/3 stage (if YH_BNum> ThYH_BNum6)
D + (background) = correction level 5/3 stage (when ThYH_BNum6 ≧ YH_BNum> ThYH_BNum5)
D + (background) = correction level 4/3 stage (when ThYH_BNum5 ≧ YH_BNum> ThYH_BNum4)
D + (background) = correction level 3/3 stage (when ThYH_BNum4 ≧ YH_BNum> ThYH_BNum3)
D + (background) = correction level 2/3 stage (when ThYH_BNum3 ≧ YH_BNum> ThYH_BNum2)
D + (background) = correction level 1/3 stage (when ThYH_BNum2 ≧ YH_BNum> ThYH_BNum1)
D + (background) = correction level 0 stage (when ThYH_BNum1 ≧ YH_BNum)
And decide.

つまり、システムコントローラ107は、画像中の白飛び領域の面積が多いほど、大きなダイナミックレンジ拡大量を決定する。
なお、白飛び領域の決定方法はここで説明した累積ヒストグラムを用いた手法に限定されず、他の任意の手法を用いることができる。
That is, the system controller 107 determines a larger dynamic range expansion amount as the area of the whiteout region in the image is larger.
Note that the method for determining the whiteout region is not limited to the method using the cumulative histogram described here, and any other method can be used.

S208で、システムコントローラ107は、最終的なダイナミックレンジ拡大量を決定する。ここで、顔検出が成功している場合、ダイナミックレンジ拡大量決定手段としてのシステムコントローラ107は、S205およびS207で決定したダイナミックレンジ拡大量を比較して、最終的なダイナミックレンジ拡大量を決定する。例えば、システムコントローラ107は、顔領域のダイナミックレンジ拡大量と画像全体のダイナミックレンジ拡大量のうち、拡大量が大きいほうを最終的なダイナミックレンジ拡大量として決定することができる。   In step S208, the system controller 107 determines a final dynamic range expansion amount. Here, when the face detection is successful, the system controller 107 as the dynamic range expansion amount determination unit compares the dynamic range expansion amounts determined in S205 and S207 to determine the final dynamic range expansion amount. . For example, the system controller 107 can determine the larger dynamic range expansion amount as the final dynamic range expansion amount among the dynamic range expansion amount of the face area and the dynamic range expansion amount of the entire image.

あるいは、操作部112に含まれるモードダイヤルなどにより設定されている撮像モードに応じて顔領域のダイナミックレンジ拡大量と画像全体のダイナミックレンジ拡大量の一方を最終的なダイナミックレンジ拡大量として決定してもよい。例えば、人物の撮像モード(例えばポートレートモード)の場合には、顔領域のダイナミックレンジ拡大量を最終的なダイナミックレンジ拡大量として決定することができる。また、風景の撮像モード(例えば風景モード)の場合には、画像全体または背景領域のダイナミックレンジ拡大量をそれぞれ最終的なダイナミックレンジ拡大量として決定することができる。   Alternatively, one of the dynamic range expansion amount of the face area and the dynamic range expansion amount of the entire image is determined as the final dynamic range expansion amount according to the imaging mode set by the mode dial included in the operation unit 112. Also good. For example, in the case of a human imaging mode (for example, portrait mode), the dynamic range expansion amount of the face area can be determined as the final dynamic range expansion amount. In the landscape imaging mode (for example, landscape mode), the dynamic range expansion amount of the entire image or the background area can be determined as the final dynamic range expansion amount.

また、シーン判定結果に応じてダイナミックレンジ拡大量を制御してもよい。たとえば逆光判別時は背景領域のダイナミックレンジ拡大量を2段(6/3段)まで拡大し、それ以外は1段(3/3段)までに止めるようにしてもよい。   Further, the dynamic range expansion amount may be controlled according to the scene determination result. For example, at the time of backlight discrimination, the dynamic range expansion amount of the background area may be expanded to 2 steps (6/3 steps), and otherwise, it may be stopped to 1 step (3/3 steps).

また、顔領域のダイナミックレンジ拡大量と画像全体のダイナミックレンジ拡大量の一方を選択して最終的なダイナミックレンジ拡大量として決定する以外の方法を採用してもよい。例えば、顔領域のダイナミックレンジ拡大量と画像全体のダイナミックレンジ拡大量の大きさに応じて最終的なダイナミックレンジ拡大量を決定することもできる。   Further, a method other than selecting one of the dynamic range expansion amount of the face area and the dynamic range expansion amount of the entire image and determining the final dynamic range expansion amount may be employed. For example, the final dynamic range expansion amount can be determined according to the dynamic range expansion amount of the face area and the dynamic range expansion amount of the entire image.

図10は、顔領域のダイナミックレンジ拡大量と画像全体のダイナミックレンジ拡大量の大きさに応じて最終的に決定するダイナミックレンジ拡大量の具体例を示す図である。
図10(a)〜(c)に示す例では、撮像モード毎に、最終的に決定されるダイナミックレンジ拡大量の値を変えている。例えば、顔領域のダイナミックレンジ拡大量が1/3段、画像全体のダイナミックレンジ拡大量が0/3段の場合、最終的なダイナミックレンジ拡大量は、
Autoモード(図10(a)) :1/3段
ポートレートモード(図10(c)):1/3段、
風景モード(図10(b)) :0/3段である。
FIG. 10 is a diagram illustrating a specific example of the dynamic range expansion amount finally determined according to the dynamic range expansion amount of the face area and the dynamic range expansion amount of the entire image.
In the examples shown in FIGS. 10A to 10C, the value of the dynamic range expansion amount finally determined is changed for each imaging mode. For example, when the dynamic range expansion amount of the face area is 1/3 step and the dynamic range expansion amount of the entire image is 0/3 step, the final dynamic range expansion amount is
Auto mode (FIG. 10A): 1/3 stage Portrait mode (FIG. 10C): 1/3 stage
Landscape mode (FIG. 10B): 0/3 stage.

なお、図10(a)〜(c)に示す例では、背景領域のダイナミックレンジ拡大量は1段分(3/3段分)までとなっている。
図10(d)は、シーン判定結果に応じて最終的に決定されるダイナミックレンジ拡大量の範囲を変更する例を示している。この例では、逆光シーンであることが判別された場合には、顔領域のダイナミックレンジ拡大量は3/3段までで変化がないが、背景領域のダイナミックレンジ拡大量が6/3段まで拡張されている。
In the example shown in FIGS. 10A to 10C, the dynamic range expansion amount of the background region is up to one stage (3/3 stage).
FIG. 10D shows an example in which the range of the dynamic range expansion amount finally determined according to the scene determination result is changed. In this example, when it is determined that the scene is a backlight scene, the dynamic range expansion amount of the face area is unchanged up to 3/3 step, but the dynamic range expansion amount of the background region is expanded to 6/3 step. Has been.

システムコントローラ107は、以上のように決定したダイナミックレンジ拡大量をバッファメモリ103に格納し、本撮像時に参照する。ダイナミックレンジ拡大量の決定動作は、スタンバイ時において、例えばEVF画像の一定フレーム毎、あるいは一定時間毎に行うことができ、バッファメモリ103には最新のダイナミックレンジ拡大量が格納される。   The system controller 107 stores the dynamic range expansion amount determined as described above in the buffer memory 103, and refers to it during actual imaging. The determination operation of the dynamic range expansion amount can be performed at the time of standby, for example, every fixed frame or every fixed time of the EVF image, and the buffer memory 103 stores the latest dynamic range expansion amount.

(シーン判定)
次に、本実施形態の撮像装置におけるシーン判定動作について説明する。
本実施形態の撮像装置が判定するシーンに特に制限はないが、ここでは例示として、人物の有無、夜景シーン、青空シーン、夕景シーン、逆光シーン、及びマクロ撮影の判定動作について説明する。
本実施形態において、シーン判定は、
・測光センサや撮像画像から得られる被写体輝度(Bv値)などの露出情報、
・オートフォーカス動作で得られる被写体距離情報、
・ホワイトバランス制御によって得られる色温度情報、
・色評価値取得回路132によって得られるブロックごとの色評価値、
・ヒストグラム作成回路130によって得られるヒストグラム、
・姿勢センサ133の出力から得られる撮像素子の姿勢情報、
に基づいて、システムコントローラ107が実行する。
(Scene judgment)
Next, a scene determination operation in the imaging apparatus according to the present embodiment will be described.
Although there is no particular limitation on the scene determined by the imaging apparatus of the present embodiment, here, as an example, the determination operation of presence / absence of a person, night scene, blue sky scene, sunset scene, backlight scene, and macro shooting will be described.
In this embodiment, the scene determination is
Exposure information such as subject brightness (Bv value) obtained from a photometric sensor or a captured image;
・ Subject distance information obtained by autofocus operation,
・ Color temperature information obtained by white balance control,
A color evaluation value for each block obtained by the color evaluation value acquisition circuit 132;
A histogram obtained by the histogram creation circuit 130,
Image sensor attitude information obtained from the output of the attitude sensor 133;
Based on the above, the system controller 107 executes.

(夜景判定)
以下の条件(A1)から(A3)のすべてを満たした場合、夜景であると判定する。
(A1) Bv値が0[EV]以下
(A2) ブロックごとの色評価値から算出される、画像全体の平均輝度値が所定の値以下
(A3) 画像の上から所定の範囲内に、色評価値から得られる平均輝度、平均彩度が以下の条件を満たすブロックが所定割合以上存在する
平均輝度が所定値Y_Th_night以下
平均彩度が所定値C_Th_night以下
なお、画像の上下は、姿勢センサ133の出力に基づいて判定することができる。
また、条件をBv値の範囲によって可変してもよい。
さらに、三脚の装着有無を考慮してもよい。三脚の装着有無は、撮像装置が手ぶれ補正用の振動検出センサを内蔵している場合には、振動検出センサの出力から判定できる。また、撮像画像内の被写体の動きに基づいて判定してもよい。三脚の装着が判定される場合には、通常の夜景とは別に、三脚夜景シーンと判定してもよい。
そして、例えば、三脚夜景で人物がいない場合には、手ぶれや被写体ぶれの心配が少ないため、感度を下げて長秒時露光をするような露出制御を行ってもよい。
また、三脚夜景で人物ありの場合には、顔領域および背景の明るさが最適になるよう、露出およびフラッシュ調光の制御をすることが望ましい。
また、長秒時露光を行うことで、黒が浮きやすくなり、ノイズも増加しやすいため、ダーク部分の階調特性をつぶす(低い階調レベルに抑える)ようにすることでより好ましい画像が得られる。
(Night scene judgment)
When all of the following conditions (A1) to (A3) are satisfied, the night scene is determined.
(A1) Bv value is 0 [EV] or less (A2) The average luminance value of the entire image is less than or equal to a predetermined value calculated from the color evaluation value for each block (A3) A color within a predetermined range from the top of the image The average brightness obtained from the evaluation value and the average saturation are present at a predetermined ratio or more. The average brightness is the predetermined value Y_Th_night or less. The average saturation is the predetermined value C_Th_night or less. A determination can be made based on the output.
Further, the condition may be varied depending on the range of the Bv value.
Further, whether or not a tripod is attached may be considered. Whether or not the tripod is mounted can be determined from the output of the vibration detection sensor when the imaging apparatus includes a vibration detection sensor for correcting camera shake. Alternatively, the determination may be made based on the movement of the subject in the captured image. When it is determined that the tripod is mounted, it may be determined that the tripod night scene is different from the normal night scene.
For example, when there is no person on a tripod night view, there is less concern about camera shake and subject blur, so exposure control may be performed such that exposure is reduced for a long time with reduced sensitivity.
In addition, when there is a person on a tripod night view, it is desirable to control exposure and flash light control so that the brightness of the face area and the background is optimized.
In addition, exposure to long seconds makes it easier for black to float and noise to increase. Therefore, it is possible to obtain a more favorable image by reducing the gradation characteristics of dark parts (suppressing the gradation level to a low level). It is done.

(青空判定)
以下の条件(B1)から(B4)のすべてを満たした場合、青空と判定する。
(B1) Bv値が5[EV]以上
(B2) 撮影時の被写体距離が所定値以上(マクロ撮影でないこと)
(B3) 色温度が所定の色温度の範囲
(B4) 画像の上から所定の範囲内に、色評価値から得られる平均輝度、平均色相および平均彩度が以下の条件を満たすブロックが所定の割合以上存在する
平均輝度が所定範囲内(Y_Th_Sky_Low以上,Y_Th_Sky_Hi以下)
平均色相が所定範囲内(Hue_Th_Sky_Low以上、Hue_Th_Sky_Hi以上)
平均彩度が所定範囲内(C_Th_Sky_Low以上、C_Th_Sky_Hi以下)
また、各条件を、Bv値の範囲によって可変してもよい。
例えば、青空で人物なしの場合には、風景写真である確率が高いと考えられる。そのため、青色やその他の色などの全体の彩度を強調し、コントラストを上げるような処理を行うとより好ましい画像が得られる。
また、青空で人物ありの場合には、風景スナップ写真である確率が高い。そのため、青色の彩度を強調しつつも肌色付近の彩度強調は控えめし、顔の露出及び階調が最適になるようなAEおよび階調特性設定を行うと好ましい画像が得られる。
(Blue sky judgment)
When all of the following conditions (B1) to (B4) are satisfied, it is determined as a blue sky.
(B1) Bv value is 5 [EV] or more (B2) Subject distance at the time of shooting is a predetermined value or more (not macro shooting)
(B3) The color temperature is in a predetermined color temperature range (B4) A block satisfying the following conditions in the average luminance, average hue, and average saturation obtained from the color evaluation value is within a predetermined range from the top of the image. Exceeded percentage The average brightness is within the specified range (Y_Th_Sky_Low or higher, Y_Th_Sky_Hi or lower)
Average hue is within the specified range (Hue_Th_Sky_Low or higher, Hue_Th_Sky_Hi or higher)
Average saturation is within the specified range (C_Th_Sky_Low or higher, C_Th_Sky_Hi or lower)
Each condition may be varied according to the range of the Bv value.
For example, when there is no person in the blue sky, it is considered that the probability of being a landscape photograph is high. For this reason, it is possible to obtain a more preferable image by performing a process of enhancing the overall saturation of blue and other colors and increasing the contrast.
If there is a person in the blue sky, there is a high probability that it is a landscape snapshot. Therefore, it is possible to obtain a preferable image by emphasizing the saturation in the vicinity of the skin color while emphasizing the saturation of blue, and performing the AE and the gradation characteristic setting so that the exposure and gradation of the face are optimized.

(夕景判定)
以下の条件(C1)から(C7)のすべてを満たした場合、夕景と判定する。
(C1) Bv値が7[EV]以上
(C2) 撮影時の被写体距離が所定値以上(マクロ撮影でないこと)
(C3) 色評価値から算出される画像全体の平均輝度値が所定値以下
(C4) 平均輝度が所定値以上の高輝度のブロックが所定の割合以上存在する
(C5) 色評価値から得られる平均輝度、平均色相および平均彩度が以下の条件を満たすブロックが所定の割合以上存在する
平均輝度が所定範囲内(Y_Th_Sunset_Low以上,Y_Th_Sunset_Hi以下)
平均色相が所定範囲内(Hue_Th_Sunset_Low以上、Hue_Th_Sunset_Hi以下)
平均彩度が所定範囲内(C_Th_Sunset_Low以上、C_Th_Sunset_Hi以下)
(C6) 以下の条件を一つも満たさないブロックの数が所定値以下であること
夕景判定の(C5)の条件
青空判定の(B4)の条件
平均彩度が所定値以下
平均輝度が所定値以上(高輝度ブロック)
平均輝度が所定値以下(低輝度ブロック)
(C7) 色評価値における色相や彩度のヒストグラムが所定値以上の分散を持つ
また、各条件を、Bv値の範囲によって可変してもよい。色評価値に基づいてスミア領域を除去するようにしてもよい。
夕景と判定された場合、赤・オレンジ系の色の彩度強調や、曇りなどの高色温度方向のWB設定を行うとともに、やや露出アンダーとするAE制御を行うとより好ましい画像が得られる。
(Evening judgment)
When all of the following conditions (C1) to (C7) are satisfied, the scene is determined to be an evening scene.
(C1) Bv value is 7 [EV] or more (C2) The subject distance at the time of shooting is a predetermined value or more (not macro shooting)
(C3) The average luminance value of the entire image calculated from the color evaluation value is less than or equal to a predetermined value (C4) There are more than a predetermined ratio of high luminance blocks whose average luminance is a predetermined value or more (C5) Obtained from the color evaluation value Blocks that satisfy the following conditions for average luminance, average hue, and average saturation exist in a predetermined ratio or more: Average luminance is within a predetermined range (Y_Th_Sunset_Low or higher, Y_Th_Sunset_Hi or lower)
Average hue is within the specified range (Hue_Th_Sunset_Low or higher, Hue_Th_Sunset_Hi or lower)
Average saturation is within the specified range (C_Th_Sunset_Low or higher, C_Th_Sunset_Hi or lower)
(C6) The number of blocks that do not satisfy any of the following conditions is equal to or less than a predetermined value. The condition of (C5) for evening scene determination. The condition of (B4) for blue sky determination. The average saturation is equal to or less than a predetermined value. (High brightness block)
Average brightness is below the specified value (low brightness block)
(C7) The hue or saturation histogram in the color evaluation value has a variance greater than or equal to a predetermined value. Each condition may be varied according to the range of the Bv value. The smear area may be removed based on the color evaluation value.
If it is determined that the scene is an evening scene, a more preferable image can be obtained by performing saturation enhancement of red / orange colors, WB setting in a high color temperature direction such as cloudiness, and performing AE control with slightly underexposure.

(逆光判定)
(1)顔が検出されている場合
顔領域に対応するブロックの色評価値から求めた平均輝度と、他のブロックの色評価値から求めた平均輝度値との差が所定EV値以上の場合、人物あり逆光と判定する。
(2)顔が検出されていない場合
AEが一定期間収束した場合、図15に示すように、画像全体を外周から順にA−Dの4種類の領域に分割し、それぞれの領域に対応するブロックの色評価値から、領域ごとの平均輝度値を算出する。
領域Aの平均輝度値と、領域B−Dのそれぞれの平均輝度値とを比較し、所定EV値以上の差が検出された場合、人物なし逆光と判定する。
ここで述べた方法以外にも、CCDRAW画像をブロック分割して得られる輝度情報を用いてもよいし、ヒストグラムの情報を使用してもよい。
本実施形態における逆光判定は、輝度の2次元的なパターンを検出しており、白飛びの検出で行ったような、ブロックや領域ごとの輝度の白飛びの程度を検出とは異なる。したがって、逆光判定と白飛び検出とは異なる処理である。
しかしながら、逆光判定されたシーンは、高輝度部分の階調つぶれが生じる可能性が高いと考えられるので、逆光判定された場合にはダイナミックレンジ拡大量をより大きく設定することで、より好ましい画像を得ることができる。
(Backlight judgment)
(1) When a face is detected When the difference between the average luminance value obtained from the color evaluation value of the block corresponding to the face area and the average luminance value obtained from the color evaluation value of another block is equal to or greater than the predetermined EV value It is determined that there is a person and backlight.
(2) When no face is detected When AE converges for a certain period, as shown in FIG. 15, the entire image is divided into four types of areas A to D in order from the outer periphery, and blocks corresponding to the respective areas. The average luminance value for each region is calculated from the color evaluation value.
The average luminance value of the area A is compared with the average luminance values of the areas BD, and when a difference equal to or greater than a predetermined EV value is detected, it is determined that there is no person backlight.
In addition to the method described here, luminance information obtained by dividing a CCDRAW image into blocks may be used, or histogram information may be used.
The backlight determination in the present embodiment detects a two-dimensional pattern of brightness, and is different from the detection of the degree of brightness whiteout for each block or area, as performed in the detection of whiteout. Therefore, the backlight determination and the whiteout detection are different processes.
However, scenes that have been determined to be backlit are considered to have a high possibility of gradation loss in high-luminance portions, so if a backlit determination is made, a more preferable image can be obtained by setting a larger dynamic range expansion amount. Obtainable.

(マクロ判定)
マクロ撮影かどうかは、合焦した被写体距離に基づいて判定することができる。被写体距離は、例えばフォーカスレンズの位置から、あらかじめ設定されている対応表を参照して得ることができる。被写体距離が所定値以下の場合、マクロ撮影であると判定とする。
近距離でストロボ撮影を行うと白飛びを起こす可能性が高いため、マクロ撮影と判定された場合にはなるべくストロボを発光させないように露出制御することが望ましい。また、ストロボ撮影した場合には、信号処理回路140で高輝度部分を寝かせた諧調特性を用いるように設定して、ハイライト部分の階調が飽和しにくくなるようにしてもよい。
(Macro judgment)
Whether it is macro photography can be determined based on the focused subject distance. The subject distance can be obtained by referring to a preset correspondence table from the position of the focus lens, for example. When the subject distance is equal to or smaller than a predetermined value, it is determined that the macro photography is performed.
If the flash photography is performed at a short distance, there is a high possibility of overexposure. Therefore, it is desirable to control the exposure so that the flash is not emitted as much as possible when it is determined to be macro photography. In addition, when the flash photography is performed, the tone processing characteristic in which the high luminance part is laid down is used in the signal processing circuit 140 so that the gradation of the highlight part is not easily saturated.

図14は、本実施形態の撮像装置における本撮像処理の動作を説明するフローチャートである。
なお、撮像スタンバイ時において、システムコントローラ107は、EVF画像から上述した方法によりダイナミックレンジ拡大量を例えば一定周期で決定しているものとする。本実施形態ではダイナミックレンジ拡大量(AE目標値の低減量)を1/3段単位で0/3段から3/3段までの4段階で決定可能であるとする。なお、ダイナミックレンジ拡大量の範囲および1段階あたりの大きさは任意に設定することが可能である。また、システムコントローラ107は、例えば、操作部112に含まれるシャッターボタンが半押しされ、撮像準備指示が入力されると、EVF画像とAF制御およびAE制御の結果を用いて、上述したシーン判定処理を実行する。
FIG. 14 is a flowchart for explaining the operation of the main imaging process in the imaging apparatus of the present embodiment.
Note that, at the time of imaging standby, the system controller 107 determines the dynamic range expansion amount from the EVF image by the above-described method, for example, at a constant cycle. In this embodiment, it is assumed that the dynamic range expansion amount (AE target value reduction amount) can be determined in four steps from 0/3 step to 3/3 step in units of 1/3 step. The range of the dynamic range expansion amount and the size per stage can be arbitrarily set. Further, for example, when the shutter button included in the operation unit 112 is pressed halfway and an imaging preparation instruction is input, the system controller 107 uses the EVF image and the results of AF control and AE control to perform the scene determination process described above. Execute.

そして、撮像スタンバイ時において、操作部112に含まれるシャッターボタンが全押しされ、撮像開始指示が入力されたことに応答して、以下の処理を撮像制御手段としてのシステムコントローラ107が開始する。   Then, at the time of imaging standby, in response to the shutter button included in the operation unit 112 being fully pressed and an imaging start instruction being input, the system controller 107 as imaging control means starts the following processing.

S400で、システムコントローラ107は、シーン判定の結果、夕景と判定されたかどうか判断する。夕景と判定された場合、システムコントローラ107は、S408で夕景用の露出補正量を算出し、ダイナミックレンジ拡大量の算出は行わない。一方、夕景と判定されていない場合は、システムコントローラ107は、S401で、撮像開始指示が入力される直前に決定されたダイナミックレンジ拡大量をバッファメモリ103から取得する。   In step S <b> 400, the system controller 107 determines whether it is determined as a sunset scene as a result of the scene determination. If it is determined that the scene is an evening scene, the system controller 107 calculates an exposure correction amount for the evening scene in S408, and does not calculate the dynamic range expansion amount. On the other hand, if it is not determined to be a sunset scene, the system controller 107 acquires the dynamic range expansion amount determined immediately before the imaging start instruction is input from the buffer memory 103 in S401.

S402でシステムコントローラ107は、取得したダイナミックレンジ拡大量、すなわちAE目標値の低減量が、AFE回路150における感度調整(CDSゲイン回路およびVGAゲイン回路の制御)により実現可能であるか否か判定する。この判定は、AFE回路150で調整可能な感度の範囲とS401で取得したダイナミックレンジ拡大量とを比較して行うことができる。ダイナミックレンジ拡大量に相当する感度の低減(ゲインの低減)ができない場合、システムコントローラ107は、AFE回路150での感度調整のみではダイナミックレンジ拡大量を実現できないと判断する。   In step S <b> 402, the system controller 107 determines whether the acquired dynamic range expansion amount, that is, the reduction amount of the AE target value can be realized by sensitivity adjustment (control of the CDS gain circuit and the VGA gain circuit) in the AFE circuit 150. . This determination can be made by comparing the sensitivity range adjustable by the AFE circuit 150 with the dynamic range expansion amount acquired in S401. If the sensitivity corresponding to the dynamic range expansion amount cannot be reduced (gain reduction), the system controller 107 determines that the dynamic range expansion amount cannot be realized only by sensitivity adjustment in the AFE circuit 150.

AFE回路150における感度調整でダイナミックレンジ拡大量を実現可能な場合、補正量決定手段としてのシステムコントローラ107は、S404で、ゲイン設定を撮像条件として算出する。なお、CDSゲインとVGAゲインとをどのように組み合わせて設定するかには特に制限はなく、任意の組み合わせで設定可能である。   When the dynamic range expansion amount can be realized by sensitivity adjustment in the AFE circuit 150, the system controller 107 as the correction amount determination unit calculates the gain setting as an imaging condition in S404. Note that there is no particular limitation on how the CDS gain and the VGA gain are set in combination, and any combination can be set.

一方、AFE回路150での感度調整だけではダイナミックレンジ拡大量を実現できないと判断される場合、システムコントローラ107はAFE回路150で可能なゲイン制御を行っても依然として不足するゲイン量に基づいて、露出条件を変更する(S405)。具体的には、システムコントローラ107は、不足するゲイン量を実現するための露出補正量を算出する。
ここでの露出補正はマイナス補正であり、絞りを小さくする、シャッター速度を早くする、減光フィルタ(NDフィルタ)を挿入するといった、一般的な方法によって実現することができる。
On the other hand, when it is determined that the dynamic range expansion amount cannot be realized only by the sensitivity adjustment in the AFE circuit 150, the system controller 107 performs exposure based on the gain amount that is still insufficient even if the AFE circuit 150 performs the gain control that is possible. The condition is changed (S405). Specifically, the system controller 107 calculates an exposure correction amount for realizing an insufficient gain amount.
The exposure correction here is a minus correction, and can be realized by a general method such as reducing the aperture, increasing the shutter speed, or inserting a neutral density filter (ND filter).

S406でシステムコントローラ107は、S405で算出した露出補正が可能か否かを判定する。例えば、NDフィルタを持たない撮像装置では、自動露出制御により、シャッター速度が最高速度に、かつ絞りが最小(絞り値が最大)に既に設定されている場合、露出をマイナス補正することはできない。また、フラッシュ撮像時において、同調可能な最高シャッター速度に設定されている場合には、シャッター速度を上げることはできない。その他、シャッター速度の上限が決定されている場合なども同様である。なお、絞り優先AEモードであれば、ユーザが設定した絞り値を変えないことが好ましいので、既にシャッター速度が最高速であれば、マイナス補正できないとの判定になることもある。シャッター速度優先AEモードであっても同様である。   In step S406, the system controller 107 determines whether the exposure correction calculated in step S405 is possible. For example, in an imaging apparatus that does not have an ND filter, the exposure cannot be negatively corrected when the shutter speed is already set to the maximum speed and the aperture is set to the minimum (the aperture value is maximum) by automatic exposure control. Also, when the maximum shutter speed that can be tuned is set during flash imaging, the shutter speed cannot be increased. The same applies to the case where the upper limit of the shutter speed is determined. In the aperture priority AE mode, it is preferable that the aperture value set by the user is not changed. Therefore, if the shutter speed is already the highest speed, it may be determined that minus correction cannot be performed. The same applies to the shutter speed priority AE mode.

ゲイン調整での不足分に相当する露出のマイナス補正ができないと判定される場合、システムコントローラ107は、S407で、ダイナミックレンジ拡大量を、感度調整および露出補正によって実現可能な最大な値に補正する。そして、システムコントローラ107は、AFE回路150に設定するゲイン量と、必要に応じてさらに露出補正量を算出する。   If it is determined that the negative exposure correction corresponding to the insufficient gain adjustment cannot be performed, the system controller 107 corrects the dynamic range expansion amount to the maximum value that can be realized by sensitivity adjustment and exposure correction in S407. . Then, the system controller 107 calculates a gain amount set in the AFE circuit 150 and an exposure correction amount as necessary.

S409で、システムコントローラ107は、AFE回路150のCDSゲイン回路152およびVGAゲイン回路154に、撮像条件としてのゲイン量を設定する。また、露出補正を行う場合には、AE結果に応じた露出パラメータ(シャッター速度、絞り値、NDフィルタの使用有無の設定など)を、露出補正量に応じて変更し、やはり撮像条件としてレンズ装置200に設定する。   In step S409, the system controller 107 sets a gain amount as an imaging condition in the CDS gain circuit 152 and the VGA gain circuit 154 of the AFE circuit 150. When performing exposure correction, the exposure parameters (shutter speed, aperture value, use / non-use filter setting, etc.) corresponding to the AE result are changed according to the exposure correction amount, and the lens apparatus is also used as the imaging condition. Set to 200.

S410でシステムコントローラ107は、静止画撮像(本露光)を行う。
S411でシステムコントローラ107は、本露光前の処理で、ダイナミックレンジが拡大されているかどうか判別する。ここでは、システムコントローラ107は、ダイナミックレンジの拡大量が0段である場合と、S400で夕景と判定された場合には、ダイナミックレンジが拡大されていないと判別する。
S412でシステムコントローラ107は、本露光前のシーン判定処理の結果、夜景と判定されたかどうか判断する。夜景と判定されている場合、S415でダイナミックレンジ拡大量に応じた夜景用階調特性の選択を行う。夜景判定されていない場合には、S413で本露光用の画像からヒストグラムを算出し、S414でダイナミックレンジの縮小量(D−量)を決定する。
In step S410, the system controller 107 performs still image shooting (main exposure).
In step S411, the system controller 107 determines whether the dynamic range has been expanded in the process before the main exposure. Here, the system controller 107 determines that the dynamic range has not been expanded when the amount of expansion of the dynamic range is zero and when it is determined to be a sunset scene in S400.
In step S412, the system controller 107 determines whether the scene is determined to be a night view as a result of the scene determination process before the main exposure. If it is determined that the scene is a night scene, the gradation characteristic for night scene is selected according to the dynamic range expansion amount in S415. If the night scene is not determined, a histogram is calculated from the main exposure image in S413, and the reduction amount (D-amount) of the dynamic range is determined in S414.

図16は、夜景判定された時に選択する階調特性の例を示す。図示したように、通常の階調特性に対し、暗部の特性をつぶす(入力輝度値の増加割合に対して出力輝度の増加割合を低くする)ことで、暗部におけるノイズを目立たなくすることができ、夜景撮影時の画像として黒が締まった好ましい画像となる。
もちろん、これらの階調特性は感度や絞りやズームポジションなどによって可変してもよい。たとえば絞りが解放のときにはレンズの周辺光量が落ちやすいため、黒をつぶす程度を軽減してもよい。
FIG. 16 shows an example of gradation characteristics to be selected when the night scene is determined. As shown in the figure, noise in the dark part can be made inconspicuous by crushing the dark part characteristic (lowering the increase rate of the output luminance with respect to the increase rate of the input luminance value) compared to the normal gradation characteristic. Therefore, a preferable image with black tightened is obtained as an image at the time of night scene photography.
Of course, these gradation characteristics may be varied depending on sensitivity, aperture, zoom position, and the like. For example, since the amount of light around the lens tends to drop when the aperture is open, the degree of black loss may be reduced.

S416でシステムコントローラ107は、
・ダイナミックレンジ拡大量に応じた階調特性(拡大量が0もしくは夕景判定された場合以外)、
・S415で選択した夜景用階調特性、もしくは
・S414で決定したダイナミックレンジ縮小量に応じた階調特性、
のパラメータを信号処理回路140に設定する。
In S416, the system controller 107
-Tone characteristics according to the dynamic range expansion amount (except when the expansion amount is 0 or the evening scene is judged),
Tone characteristics for night scene selected in S415 or Tone characteristics according to the dynamic range reduction amount determined in S414,
Are set in the signal processing circuit 140.

図11は、本実施形態におけるダイナミックレンジの概念図を表す図である。
本実施形態において、ダイナミックレンジとは、適正輝度に対する撮像素子の飽和信号量輝度の比率と定義する。適正輝度とは、自動露出制御(AE)を行う際の輝度目標値レベルであり、例えばAEのモードが平均測光モードであれば、画面輝度の平均値に相当する。
FIG. 11 is a diagram illustrating a conceptual diagram of a dynamic range in the present embodiment.
In the present embodiment, the dynamic range is defined as the ratio of the saturation signal amount luminance of the image sensor to the appropriate luminance. The appropriate luminance is a luminance target value level when performing automatic exposure control (AE). For example, if the AE mode is the average photometry mode, it corresponds to the average value of the screen luminance.

従って、
ダイナミックレンジ=センサー飽和信号量輝度/AE目標値
と定義することができる。
なお、ここでのAE目標値はAFE回路150で感度調整を行う前の、撮像素子101の出力信号に基づくAE目標値である。
Therefore,
Dynamic range = sensor saturation signal amount luminance / AE target value.
Here, the AE target value is an AE target value based on the output signal of the image sensor 101 before sensitivity adjustment is performed by the AFE circuit 150.

AE目標値は、AEのモードに応じて変化してよく、評価測光モードやスポット測光モードであっても、それぞれのモードによるAE目標値を用いることができる。
図12は、AE目標値、飽和信号値およびダイナミックレンジの関係例を示す図である。
図12から、AE目標値を下げることにより、ダイナミックレンジ量を大きくしていくことが可能であることがわかる。
The AE target value may change according to the AE mode, and the AE target value in each mode can be used even in the evaluation photometry mode or the spot photometry mode.
FIG. 12 is a diagram illustrating a relationship example between the AE target value, the saturation signal value, and the dynamic range.
FIG. 12 shows that the dynamic range amount can be increased by lowering the AE target value.

図13は、本実施形態の信号処理回路140における階調特性の設定例を示す図である。
ダイナミックレンジ拡大量を、通常(0/3段)、+1/3段、+2/3段、+3/3段分の4段階に設定した場合の階調特性(明るさ補正量)の設定例を示している。
FIG. 13 is a diagram illustrating an example of setting gradation characteristics in the signal processing circuit 140 according to the present embodiment.
Setting example of gradation characteristics (brightness correction amount) when the dynamic range expansion amount is set to four levels of normal (0/3 step), +1/3 step, +2/3 step, and +3/3 step Show.

ここで各ダイナミックレンジ拡大量に対応したAE目標値は図12で示したものと同値である。図13に示すように、各ダイナミックレンジ拡大時におけるAE目標値に対して階調補正した後のAE目標値が、ダイナミックレンジ拡大量によらず、ダイナミックレンジ拡大をしない通常のAE目標値となるように階調特性を設定する。   Here, the AE target value corresponding to each dynamic range expansion amount is the same as that shown in FIG. As shown in FIG. 13, the AE target value after gradation correction is performed on the AE target value at the time of each dynamic range expansion becomes a normal AE target value that does not expand the dynamic range regardless of the dynamic range expansion amount. The gradation characteristics are set as follows.

図11および図12を用いて説明したように、AE目標値を下げることで、ダイナミックレンジを拡大することができる。しかし、単純にAE目標値を下げると、露出アンダーとなり、撮像画像が暗くなってしまう。そのため、ダイナミックレンジ拡大量に応じて、撮像後の画像データを明るくするように信号処理回路140で階調補正することにより、撮像画像の明るさ(露出)を適正にしながら、ダイナミックレンジを拡大することができる。従って、信号処理回路140は補正手段として動作する。   As described with reference to FIGS. 11 and 12, the dynamic range can be expanded by lowering the AE target value. However, simply lowering the AE target value results in underexposure and the captured image becomes dark. Therefore, the signal processing circuit 140 performs gradation correction so that the image data after imaging is brightened according to the dynamic range expansion amount, thereby expanding the dynamic range while making the brightness (exposure) of the captured image appropriate. be able to. Therefore, the signal processing circuit 140 operates as correction means.

なお、本実施形態では、AE目標値を下げたことによる撮像画像の輝度低下を、階調補正により補償する構成について例示したが、ルックアップテーブルなど別の手段を用いて同様の輝度補正を行ってもよい。   In the present embodiment, the configuration in which the decrease in luminance of the captured image due to the decrease in the AE target value is compensated by gradation correction is described. May be.

また、ホワイトバランスを補正するホワイトバランス係数のゲインなどのゲインと、飽和信号量を決定するクリッピング量とを制御してもよい。つまり、露光量の低減やAFEゲインの低減などによりゲインダウンされた画像信号をA/D変換した後、後段の信号処理回路でゲインアップし、クリッピング量をゲインアップ分だけ拡大させる(飽和信号量を大きくする)ことによっても同じ効果が得られる。   Further, a gain such as a gain of a white balance coefficient for correcting white balance and a clipping amount for determining a saturation signal amount may be controlled. That is, after the A / D conversion is performed on the image signal whose gain has been reduced by reducing the exposure amount or the AFE gain, the gain is increased by the signal processing circuit in the subsequent stage, and the clipping amount is increased by the gain increase (saturation signal amount The same effect can be obtained.

ここで、感度設定(AFE回路150のゲイン設定)と、撮像素子101の飽和との関係について説明を行う。
一般に、光量およびカメラの露出値(入力)に対して、出力が所定の関係を満たすように、撮像素子の出力信号に対するゲインが制御される。
Here, the relationship between sensitivity setting (gain setting of the AFE circuit 150) and saturation of the image sensor 101 will be described.
Generally, the gain for the output signal of the image sensor is controlled so that the output satisfies a predetermined relationship with respect to the light amount and the exposure value (input) of the camera.

しかしながら、撮像素子が有するフォトダイオードに蓄積可能な電荷量は上限がある。そのため、撮像素子の撮像感度を下げる目的で、AFE回路150で適用するゲインを下げると、ゲイン適用後の最大信号量も低下する。従って、ゲインの低下とともに飽和信号量も低下する。   However, there is an upper limit on the amount of charge that can be accumulated in the photodiode of the image sensor. Therefore, if the gain applied by the AFE circuit 150 is reduced for the purpose of reducing the imaging sensitivity of the image sensor, the maximum signal amount after gain application is also reduced. Therefore, the saturation signal amount decreases as the gain decreases.

このように、撮像素子の感度を増加させる方向については、ノイズの増幅を無視すれば所望の感度設定を行うことは可能であるのに対し、感度を低減させる方向では、飽和信号量から生じる限界値が存在する。   As described above, in the direction of increasing the sensitivity of the image sensor, it is possible to set a desired sensitivity if the amplification of noise is ignored, whereas in the direction of decreasing the sensitivity, the limit caused by the saturation signal amount. Value exists.

図14のS408において、感度が下げられない場合は、撮像装置で設定可能な最低感度が既に設定されている場合であることが多い。これは、撮像素子の出力信号に対するゲインがすでに最低感度に相当にする値まで低減されていることを意味する。そのため、AFE回路150のゲインを制御することによってさらに感度を低減することはできない。従って、本実施形態では、AFE回路150のゲインを制御しても目標のAE目標値(感度)低減量を実現できない場合、露出補正によってさらなる感度低減を実現する。   In S408 of FIG. 14, when the sensitivity cannot be lowered, the minimum sensitivity that can be set by the imaging apparatus is often set. This means that the gain for the output signal of the image sensor has already been reduced to a value corresponding to the minimum sensitivity. Therefore, the sensitivity cannot be further reduced by controlling the gain of the AFE circuit 150. Therefore, in this embodiment, when the target AE target value (sensitivity) reduction amount cannot be realized even if the gain of the AFE circuit 150 is controlled, further sensitivity reduction is realized by exposure correction.

露出補正によって感度を低減した撮像を行い、得られた暗い画像に対して信号処理回路140で階調補正して明るさを補正する操作は、結局のところ感度を増加することと同じであり、階調補正時にノイズも増幅され、画質の劣化を生じる。   The operation of performing imaging with reduced sensitivity by exposure correction and correcting the brightness by correcting the gradation of the obtained dark image by the signal processing circuit 140 is the same as increasing the sensitivity after all, Noise is also amplified at the time of gradation correction, resulting in degradation of image quality.

しかし、本実施形態においては、ダイナミックレンジ拡大量に対応する撮像感度の低減をAFE回路150のゲイン制御で実現できる場合には、ゲイン制御での撮像感度低減を優先して行う。そして、ゲイン制御のみではダイナミックレンジ拡大量に対応する撮像感度の低減を実現できない場合でも、ゲインを最低まで低減し、不足分の感度低減を露出補正で補っている。この場合、階調補正時にノイズが増幅されたとしても、既にAFE回路150のゲインが最低感度に相当するレベルまで低減されているため、ノイズ自体が大きくない。そのため、画質の劣化は最低限に抑制することができる。   However, in the present embodiment, when the reduction of the imaging sensitivity corresponding to the dynamic range expansion amount can be realized by the gain control of the AFE circuit 150, the imaging sensitivity reduction by the gain control is performed with priority. Even when the gain control alone cannot achieve a reduction in imaging sensitivity corresponding to the dynamic range expansion amount, the gain is reduced to the minimum, and the insufficient sensitivity reduction is compensated by exposure correction. In this case, even if noise is amplified during gradation correction, the noise itself is not large because the gain of the AFE circuit 150 has already been reduced to a level corresponding to the lowest sensitivity. For this reason, deterioration in image quality can be minimized.

図17は、本実施形態の撮像装置におけるダイナミックレンジ縮小量(D−)の決定動作を説明するためのフローチャートである。図17に示す動作は、図12のS413のヒストグラム取得およびS414のダイナミックレンジ縮小量決定動作に対応する。
S501で、システムコントローラ107は、バッファメモリ103に格納されたCCDRAW画像データに対して、R,G,Bの色毎にホワイトバランス係数(WB係数)を乗算する。ここで用いるWB係数は、本撮像された画像から算出したものであっても、本撮像の直近のEVF画像から算出したWB係数でもよい。ただし、後者の場合、本撮像でフラッシュ撮影された場合には、フラッシュ光の色温度に応じたWB係数や、D55光源またはデイライト用のWB係数を用いることができる。
WB係数を乗算することで、色毎の飽和量を正確に検出することが可能となり、特定の色が飽和するような被写体であっても検出することが可能となる。
FIG. 17 is a flowchart for explaining the dynamic range reduction amount (D−) determination operation in the imaging apparatus of the present embodiment. The operation shown in FIG. 17 corresponds to the histogram acquisition in S413 and the dynamic range reduction amount determination operation in S414 in FIG.
In step S <b> 501, the system controller 107 multiplies the CCD RAW image data stored in the buffer memory 103 by a white balance coefficient (WB coefficient) for each of R, G, and B colors. The WB coefficient used here may be a WB coefficient calculated from an actually captured image or a WB coefficient calculated from an EVF image most recently captured. However, in the latter case, when flash photography is performed with actual imaging, a WB coefficient corresponding to the color temperature of the flash light or a WB coefficient for a D55 light source or daylight can be used.
By multiplying by the WB coefficient, it is possible to accurately detect the saturation amount for each color, and it is possible to detect even a subject in which a specific color is saturated.

S502で、システムコントローラ107は、ヒストグラム作成回路130を用いて、WB係数を乗算した画像に関する色毎の累積ヒストグラムを取得する。
S503で、システムコントローラ107は、累積ヒストグラムの頻度が所定の値(例えば80%)となる輝度値Y_Hpを、ハイライト輝度値として色ごとに取得する。
S504で、システムコントローラ107は、あらかじめ定められている飽和目標値Sat_TargetYに対するゲイン値Gain_yhpを色毎に下記の式にて算出する。
Gain_yhp=Sat_TargetY/Y_hp
そして、システムコントローラ107は、色ごとに算出したGain_yhpの中で最小のゲイン値を、最終的なダイナミックレンジ縮小量に対応したゲイン値Gain_yhpとする。
In step S <b> 502, the system controller 107 uses the histogram creation circuit 130 to obtain a cumulative histogram for each color related to the image multiplied by the WB coefficient.
In step S503, the system controller 107 acquires a luminance value Y_Hp for which the frequency of the cumulative histogram is a predetermined value (for example, 80%) for each color as a highlight luminance value.
In step S504, the system controller 107 calculates a gain value Gain_yhp for a predetermined saturation target value Sat_TargetY for each color using the following equation.
Gain_yhp = Sat_TargetY / Y_hp
Then, the system controller 107 sets the minimum gain value in the Gain_yhp calculated for each color as the gain value Gain_yhp corresponding to the final dynamic range reduction amount.

S505でシステムコントローラ107は、S504で算出したゲイン値に対応した階調特性パラメータを選択する。
図18は、S504で算出された最終的なゲイン値Gain_yhpの値と、撮像感度とに応じた最終ゲインアップ量の関係例を示す図である。
本実施形態においては、最終ゲインアップ量が0,1.12,1.25,1.41の4通りとされ、システムコントローラ107は、
1.12→露出が1/6段アップ相当の階調特性
1.25→露出が1/3段アップ相当の階調特性
1.41→露出が1/2段アップ相当の階調特性
をそれぞれ選択する。
In step S505, the system controller 107 selects a gradation characteristic parameter corresponding to the gain value calculated in step S504.
FIG. 18 is a diagram illustrating a relationship example between the final gain value Gain_yhp calculated in S504 and the final gain increase amount according to the imaging sensitivity.
In the present embodiment, the final gain increase amount is set to four types of 0, 1.12, 1.25, and 1.41, and the system controller 107 is
1.12-> Tone characteristics corresponding to 1/6 step up exposure-> Tone characteristics corresponding to 1/3 step up exposure-1.41-> Tone characteristics corresponding to 1/2 step up exposure select.

図19は、ゲインアップ量と階調特性設定値の関係について示した図である。露出を1/6段あげるということは、AE目標値を1/6段あげることと同じである。このように、ダイナミックレンジ縮小処理は、本露光により得られた画像の階調特性を補正し、最終ゲインアップ量に応じた段数、画像を明るくする。   FIG. 19 is a diagram illustrating the relationship between the gain increase amount and the gradation characteristic setting value. Increasing the exposure by 1/6 is the same as increasing the AE target value by 1/6. Thus, the dynamic range reduction process corrects the gradation characteristics of the image obtained by the main exposure, and brightens the image by the number of steps corresponding to the final gain increase amount.

本実施形態においては、階調特性設定を可変させることで、ダイナミックレンジ縮小量を可変させたが、ルックアップテーブルを用いたり、WB係数を制御してダイナミックレンジ縮小量を可変させることもできる。
また、本実施形態においては、本露光時のRAW画像に対してヒストグラム解析を行い、ダイナミックレンジ縮小量を決定した。しかし、ダイナミックレンジ拡大量の決定と同様、EVF画像に対してヒストグラム解析を行い、ダイナミックレンジ縮小量を決定して露出制御してもよい。この場合、階調特性によってゲインアップする必要がないので、ゲインアップによるノイズ増幅を伴わずにダイナミックレンジの縮小が可能である。
しかし、例えばフラッシュ撮影時など、本露光するまで画像の白飛び具合を判断することはできない場合もある。そのため、例えばフラッシュ非発光時にはEVF画像に基づいてダイナミックレンジ縮小量を決定して露出制御し、フラッシュ発光時には本露光画像の解析結果を用いるようにしてもよい。
In this embodiment, the dynamic range reduction amount is changed by changing the gradation characteristic setting. However, the dynamic range reduction amount can be changed by using a lookup table or by controlling the WB coefficient.
Further, in the present embodiment, histogram analysis is performed on the RAW image at the time of the main exposure, and the dynamic range reduction amount is determined. However, similarly to the determination of the dynamic range expansion amount, exposure control may be performed by performing histogram analysis on the EVF image and determining the dynamic range reduction amount. In this case, since it is not necessary to increase the gain according to the gradation characteristics, it is possible to reduce the dynamic range without accompanying noise amplification due to gain increase.
However, it may not be possible to determine the degree of whiteout of an image until the main exposure is performed, for example, during flash photography. Therefore, for example, when the flash is not emitted, the dynamic range reduction amount is determined based on the EVF image to perform exposure control, and when the flash is emitted, the analysis result of the main exposure image may be used.

図20は、本実施形態の撮像装置における、シーン判定結果に応じた、露出制御、ダイナミックレンジ拡大処理(D+)、ダイナミックレンジ縮小処理(D−)、および夜景用階調特性の設定の関係例を示す図である。なお、本実施形態ではダイナミックレンジ拡大されていない場合にダイナミックレンジ縮小処理を行う。従って、図20において、D+、D−の両方に○(もしくは◎)が記載されているのは、D+またはD−の実行が可能であることを示し、両方を行うことを示しているのではない。   FIG. 20 shows an example of the relationship between exposure control, dynamic range expansion processing (D +), dynamic range reduction processing (D−), and night scene tone characteristics setting according to the scene determination result in the imaging apparatus of the present embodiment. FIG. In the present embodiment, the dynamic range reduction process is performed when the dynamic range is not expanded. Therefore, in FIG. 20, the fact that ○ (or ◎) is written in both D + and D- indicates that D + or D- can be executed, and that both are performed. Absent.

シーンが夜景と判定され、かつ人物がいない場合(顔検出回路120によって顔が検出されない場合)には、EVF画像に基づいて決定したダイナミックレンジ拡大量に応じたダイナミックレンジ拡大処理を行う。また、上述したように、暗部をつぶした階調特性を選択する。
一方、夜景の場合、暗い部分の面積が大きいため、ヒストグラムなどの輝度情報を用いてダイナミックレンジ縮小処理を行うと、感度アップした階調特性が選択されてしまう。しかし、夜景は通常のシーンと比較して、ある程度暗く撮影されていたほうが好ましいため、ダイナミックレンジ縮小処理(D−)は行わない。
When the scene is determined to be a night view and there is no person (when no face is detected by the face detection circuit 120), dynamic range expansion processing is performed according to the dynamic range expansion amount determined based on the EVF image. In addition, as described above, the gradation characteristic with the dark part crushed is selected.
On the other hand, in the case of a night scene, since the area of a dark part is large, when dynamic range reduction processing is performed using luminance information such as a histogram, gradation characteristics with increased sensitivity are selected. However, since it is preferable that the night view is photographed to a certain degree of darkness compared to a normal scene, the dynamic range reduction process (D−) is not performed.

一方、夜景と判定され、かつ人物が含まれる場合には、ダイナミックレンジの拡大または縮小処理を行い、夜景用の階調特性は選択しない。
夜景で人物を含む場合、夜景用の階調特性を選択すると顔のコントラストが上がりすぎ、顔の暗部の階調性がつぶれて好ましい画像が取得できない。また夜景で人物が含まれる場合、フラッシュ撮影されることが多いが、ズームレンズの望遠側で撮像される場合など、被写体距離が遠い場合には、フラッシュ光が十分に到達しない場合も多くなる。そのため、人物の顔領域などについてダイナミックレンジ縮小処理を行う方が好ましい画像が取得できる。
On the other hand, when it is determined that the scene is a night scene and a person is included, the dynamic range is expanded or reduced, and the gradation characteristics for the night scene are not selected.
When a night scene includes a person, if the gradation characteristics for night scene are selected, the contrast of the face increases too much, and the gradation of the dark part of the face is crushed so that a preferable image cannot be acquired. In addition, when a person is included in a night view, flash photography is often performed. However, when the subject distance is long, such as when photographing is performed on the telephoto side of the zoom lens, the flash light often does not reach sufficiently. Therefore, it is possible to obtain an image that is preferably subjected to the dynamic range reduction process for a human face region or the like.

夕景と判定され、かつ人物が含まれない場合には、本露光で通常撮影時よりも露出アンダーとなるように露出制御するとともに、ダイナミックレンジ拡大処理を禁止する。
夕景と判定されるシーンには太陽が画角に入っている場合が多い。そのため、自動露出制御の結果は露出アンダーの傾向にあるため、さらにマイナス補正してダイナミックレンジを拡大させる効果が少ない。むしろ、ダイナミックレンジ拡大処理(D+)は、撮像感度を上げてしまう場合もあり、その場合はノイズが増幅されて好ましくない画像となる可能性が高くなる。また、赤を強調するように彩度を制御する。
If it is determined that the scene is a sunset scene and no person is included, exposure control is performed so that the exposure is underexposed compared with normal shooting in main exposure, and dynamic range expansion processing is prohibited.
In many scenes that are determined to be sunset scenes, the sun is often included in the angle of view. For this reason, since the result of automatic exposure control tends to be underexposed, there is little effect of further correcting the minus and expanding the dynamic range. Rather, the dynamic range expansion process (D +) may increase the imaging sensitivity, and in that case, there is a high possibility that noise is amplified and an undesirable image is obtained. In addition, the saturation is controlled so as to emphasize red.

また、夕景で人物が含まれる場合で、フラッシュ発光しない場合は、顔の明るさを制御することはできない。従って、顔優先の露出決定(顔優先AE)を実施するとともに、ダイナミックレンジ拡大処理(D+)または縮小処理(D−)を行うことで、好ましい画像を取得することが可能となる。
一方、夕景で人物が含まれ、かつフラッシュ発光する場合、フラッシュの調光制御により、顔の明るさを制御することが可能である。そのため、人物なしの場合と同様、露出アンダーで撮像し、ダイナミックレンジ拡大処理を禁止することで、好ましい画像を取得可能である。また、夕景で人物が含まれる場合には、肌色の色調に影響を与えないよう、赤の再度強調は行わない。
Also, when a person is included in the sunset and the flash is not emitted, the brightness of the face cannot be controlled. Therefore, it is possible to obtain a preferable image by performing exposure determination with face priority (face priority AE) and performing dynamic range expansion processing (D +) or reduction processing (D−).
On the other hand, when a person is included in the evening scene and the flash is emitted, the brightness of the face can be controlled by the flash light control. Therefore, as in the case where there is no person, it is possible to obtain a preferable image by capturing an image with underexposure and prohibiting the dynamic range expansion process. In addition, when a person is included in the evening scene, red is not emphasized again so as not to affect the tone of the skin color.

逆光と判定され、人物が含まれない場合、十分に明るいシーンであることが多い。つまり、撮像感度は低く、高速なシャッタースピードが撮像装置によって設定されている場合が多い。この結果、ダイナミックレンジ拡大処理が行えない可能性が高い。そして、人物が含まれず、風景がメイン被写体である撮像の場合、ノイズが少ない画像のほうが好まれることが多い。
一方、人物が含まれる場合は、人物が日陰や、室内の暗い所にいて、かつ背景が日向や屋外などである場合が多い。このように、異なる光源が一つの撮影シーンに混在している場合などは、ダイナミックレンジ拡大量が1段で足りない場合が多い。また、スナップ写真のような場合には、顔や背景が撮影されていたほうが好ましい。
If the scene is determined to be backlit and no person is included, the scene is often sufficiently bright. That is, the imaging sensitivity is low and a high shutter speed is often set by the imaging device. As a result, there is a high possibility that the dynamic range expansion process cannot be performed. In the case of imaging in which a person is not included and the landscape is the main subject, an image with less noise is often preferred.
On the other hand, when a person is included, the person is often in the shade or in a dark place in the room and the background is in the sun or outdoors. Thus, when different light sources are mixed in one shooting scene, the dynamic range expansion amount is often insufficient in one stage. Further, in the case of a snapshot, it is preferable that the face and background are taken.

このように、逆光シーンでは、人物が含まれる場合にはダイナミックレンジ拡大量を大きくし、人物が含まれない場合には、ダイナミックレンジ拡大量を大きく設定しないことで、より好ましい画像が撮影可能となる。たとえば、通常のシーン判定結果においては、ダイナミックレンジ拡大量を最大で1段までとし、逆光で、人物が含まれるシーンの場合には、ダイナミックレンジ拡大量を例えば2段分まで拡張する。
もちろん、ダイナミックレンジ拡大処理で決定する拡大量の上限は、撮像感度を上げる度合いに応じて決定してもよいことは言うまでもない。例えば、高感度で撮影する明るさの場合にはダイナミックレンジ拡大量を大きくし、そうでない場合にはダイナミックレンジ拡大量を小さくするように制御することができる。
In this way, in a backlight scene, if the person is included, the dynamic range expansion amount is increased, and if the person is not included, the dynamic range expansion amount is not increased so that a more preferable image can be taken. Become. For example, in a normal scene determination result, the dynamic range expansion amount is set to a maximum of one level, and in the case of a scene that includes a person in backlight and is expanded, the dynamic range expansion amount is expanded to, for example, two levels.
Of course, it goes without saying that the upper limit of the enlargement amount determined in the dynamic range enlargement process may be determined according to the degree to which the imaging sensitivity is increased. For example, it is possible to control so that the dynamic range expansion amount is increased in the case of brightness at high sensitivity, and otherwise the dynamic range expansion amount is decreased.

青空と判定された場合、青の彩度を強調すること以外、通常シーンと同様である。
ただし、青空と判定され、かつ青色部分の輝度が高く、シアン色相方向であるのブロックが多い場合には、ダイナミックレンジ拡大量の上限を拡張してもよい。これにより、空部分のとび具合を積極的に判定しながらダイナミックレンジ拡大量を決定することが可能となる。
また、人物シーンの場合、人物優先のAEを行うとともに、ダイナミックレンジの拡大または縮小処理を行う。
When it is determined that the sky is blue, it is the same as the normal scene except that the saturation of blue is emphasized.
However, when it is determined that the sky is blue and the luminance of the blue portion is high and there are many blocks in the cyan hue direction, the upper limit of the dynamic range expansion amount may be extended. As a result, it is possible to determine the dynamic range expansion amount while positively determining the degree of jump of the empty portion.
In the case of a person scene, AE with priority on person is performed and dynamic range expansion or reduction processing is performed.

通常のシーン(夜景、夕景、逆光でなく、人物が検出されていない場合)、ダイナミックレンジの拡張処理は、撮像感度が変わらない範囲で行い、ダイナミックレンジ縮小処理は低撮像感度時のみ行い、ノイズの増加を抑制することが可能となる。
青空(人物なし)と判定された場合、青の彩度を強調すること以外、通常シーンと同様である。
ただし、青空と判定され、かつ青色部分の輝度が高く、シアン色相方向であるのブロックが多い場合には、ダイナミックレンジ拡大量の上限を拡張してもよい。これにより、空部分のとび具合を積極的に判定しながらダイナミックレンジ拡大量を決定することが可能となる。
Normal scenes (when night scenes, evening scenes, backlights are not detected, and no person is detected), dynamic range expansion processing is performed within the range where the imaging sensitivity does not change, and dynamic range reduction processing is performed only at low imaging sensitivity, and noise It is possible to suppress the increase in
When it is determined that there is no blue sky (no person), it is the same as the normal scene except that the blue saturation is emphasized.
However, when it is determined that the sky is blue and the luminance of the blue portion is high and there are many blocks in the cyan hue direction, the upper limit of the dynamic range expansion amount may be extended. As a result, it is possible to determine the dynamic range expansion amount while positively determining the degree of jump of the empty portion.

(他の実施形態)
上述の実施形態においては、静止画撮像において本発明によるダイナミックレンジ拡大を適用した場合について説明したが、EVF画像の撮像時や動画撮像時にも同様に適応可能である。この場合、AFE回路150のゲイン制御(および必要に応じた露出補正)と、信号処理回路140における階調補正とが同じ画像に対して適用されるよう、これらパラメータ設定のタイミングを調整する。
(Other embodiments)
In the above-described embodiment, the case where the dynamic range expansion according to the present invention is applied to still image capturing has been described. However, the present invention can be similarly applied to EVF image capturing and moving image capturing. In this case, the timing for setting these parameters is adjusted so that the gain control of the AFE circuit 150 (and exposure correction as necessary) and the gradation correction in the signal processing circuit 140 are applied to the same image.

Claims (8)

静止画撮像のスタンバイ時に撮像される動画像に基づいて、シーン判定を行うシーン判定手段と、
撮像動作を制御する制御手段であって、
前記シーン判定の結果に基づいて、
撮像感度を低減させて静止画撮像し、該静止画撮像された画像に対して前記撮像感度の低減を補償するための階調補正を適用するダイナミックレンジ拡大処理と、
静止画撮像し、前記動画像又は該静止画撮像された画像に基づく階調補正を該静止画撮像された画像に適用するダイナミックレンジ縮小処理とのいずれかを実行する制御手段とを有することを特徴とする撮像装置。
Scene determination means for performing scene determination based on a moving image captured during standby of still image capturing;
Control means for controlling the imaging operation,
Based on the result of the scene determination,
A dynamic range expansion process that captures a still image with reduced imaging sensitivity, and applies gradation correction to compensate for the reduction in the imaging sensitivity with respect to the captured image;
A control unit that captures a still image and executes dynamic range reduction processing that applies gradation correction based on the moving image or the captured image to the captured image. A characteristic imaging device.
前記シーン判定手段は、人物の有無、夜景シーン、青空シーン、夕景シーン、逆光シーン、及びマクロ撮影のうち少なくとも1つのシーンを判定することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the scene determination unit determines at least one of a presence / absence of a person, a night scene, a blue sky scene, an evening scene, a backlight scene, and macro photography. 前記制御手段は、前記シーン判定の結果が、予め定められた、前記ダイナミックレンジ拡大処理を行わないシーンでない場合に前記ダイナミックレンジ拡大処理を実行することを特徴とする請求項1又は請求項2記載の撮像装置。   The said control means performs the said dynamic range expansion process, when the result of the said scene determination is a predetermined scene which does not perform the said dynamic range expansion process, The said dynamic range expansion process is performed. Imaging device. 前記制御手段は、前記シーン判定の結果が、前記ダイナミックレンジ拡大処理を行わないシーンである場合と、前記ダイナミックレンジ拡大処理における前記撮像感度の低減量が0である場合とに、前記ダイナミックレンジ縮小処理を実行することを特徴とする請求項1乃至請求項3のいずれか1項に記載の撮像装置。   The control means reduces the dynamic range when the scene determination result is a scene for which the dynamic range expansion process is not performed and when the imaging sensitivity reduction amount in the dynamic range expansion process is zero. The imaging apparatus according to claim 1, wherein processing is executed. 前記制御手段は、前記ダイナミックレンジ拡大処理において、前記シーン判定がなされた画像の白飛び量が大きいほど、前記撮像感度の低減量を大きく決定することを特徴とする請求項1乃至請求項4のいずれか1項に記載の撮像装置。   5. The control unit according to claim 1, wherein, in the dynamic range expansion process, the reduction amount of the imaging sensitivity is determined to be larger as the whiteout amount of the image subjected to the scene determination is larger. The imaging device according to any one of the above. 前記制御手段は、前記ダイナミックレンジ縮小処理において、前記静止画撮像された画像の累積ヒストグラムの頻度が所定の値となる輝度値が、前記撮像装置が有する撮像素子の飽和信号量に対応する輝度値となるような階調補正を前記静止画撮像された画像に適用することを特徴とする請求項1乃至請求項5のいずれか1項に記載の撮像装置。   In the dynamic range reduction process, the control unit is configured such that a luminance value at which a frequency of a cumulative histogram of an image captured in the still image has a predetermined value corresponds to a saturation signal amount of an imaging element included in the imaging device. 6. The imaging apparatus according to claim 1, wherein gradation correction is applied to the still image captured image. 静止画撮像のスタンバイ時に撮像される動画像に基づいて、シーン判定を行うシーン判定工程と、
撮像動作を制御する制御工程とを有する撮像装置の制御方法であって、
前記制御工程が、
前記シーン判定工程における前記シーン判定の結果に基づいて、
撮像感度を低減させて静止画撮像し、該静止画撮像された画像に対して前記撮像感度の低減を補償するための階調補正を適用するダイナミックレンジ拡大処理と、
静止画撮像し、前記動画像又は該静止画撮像された画像に基づく階調補正を該静止画撮像された画像に適用するダイナミックレンジ縮小処理とのいずれかを実行することを特徴とする撮像装置の制御方法。
A scene determination step for determining a scene based on a moving image captured at the time of standby for still image capturing;
A control method for an image pickup apparatus having a control process for controlling an image pickup operation,
The control step is
Based on the result of the scene determination in the scene determination step,
A dynamic range expansion process that captures a still image with reduced imaging sensitivity, and applies gradation correction to compensate for the reduction in the imaging sensitivity with respect to the captured image;
An imaging apparatus that captures a still image and performs dynamic range reduction processing that applies gradation correction based on the moving image or the captured image to the captured still image Control method.
撮像装置のコンピュータに、請求項7記載の撮像装置の制御方法の各工程を実行させるためのプログラム。   The program for making a computer of an imaging device perform each process of the control method of the imaging device of Claim 7.
JP2009034392A 2009-02-06 2009-02-17 Imaging apparatus and control method thereof Expired - Fee Related JP4999871B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2009034392A JP4999871B2 (en) 2009-02-17 2009-02-17 Imaging apparatus and control method thereof
US12/694,111 US8355059B2 (en) 2009-02-06 2010-01-26 Image capturing apparatus and control method thereof
EP13168007.6A EP2645705B1 (en) 2009-02-06 2010-01-27 Image capturing apparatus and control method thereof
EP10151796.9A EP2216987B1 (en) 2009-02-06 2010-01-27 Image capturing apparatus and control method thereof
CN201010112169.8A CN101800857B (en) 2009-02-06 2010-02-08 Image capturing apparatus and control method thereof
US13/592,868 US9007486B2 (en) 2009-02-06 2012-08-23 Image capturing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009034392A JP4999871B2 (en) 2009-02-17 2009-02-17 Imaging apparatus and control method thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012112664A Division JP5335964B2 (en) 2012-05-16 2012-05-16 Imaging apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2010193099A true JP2010193099A (en) 2010-09-02
JP2010193099A5 JP2010193099A5 (en) 2010-10-14
JP4999871B2 JP4999871B2 (en) 2012-08-15

Family

ID=42818677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009034392A Expired - Fee Related JP4999871B2 (en) 2009-02-06 2009-02-17 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP4999871B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012165146A (en) * 2011-02-04 2012-08-30 Canon Inc Image processing apparatus and method
JP2014121079A (en) * 2012-12-19 2014-06-30 Canon Inc Image processing device, image processing method, program, and storage medium
JP2015144328A (en) * 2014-01-31 2015-08-06 株式会社 日立産業制御ソリューションズ Imaging apparatus
US9313416B2 (en) 2013-03-14 2016-04-12 Canon Kabushiki Kaisha Image processing apparatus that performs gradation correction of photographed image, method of controlling the same, and storage medium
US9542734B2 (en) 2013-10-23 2017-01-10 Canon Kabushiki Kaisha Information processing apparatus, image processing method, and storage medium that determine tone characteristics for respective object signals
WO2020158509A1 (en) 2019-01-30 2020-08-06 Ricoh Company, Ltd. Image capturing apparatus, image capturing method, and carrier means
JP2020527000A (en) * 2018-03-27 2020-08-31 華為技術有限公司Huawei Technologies Co.,Ltd. Shooting mobile terminal
JP2020535524A (en) * 2017-09-25 2020-12-03 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. How to process images, processing systems and computer programs

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944654A (en) * 1995-07-26 1997-02-14 Sony Corp Image processing device and method therefor, and noise eliminating device and method therefor
JP2005130484A (en) * 2003-10-02 2005-05-19 Nikon Corp Gradation correction apparatus and gradation correction program
JP2008054293A (en) * 2006-07-25 2008-03-06 Fujifilm Corp System for and method of photographing, and computer program
JP2008085581A (en) * 2006-09-27 2008-04-10 Fujifilm Corp Imaging apparatus
JP2009017229A (en) * 2007-07-04 2009-01-22 Fujifilm Corp Imaging device and imaging control method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944654A (en) * 1995-07-26 1997-02-14 Sony Corp Image processing device and method therefor, and noise eliminating device and method therefor
JP2005130484A (en) * 2003-10-02 2005-05-19 Nikon Corp Gradation correction apparatus and gradation correction program
JP2008054293A (en) * 2006-07-25 2008-03-06 Fujifilm Corp System for and method of photographing, and computer program
JP2008085581A (en) * 2006-09-27 2008-04-10 Fujifilm Corp Imaging apparatus
JP2009017229A (en) * 2007-07-04 2009-01-22 Fujifilm Corp Imaging device and imaging control method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012165146A (en) * 2011-02-04 2012-08-30 Canon Inc Image processing apparatus and method
JP2014121079A (en) * 2012-12-19 2014-06-30 Canon Inc Image processing device, image processing method, program, and storage medium
US9313416B2 (en) 2013-03-14 2016-04-12 Canon Kabushiki Kaisha Image processing apparatus that performs gradation correction of photographed image, method of controlling the same, and storage medium
US9542734B2 (en) 2013-10-23 2017-01-10 Canon Kabushiki Kaisha Information processing apparatus, image processing method, and storage medium that determine tone characteristics for respective object signals
JP2015144328A (en) * 2014-01-31 2015-08-06 株式会社 日立産業制御ソリューションズ Imaging apparatus
JP7153716B2 (en) 2017-09-25 2022-10-14 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. Method, processing system and computer program for processing images
US11605155B2 (en) 2017-09-25 2023-03-14 Vestel Elektronik Sanayi Ve Ticaret A.S. Method, processing system and computer program for processing an image
JP2020535524A (en) * 2017-09-25 2020-12-03 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. How to process images, processing systems and computer programs
JP2020527000A (en) * 2018-03-27 2020-08-31 華為技術有限公司Huawei Technologies Co.,Ltd. Shooting mobile terminal
US11330194B2 (en) 2018-03-27 2022-05-10 Huawei Technologies Co., Ltd. Photographing using night shot mode processing and user interface
US11070743B2 (en) 2018-03-27 2021-07-20 Huawei Technologies Co., Ltd. Photographing using night shot mode processing and user interface
US11838650B2 (en) 2018-03-27 2023-12-05 Huawei Technologies Co., Ltd. Photographing using night shot mode processing and user interface
WO2020158509A1 (en) 2019-01-30 2020-08-06 Ricoh Company, Ltd. Image capturing apparatus, image capturing method, and carrier means
US11831995B2 (en) 2019-01-30 2023-11-28 Ricoh Company, Ltd. Image capturing apparatus, image capturing method, and carrier means

Also Published As

Publication number Publication date
JP4999871B2 (en) 2012-08-15

Similar Documents

Publication Publication Date Title
EP2216987B1 (en) Image capturing apparatus and control method thereof
US8483507B2 (en) Image sensing apparatus and image processing method
US9077905B2 (en) Image capturing apparatus and control method thereof
JP4999871B2 (en) Imaging apparatus and control method thereof
US20140176789A1 (en) Image capturing apparatus and control method thereof
JP2010213213A (en) Imaging device and imaging method
JP2008118383A (en) Digital camera
JP2009201094A (en) Imaging apparatus and imaging method
JP2017022610A (en) Image processing apparatus and image processing method
JP5223686B2 (en) Imaging apparatus and imaging method
JP6873679B2 (en) Imaging device, control method and program of imaging device
JP5256947B2 (en) IMAGING DEVICE, IMAGING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM RECORDING PROGRAM FOR EXECUTING THE METHOD
JP5984975B2 (en) Imaging apparatus, imaging method, and program
JP6047686B2 (en) Imaging device
JP5335964B2 (en) Imaging apparatus and control method thereof
JP2010183460A (en) Image capturing apparatus and method of controlling the same
JP2010011153A (en) Imaging apparatus, imaging method and program
JP5310331B2 (en) Imaging apparatus and imaging method
JP2010183461A (en) Image capturing apparatus and method of controlling the same
JP2017068513A (en) Image processing device and method thereof, program, and storage medium
JP5351663B2 (en) Imaging apparatus and control method thereof
JP5460909B2 (en) Imaging apparatus and image processing method
JP5091734B2 (en) Imaging apparatus and imaging method
JP2018181070A (en) Image processing device and image processing method
JP5789330B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120416

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120515

R151 Written notification of patent or utility model registration

Ref document number: 4999871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees