JP2013225724A - Imaging device, control method therefor, program, and storage medium - Google Patents

Imaging device, control method therefor, program, and storage medium Download PDF

Info

Publication number
JP2013225724A
JP2013225724A JP2012096040A JP2012096040A JP2013225724A JP 2013225724 A JP2013225724 A JP 2013225724A JP 2012096040 A JP2012096040 A JP 2012096040A JP 2012096040 A JP2012096040 A JP 2012096040A JP 2013225724 A JP2013225724 A JP 2013225724A
Authority
JP
Japan
Prior art keywords
image
exposure
images
imaging
under
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012096040A
Other languages
Japanese (ja)
Other versions
JP6108680B2 (en
Inventor
Mitsuaki Hattori
光明 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012096040A priority Critical patent/JP6108680B2/en
Publication of JP2013225724A publication Critical patent/JP2013225724A/en
Application granted granted Critical
Publication of JP6108680B2 publication Critical patent/JP6108680B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Image Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize high dynamic range composition capable of suppressing noise and deterioration in color reproduction.SOLUTION: An imaging device for combining a plurality of images captured while changing exposure conditions comprises: imaging means that captures a plurality of images while changing exposure conditions; image composition means that combines the plurality of images with the different exposure conditions to generate a composite image; and control means that, when the imaging means captures a first image, controls exposure so as to make ISO sensitivity lower than in the case of capturing a second image with a brighter exposure condition than that of the first image.

Description

本発明は、露出を変えて撮影した複数枚の画像を合成することで幅広いダイナミックレンジを持つ画像を生成する技術に関する。   The present invention relates to a technique for generating an image having a wide dynamic range by combining a plurality of images shot with different exposures.

白飛びが少ない画像と黒潰れが少ない画像を、露出条件を変えて複数枚撮影し、これらを合成することで幅広いダイナミックレンジを持つ画像を生成する手法がある。これはハイダイナミックレンジ(HDR)合成と呼ばれている。   There is a method of generating an image having a wide dynamic range by photographing a plurality of images with few whiteouts and images with little blackout under different exposure conditions. This is called high dynamic range (HDR) synthesis.

ここで、例えば露光量の異なる3枚の画像を合成する場合について説明する。   Here, for example, a case where three images having different exposure amounts are combined will be described.

露光量の異なる3枚の画像のうち、中間の明るさの画像(適正画像)の輝度レベルを基準にして、図8に示す輝度レベルに応じた合成比率に従って、画素毎に加重加算することで1枚のHDR合成画像を生成する。なお、HDR合成は後述するガンマ処理後の画像を用いることとする。   By performing weighted addition for each pixel in accordance with the composition ratio corresponding to the luminance level shown in FIG. 8 with reference to the luminance level of an intermediate brightness image (appropriate image) among three images having different exposure amounts. One HDR composite image is generated. In HDR synthesis, an image after gamma processing described later is used.

図8において、801は3枚のうち最も明るい画像(オーバー画像)、802は適正画像、803は最も暗い画像(アンダー画像)の合成比率を例示している。例えば輝度レベル255カウントの画素値に対応する合成比率は、アンダー画像803が100%、その他の画像は0%となり、アンダー画像803の画素値が100%使われる。また、輝度レベル175カウントの画素値に対応する合成比率は、アンダー画像803が50%、適正画像802が50%、アンダー画像801が0%となり、アンダー画像の画素値が50%、適正画像の画素値が50%の割合で使われる。   In FIG. 8, 801 is the brightest image (over image) of the three images, 802 is the appropriate image, and 803 is the composition ratio of the darkest image (under image). For example, the composition ratio corresponding to the pixel value of the luminance level 255 count is 100% for the under image 803, 0% for the other images, and 100% of the pixel value of the under image 803 is used. The composition ratio corresponding to the pixel value of the luminance level 175 count is 50% for the under image 803, 50% for the appropriate image 802, and 0% for the under image 801, and the pixel value of the under image is 50%. Pixel values are used at a rate of 50%.

次に、露光量の異なる3枚の画像に対して、図9(a)に示すガンマカーブを適用してガンマ変換処理を施した場合を考える。   Next, consider a case where gamma conversion processing is applied to three images having different exposure amounts by applying the gamma curve shown in FIG.

図9(a)のガンマカーブにおいて、出力値B(8ビット)は18%グレーの均一輝度面を撮影したときに適正な明るさとして表される値とし、このときの入力値はA(12ビット)である。また図9(b)は図9(a)に対して横軸を露光量の段数で表したものであり、横軸の0は前記適正な明るさである入力値Aに対応している。また、横軸の1はAの1段明るいA×2、−1はAの1段暗いA/2にそれぞれ対応している。   In the gamma curve of FIG. 9A, the output value B (8 bits) is a value expressed as appropriate brightness when a uniform luminance surface of 18% gray is photographed, and the input value at this time is A (12 Bit). FIG. 9B is a graph in which the horizontal axis represents the number of exposure levels with respect to FIG. 9A, and 0 on the horizontal axis corresponds to the input value A which is the appropriate brightness. Further, 1 on the horizontal axis corresponds to A × 2 brighter by A, and −1 corresponds to A / 2 darker by A.

このようなガンマカーブでガンマ変換処理された露光量の異なる3枚の画像を前述した手法により輝度レベルに応じて合成すると、例えば図10の1001のように、階調のつながりが悪い歪んだガンマカーブと同等の出力結果となってしまう。図10において、1002はオーバー画像、1003は適正画像、1004はアンダー画像のガンマカーブをそれぞれ示している。   When three images having different exposure amounts subjected to gamma conversion processing with such a gamma curve are synthesized according to the luminance level by the above-described method, for example, as shown by 1001 in FIG. The output result is equivalent to the curve. In FIG. 10, 1002 indicates an over image, 1003 indicates a proper image, and 1004 indicates an under image.

これに対して、階調のつながりを保つために、露光量の異なる3枚の画像それぞれに図11(a)に示すような異なるガンマカーブを適用する。なお、図11(b)は図11(a)を前述した図10と同様に横軸を段数表示で表したものである。図11(b)において、1103から1104のカーブはオーバー画像、1104から1105のカーブは適正画像、1105から1106はアンダー画像のガンマカーブをそれぞれ表している。図11(b)のように、横軸段数表示したときに各ガンマカーブが重なるようにすることでHDR合成後の画像の階調のつながりを滑らかにすることができる。   On the other hand, in order to maintain the gradation connection, different gamma curves as shown in FIG. 11A are applied to the three images having different exposure amounts. In FIG. 11B, the horizontal axis is represented by the number of stages in the same manner as FIG. 10 described above with reference to FIG. In FIG. 11B, curves 1103 to 1104 represent over images, curves 1104 to 1105 represent appropriate images, and 1105 to 1106 represent gamma curves of the under image. As shown in FIG. 11B, by connecting the respective gamma curves when the number of horizontal axis stages is displayed, the connection of the gradation of the image after HDR synthesis can be made smooth.

例えば、特許文献1には、撮像装置のISO感度を固定し、レンズの絞りやシャッター速度を変更することで、露光量の異なる複数回の撮影を行う方法が記載されている。   For example, Patent Document 1 describes a method of performing multiple shootings with different exposure amounts by fixing the ISO sensitivity of an imaging apparatus and changing the aperture and shutter speed of a lens.

特開2003−259200号公報JP 2003-259200 A

しかしながら、上記特許文献1のHDR合成では、以下のような課題がある。   However, the HDR synthesis disclosed in Patent Document 1 has the following problems.

図11に例示するガンマカーブでガンマ変換処理を行うと、露出の異なる3枚の画像のうち、暗い画像ほど大きなデジタルゲインがかかることになり、同じISO感度で撮影してもガンマ処理後のノイズ感が異なってしまう。この状態でHDR合成を行うと、明るさによってノイズ感が異なる画像になってしまう。   When the gamma conversion processing is performed using the gamma curve illustrated in FIG. 11, among the three images with different exposures, a darker image has a higher digital gain. The feeling is different. When HDR synthesis is performed in this state, an image with a different noise feeling depending on the brightness is obtained.

また、HDR合成において、画像中に移動被写体が存在すると、図12に示すように移動被写体の位置に応じて輝度が異なっている合成画像が生成されてしまう。図12(a)〜(c)は、アンダー画像、適正画像、オーバー画像を図5のガンマカーブでそれぞれガンマ変換処理を施した画像である。また、図12において、1201は部分的に輝度が異なる移動被写体を示しており、3枚の画像を前述の方法で明るさに応じて合成すると、図12(d)に示すように同一の被写体が部分的に異なる位置に合成された画像になってしまう。   In addition, in HDR synthesis, if a moving subject exists in an image, a composite image having different luminances according to the position of the moving subject is generated as shown in FIG. 12A to 12C are images obtained by performing gamma conversion processing on the under image, the appropriate image, and the over image, respectively, using the gamma curve of FIG. In FIG. 12, reference numeral 1201 denotes a moving subject having partially different luminances. When three images are synthesized according to the brightness by the above-described method, the same subject as shown in FIG. Becomes an image synthesized at partially different positions.

このような不都合を解消するために、明るさに応じた合成処理とは別にガンマ処理後の画像において明るさに差がある画素についてはアンダー画像の使用割合を100%にするという手法が考えられる。この手法によれば図12(a)〜(c)を合成した結果、図12(e)に示すように移動被写体については最も暗い画像が使用され、同一被写体が部分的に異なる位置に合成されることを防止することができる。   In order to eliminate such an inconvenience, a method of setting the under image usage ratio to 100% for pixels having a difference in brightness in the image after gamma processing apart from the synthesis processing according to the brightness can be considered. . According to this method, as a result of combining FIGS. 12A to 12C, the darkest image is used for the moving subject as shown in FIG. 12E, and the same subject is partially combined at different positions. Can be prevented.

しかしながら、このような手法を用いた場合、図12の1202,1203の領域はアンダー画像に対して、ガンマ処理でデジタルゲインがかかっているため、その領域だけノイズの多い画像になってしまう。また、暗い画像に対してデジタルゲインで明るくした信号が使用されるため、撮像素子の線形性が悪い場合、色曲がり等により色が正しく表現されないこともある。   However, when such a method is used, the areas 1202 and 1203 in FIG. 12 are subjected to gamma processing and digital gain is applied to the under image, so that only that area becomes a noisy image. In addition, since a signal brightened with a digital gain is used for a dark image, when the linearity of the imaging element is poor, colors may not be correctly expressed due to color bending or the like.

特に、特許文献1にこの手法を用いると、特に高感度において非常にノイズの多い画像になってしまう。   In particular, when this method is used in Patent Document 1, a very noisy image is obtained particularly at high sensitivity.

本発明は、上記課題に鑑みてなされ、その目的は、ノイズや色再現の悪化を抑制できるハイダイナミックレンジ合成を実現することである。   The present invention has been made in view of the above problems, and an object thereof is to realize high dynamic range synthesis that can suppress deterioration of noise and color reproduction.

上記課題を解決し、目的を達成するために、本発明は、露出条件を変えて撮像される複数枚の画像を合成する撮像装置において、露出条件を変えて複数枚の画像を撮像する撮像手段と、前記露出条件の異なる複数枚の画像を合成して合成画像を生成する画像合成手段と、前記撮像手段が第1の画像を撮像する場合は、前記第1の画像よりも露出条件を明るくした第2の画像を撮像する場合よりもISO感度を低下させるように露出を制御する制御手段と、を有する。   In order to solve the above-described problems and achieve the object, the present invention provides an image pickup unit that picks up a plurality of images by changing the exposure conditions in an image pickup apparatus that combines a plurality of images picked up by changing the exposure conditions. And an image composition unit that generates a composite image by combining a plurality of images having different exposure conditions, and when the imaging unit captures the first image, the exposure condition is brighter than that of the first image. Control means for controlling the exposure so that the ISO sensitivity is lowered as compared with the case of capturing the second image.

本発明によれば、ノイズや色再現の悪化を抑制したハイダイナミックレンジ合成を行うことができる。   According to the present invention, it is possible to perform high dynamic range synthesis while suppressing noise and deterioration of color reproduction.

本実施形態の撮像装置の構成を示すブロック図。1 is a block diagram illustrating a configuration of an imaging apparatus according to an embodiment. 本実施形態のHDR合成処理を示すフローチャート。The flowchart which shows the HDR synthetic | combination process of this embodiment. HDR撮影用のプログラム線図を示す図。The figure which shows the program diagram for HDR imaging | photography. 本実施形態の画像処理部の構成を示すブロック図。The block diagram which shows the structure of the image process part of this embodiment. 位置ずれ検出結果を例示する図。The figure which illustrates a position shift detection result. 本実施形態の移動体領域検出部の構成を示すブロック図。The block diagram which shows the structure of the mobile body area | region detection part of this embodiment. 本実施形態の移動被写体の合成結果を例示する図。The figure which illustrates the synthetic result of the moving subject of this embodiment. HDR合成比率を例示する図。The figure which illustrates an HDR synthetic | combination ratio. 通常撮影のガンマカーブを例示する図。The figure which illustrates the gamma curve of normal imaging | photography. 通常撮影のガンマカーブをHDR合成に適用した例を示す図。The figure which shows the example which applied the gamma curve of normal imaging | photography to HDR synthetic | combination. HDR合成用のガンマカーブを例示する図。The figure which illustrates the gamma curve for HDR composition. 移動被写体のHDR合成結果を例示する図。The figure which illustrates the HDR synthetic result of a moving subject.

以下に、本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成しても良い。   Hereinafter, embodiments for carrying out the present invention will be described in detail. The embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment. Moreover, you may comprise combining suitably one part of each embodiment mentioned later.

[実施形態1]以下、本発明を、例えば、画像を撮影するデジタルカメラなどの撮像装置に適用した実施形態について説明する。なお、本発明は、撮影レンズを介して撮影された、複数の色プレーンからなる画像に対し適用できるため、本発明の対象となる画像は、RAWデータや、現像処理後のJPEGデータなどに限定されるものではない。   [Embodiment 1] An embodiment in which the present invention is applied to an image pickup apparatus such as a digital camera for taking an image will be described below. Since the present invention can be applied to an image composed of a plurality of color planes photographed through a photographing lens, the image targeted by the present invention is limited to RAW data, JPEG data after development processing, and the like. Is not to be done.

<装置構成>図1乃至図7を参照して、本発明に係る実施形態の撮像装置の構成及び機能の概略について説明する。   <Apparatus Configuration> With reference to FIGS. 1 to 7, an outline of a configuration and functions of an imaging apparatus according to an embodiment of the present invention will be described.

図1において、100は被写体像Lを撮像素子上に結像させる撮影レンズ、101は光量を調節する絞り、102はシャッター、103は被写体像を電気信号に変換する撮像素子である。104は撮像素子103から出力されるアナログ信号をデジタルデータに変換するA/D変換器である。タイミング発生部105は、メモリ制御部108及びシステム制御部130により制御されて、撮像素子103、A/D変換器104、D/A変換器106にクロック信号や制御信号を供給することにより、各部の動作タイミングを制御する。   In FIG. 1, reference numeral 100 denotes a photographing lens that forms a subject image L on an image sensor, 101 denotes an aperture for adjusting the amount of light, 102 denotes a shutter, and 103 denotes an image sensor that converts the subject image into an electrical signal. Reference numeral 104 denotes an A / D converter that converts an analog signal output from the image sensor 103 into digital data. The timing generation unit 105 is controlled by the memory control unit 108 and the system control unit 130 to supply a clock signal and a control signal to the image sensor 103, the A / D converter 104, and the D / A converter 106. Control the operation timing.

画像処理部113ではA/D変換器104からのデータ或いはメモリ制御部108からのデータに対して画像処理を施す。画像処理は、ホワイトバランス処理、周知のRGBベイヤー配列の信号をRGB3プレーン信号に変換するための色補間処理、ガンマ補正処理、彩度補正、色相補正などである。また、後述するように、画像処理部113は、撮影した複数枚の画像を合成してHDR合成画像を作成する処理も行う。   The image processing unit 113 performs image processing on the data from the A / D converter 104 or the data from the memory control unit 108. The image processing includes white balance processing, color interpolation processing for converting a signal of a well-known RGB Bayer array into an RGB 3-plane signal, gamma correction processing, saturation correction, hue correction, and the like. Further, as will be described later, the image processing unit 113 also performs a process of creating an HDR composite image by combining a plurality of captured images.

メモリ制御部108は、A/D変換器104、タイミング発生部105、画像処理部113、画像表示用メモリ109、D/A変換器106、メモリ110、圧縮/伸張部111をそれぞれ制御する。これにより、A/D変換器104でA/D変換されたデジタルデータは画像処理部113及びメモリ制御部108を介して、或いは直接メモリ制御部108を介して、画像表示用メモリ109或いはメモリ110に書き込まれる。   The memory control unit 108 controls the A / D converter 104, the timing generation unit 105, the image processing unit 113, the image display memory 109, the D / A converter 106, the memory 110, and the compression / decompression unit 111, respectively. Thereby, the digital data A / D converted by the A / D converter 104 is sent to the image display memory 109 or the memory 110 via the image processing unit 113 and the memory control unit 108 or directly via the memory control unit 108. Is written to.

表示メモリ109は第1表示部107に表示するデータを記憶しており、この表示用メモリ109に記憶されているデータは、D/A変換器106を介してTFT・LCD等の第1表示部107に出力されて、表示される。また第1表示部には、ホワイトバランス選択メニューなどのカメラを制御するための様々なメニューの表示が行われる。これらのメニューの表示や選択は第1操作部124を操作することで行われる。   The display memory 109 stores data to be displayed on the first display unit 107, and the data stored in the display memory 109 is transmitted to the first display unit such as a TFT / LCD via the D / A converter 106. It is output to 107 and displayed. The first display unit displays various menus for controlling the camera such as a white balance selection menu. These menus are displayed and selected by operating the first operation unit 124.

メモリ110は、撮影した静止画像を格納するために、所定枚数の静止画像を格納するのに十分な記憶容量を備えている。また、このメモリ110はシステム制御部130や画像処理部113の作業領域としても使用することが可能である。圧縮/伸張部111は画像データを圧縮及び伸張する。圧縮/伸張部111は、メモリ110に格納された画像データを読み込んで圧縮処理を行ったり、或いは圧縮された画像データを読み込んで伸張処理を行い、その処理を終えたデータをメモリ110に書き込むことができる。外部記憶装置112はCFカードやSDカードといった着脱可能な外付けの記録媒体である。メモリ110に一時的に記録された画像データは最終的にこの外部記憶装置112に記録される。   The memory 110 has a storage capacity sufficient to store a predetermined number of still images in order to store captured still images. The memory 110 can also be used as a work area for the system control unit 130 and the image processing unit 113. A compression / decompression unit 111 compresses and decompresses image data. The compression / decompression unit 111 reads image data stored in the memory 110 and performs compression processing, or reads compressed image data and performs decompression processing, and writes the processed data to the memory 110. Can do. The external storage device 112 is a detachable external recording medium such as a CF card or an SD card. The image data temporarily recorded in the memory 110 is finally recorded in the external storage device 112.

測光センサ119は、撮影画面と共役に関係付けられたそれぞれの画素の輝度を測定する。この測光センサ119の出力に応じて、システム制御部130にて適切な露光量が算出されると、露光制御部114は、その露光量に応じた絞り101、シャッター102、撮像素子103のISO感度を制御する。   The photometric sensor 119 measures the luminance of each pixel associated with the imaging screen in a conjugate manner. When an appropriate exposure amount is calculated by the system control unit 130 according to the output of the photometric sensor 119, the exposure control unit 114 detects the ISO sensitivity of the aperture 101, the shutter 102, and the image sensor 103 according to the exposure amount. To control.

測距センサ118はユーザにより任意に選択された測距点の距離情報を検出する。測距制御部115は測距センサ118の出力によりレンズ100のフォーカシングを制御する。   The distance measuring sensor 118 detects distance information of a distance measuring point arbitrarily selected by the user. The distance measurement control unit 115 controls the focusing of the lens 100 by the output of the distance measurement sensor 118.

ズーム制御部116は手動で行われたレンズ100のズーミング量(焦点距離)を検知する。または、ズーミングをカメラの第2操作部125を用いて自動で行う場合にレンズのズーム量を制御する。   The zoom control unit 116 detects a zooming amount (focal length) of the lens 100 manually performed. Alternatively, the zoom amount of the lens is controlled when zooming is automatically performed using the second operation unit 125 of the camera.

自動フラッシュユニット126は、AF補助光の投光機能、フラッシュ調光機能も有する。   The automatic flash unit 126 also has an AF auxiliary light projecting function and a flash light control function.

角速度センサ117はカメラの水平/垂直方向の振れを検知するセンサで、周知の手ぶれ補正処理や縦位置撮影、横位置撮影の判定などに用いられる。   The angular velocity sensor 117 is a sensor that detects camera shake in the horizontal / vertical direction, and is used for known camera shake correction processing, vertical position shooting, and determination of horizontal position shooting.

システム制御部130は、撮像装置全体の動作を制御している。メモリ120は、システム制御部130の動作用の定数、変数プログラム、画像処理用パラメータ等を記憶しており、ワークメモリとしても使用される。また、メモリ120には後述するHDR撮影用の自動露出制御用プログラム線図も記録されている。   The system control unit 130 controls the operation of the entire imaging apparatus. The memory 120 stores constants for operating the system control unit 130, variable programs, image processing parameters, and the like, and is also used as a work memory. The memory 120 also records a program diagram for automatic exposure control for HDR photography, which will be described later.

第2表示部121は、システム制御部130でのプログラムの実行に応じて、文字、画像、音声等を用いて動作状態やメッセージなどを表示するLCDパネルユニット、スピーカ等を含む。第2表示部121の表示内容としては、シングルショット/連写撮影表示、セルフタイマー表示、圧縮率表示、記録画素数表示、記録枚数表示、残記録可能枚数表示等、シャッタースピード表示、絞り値表示、露出補正表示、電池残量表示、エラー表示、外部記録メモリ112の着脱状態表示等がある。   The second display unit 121 includes an LCD panel unit, a speaker, and the like that display an operation state, a message, and the like using characters, images, sounds, and the like according to execution of the program by the system control unit 130. The display content of the second display unit 121 includes single shot / continuous shooting display, self-timer display, compression rate display, recording pixel number display, recording number display, remaining recordable number display, shutter speed display, aperture value display, etc. , Exposure compensation display, battery remaining amount display, error display, external recording memory 112 attachment / detachment state display, and the like.

不揮発性メモリ122は、電気的に消去及び記録が可能なメモリであり、例えばEEPROM等が用いられる。レリーズ釦123、第2操作部125、システム制御部130の各種の動作指示を入力する為の操作ユニットである。レリーズ釦123はSW1とSW2の2段階のスイッチを備えている。SW1はレリーズ釦123の第1ストロークでONし、測光、測距を開始するスイッチとなる。SW2はレリーズ釦123の第2ストロークでONし、露光動作を開始するスイッチとなる。また、第2操作部125はシングルショット/連写撮影/セルフタイマーの切り替え、マニュアルフォーカス/オートフォーカス切り替え、シャッタースピード、絞り値、露出補正の設定等で使用される。   The nonvolatile memory 122 is an electrically erasable and recordable memory. For example, an EEPROM or the like is used. This is an operation unit for inputting various operation instructions of the release button 123, the second operation unit 125, and the system control unit 130. The release button 123 includes a two-stage switch, SW1 and SW2. SW1 is turned on by the first stroke of the release button 123, and serves as a switch for starting photometry and distance measurement. SW2 is turned on by the second stroke of the release button 123 and serves as a switch for starting an exposure operation. The second operation unit 125 is used for single shot / continuous shooting / self-timer switching, manual focus / autofocus switching, shutter speed, aperture value, exposure correction setting, and the like.

また、電源スイッチ127は、撮像装置のメイン電源をオン/オフするスイッチである。電源制御部128は電池検出部、DC−DCコンバータ、通電するブロック等を切り替えるスイッチ部等を備える。電源制御部128は電池の装着の有無、電池の種類、電池残量の検出を行い、その検出結果及びシステム制御部130の支持に基いてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体を含む各部へ供給する。電源129には、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池或いはACアダプタ等を備える。   The power switch 127 is a switch for turning on / off the main power supply of the imaging apparatus. The power control unit 128 includes a battery detection unit, a DC-DC converter, a switch unit that switches a block to be energized, and the like. The power supply control unit 128 detects the presence / absence of a battery, the type of battery, the remaining battery level, controls the DC-DC converter based on the detection result and the support of the system control unit 130, and requires the necessary voltage. It is supplied to each part including the recording medium for a period. The power source 129 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, or an AC adapter.

[HDR合成処理]図2を参照して、本実施形態のHDR合成処理について説明する。   [HDR Compositing Process] The HDR synthesizing process of this embodiment will be described with reference to FIG.

以下では、異なる露出条件で3枚の画像を撮影し、それらの画像を合成することで1枚のHDR合成画像を作成する処理を説明する。なお、図2の処理は、システム制御部130が、ROM122に格納された制御プログラムを、RAM120のワークエリアに展開し、実行することで実現される。   In the following, a process will be described in which three images are taken under different exposure conditions, and one HDR composite image is created by combining these images. 2 is realized by the system control unit 130 expanding and executing the control program stored in the ROM 122 in the work area of the RAM 120.

図2において、ステップS201では、システム制御部130は、レリーズ釦123のSW1が押されると測光センサ119により測光動作を行う。この測光動作により、被写体のBV値が算出される。システム制御部130は、算出された被写体のBV値を用いて、メモリ120に記録されているHDR撮影用のプログラム線図(図3)に応じて、HDR撮影用の3つの異なる露出条件を決定する。図3に示すように、本実施形態ではHDR撮影用の3枚の画像の撮影条件として、中間露出(適正露出)に対して、±2段の露出差をつけて撮影する。露出差条件についてはこれに限るものではなく、±1、±3またはそれ以上であってもよい。また1段刻みではなく±1/3段等としてもよい。なお、プログラム線図は露出差毎に異なる。   In FIG. 2, in step S <b> 201, the system control unit 130 performs a photometric operation by the photometric sensor 119 when the SW <b> 1 of the release button 123 is pressed. By this photometric operation, the BV value of the subject is calculated. The system control unit 130 uses the calculated BV value of the subject to determine three different exposure conditions for HDR shooting according to the HDR shooting program diagram (FIG. 3) recorded in the memory 120. To do. As shown in FIG. 3, in the present embodiment, shooting is performed with an exposure difference of ± 2 steps with respect to intermediate exposure (appropriate exposure) as shooting conditions for three images for HDR shooting. The exposure difference condition is not limited to this, and may be ± 1, ± 3 or more. Further, it may be ± 1/3 step instead of one step. Note that the program diagram differs for each exposure difference.

ここで、図3のプログラム線図について詳細に説明する。   Here, the program diagram of FIG. 3 will be described in detail.

図3(a)はBV値(x軸)に対するシャッター秒時(y軸)の関係を示している。図3(a)の301は3つの露出条件のうち、中間の露出(適正露出)のシャッター秒時を示している。同様に、302は暗い側の露出(アンダー露出)、303は明るい側の露出(オーバー露出)におけるシャッター秒時をそれぞれ示している。   FIG. 3A shows the relationship between the shutter speed (y axis) and the BV value (x axis). Reference numeral 301 in FIG. 3A indicates the shutter speed of intermediate exposure (appropriate exposure) among the three exposure conditions. Similarly, reference numeral 302 denotes a dark side exposure (under exposure), and 303 denotes a shutter time at a bright side exposure (over exposure).

図3(b)はBV値(x軸)に対するレンズの絞り(y軸)の関係を示している。図3(b)の304は適正、アンダー、オーバーの各露出条件で絞り条件が共通であることを示している。   FIG. 3B shows the relationship of the lens aperture (y-axis) to the BV value (x-axis). Reference numeral 304 in FIG. 3B indicates that the aperture condition is common to the appropriate, under, and over exposure conditions.

図3(c)はBV値(x軸)に対するISO感度(y軸)の関係を示している。図3(c)の305は適正、オーバーのISO感度条件で、306はアンダーのISO感度条件を示している。   FIG. 3C shows the relationship of ISO sensitivity (y axis) to BV value (x axis). In FIG. 3C, reference numeral 305 denotes a proper and over ISO sensitivity condition, and reference numeral 306 denotes an under ISO sensitivity condition.

図3のプログラム線図によれば、BV値が2以下では、適正、アンダー撮影におけるシャッター秒時条件は等しく、ISO感度条件はアンダー撮影が適正撮影よりも2段分低く設定される。オーバー撮影の条件については適正撮影と同じである。   According to the program diagram of FIG. 3, when the BV value is 2 or less, the shutter speed conditions for proper and under shooting are equal, and the ISO sensitivity condition is set lower by two steps for under shooting than for proper shooting. The conditions for overshooting are the same as for proper shooting.

BV値が4以上の場合、ISO感度については適正、アンダー、オーバー共に等しく、シャッター秒時はアンダー撮影は適正撮影よりも2段分高速秒時に設定され、オーバー撮影は適正撮影よりも2段分低速秒時に設定される。   When the BV value is 4 or more, the ISO sensitivity is the same for both proper, under, and over. Under shutter time, under shooting is set at two steps faster than proper shooting, and over shooting is two steps higher than proper shooting. Set for slow seconds.

BV値が2から4についてはBV値2以下と4以上の制御が線形補間でつながるように設定されている。   When the BV value is 2 to 4, the control is set so that the control of the BV value 2 or less and the control of 4 or more are connected by linear interpolation.

なお、絞りについては全てのBV値で適正、アンダー、オーバー共に共通の設定としている。これは背景のボケ具合が絞りによって変化してしまうため、絞りを変えて撮影すると後述するHDR合成画像が違和感のある画像になってしまうためである。   Note that the aperture is set to be common for all the BV values, appropriate, under and over. This is because the background blur changes depending on the aperture, and if the aperture is changed, an HDR composite image described later becomes an image with a sense of incongruity.

本プログラム線図によれば、適正、オーバー画像のISO感度が、本実施形態で設定できる最小のISO感度であるISO100よりも大きくなるBV値においては、アンダー画像はISO感度を相対的に低く設定することで作成する。これにより、アンダー画像のノイズが相対的に少なくなるように制御している。   According to this program diagram, the ISO sensitivity of the under image is set to a relatively low ISO sensitivity when the ISO sensitivity of the over image is higher than ISO 100, which is the minimum ISO sensitivity that can be set in this embodiment. To create. Thereby, control is performed so that the noise of the under image is relatively reduced.

また、アンダー画像のISO感度が本実施形態で設定できる最小のISO感度であるISO100となる条件においては、撮影秒時を高速側に設定することで、アンダー画像を得るように制御している。   Also, under the condition that the ISO sensitivity of the under image is ISO 100, which is the minimum ISO sensitivity that can be set in this embodiment, the under image is controlled by setting the shooting time to the high speed side.

なお、オーバー画像を撮影するにあたってISO感度を適正画像よりも高く設定するとノイズが増えてしまうため、適正画像と同じISO感度とし、シャッター秒時を適正露出よりも長秒にすることで、オーバー画像を得るように制御している。   Note that noise is increased if the ISO sensitivity is set higher than the appropriate image when shooting the over image. Therefore, by setting the same ISO sensitivity as the appropriate image and setting the shutter time longer than the appropriate exposure, the over image Have control to get.

なお、本実施形態では被写体のBV値から自動的に露出条件を決定する例を示しているが、ユーザが手動で撮影条件を設定してもよい。この場合、ユーザは適正露出の撮影条件とHDR合成用の3枚の画像の露出差のみ設定できるものとする。   In this embodiment, the exposure condition is automatically determined from the BV value of the subject. However, the user may set the shooting condition manually. In this case, it is assumed that the user can set only a photographing condition with appropriate exposure and an exposure difference between three images for HDR composition.

手動で設定した場合も図3のプラグラム線図で示した制御と同様に、アンダー画像は適正画像に対して設定された露出差条件の量だけ相対的にISO感度を低くすることで実現する。但し、図3のプログラム線図と同様に、アンダー画像のISO感度が本実施形態の撮像装置において設定可能なISO感度の下限値であるISO100となった場合は、シャッター秒時を高速側に設定すればよい。オーバー画像についても図3のプログラム線図と同様に、シャッター秒時を適正画像よりも長秒にすることで実現する。   Even in the case of manual setting, the under image is realized by lowering the ISO sensitivity relatively by the amount of the exposure difference condition set for the appropriate image, as in the control shown by the program diagram of FIG. However, as in the program diagram of FIG. 3, when the ISO sensitivity of the under image is ISO 100, which is the lower limit value of the ISO sensitivity that can be set in the imaging apparatus of the present embodiment, the shutter speed is set to the high speed side. do it. Similar to the program diagram of FIG. 3, the over image is also realized by setting the shutter time longer than the appropriate image.

以上のようにして露出条件が決定される(S201)。なお、本発明の第1の画像、第2の画像、第3の画像は、本実施形態のアンダー画像、適正画像、オーバー画像にそれぞれ対応している。   The exposure conditions are determined as described above (S201). Note that the first image, the second image, and the third image of the present invention correspond to the under image, the appropriate image, and the over image of the present embodiment, respectively.

図2に戻り、ステップS202では、システム制御部130は、レリーズ釦123のSW2が押されると、ステップS201で決定されたアンダー画像の撮影条件にてアンダー画像を撮影する。撮影された画像はA/D変換器104にてデジタルデータに変換され12ビットRAW画像として一旦メモリ110に保持される。   Returning to FIG. 2, in step S202, when the SW2 of the release button 123 is pressed, the system control unit 130 captures an under image under the under image capturing conditions determined in step S201. The captured image is converted to digital data by the A / D converter 104 and temporarily held in the memory 110 as a 12-bit RAW image.

ステップS203では、システム制御部130は、ステップS202で押されたレリーズ釦123のSW2に従って、ステップS201で決定された撮影条件にてHDR合成用の適正画像の撮影を行う。適正画像もステップS202のアンダー画像と同様に12ビットRAW画像として一旦メモリ110に保持される。   In step S203, the system control unit 130 shoots an appropriate image for HDR composition under the shooting conditions determined in step S201 in accordance with SW2 of the release button 123 pressed in step S202. The appropriate image is also temporarily held in the memory 110 as a 12-bit RAW image, like the under image in step S202.

同様にステップS204でもステップS201で決定された撮影条件にてHDR合成用のオーバー画像の撮影が行われ、メモリ110に保持される。   Similarly, in step S204, an HDR over-image is shot under the shooting conditions determined in step S201, and is stored in the memory 110.

ステップS205では、システム制御部130は、メモリ110に保持されたHDR合成用の3枚の画像の合成を行う。   In step S <b> 205, the system control unit 130 synthesizes three images for HDR synthesis held in the memory 110.

ここで、ステップS206からS215までの動作について図4の画像処理部113の構成を参照して説明する。   Here, the operation from step S206 to S215 will be described with reference to the configuration of the image processing unit 113 in FIG.

ステップS206では、現像処理部4010がメモリ110に記録されているアンダー画像の現像処理を行う。現像処理部4010では、まずホワイトバランス処理部4011においてホワイトバランス処理が施される。具体的には画像の白くあるべき領域のR,G,Bが同じ信号値になるようなゲインがR,G,B各々にかけられる。次にノイズ低減処理部4012において入力画像の被写体像に由来しないセンサ起因のノイズなどを低減する。続く色補間部4013では色モザイク画像を補間することによって、全ての画素においてR、G、B3プレーンの色情報が揃ったカラー画像を生成する。生成されたカラー画像は、マトリクス変換部4014及びガンマ変換部4015によって基本的なカラー画像が生成される。その後、色調整部4016でカラー画像の彩度、色相、明度の補正処理が行われる。   In step S <b> 206, the development processing unit 4010 performs development processing for the under image recorded in the memory 110. In the development processing unit 4010, first, white balance processing is performed in the white balance processing unit 4011. Specifically, a gain is applied to each of R, G, and B so that R, G, and B of the region that should be white in the image have the same signal value. Next, a noise reduction processing unit 4012 reduces noise caused by the sensor that is not derived from the subject image of the input image. A subsequent color interpolation unit 4013 generates a color image in which the color information of the R, G, and B3 planes is aligned in all pixels by interpolating the color mosaic image. A basic color image is generated from the generated color image by the matrix conversion unit 4014 and the gamma conversion unit 4015. Thereafter, the color adjustment unit 4016 performs correction processing of the saturation, hue, and brightness of the color image.

ガンマ変換部4015では、前述した図11(a)の1103に示すガンマカーブが使用される。   In the gamma conversion unit 4015, the gamma curve indicated by 1103 in FIG.

同様にステップS207、S208ではそれぞれ適正画像、オーバー画像の現像処理が施される。ここではガンマ変換部4015のガンマカーブのみそれぞれ異なるが他の処理はアンダー画像と同様の処理となる。ガンマカーブについては図11(a)の1102が適正画像に適用され、1101がオーバー画像に適用される。   Similarly, in steps S207 and S208, appropriate images and over-images are developed. Here, only the gamma curve of the gamma conversion unit 4015 is different, but the other processes are the same as those for the under image. As for the gamma curve, 1102 in FIG. 11A is applied to the appropriate image, and 1101 is applied to the over image.

以上のようなガンマカーブに従って現像された画像によって、前述したように階調が滑らかなHDR合成画像を作成することができる。   With the image developed according to the gamma curve as described above, an HDR composite image with smooth gradation can be created as described above.

なお、前述したように、ガンマカーブはアンダー画像ほどゲインが多くかかるカーブとなっているため、現像処理後はアンダー画像ほどノイズ増加が多くなる。特に高感度ほどそれによる画質劣化の影響が顕著になる。しかしながら、本実施形態ではステップS201の露出条件決定時に、アンダー画像撮影時のISO感度を、適正画像やオーバー画像撮影時のISO感度よりも低く設定しているため、適正画像に対するノイズ感の差は抑制される。   Note that, as described above, the gamma curve is a curve that requires more gain for an under image, and therefore, the noise increases for an under image after development processing. In particular, the higher the sensitivity, the more conspicuous the effect of image quality degradation. However, in the present embodiment, when the exposure condition is determined in step S201, the ISO sensitivity at the time of under image shooting is set lower than the ISO sensitivity at the time of shooting an appropriate image or over image, so the difference in noise feeling with respect to the proper image is It is suppressed.

次にステップS209からS212では、位置ずれ検出部4040及び位置ずれ補正部4030が、現像処理を行った各画像の位置合わせを行う。   Next, in steps S209 to S212, the misregistration detection unit 4040 and the misregistration correction unit 4030 align each image that has undergone development processing.

ここで、位置合わせ処理の詳細について説明する。   Here, details of the alignment processing will be described.

まず、画像を複数個のブロック領域に分割して、それぞれのブロック毎にエッジ検出処理を行う。エッジ検出方法として、入力画像にローパスフィルタをかけることで低周波画像を作成し、入力画像から上記低周波画像を減算することでエッジを検出する。もしくは、公知の微分フィルタやプリューウィットフィルタなどを用いる方法が考えられる。エッジ検出では、センサ起因のノイズではなく、被写体像のエッジのみを検出した方が位置ずれ検出精度を向上することができる。   First, an image is divided into a plurality of block areas, and edge detection processing is performed for each block. As an edge detection method, a low frequency image is created by applying a low-pass filter to the input image, and an edge is detected by subtracting the low frequency image from the input image. Alternatively, a method using a known differential filter, a pre-wit filter, or the like can be considered. In edge detection, it is possible to improve the positional deviation detection accuracy by detecting only the edge of the subject image, not the noise caused by the sensor.

次に、画像のブロック領域の中でエッジ検出ができたブロック領域に対してずれ量検出を行う。エッジ検出ができたブロック領域に対してのみずれ量検出をすることで、位置ずれ検出精度を向上することができる。ずれ量検出方法として、ブロック領域内の全画素の位置基準用画像の画素値(輝度)と位置ずれ検出画像の画素値(輝度)の差の絶対値の総和(Sum of Absolute Difference)を算出し、その総和が最小となるような移動量と移動方向をそのブロックの動きベクトルとする方法がある。図5はずれ量検出方法を例示している。図5(a)は、位置基準画像の対象ブロック領域の画素値を示している。   Next, the shift amount detection is performed on the block area in which the edge is detected in the block area of the image. By detecting the shift amount only for the block area where the edge can be detected, the positional shift detection accuracy can be improved. As a displacement amount detection method, a sum of absolute values (Sum of Absolute Difference) of the difference between the pixel value (luminance) of the position reference image of all the pixels in the block region and the pixel value (luminance) of the displacement detection image is calculated. There is a method in which the movement amount and the movement direction that minimize the total sum are used as the motion vector of the block. FIG. 5 illustrates a deviation amount detection method. FIG. 5A shows the pixel value of the target block area of the position reference image.

一方、図5(b)は、位置ずれ検出画像の画素値を示している。図5の場合、画素値の差の絶対値が最も小さくなる移動量は、(x、y)=(1、2)と求まる。同様の処理を画像の全ブロック領域に対して行い、全てのブロック領域の動きベクトルを求める。ずれ量検出では、位置基準用画像と位置ずれ検出画像の同じ被写体領域が同じ明るさである方が位置ずれ検出精度を向上することができる。   On the other hand, FIG. 5B shows the pixel value of the misregistration detection image. In the case of FIG. 5, the movement amount with which the absolute value of the difference between the pixel values becomes the smallest is obtained as (x, y) = (1, 2). Similar processing is performed on all block areas of the image to obtain motion vectors of all block areas. In displacement amount detection, it is possible to improve the displacement detection accuracy when the same subject area of the position reference image and the displacement detection image has the same brightness.

最後に、幾何変換係数を算出する。幾何変換係数としてはアフィン係数を用いる。アフィン係数とは線形変換と平行移動を組み合わせたアフィン変換に用いる行列であり、以下の式1で表される。   Finally, a geometric transformation coefficient is calculated. An affine coefficient is used as the geometric transformation coefficient. The affine coefficient is a matrix used for affine transformation combining linear transformation and parallel movement, and is expressed by the following Expression 1.

ここで、補正前画像の座標を(x,y)、補正後画像の座標を(x’,y’)とし、3×3行列をアフィン係数と呼ぶ。各ブロック領域から求めた動きベクトルを用いて、アフィン係数を求める。   Here, the coordinates of the image before correction are (x, y), the coordinates of the image after correction are (x ′, y ′), and the 3 × 3 matrix is called an affine coefficient. An affine coefficient is obtained using a motion vector obtained from each block region.

以上が、位置ずれ検出部4020における位置ずれ検出方法であるが、本発明は、これに限定するものではない。位置ずれ検出方法としては、周波数解析から2枚の画像のずれ量を検出するなど、他にもさまざまな方法がある。   The above is the positional deviation detection method in the positional deviation detection unit 4020, but the present invention is not limited to this. There are various other misalignment detection methods, such as detecting the misalignment between two images from frequency analysis.

図2の説明に戻り、ステップS211からS212では、位置ずれ補正部4030は、上記位置ずれ検出処理で算出したアフィン係数に基づいて、適正画像及びオーバー画像を補正(アフィン変換)する。   Returning to the description of FIG. 2, in steps S211 to S212, the misalignment correction unit 4030 corrects (affine transform) the appropriate image and the over image based on the affine coefficient calculated in the misalignment detection process.

ステップS213〜S214では、移動体領域検出部4040は、アンダー画像及び、位置合わせ後の適正画像、オーバー画像に対して移動体領域を検出する。図6は移動体領域検出部4040の構成を示している。図6において、基準画像4041はアンダー画像であり、図7(a)のようなシーンであるとする。一方、位置合わせ済み画像4042は位置合わせ済み適正画像もしくは位置合わせ済みオーバー画像であり、図7(b)のように(a)に対して少しだけ右側に移動したシーンとする。動体検出部4043は、基準画像4041と位置合わせ済み画像4042から動体領域を検出する。動体領域を検出する方法としては幾つか考えられるが、例えば2つの画像間の差分をとる方法が考えられる。差分Diffは色及び輝度信号を用いて以下の式2で算出する。   In steps S213 to S214, the moving body region detection unit 4040 detects the moving body region with respect to the under image, the appropriate image after alignment, and the over image. FIG. 6 shows the configuration of the moving object region detection unit 4040. In FIG. 6, the reference image 4041 is an under image, and is a scene as shown in FIG. On the other hand, the aligned image 4042 is a properly aligned image or an over-aligned image, and is a scene moved slightly to the right with respect to (a) as shown in FIG. 7B. The moving object detection unit 4043 detects a moving object region from the reference image 4041 and the aligned image 4042. There are several methods for detecting the moving object region. For example, a method for obtaining a difference between two images is conceivable. The difference Diff is calculated by the following equation 2 using the color and luminance signals.

ここでYは輝度信号、U、Vは色信号を表している。従って差分Diffは色差を意味する。   Here, Y represents a luminance signal, and U and V represent color signals. Therefore, the difference Diff means a color difference.

次に、白飛び黒潰れ領域除外部4044が差分Diffに対して、アンダー画像や適正画像の黒潰れ輝度域及び、適正画像やオーバー画像の白飛び輝度域の除外を行う。これは白飛びや黒潰れ領域が動体検出部4043にて差分として現れ、移動体領域と誤判定されることを防止する目的で行う。基準画像4041から黒潰れ輝度th1以下の信号の領域と位置合わせ済み画像4042の白飛び輝度th2以上の信号の領域を差分Diffから除外(信号値を0にする)する。結果は図7(c)のようになる。   Next, the overexposure blackout area exclusion unit 4044 excludes the underexposure or appropriate image overexposure brightness areas and the overexposure overexposure areas overout of the difference Diff. This is performed for the purpose of preventing an overexposure or blackout area from appearing as a difference in the moving object detection unit 4043 and being erroneously determined as a moving object area. The signal area with the blackout brightness th1 or less from the reference image 4041 and the signal area with the whiteout brightness th2 or more in the aligned image 4042 are excluded from the difference Diff (the signal value is set to 0). The result is as shown in FIG.

その後、差分Diffの結果を参照しながら移動体領域を補正する処理に移行するが、それに先立って差分Diffから誤検出による、極小な移動体や移動体内の非移動体などの孤立領域を孤立領域除去部4045により除去しておくことで移動体領域の境界を滑らかで自然な描写にすることができる。孤立領域を除去する方法は幾つか考えられるが、例えば差分Diffを縮小及び拡大することを考える。縮小の段階で移動体と誤判定された小さな領域を除去することができ、元のサイズに拡大する段階で、移動体領域の内部に存在する非移動体領域を収縮することができる。   Thereafter, the process proceeds to the process of correcting the moving object region while referring to the result of the difference Diff. Prior to that, an isolated region such as a minimal moving object or a non-moving object in the moving object is detected as an isolated region due to erroneous detection from the difference Diff. By removing by the removing unit 4045, the boundary of the moving body region can be rendered smooth and natural. There are several methods for removing the isolated region. For example, consider reducing and expanding the difference Diff. A small area erroneously determined as a moving body at the stage of reduction can be removed, and a non-moving body area existing inside the moving body area can be contracted at the stage of enlargement to the original size.

以上の移動体領域検出処理により抽出された移動体領域は図7(d)のようになる。画像信号は非移動体領域が0として表わされ、移動体領域が255(8bitの場合)として表わされる。移動体領域と非移動体領域の境界については、1〜244の間で表わされる。   The moving body region extracted by the above moving body region detection process is as shown in FIG. In the image signal, the non-moving body area is represented as 0, and the moving body area is represented as 255 (in the case of 8 bits). The boundary between the moving body region and the non-moving body region is represented by 1 to 244.

ステップS215では、移動体領域合成部4050は、移動体領域検出部4040から出力される、アンダー画像と適正画像の移動体領域と、アンダー画像とオーバー画像の移動体領域とを合成する。具体的にはアンダー画像と適正画像の移動体検出画像と、アンダー画像とオーバー画像の移動体検出画像とを大値選択する。移動体領域は1以上の信号で表わされているため大値選択をすることで、全ての移動体領域を検出した画像を得ることができる。   In step S215, the moving body region combining unit 4050 combines the under image and the appropriate image moving body region, and the under image and the over image moving body region output from the moving body region detection unit 4040. Specifically, a moving object detection image of an under image and an appropriate image, and a moving object detection image of an under image and an over image are selected to a large value. Since the moving object area is represented by one or more signals, an image in which all moving object areas are detected can be obtained by selecting a large value.

ステップS216では、画像合成部4060は、アンダー画像と位置合わせ済みの適正画像とオーバー画像を用いて別途、輝度別合成処理を行い、HDR合成画像を生成する。具体的には、「背景技術」の欄で述べたように適正画像の輝度レベルを基準輝度として、図8に示す合成比率に応じて、アンダー画像、適正画像、オーバー画像を合成する。この合成処理で生成された画像は「発明が解決しようとする課題」の欄で述べたように、移動体領域については正しく合成されていない。   In step S <b> 216, the image composition unit 4060 separately performs luminance-specific composition processing using the under image, the appropriate image that has been aligned, and the over image, and generates an HDR composite image. Specifically, as described in the “Background Art” section, the under image, the appropriate image, and the over image are combined according to the combining ratio shown in FIG. 8 using the luminance level of the appropriate image as the reference luminance. As described in the column “Problems to be Solved by the Invention”, the image generated by the synthesis process is not correctly synthesized for the moving object region.

そこで、ステップS217において、移動体処理部4070は、移動体検出画像を参照しながらHDR合成画像内の移動体領域を修正する。具体的には、ステップS216で作成したHDR合成画像に対して、ステップS215で算出した移動体領域をアンダー画像に置き換える。   Therefore, in step S217, the moving object processing unit 4070 corrects the moving object region in the HDR composite image while referring to the moving object detection image. Specifically, the moving body region calculated in step S215 is replaced with an under image for the HDR composite image created in step S216.

ここで、移動体領域を単純にアンダー画像に置き換えてしまうと、移動体が暗い場合、アンダー画像の暗い領域の画像が使用されてしまう。特にアンダー画像の暗い領域はガンマ変換処理で大きなゲインがかかるため、ノイズの増加だけでなく、撮像素子103の信号の線形性が十分に得られず、色被り等が発生し被写体の色が適切に再現できない場合がある。   Here, if the moving object region is simply replaced with an under image, an image in a dark region of the under image is used when the moving object is dark. Particularly in the dark area of the under image, a large gain is applied by the gamma conversion process. Therefore, not only the noise increases but the linearity of the signal of the image sensor 103 cannot be sufficiently obtained, and the color of the subject is appropriate due to color covering. May not be reproduced.

そこで、ステップS206のアンダー画像の現像処理を行う際に、ノイズ低減処理部4012が、適正画像・オーバー画像よりも相対的に強めのノイズ低減処理を施したり、色調整部4016で暗部の彩度を低下させる処理を行う。   Therefore, when the under image development processing in step S206 is performed, the noise reduction processing unit 4012 performs a noise reduction process that is relatively stronger than the appropriate image / over image, or the color adjustment unit 4016 performs saturation saturation of the dark portion. The process which lowers is performed.

また、アンダー画像の彩度のみを低下させてしまうと移動体部分のみ彩度が低下してしまうため、ステップS207、S208の適正画像やオーバー画像の現像処理にも同様に彩度を低下させる処理を施すような構成としてもよい。   Further, if only the saturation of the under image is reduced, the saturation of only the moving body portion is reduced. Therefore, the processing for reducing the saturation similarly in the appropriate image and over image development processing in steps S207 and S208. It is good also as a structure which gives.

最後にステップS218で、HDR合成画像がメモリ110に保持された後、圧縮/伸張部111にてJPEG圧縮処理が施され、外部記録装置112に記録されて一連の処理が終了する。   Finally, in step S218, after the HDR composite image is held in the memory 110, the compression / decompression unit 111 performs JPEG compression processing, records it in the external recording device 112, and the series of processing ends.

本実施形態によれば、アンダー画像のISO感度を適正画像よりも相対的に下げて撮影することで、ガンマ変換処理によるアンダー画像のノイズの増加を抑えることができる。また、アンダー画像の暗部に対して彩度を低下させる処理を施すことで、移動体領域の色曲がり等の影響も抑制することができる。   According to the present embodiment, an increase in the noise of the under image due to the gamma conversion process can be suppressed by photographing the ISO sensitivity of the under image relatively lower than that of the appropriate image. In addition, by performing the process of reducing the saturation on the dark part of the under image, it is possible to suppress the influence of the color curve of the moving body region.

[他の実施形態]本発明は、以下の処理を実行することによっても実現される。即ち上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。   [Other Embodiments] The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program code. It is processing to do. In this case, the program and the storage medium storing the program constitute the present invention.

Claims (11)

露出条件を変えて撮像される複数枚の画像を合成する撮像装置において、
露出条件を変えて複数枚の画像を撮像する撮像手段と、
前記露出条件の異なる複数枚の画像を合成して合成画像を生成する画像合成手段と、
前記撮像手段が第1の画像を撮像する場合は、前記第1の画像よりも露出条件を明るくした第2の画像を撮像する場合よりもISO感度を低下させるように露出を制御する制御手段と、を有することを特徴とする撮像装置。
In an imaging device that synthesizes multiple images that are captured under different exposure conditions,
An imaging means for capturing a plurality of images under different exposure conditions;
Image combining means for generating a combined image by combining a plurality of images having different exposure conditions;
Control means for controlling the exposure so that the ISO sensitivity is lowered when the image pickup means picks up the first image, compared with the case of picking up the second image with a lighter exposure condition than the first image; An imaging apparatus comprising:
前記制御手段は、前記第1の画像と前記第2の画像との間で、シャッター秒時及び絞り値を変えずにISO感度を変えることで露出条件を変えて、前記撮像手段に前記第1の画像及び第2の画像を撮像させることを特徴とする請求項1に記載の撮像装置。   The control means changes the exposure condition by changing the ISO sensitivity without changing the shutter speed and the aperture value between the first image and the second image, and sends the first image to the imaging means. The image pickup apparatus according to claim 1, wherein the image and the second image are picked up. 前記制御手段は、前記撮像手段に前記第2の画像よりも露出条件を明るくした第3の画像を撮像させ、前記第3の画像の露出条件での撮像については、シャッター秒時を他の露出条件よりも長秒にすることで露出を制御することを特徴とする請求項1または2に記載の撮像装置。   The control unit causes the imaging unit to capture a third image with an exposure condition brighter than that of the second image, and for imaging under the exposure condition of the third image, the shutter time is set to other exposure. The imaging apparatus according to claim 1, wherein the exposure is controlled by setting the exposure time longer than the condition. 前記制御手段は、前記撮像手段に前記第2の画像よりも露出条件を明るくした第3の画像を撮像させ、前記第2の画像と前記第3の画像との間で、ISO感度及び絞り値を変えずにシャッター秒時を変えることで露出条件を変えて、前記撮像手段に前記第2の画像及び第3の画像を撮像させることを特徴とする請求項1または2に記載の撮像装置。   The control unit causes the imaging unit to capture a third image with a lighter exposure condition than the second image, and an ISO sensitivity and an aperture value between the second image and the third image. 3. The imaging apparatus according to claim 1, wherein an exposure condition is changed by changing a shutter time without changing the shutter speed, and the imaging unit is caused to capture the second image and the third image. 4. 前記制御手段は、前記ISO感度が前記撮像装置で設定可能な下限値に達した場合、シャッター秒時を高速側に設定することで露出を制御することを特徴とする請求項1乃至4のいずれか1つに記載の撮像装置。   5. The control unit according to claim 1, wherein when the ISO sensitivity reaches a lower limit value that can be set by the imaging apparatus, the control unit controls exposure by setting a shutter speed to a high speed side. The imaging device as described in any one. 前記第1の画像に対するノイズ低減処理を他の露出条件で撮像された画像よりも強くすることを特徴とする請求項1乃至5のいずれか1つに記載の撮像装置。   The imaging apparatus according to claim 1, wherein noise reduction processing for the first image is made stronger than an image captured under other exposure conditions. 前記画像合成手段は、
前記複数枚の画像を現像する現像手段と、
前記現像された複数枚の画像の位置ずれを検出する位置ずれ検出手段と、
前記検出された位置ずれを補正する補正手段と、
前記複数枚の画像から移動体領域を検出する移動体領域検出手段と、
前記検出された移動体領域を合成する移動体領域合成手段と、を有し、
前記現像手段は、前記複数枚の画像の輝度レベルを揃えるために各画像それぞれに異なるガンマ変換処理を施し、
前記画像合成手段は、前記複数枚の画像を合成して生成される合成画像の移動体領域を、前記複数枚の画像のうち最も暗い露出条件で撮像した画像に置き換えることを特徴とする請求項1乃至6のいずれか1つに記載の撮像装置。
The image composition means includes
Developing means for developing the plurality of images;
A misregistration detecting means for detecting misregistration of the developed plurality of images;
Correction means for correcting the detected displacement;
Moving body region detecting means for detecting a moving body region from the plurality of images;
Moving body region combining means for combining the detected moving body region,
The developing means performs a different gamma conversion process on each image in order to align the luminance levels of the plurality of images,
The image combining means replaces a moving body region of a composite image generated by combining the plurality of images with an image captured under the darkest exposure condition among the plurality of images. The imaging device according to any one of 1 to 6.
前記画像合成手段は、前記複数枚の画像を合成して生成される合成画像の移動体領域を、前記複数枚の画像のうち最も暗い露出条件で撮像した画像に置き換える際に、当該最も暗い露出条件で撮像した画像の彩度を他の露出条件で撮像された画像より低くすることを特徴とする請求項7に記載の撮像装置。   The image synthesizing unit replaces the moving body area of the synthesized image generated by synthesizing the plurality of images with an image captured under the darkest exposure condition among the plurality of images, and the darkest exposure is performed. The image pickup apparatus according to claim 7, wherein the saturation of an image picked up under conditions is lower than that of an image picked up under other exposure conditions. 露出条件を変えて撮像される複数枚の画像を合成する撮像装置の制御方法であって、
露出条件を変えて複数枚の画像を撮像する撮像工程と、
前記露出条件の異なる複数枚の画像を合成して合成画像を生成する画像合成工程と、
前記撮像工程において第1の画像を撮像する場合は、前記第1の画像よりも露出条件を明るくした第2の画像を撮像する場合よりもISO感度を低下させるように露出を制御する制御工程と、を有することを特徴とする制御方法。
A method for controlling an image pickup apparatus that combines a plurality of images picked up by changing exposure conditions,
An imaging step of capturing a plurality of images under different exposure conditions;
An image combining step of generating a combined image by combining a plurality of images having different exposure conditions;
When capturing the first image in the imaging step, a control step for controlling the exposure so that the ISO sensitivity is lower than when capturing the second image with a brighter exposure condition than the first image; The control method characterized by having.
コンピュータを、請求項1乃至8のいずれか1つに記載された撮像装置の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit of the imaging apparatus according to any one of claims 1 to 8. コンピュータを、請求項1乃至8のいずれか1つに記載された撮像装置の各手段として機能させるためのプログラムを格納したコンピュータにより読み取り可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to function as each unit of the imaging apparatus according to any one of claims 1 to 8.
JP2012096040A 2012-04-19 2012-04-19 Imaging apparatus, control method therefor, program, and storage medium Active JP6108680B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012096040A JP6108680B2 (en) 2012-04-19 2012-04-19 Imaging apparatus, control method therefor, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012096040A JP6108680B2 (en) 2012-04-19 2012-04-19 Imaging apparatus, control method therefor, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2013225724A true JP2013225724A (en) 2013-10-31
JP6108680B2 JP6108680B2 (en) 2017-04-05

Family

ID=49595530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012096040A Active JP6108680B2 (en) 2012-04-19 2012-04-19 Imaging apparatus, control method therefor, program, and storage medium

Country Status (1)

Country Link
JP (1) JP6108680B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014060578A (en) * 2012-09-18 2014-04-03 Olympus Imaging Corp Image pick-up device
JP2016120262A (en) * 2014-12-25 2016-07-07 カシオ計算機株式会社 Diagnosis support device, image processing method in the diagnosis support device and program thereof
US10469742B2 (en) 2016-06-27 2019-11-05 Samsung Electronics Co., Ltd. Apparatus and method for processing image
WO2021024577A1 (en) * 2019-08-06 2021-02-11 ソニー株式会社 Imaging control device, imaging control method, program, and imaging device
WO2024078275A1 (en) * 2022-10-10 2024-04-18 华为技术有限公司 Image processing method and apparatus, electronic device and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008061121A (en) * 2006-09-01 2008-03-13 Sony Corp Photographing device and method, and program
JP2011015380A (en) * 2009-06-03 2011-01-20 Sony Corp Imaging apparatus, and imaging control method
JP2011199860A (en) * 2010-02-26 2011-10-06 Nikon Corp Imaging device and image generating program
JP2011229008A (en) * 2010-04-21 2011-11-10 Canon Inc Image capturing apparatus and program
JP2012044377A (en) * 2010-08-18 2012-03-01 Casio Comput Co Ltd Image compositing device, image compositing method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008061121A (en) * 2006-09-01 2008-03-13 Sony Corp Photographing device and method, and program
JP2011015380A (en) * 2009-06-03 2011-01-20 Sony Corp Imaging apparatus, and imaging control method
JP2011199860A (en) * 2010-02-26 2011-10-06 Nikon Corp Imaging device and image generating program
JP2011229008A (en) * 2010-04-21 2011-11-10 Canon Inc Image capturing apparatus and program
JP2012044377A (en) * 2010-08-18 2012-03-01 Casio Comput Co Ltd Image compositing device, image compositing method and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014060578A (en) * 2012-09-18 2014-04-03 Olympus Imaging Corp Image pick-up device
JP2016120262A (en) * 2014-12-25 2016-07-07 カシオ計算機株式会社 Diagnosis support device, image processing method in the diagnosis support device and program thereof
US10469742B2 (en) 2016-06-27 2019-11-05 Samsung Electronics Co., Ltd. Apparatus and method for processing image
WO2021024577A1 (en) * 2019-08-06 2021-02-11 ソニー株式会社 Imaging control device, imaging control method, program, and imaging device
US11716552B2 (en) 2019-08-06 2023-08-01 Sony Group Corporation Imaging control device, imaging control method, and imaging device for increasing resolution of an image
WO2024078275A1 (en) * 2022-10-10 2024-04-18 华为技术有限公司 Image processing method and apparatus, electronic device and storage medium

Also Published As

Publication number Publication date
JP6108680B2 (en) 2017-04-05

Similar Documents

Publication Publication Date Title
JP6911202B2 (en) Imaging control method and imaging device
US8144214B2 (en) Imaging apparatus, imaging method, integrated circuit, and storage medium
JP5713752B2 (en) Image processing apparatus and control method thereof
KR101303410B1 (en) Image capture apparatus and image capturing method
US8587671B2 (en) Digital image processing apparatus, an image processing method, and a recording medium storing the image processing method for obtaining an out-of-focus image by using a plurality of images
KR20120085077A (en) Image process method and apparatus
JP2013106149A (en) Imaging apparatus, control method of the same and program
US9118844B2 (en) Imaging apparatus, image processing apparatus, and imaging method for providing a special effect superimposing still image data on moving image data
KR20150109177A (en) Photographing apparatus, method for controlling the same, and computer-readable recording medium
JP2017022610A (en) Image processing apparatus and image processing method
JP6108680B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2010193099A (en) Image capturing apparatus and method of controlling the same
JP6873679B2 (en) Imaging device, control method and program of imaging device
JP2009200743A (en) Image processor, image processing method, image processing program and imaging apparatus
JP2014179920A (en) Imaging apparatus, control method thereof, program, and storage medium
JP5048599B2 (en) Imaging device
JP7247609B2 (en) Imaging device, imaging method and program
JP5569361B2 (en) Imaging apparatus and white balance control method
CN116266877A (en) Image processing apparatus and method, image capturing apparatus, and computer readable medium
JP2012124652A (en) Imaging apparatus and image processing method
JP5335964B2 (en) Imaging apparatus and control method thereof
KR101750986B1 (en) An apparatus and a method for processing image, and a computer-readable storage medium
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP2016220031A (en) Image processing device and image processing method
JP5721552B2 (en) Imaging apparatus and image composition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170307

R151 Written notification of patent or utility model registration

Ref document number: 6108680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151