JP5146500B2 - Image composition apparatus, image composition method, and program - Google Patents
Image composition apparatus, image composition method, and program Download PDFInfo
- Publication number
- JP5146500B2 JP5146500B2 JP2010182677A JP2010182677A JP5146500B2 JP 5146500 B2 JP5146500 B2 JP 5146500B2 JP 2010182677 A JP2010182677 A JP 2010182677A JP 2010182677 A JP2010182677 A JP 2010182677A JP 5146500 B2 JP5146500 B2 JP 5146500B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- gain
- moving object
- blending
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
Description
本発明は、画像合成装置、画像合成方法、及びプログラムに関する。 The present invention relates to an image composition device, an image composition method, and a program.
従来より、撮像に関する技術分野において、撮影画像における白飛びや黒潰れなどの階調不足を解消する技術が考案されている。
例えば、下記特許文献においては、異なる露光量で連続的に撮影し、これらを適宜選択して合成処理することで、白飛びや黒潰れといった問題を解消し、ダイナミックレンジを拡大させる考案がなされている。
2. Description of the Related Art Conventionally, in the technical field related to imaging, a technique has been devised to eliminate lack of gradation such as whiteout or blackout in a photographed image.
For example, in the following patent document, a device has been devised that continuously captures images with different exposure amounts, appropriately selects and combines them, thereby solving problems such as overexposure and blackout and expanding the dynamic range. Yes.
しかしながら上記の画像合成技術の場合、効果を奏するのは撮影画角に対し主要被写体が動いていない、つまり動体が存在しないケースに限られる。撮影画角に動体が存在すると連続的に撮影した際に、主要被写体に位置ずれが生ずることにより、異なる露光量で連続的に撮影した画像を合成することが困難となる。
したがってそのような場合にはおいては、合成処理によるダイナミックレンジの拡大ができないという問題がある。
However, in the case of the above image composition technique, the effect is limited to the case where the main subject does not move with respect to the shooting angle of view, that is, there is no moving object. If there is a moving object at the shooting angle of view, the main subject will be misaligned during continuous shooting, making it difficult to synthesize images continuously shot with different exposure amounts.
Therefore, in such a case, there is a problem that the dynamic range cannot be expanded by the synthesis process.
本発明は、かかる従来の課題に鑑みてなされたものであり、撮影画角に動体が存在する場合においても、白飛びや黒潰れの少ない合成画像を得ることができるようにすることを目的とするものである。 The present invention has been made in view of such a conventional problem, and an object thereof is to obtain a composite image with little overexposure and underexposure even when a moving object is present at a shooting angle of view. To do.
前記課題を解決するため請求項1記載の発明は、略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得手段と、前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得手段によって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御手段と、このゲイン制御手段によってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを画素毎に比較し、差分が存在する領域を前記撮影画角における動体領域として検出する動体領域検出手段と、この動体領域検出手段によって検出された動体領域を不透過領域として、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像とをブレンディングするブレンディング手段と、このブレンディング手段によってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成手段と、を備えたことを特徴とする。 In order to solve the above-mentioned problem, the invention according to claim 1 is characterized in that image acquisition means for acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions, and images of other exposure conditions in the plurality of images, Gain control means for controlling the gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition means so that the exposure conditions are equal, and the gain by the gain control means an image that has been raised, the image and the exposure condition image the gain is raised is equal compared for each pixel, a motion region detection means for detecting a region in which the difference is present as the moving object region in the photographing field angle, this Using the moving object region detected by the moving object region detection means as the non-transparent region, the image with the increased gain and the image with the same exposure condition as the image with the increased gain are blocked. And blending means for bindings, characterized by comprising a generating means for generating a pixel addition composite image of the person in the image as low as blending images with the exposure amount by the blending unit.
また、請求項2記載の発明は、請求項1記載の発明において、前記ブレンディング手段は、前記動体領域検出手段によって検出された領域の画素毎の差分値についてその最大値を平均化し、この平均化された差分値について更にコントラストを上げる処理を実行することを特徴とする。 According to a second aspect of the present invention, in the first aspect of the invention, the blending means averages the maximum value of the difference value for each pixel of the area detected by the moving object area detecting means , and this averaging is performed. It is characterized in that a process for further increasing the contrast is executed for the difference value .
また、請求項3記載の発明は、請求項1又は2記載の発明において、前記画像取得手段は、撮像手段を含むことを特徴とする。 According to a third aspect of the present invention, in the first or second aspect of the present invention, the image acquisition means includes an imaging means.
また、請求項4記載の発明は、請求項1乃至3の何れか記載の発明において、前記画像とは、略同じ撮像画角で取得されたものであることを特徴とする。 The invention according to claim 4 is the invention according to any one of claims 1 to 3 , characterized in that the image is acquired at substantially the same angle of view.
また、請求項5記載の発明は、略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得ステップと、前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得ステップによって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御ステップと、このゲイン制御ステップによってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを比較し、差分が存在する領域を前記撮影画角における動体領域として検出する動体領域検出ステップと、この動体領域検出ステップによって検出された動体領域を不透過領域として、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像とをブレンディングするブレンディングステップと、このブレンディングステップによってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成ステップと、を含むことを特徴とする。 According to a fifth aspect of the present invention, there is provided an image acquisition step of acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions, and an exposure condition equal to an image of another exposure condition in the plurality of images. The gain control step for controlling to increase the gain of the brightness of the image having the lower exposure amount among the plurality of images acquired by the image acquisition step, and the image whose gain has been increased by the gain control step And a moving object region detecting step for comparing the image with the increased gain with an image having the same exposure condition, and detecting a region where the difference exists as a moving object region at the shooting angle of view, and the moving object region detecting step. The moving object region is set as a non-transparent region, and the image with the increased gain and the image with the same exposure condition as the image with the increased gain are blocked. A blending step of bindings, characterized in that it comprises a generation step of generating a pixel addition composite image of the images of the lower and blending images with the exposure amount by this blending step.
また、請求項6記載の発明は、装置が有するコンピュータを、略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得手段、前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得手段によって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御手段、このゲイン制御手段によってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを画素毎に比較し、差分が存在する領域を前記撮影画角における動体領域として検出する動体領域検出手段、この動体領域検出手段によって検出された動体領域を不透過領域として、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像とをブレンディングするブレンディング手段、このブレンディング手段によってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成手段、として機能させることを特徴とする。 According to a sixth aspect of the present invention, there is provided an image acquisition means for acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions, and images of other exposure conditions in the plurality of images. Gain control means for controlling the gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition means so that the exposure conditions are equal, and the gain control means controls the gain. The moving object region detecting means for comparing the raised image with the image having the increased gain and the image having the same exposure condition for each pixel, and detecting a region where a difference exists as a moving object region at the shooting angle of view, and the moving object The moving object area detected by the area detecting means is set as a non-transparent area, and the image with the same gain as the image with the increased gain and the image with the same exposure condition. Blending means for blending the, characterized in that to function as generating means, for generating a pixel addition composite image of the images of the lower and blending images with the exposure amount by the blending unit.
本発明によれば、撮影画角に動体が存在する場合においても、白飛びや黒潰れの少ない合成画像を得ることができる。 According to the present invention, it is possible to obtain a composite image with little overexposure and underexposure even when a moving object is present at the shooting angle of view.
以下、本発明の一実施の形態を図に従って説明する。図1は、本発明の一実施の形態に係る画像合成装置を備える撮像装置の回路構成図である。この撮像装置は、撮像部1、駆動制御部2、CDS/ADC3、キー入力部4、表示部5、画像記録部6、プログラムメモリ7、RAM8、制御部9、画像処理部10を有している。これらは、バスラインを介して接続されている。キー入力部4は撮影者の記録指示を検出するためのシャッターキー41を備え、画像処理部10は合成部11を備える。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a circuit configuration diagram of an imaging apparatus including an image synthesis apparatus according to an embodiment of the present invention. The imaging apparatus includes an imaging unit 1, a drive control unit 2, a CDS /
同図において撮像部1は、CMOS等のイメージセンサ、このイメージセンサ上に設けられたRGBのカラーフィルタ、及び、駆動制御部2からの制御により、光の強度を電荷の蓄積として一定時間保持し、CDS/ADC3にアナログの撮像信号としてこれらを出力するドライバを内蔵する。そして、シャッターキー41、制御部9、駆動制御部2を経由した撮影者の撮影指示を検出することで、露光条件(シャッタースピード、若しくは絞り値)を変えながら、露出アンダー、適正露出、露出オーバーを含む複数の画像(カラー画像)を取得する。
In the figure, the imaging unit 1 holds the light intensity as a charge accumulation for a certain period of time by controlling from an image sensor such as a CMOS, an RGB color filter provided on the image sensor, and the drive control unit 2. The CDS /
CDS/ADC3は、撮像部1から出力される被写体の光学像に応じたアナログの撮像信号が入力される回路であって、入力した撮像信号を保持するCDSと、その撮像信号を増幅するゲイン調整アンプ(AGC)、増幅された撮像信号をデジタルの撮像信号に変換するA/D変換器(ADC)等から構成される。尚、ゲイン調整アンプの調整に関わる制御についても、駆動制御部2からの指示に基づき行われる。このため、露光条件(シャッタースピード、若しくは絞り値)を同じくして複数枚の画像を取得しても、RGBのゲイン調整アンプや画像の色味を順次変えることによる条件の異なる複数の画像を生成することができる。
The CDS /
尚、本実施の形態においては、駆動制御部2がゲイン調整アンプに関わる制御を行なうようにしたが、これに限らない。例えば上記の制御は制御部9で行なうようにしてもよい。
In the present embodiment, the drive control unit 2 performs control related to the gain adjustment amplifier. However, the present invention is not limited to this. For example, the above control may be performed by the
キー入力部4は、上述のシャッターキー41の他、本発明に係る画像の取得・記録を目的すとする撮影モードへの切り換え、表示の切り換え等を検出するための各種キーを備える。
In addition to the
表示部5は、合成された画像を表示する機能を有する。画像記録部6は、本発明に係る合成処理が実行された後、JPEG方式で符号化された画像データ(画像ファイル)を記憶・格納する。プログラムメモリ7は、制御部9、画像処理部10にて実行されるプログラムを記憶し、このプログラムは必要に応じて制御部9が読み出す。RAM8は、各処理により発生する処理中のデータを一時的に保持する機能を有する。制御部9は、この撮像装置全体の処理動作を制御する。画像処理部10は、画像データの符号化/復号化処理の他、本発明の特徴的構成に対応する合成部11を備える。
The display unit 5 has a function of displaying the synthesized image. The image recording unit 6 stores and stores image data (image file) encoded by the JPEG method after the composition processing according to the present invention is executed. The
すなわち合成部11は、後述する露出オーバー画像と疑似露出オーバー画像との合成を実行するとともに、この合成画像について後述する動体判定マップを差分領域に対応する透過強度マップ(αマップ)として用いて動体による残像を少なくさせるものである。また、前記合成画像と露出アンダー画像とを画素加算合成することにより、ダイナミックレンジを拡大させるものである。
That is, the synthesizing
次に、本実施の形態の動作について説明する。ユーザがキー入力部4に設けられているモードボタンを操作して、本実施形態に係る撮影モードを設定すると、制御部9がプログラムメモリ7からプログラムを読み出して、図2のフローチャートに示すように、処理を開始する。
Next, the operation of the present embodiment will be described. When the user operates the mode button provided in the key input unit 4 to set the shooting mode according to the present embodiment, the
すなわち、制御部9はシャッターキー41の押下が検出されたか否かを判断する(ステップS101)。シャッターキー41の押下が検出されたならば、適正露出を検出するとともに、この適正露出の露出値0EVを「1」減少させた−1EVで駆動制御部2に指示して撮影を実行させ、この−1EVでの撮影により得られた露出アンダー画像をRAM8に一旦保存する(ステップS102)。引き続き、適正露出の露出値0EVを「1」増加させた+1EVで駆動制御部2に指示して撮影を実行させ、この+1EVでの撮影により得られた露出オーバー画像をRAM8に一旦保存する(ステップS103)。
That is, the
したがって、このステップS102及びステップS103での処理により、図4(a)に示すYUV画像からなる露出アンダー画像Uと、同図(b)に示すYUV画像からなる露出オーバー画像OとがRAM8に保存される。連写された露出アンダー画像Uと露出オーバー画像Oとは、撮像画角全体を示す背景B内において動体としての手Hを上下に振っている状態で、略同じ撮像画角で連写したものである。両画像U、Oにおいて、背景Bは同一であるが、時間tが進むに従って手Hの像は背景B内において相対的に下方に変位し、露出オーバー画像Oの手Hの像は、露出アンダー画像Uの手Hの像よりも下に位置する。
Therefore, by the processing in step S102 and step S103, the underexposed image U made up of the YUV image shown in FIG. 4A and the overexposed image O made up of the YUV image shown in FIG. 4B are stored in the
尚、これら連写画像U、Oの連写に際しては、手ブレによる画像のブレは公知の技術(CCDシフトやレンズシフトによる画角補正技術)により補正されているものとする。しかし、各連写画像U、O中の手Hの像は動体ブレの要因とされる。 In the continuous shooting of these continuous shot images U and O, it is assumed that image blur due to camera shake is corrected by a known technique (view angle correction technique using CCD shift or lens shift). However, the image of the hand H in each of the continuous shot images U and O is considered to be a cause of motion blur.
次に、露出オーバー画像Oと露光条件が等しくなるように、露出アンダー画像Uのゲインをアップさせることにより、この疑似露出オーバー画像を生成して、RAM8に一旦保存する(ステップS104)。つまり、−1EVで撮影された露出アンダー画像Uと、+1EVで撮影された露出オーバー画像Oとは、画像の明るさが4倍異なり、露出オーバー画像Oは、露出アンダー画像Uよりも4倍明るい。したがって、露出アンダー画像Uをデジタルゲイン4倍で処理することにより、露出オーバー画像Oと擬似的に露出条件が同一となる疑似露出オーバー画像を生成する。 Next, by increasing the gain of the underexposed image U so that the exposure condition is equal to the overexposed image O, this pseudo overexposed image is generated and temporarily stored in the RAM 8 (step S104). That is, the underexposed image U captured at -1EV and the overexposed image O captured at + 1EV are four times brighter than the underexposed image U, and the overexposed image O is four times brighter than the underexposed image U. . Therefore, by processing the underexposed image U with a digital gain of 4 times, a pseudo overexposed image having the same exposure condition as the overexposed image O is generated.
次いで、動体判定・αブレンディング処理を行う(ステップS105)。図3は、動体判定・αブレンディング処理(ステップS105)の処理手順を示すフローチャートである。尚、この図3に示すフローチャートの説明に際しては、下記の式、符号あるいは関数を用いる。
Y_Under_4, U_ Under_4, V_ Under_4 :疑似露出オーバー画像YUV
Y_Over, U_Over, V_Over :露出オーバー画像 YUV
fMax() :最大値算出関数
fLpf() :平滑化関数
fEmphasis() :マップ強調関数
Next, a moving object determination / α blending process is performed (step S105). FIG. 3 is a flowchart showing a processing procedure of the moving object determination / α blending process (step S105). In the description of the flowchart shown in FIG. 3, the following equations, symbols, or functions are used.
Y_Under_4, U_ Under_4, V_ Under_4 : Pseudo overexposed image YUV
Y_Over, U_Over, V_Over: Overexposed image YUV
fMax (): Maximum value calculation function
fLpf (): smoothing function
fEmphasis (): Map enhancement function
図3のフローチャートにおいて、制御部9は疑似露出オーバー画像と露出オーバー画像との差分絶対値を、下記式[1]〜[3]に示すように、両画像の画素毎に求める(ステップS201)。
つまり、
Diff_Y = |Y_Under_4 − Y_Mid | ・・・式[1] // Yの差分絶対値
Diff_U = |U_Under_4 − U_Mid | ・・・式[2] // Uの差分絶対値
Diff_V = |V_Under_4 − V_Mid | ・・・式[3] // Vの差分絶対値
を前記両画像の画素毎に求める。
In the flowchart of FIG. 3, the
In other words,
Diff_Y = | Y_Under_4 − Y_Mid | ・ ・ ・ Formula [1] // Difference absolute value of Y
Diff_U = | U_Under_4 − U_Mid | ・ ・ ・ Equation [2] // Difference absolute value of U
Diff_V = | V_Under_4−V_Mid | Expression [3] // The absolute difference value of V is obtained for each pixel of both images.
そして、差分が大きいほど、被写体が動いた可能性が高い領域であるといえるから、下記式[4]に示すように差分が最大のもの(両画像の対応する画素毎に差分が最大のもの)を選択する(ステップS202)。
Diff = fMax(Diff_Y, Diff_U, Diff_V) ・・・式[4]
The larger the difference, the higher the possibility that the subject has moved. Therefore, as shown in the following formula [4], the difference is the largest (the difference is the largest for each corresponding pixel of both images). ) Is selected (step S202).
Diff = fMax (Diff_Y, Diff_U, Diff_V) Expression [4]
次に、下記式[5]で示すように、両画像の最大差分を平均化する処理を実行する(ステップS203)。
Ave_Diff = (Diff[0] + Diff[1] + ・・・ + Diff[N]) / N-1 ・・・式[5]
Next, as shown by the following formula [5], a process of averaging the maximum difference between the two images is executed (step S203).
Ave_Diff = (Diff [0] + Diff [1] + ... + Diff [N]) / N-1 ... Equation [5]
更に、下記式[6]で示すように、平滑化処理を実行する(ステップS204)。 Furthermore, as shown by the following formula [6], a smoothing process is executed (step S204).
Diff_Lpf = fLpf(Diff) ・・・式[6]
このステップS204での平滑化処理により、図5(a)に示すように、動体判定マップMが生成されることとなる。この動体判定マップMにおいて、斜線で示した部分は、α=0であって全透過させる領域であり、白抜き部分は、α=255であって不透過とする領域である。
Diff_Lpf = fLpf (Diff) (6)
As a result of the smoothing process in step S204, a moving object determination map M is generated as shown in FIG. In this moving object determination map M, the hatched portion is a region where α = 0 and is totally transmitted, and the white portion is a region where α = 255 and is not transmitted.
引き続き、下記式[7]で示すように、強調処理を行って前記動体判定マップMのコントラストをアップさせる(ステップS205)。
Map_Move = fEmphasis (Diff_Lpf) ・・・式[7]
このステップS205での平滑化処理により、図5(b)に示すように、動体判定マップMにおいて動体である手Hの像の領域におけるコントラストがアップされる。
Subsequently, as shown by the following equation [7], enhancement processing is performed to increase the contrast of the moving object determination map M (step S205 ).
Map_Move = fEmphasis (Diff_Lpf) (7)
By the smoothing process in step S205, as shown in FIG. 5B, the contrast in the region of the image of the hand H that is a moving object in the moving object determination map M is increased.
しかる後に、この図5(b)に示した動体判定マップM((Map_ Move [0 ~ 255]: 0=動体なし)をαマップとして用いて、前述した疑似露出オーバー画像と露出オーバー画像とを合成する(ステップS206)。
合成された画像(以下、ブレンディング画像という)各画素のYUVの各パラメータ(Y_result_Over,U_result_Over,V_result_Over)は下記式[8]〜[10]で表現される。
Y_result_Over = (Y_Over ×(255 − Map_Move) + Y_Under_4 × Map_Move) / 255
・・・式[8]
U_result_Over = (U_Over ×(255 − Map_Move) + U_Under _4 × Map_Move) / 255
・・・式[9]
V_result_Over = (V_Over ×(255 − Map_Move) + V_Under _4 × Map_Move) / 255
・・・式[10]
Thereafter, using the moving object determination map M ((Map_Move [0 to 255]: 0 = no moving object) shown in FIG. 5B as an α map, the above-described pseudo overexposed image and overexposed image are obtained. Combining (step S206).
The YUV parameters (Y_result_Over, U_result_Over, V_result_Over) of each pixel of the synthesized image (hereinafter referred to as a blended image) are expressed by the following equations [8] to [10].
Y_result_Over = (Y_Over × (255 − Map_Move) + Y_Under_4 × Map_Move) / 255
... Formula [8]
U_result_Over = (U_Over × (255 − Map_Move) + U_Under _4 × Map_Move) / 255
... Formula [9]
V_result_Over = (V_Over × (255 − Map_Move) + V_Under _4 × Map_Move) / 255
... Formula [10]
そして、図2のフローチャートにおけるステップS105に続くステップS106においては、このブレンディング画像をRAM8に一旦保存する。引き続き、このRAM8に一旦保存したブレンディング画像と前記露出アンダー画像Uとを画素加算合成する(ステップS107)。 これにより、図6(b)に示すように、背景Bと手Hとからなる合成画像PMを表すYUV画像データが生成されることとなる。
Then, in step S106 following step S105 in the flowchart of FIG. 2, the blended image is temporarily stored in the
ここで、図6(a)は、露出アンダー画像Uと露出オーバー画像Oとを単に平均加算処理した合成画像PNである。このように、連写された画像を単に平均加算処理した合成画像PNにあっては、動体像である手Hの像に大きなブレが生じてしまう。これに対し、本実施の形態によれば、手Hの像が動いている場合においても、図6(b)に示すように、動体ブレの少ない合成画像PMを得ることができる。
また、撮影画角に動体が存在する場合においても、白飛びや黒潰れの少ない合成画像PMを得ることができる。
Here, FIG. 6A is a composite image PN obtained by simply averaging the underexposed image U and the overexposed image O. As described above, in the composite image PN obtained by simply averaging the continuously shot images, a large blurring occurs in the image of the hand H that is a moving body image. On the other hand, according to the present embodiment, even when the image of the hand H is moving, as shown in FIG. 6B, it is possible to obtain a composite image PM with less moving body shake.
Further, even when a moving object is present at the shooting angle of view, a composite image PM with little whiteout or blackout can be obtained.
しかも前述のように、ステップS204で平滑化処理を行うことから、合成による動体(手H)と背景との境界線をより自然なものにすることができる。 Moreover, as described above, since the smoothing process is performed in step S204, the boundary line between the moving object (hand H) and the background by synthesis can be made more natural.
また、前述のステップS205では、マップMのコントラストを上げる処理を実行したことから、合成処理における被写体ブレの残像(ゴースト)を減少させることもできる。 Further, in the above-described step S205, since the process of increasing the contrast of the map M is executed, it is possible to reduce the afterimage (ghost) of the subject blur in the synthesis process.
以上のようにして、合成画像PMを表すYUV画像データを生成したならば、完成画像である合成画像PMのYUV画像データを、JPEG方式で符号化しファイル化して、画像記録部6に記録保存し(ステップS108)、処理を終了する。 When the YUV image data representing the composite image PM is generated as described above, the YUV image data of the composite image PM that is the completed image is encoded and filed by the JPEG method, and is recorded and stored in the image recording unit 6. (Step S108 ), the process is terminated.
尚、本実施の形態においては、YUV画像データを用いた場合を示したが、RGB画像データを用いるようにしてもよい。この場合、RGBそれぞれについて、同様に差分二乗を算出する。 In this embodiment, YUV image data is used, but RGB image data may be used. In this case, the difference square is similarly calculated for each of RGB.
図7は、本発明の他の実施の形態における処理手順を示すフローチャートであり、略同一画角で撮影した三枚の画像、露出アンダー画像、露出ノーマル画像、露出オーバー画像を用いるようにしたものである。ユーザがキー入力部4に設けられているモードボタンを操作して、本実施形態に係る撮影モードを設定すると、制御部9がプログラムメモリ7からプログラムを読み出して、このフローチャートに示すように、処理を開始する。
FIG. 7 is a flowchart showing a processing procedure in another embodiment of the present invention, in which three images taken with substantially the same angle of view, an underexposed image, a normal exposed image, and an overexposed image are used. It is. When the user operates the mode button provided in the key input unit 4 to set the shooting mode according to the present embodiment, the
すなわち、制御部9はシャッターキー41の押下が検出されたか否かを判断する(ステップS301)。シャッターキー41の押下が検出されたならば、適正露出を検出するとともに、この適正露出の露出値0EVを「2」減少させた−2EVで駆動制御部2に指示して撮影を実行させ、この−2EVでの撮影により得られた露出アンダー画像をRAM8に一旦保存する(ステップS302)。
That is, the
また、適正露出の露出値0EVで駆動制御部2に指示して撮影を実行させ、この0EVでの撮影により得られた露出ノーマル画像をRAM8に一旦保存する(ステップS303)。さらに、適正露出の露出値0EVを「2」増加させた+2EVで駆動制御部2に指示して撮影を実行させ、この+2EVでの撮影により得られた露出オーバー画像をRAM8に一旦保存する(ステップS304)。
Further, the drive control unit 2 is instructed to execute photographing at an
したがって、このステップS302及びステップS303での処理により、YUV画像からなる露出アンダー画像、露出ノーマル画像、及び、露出オーバー画像がRAM8に保存される。
Therefore, an underexposed image, a normal exposed image, and an overexposed image made up of YUV images are stored in the
次に、露出ノーマル画像と露光条件が等しくなるように、露出アンダー画像のゲインをアップさせることにより、第1の疑似露出オーバー画像を生成し、且つ露出オーバー画像と露光条件が等しくなるように、露出アンダー画像のゲインをアップさせることにより、第2の疑似露出オーバー画像を生成して、RAM8に一旦保存する(ステップS305)。つまり、−2EVで撮影された露出アンダー画像と、0EVで撮影された露ノーマル画像とは、画像の明るさが8倍異なり、露出ノーマル画像は、露出アンダー画像よりも8倍明るい。したがって、露出アンダー画像をデジタルゲイン8倍で処理することにより、露出ノーマル画像と擬似的に露出条件が同一となる第1疑似露出オーバー画像を生成する。 Next, by increasing the gain of the underexposed image so that the exposure condition is equal to the normal exposure image, a first pseudo overexposure image is generated, and the overexposure image and the exposure condition are equalized. By increasing the gain of the underexposed image, a second pseudo overexposed image is generated and temporarily stored in the RAM 8 (step S305). That is, the underexposure image captured at −2 EV and the dew normal image captured at 0 EV are 8 times different in brightness, and the normal exposure image is 8 times brighter than the underexposure image. Accordingly, by processing the underexposed image with a digital gain of 8 times, a first pseudo overexposed image having the same exposure condition as that of the normal exposure image is generated.
また、−2EVで撮影された露出アンダー画像と、+2EVで撮影された露オーバー画像とは、画像の明るさが16倍異なり、露出オーバー画像は、露出アンダー画像よりも16倍明るい。したがって、露出アンダー画像をデジタルゲイン16倍で処理することにより、露出オーバー画像と擬似的に露出条件が同一となる第2疑似露出オーバー画像を生成する。そして、これら第1疑似露出オーバー画像と、第2疑似露出オーバー画像とをRAM8に一旦保存する。
Also, the underexposed image captured at -2EV and the overexposed image captured at + 2EV are 16 times brighter than the underexposed image, and the overexposed image is 16 times brighter than the underexposed image. Therefore, by processing the underexposed image with a digital gain of 16 times, a second pseudo overexposed image having the same exposure condition as the overexposed image is generated. The first pseudo overexposure image and the second pseudo overexposure image are temporarily stored in the
次いで、1回目の動体判定・ブレンディング処理が終了しているか否かを判断する(ステップS306)。未だ動体判定・ブレンディング処理が実行されておらず、今回が1回目の処理であるならば、ステップS306の判断がNOとなって、ステップS307に進む。そして、擬似的に露出値が等しい第1疑似露出オーバー画像と露出ノーマル画像とを用いて、動体判定・αブレンディング処理を行う。この動体判定・αブレンディング処理(ステップS307)の処理手順は、図3のフローチャートに基づいて説明した前記実施の形態と同様である。この第1疑似露出オーバー画像と露出ノーマル画像とを用いた動体判定・αブレンディング処理が終了したならば、これにより得られた第1ブレンディング画像をRAM8に一旦保存し(ステップS308)、ステップS306に戻る。 Next, it is determined whether or not the first moving object determination / blending process has been completed (step S306). If the moving object determination / blending process has not yet been executed and this time is the first process, the determination in step S306 is NO, and the process proceeds to step S307. Then, the moving object determination / α blending process is performed using the first pseudo overexposure image and the normal exposure image having the same pseudo exposure value. The processing procedure of the moving object determination / α blending process (step S307) is the same as that of the embodiment described based on the flowchart of FIG. When the moving object determination / α blending process using the first pseudo overexposed image and the normal exposure image is completed, the first blended image obtained thereby is temporarily stored in the RAM 8 (step S308), and the process proceeds to step S306. Return.
すると、1回目の動体判定・αブレンド処理が終了したことから、ステップS306の判断がYESとなる。したがって、ステップS309に進み、擬似的に露出値が等しい第2疑似露出オーバー画像と露出オーバー画像とを用いて、動体判定・αブレンディング処理を行う。この動体判定・αブレンディング処理(ステップS309)の処理手順も、図3のフローチャートに基づいて説明した前記実施の形態と同様である。この第2疑似露出オーバー画像と露出オーバー画像とを用いた動体判定・αブレンディング処理が終了したならば、これにより得られた第2ブレンディング画像をRAM8に一旦保存する(ステップS310)。 Then, since the first moving object determination / α blending process is completed, the determination in step S306 becomes YES. Accordingly, the process proceeds to step S309, and the moving object determination / α blending process is performed using the second pseudo overexposure image and the overexposure image that have the same pseudo exposure value. The processing procedure of the moving object determination / α blending process (step S309) is also the same as that of the embodiment described based on the flowchart of FIG. When the moving object determination / α blending process using the second pseudo overexposed image and the overexposed image is completed, the second blended image obtained thereby is temporarily stored in the RAM 8 (step S310).
引き続き、これらRAM8に一旦保存した第1ブレンディング画像及び第2ブレンディング画像と前記露出アンダー画像とを画素加算合成し、この合成画像を表すYUV画像データを生成する(ステップS311)。 しかる後に、完成画像である合成画像PMのYUV画像データを、JPEG方式で符号化しファイル化して、画像記録部6に記録保存し(ステップS312)、処理を終了する。
Subsequently, the first and second blended images once stored in the
尚、この本実施の形態においては、ステップS311において、第1ブレンディング画像、第2ブレンディング画像、及び、露出アンダー画像を画素加算合成して、完成画像を得るようにした。しかし、第1ブレンディング画像と露出アンダー画像とのみを画素加算合成して完成画像を得るようにし、あるいは第2ブレンディング画像と露出アンダー画像とを画素加算合成し完成画像を得るようにしてもよい。 In this embodiment, in step S311, the first blended image, the second blended image, and the underexposed image are subjected to pixel addition synthesis to obtain a completed image. However, a completed image may be obtained by adding and synthesizing only the first blended image and the underexposed image, or a completed image may be obtained by adding and synthesizing the second blended image and the underexposed image.
1 撮像部
2 駆動制御部
3 CDS/ADC
4 キー入力部
5 表示部
6 画像記録部
7 プログラムメモリ
8 RAM
9 制御部
10 画像処理部
11 合成部
41 シャッターキー
1 Imaging unit 2
4 Key input section 5 Display section 6
9
Claims (6)
前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得手段によって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御手段と、
このゲイン制御手段によってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを画素毎に比較し、差分が存在する領域を前記撮影画角における動体領域として検出する動体領域検出手段と、
この動体領域検出手段によって検出された動体領域を不透過領域として、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像とをブレンディングするブレンディング手段と、
このブレンディング手段によってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成手段と、
を備えたことを特徴とする画像合成装置。 Image acquisition means for acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions;
Control is performed to increase the brightness gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition unit so that the exposure condition is equal to the image of the other exposure conditions in the plurality of images. Gain control means;
And image raised gain by the gain control means, and an image with the exposure condition image the gain is raised is equal compared for each pixel, detects an area where the difference is present as the moving object region in the photographing field angle Moving object region detection means ;
Blending means for blending the image with the increased gain and the image with the same exposure condition with the gain increased, with the moving object area detected by the moving object area detecting means as the opaque area ;
Generating means for generating a pixel addition composite image of the image blended by the blending means and the image having the lower exposure amount;
An image composition device comprising:
前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得ステップによって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御ステップと、Control is performed to increase the brightness gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition step so that the exposure condition is equal to the image of the other exposure conditions in the plurality of images. A gain control step;
このゲイン制御ステップによってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを比較し、差分が存在する領域を前記撮影画角における動体領域として検出する動体領域検出ステップと、A moving object region detection that compares an image whose gain has been increased by the gain control step with an image having the same exposure condition as that of the image whose gain has been increased, and detects an area where a difference exists as a moving object region at the shooting angle of view. Steps,
この動体領域検出ステップによって検出された動体領域を不透過領域として、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像とをブレンディングするブレンディングステップと、A blending step for blending an image with an increased gain and an image with the same exposure condition as the gain increased with the moving body region detected by the moving body region detecting step as an opaque region;
このブレンディングステップによってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成ステップと、A generation step of generating a pixel addition composite image of the image blended by the blending step and the image with the lower exposure amount;
を含むことを特徴とする画像合成方法。An image composition method comprising:
略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得手段、Image acquisition means for acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions;
前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得手段によって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御手段、Control is performed to increase the brightness gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition unit so that the exposure condition is equal to the image of the other exposure conditions in the plurality of images. Gain control means,
このゲイン制御手段によってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを画素毎に比較し、差分が存在する領域を前記撮影画角における動体領域として検出する動体領域検出手段、The image with the gain increased by the gain control means and the image with the same exposure condition as that of the image with the increased gain are compared for each pixel, and an area where there is a difference is detected as a moving object area at the shooting angle of view. Moving body region detection means,
この動体領域検出手段によって検出された動体領域を不透過領域として、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像とをブレンディングするブレンディング手段、Blending means for blending an image with an increased gain and an image with the same exposure condition as the gain increased with the moving body area detected by the moving body area detecting means as an opaque area;
このブレンディング手段によってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成手段、Generating means for generating a pixel-added synthesized image of the image blended by the blending means and the image with the lower exposure amount;
として機能させることを特徴とするプログラム。A program characterized by functioning as
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010182677A JP5146500B2 (en) | 2010-08-18 | 2010-08-18 | Image composition apparatus, image composition method, and program |
US13/187,367 US20120019686A1 (en) | 2010-07-23 | 2011-07-20 | Image synthesizing device, image synthesizing method and computer readable medium |
CN201110205268.5A CN102348056B (en) | 2010-07-23 | 2011-07-21 | Image synthesizing device and image synthesizing method |
KR1020110072999A KR101247647B1 (en) | 2010-07-23 | 2011-07-22 | Image synthesizing device, image synthesizing method, and recording medium |
EP11174950.3A EP2410734B1 (en) | 2010-07-23 | 2011-07-22 | Image synthesizing device, image synthesizing method and computer readable medium |
EP12197315.0A EP2571249B1 (en) | 2010-07-23 | 2011-07-22 | Image synthesizing device, image synthesizing method and computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010182677A JP5146500B2 (en) | 2010-08-18 | 2010-08-18 | Image composition apparatus, image composition method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2012044377A JP2012044377A (en) | 2012-03-01 |
JP2012044377A5 JP2012044377A5 (en) | 2012-06-28 |
JP5146500B2 true JP5146500B2 (en) | 2013-02-20 |
Family
ID=45900192
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010182677A Active JP5146500B2 (en) | 2010-07-23 | 2010-08-18 | Image composition apparatus, image composition method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5146500B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6108680B2 (en) * | 2012-04-19 | 2017-04-05 | キヤノン株式会社 | Imaging apparatus, control method therefor, program, and storage medium |
JP6185730B2 (en) * | 2013-03-15 | 2017-08-23 | キヤノン株式会社 | Imaging apparatus and imaging method |
WO2014167676A1 (en) * | 2013-04-10 | 2014-10-16 | 株式会社 東芝 | Eelctronic device and image processing method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4851392B2 (en) * | 2007-05-30 | 2012-01-11 | 富士通株式会社 | Image composition apparatus, image composition method, and image composition program |
JP2009105533A (en) * | 2007-10-22 | 2009-05-14 | Sony Corp | Image processing device, imaging device, image processing method, and picked-up image processing method |
-
2010
- 2010-08-18 JP JP2010182677A patent/JP5146500B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012044377A (en) | 2012-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2410734B1 (en) | Image synthesizing device, image synthesizing method and computer readable medium | |
KR101247646B1 (en) | Image combining apparatus, image combining method and recording medium | |
JP5019543B2 (en) | Imaging device | |
JP5141733B2 (en) | Imaging apparatus, imaging method, and program | |
JP5713752B2 (en) | Image processing apparatus and control method thereof | |
JP5787648B2 (en) | Image processing apparatus and image processing apparatus control method | |
JP5240349B2 (en) | Image composition apparatus and program | |
JP4720537B2 (en) | Imaging device | |
JP2011018141A (en) | Image processing apparatus and program | |
WO2012160847A1 (en) | Image capture device, image processing device, and image capture method | |
JP2014017681A (en) | Imaging apparatus, method of controlling the same, program, and storage medium | |
JP4999871B2 (en) | Imaging apparatus and control method thereof | |
JP5146498B2 (en) | Image composition apparatus, image composition method, and program | |
JP5076650B2 (en) | Imaging apparatus and image processing program | |
JP6873679B2 (en) | Imaging device, control method and program of imaging device | |
WO2016117137A1 (en) | Image-capturing device, image-capturing method, and image display device | |
JP2010206776A (en) | Image capture apparatus, method of controlling the same and program | |
JP2006352229A (en) | Digital camera | |
JP5146500B2 (en) | Image composition apparatus, image composition method, and program | |
JP2009213032A (en) | Wide dynamic range image formation processing apparatus | |
JP6376339B2 (en) | Image processing apparatus and image processing method | |
JP2008136113A (en) | Image processor, imaging apparatus and image processing method | |
JP6090565B2 (en) | Imaging apparatus, imaging method, and program | |
JP5984533B2 (en) | Imaging apparatus, control method thereof, and program | |
JP4306584B2 (en) | Digital camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120510 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120510 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20120515 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20120724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120807 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121002 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121030 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5146500 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151207 Year of fee payment: 3 |