JP2012044377A - Image compositing device, image compositing method and program - Google Patents
Image compositing device, image compositing method and program Download PDFInfo
- Publication number
- JP2012044377A JP2012044377A JP2010182677A JP2010182677A JP2012044377A JP 2012044377 A JP2012044377 A JP 2012044377A JP 2010182677 A JP2010182677 A JP 2010182677A JP 2010182677 A JP2010182677 A JP 2010182677A JP 2012044377 A JP2012044377 A JP 2012044377A
- Authority
- JP
- Japan
- Prior art keywords
- image
- gain
- moving object
- object region
- blending
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像合成装置、画像合成方法、及びプログラムに関する。 The present invention relates to an image composition device, an image composition method, and a program.
従来より、撮像に関する技術分野において、撮影画像における白飛びや黒潰れなどの階調不足を解消する技術が考案されている。
例えば、下記特許文献においては、異なる露光量で連続的に撮影し、これらを適宜選択して合成処理することで、白飛びや黒潰れといった問題を解消し、ダイナミックレンジを拡大させる考案がなされている。
2. Description of the Related Art Conventionally, in the technical field related to imaging, a technique has been devised to eliminate lack of gradation such as whiteout or blackout in a photographed image.
For example, in the following patent document, a device has been devised that continuously captures images with different exposure amounts, appropriately selects and combines them, thereby solving problems such as overexposure and blackout and expanding the dynamic range. Yes.
しかしながら上記の画像合成技術の場合、効果を奏するのは撮影画角に対し主要被写体が動いていない、つまり動体が存在しないケースに限られる。撮影画角に動体が存在すると連続的に撮影した際に、主要被写体に位置ずれが生ずることにより、異なる露光量で連続的に撮影した画像を合成することが困難となる。
したがってそのような場合にはおいては、合成処理によるダイナミックレンジの拡大ができないという問題がある。
However, in the case of the above image composition technique, the effect is limited to the case where the main subject does not move with respect to the shooting angle of view, that is, there is no moving object. If there is a moving object at the shooting angle of view, the main subject will be misaligned during continuous shooting, making it difficult to synthesize images continuously shot with different exposure amounts.
Therefore, in such a case, there is a problem that the dynamic range cannot be expanded by the synthesis process.
本発明は、かかる従来の課題に鑑みてなされたものであり、撮影画角に動体が存在する場合においても、白飛びや黒潰れの少ない合成画像を得ることができるようにすることを目的とするものである。 The present invention has been made in view of such a conventional problem, and an object thereof is to obtain a composite image with little overexposure and underexposure even when a moving object is present at a shooting angle of view. To do.
前記課題を解決するために請求項1記載の発明は、略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得手段と、前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得手段によって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御手段と、このゲイン制御手段によってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを比較することにより、前記撮影画角における動体領域を検出する動体領域検出手段と、前記ゲインが上げられた画像と露光条件が等しい画像における前記動体領域検出手段によって検出された動体領域の画像を、前記ゲインが上げられた画像における同領域の画像に置換する置換手段と、前記動体領域検出手段によって検出された動体領域について、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像との画素毎の差分の最大値を取得する差分取得手段と、この差分取得手段によって取得された情報を平均化し、これを透過強度の情報として前記置換手段による置換後の画像にブレンディングするブレンディング手段と、このブレンディング手段によってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成手段と、を備えたことを特徴とする。
In order to solve the above-mentioned problem, the invention according to
また、請求項2記載の発明は、請求項1記載の発明において、前記ブレンディング手段は、前記差分取得手段によって取得された情報を平均化し、この平均化された情報について更にコントラストを上げる処理を実行することを特徴とする。
The invention according to claim 2 is the invention according to
また、請求項3記載の発明は、請求項1又は2記載の発明において、前記ブレンディング手段は、前記差分取得手段によって取得された情報を平均化し、これ平均化された情報について更に平滑化処理を実行することを特徴とする。 According to a third aspect of the invention, in the invention of the first or second aspect, the blending means averages the information acquired by the difference acquisition means, and further smoothes the averaged information. It is characterized by performing.
また、請求項4記載の発明は、請求項1乃至3の何れか記載の発明において、前記画像取得手段は、撮像手段を含むことを特徴とする。
The invention according to
また、請求項5記載の発明は、請求項1乃至4の何れか記載の発明において、前記画像とは、略同じ撮像画角で取得されたものであることを特徴とする。
The invention according to claim 5 is characterized in that, in the invention according to any one of
また、請求項6記載の発明は、略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得ステップと、前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得ステップによって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御ステップと、このゲイン制御ステップによってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを比較することにより、前記撮影画角における動体領域を検出する動体領域検出ステップと、前記ゲインが上げられた画像と露光条件が等しい画像における前記動体領域検出ステップによって検出された動体領域の画像を、前記ゲインが上げられた画像における同領域の画像に置換する置換ステップと、前記動体領域検出ステップによって検出された動体領域について、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像との画素毎の差分の最大値を取得する差分取得ステップと、この差分取得ステップによって取得された情報を平均化し、これを透過強度の情報として前記置換ステップによる置換後の画像にブレンディングするブレンディングステップと、このブレンディングステップによってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成ステップと、を含むことを特徴とする。 According to a sixth aspect of the present invention, the image acquisition step of acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions, and the exposure conditions of the images of other exposure conditions in the plurality of images are equal. The gain control step for controlling to increase the gain of the brightness of the image having the lower exposure amount among the plurality of images acquired by the image acquisition step, and the image whose gain has been increased by the gain control step And a moving object region detecting step for detecting a moving object region at the shooting angle of view by comparing the image with the increased gain and the image with the same exposure condition, and the exposure condition is equal to the image with the increased gain. The image of the moving object area detected by the moving object area detecting step in the image is changed to the image of the same area in the image with the gain increased. For the moving object region detected by the replacing step and the moving object region detecting step, the maximum value of the difference for each pixel between the image with the increased gain, the image with the increased gain, and the image with the same exposure condition. The difference acquisition step to be acquired, the information acquired by the difference acquisition step is averaged, and the blended step is blended to the image after the replacement by the replacement step as transmission intensity information, and the image blended by the blending step And a generation step of generating a pixel addition composite image of the image with the lower exposure amount.
また、請求項6記載の発明は、装置が有するコンピュータを、略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得手段、前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得手段によって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御手段、このゲイン制御手段によってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを比較することにより、前記撮影画角における動体領域を検出する動体領域検出手段、前記ゲインが上げられた画像と露光条件が等しい画像における前記動体領域検出手段によって検出された動体領域の画像を、前記ゲインが上げられた画像における同領域の画像に置換する置換手段、前記動体領域検出手段によって検出された動体領域について、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像との画素毎の差分の最大値を取得する差分取得手段、この差分取得手段によって取得された情報を平均化し、これを透過強度の情報として前記置換手段による置換後の画像にブレンディングするブレンディング手段、このブレンディング手段によってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成手段、として機能させることを特徴とする。 According to a sixth aspect of the present invention, there is provided an image acquisition means for acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions, and images of other exposure conditions in the plurality of images. Gain control means for controlling the gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition means so that the exposure conditions are equal, and the gain control means controls the gain. A moving object region detecting means for detecting a moving object region at the shooting angle of view by comparing the raised image with an image having the same exposure condition as that of the image having the increased gain, and the image having the increased gain and the exposure An image of the moving object region detected by the moving object region detection unit in an image having the same condition is placed on the image of the same region in the image with the gain increased. For the moving body region detected by the moving body region detecting unit, the maximum value of the difference for each pixel between the image with the increased gain, the image with the increased gain, and the image with the same exposure condition is acquired. Difference obtaining means, information obtained by the difference obtaining means is averaged, and blending means for blending the obtained information as transmission intensity information on the image after replacement by the replacing means, the image blended by the blending means and the exposure amount And generating means for generating a pixel-added combined image with the lower image.
本発明によれば、撮影画角に動体が存在する場合においても、白飛びや黒潰れの少ない合成画像を得ることができる。 According to the present invention, it is possible to obtain a composite image with little overexposure and underexposure even when a moving object is present at the shooting angle of view.
以下、本発明の一実施の形態を図に従って説明する。図1は、本発明の一実施の形態に係る画像合成装置を備える撮像装置の回路構成図である。この撮像装置は、撮像部1、駆動制御部2、CDS/ADC3、キー入力部4、表示部5、画像記録部6、プログラムメモリ7、RAM8、制御部9、画像処理部10を有している。これらは、バスラインを介して接続されている。キー入力部4は撮影者の記録指示を検出するためのシャッターキー41を備え、画像処理部10は合成部11を備える。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a circuit configuration diagram of an imaging apparatus including an image synthesis apparatus according to an embodiment of the present invention. The imaging apparatus includes an
同図において撮像部1は、CMOS等のイメージセンサ、このイメージセンサ上に設けられたRGBのカラーフィルタ、及び、駆動制御部2からの制御により、光の強度を電荷の蓄積として一定時間保持し、CDS/ADC3にアナログの撮像信号としてこれらを出力するドライバを内蔵する。そして、シャッターキー41、制御部9、駆動制御部2を経由した撮影者の撮影指示を検出することで、露光条件(シャッタースピード、若しくは絞り値)を変えながら、露出アンダー、適正露出、露出オーバーを含む複数の画像(カラー画像)を取得する。
In the figure, the
CDS/ADC3は、撮像部1から出力される被写体の光学像に応じたアナログの撮像信号が入力される回路であって、入力した撮像信号を保持するCDSと、その撮像信号を増幅するゲイン調整アンプ(AGC)、増幅された撮像信号をデジタルの撮像信号に変換するA/D変換器(ADC)等から構成される。尚、ゲイン調整アンプの調整に関わる制御についても、駆動制御部2からの指示に基づき行われる。このため、露光条件(シャッタースピード、若しくは絞り値)を同じくして複数枚の画像を取得しても、RGBのゲイン調整アンプや画像の色味を順次変えることによる条件の異なる複数の画像を生成することができる。
The CDS /
尚、本実施の形態においては、駆動制御部2がゲイン調整アンプに関わる制御を行なうようにしたが、これに限らない。例えば上記の制御は制御部9で行なうようにしてもよい。 In the present embodiment, the drive control unit 2 performs control related to the gain adjustment amplifier. However, the present invention is not limited to this. For example, the above control may be performed by the control unit 9.
キー入力部4は、上述のシャッターキー41の他、本発明に係る画像の取得・記録を目的すとする撮影モードへの切り換え、表示の切り換え等を検出するための各種キーを備える。
In addition to the
表示部5は、合成された画像を表示する機能を有する。画像記録部6は、本発明に係る合成処理が実行された後、JPEG方式で符号化された画像データ(画像ファイル)を記憶・格納する。プログラムメモリ7は、制御部9、画像処理部10にて実行されるプログラムを記憶し、このプログラムは必要に応じて制御部9が読み出す。RAM8は、各処理により発生する処理中のデータを一時的に保持する機能を有する。制御部9は、この撮像装置全体の処理動作を制御する。画像処理部10は、画像データの符号化/復号化処理の他、本発明の特徴的構成に対応する合成部11を備える。
The display unit 5 has a function of displaying the synthesized image. The image recording unit 6 stores and stores image data (image file) encoded by the JPEG method after the composition processing according to the present invention is executed. The
すなわち合成部11は、後述する露出オーバー画像と疑似露出オーバー画像との合成を実行するとともに、この合成画像について後述する動体判定マップを差分領域に対応する透過強度マップ(αマップ)として用いて動体による残像を少なくさせるものである。また、前記合成画像と露出アンダー画像とを画素加算合成することにより、ダイナミックレンジを拡大させるものである。 That is, the synthesizing unit 11 performs synthesis of an overexposed image and a pseudo overexposed image, which will be described later, and uses a moving object determination map, which will be described later, for this synthesized image as a transmission intensity map (α map) corresponding to the difference area. This reduces the afterimage caused by. Further, the dynamic range is expanded by adding and synthesizing the synthesized image and the underexposed image with pixels.
次に、本実施の形態の動作について説明する。ユーザがキー入力部4に設けられているモードボタンを操作して、本実施形態に係る撮影モードを設定すると、制御部9がプログラムメモリ7からプログラムを読み出して、図2のフローチャートに示すように、処理を開始する。
Next, the operation of the present embodiment will be described. When the user operates the mode button provided in the
すなわち、制御部9はシャッターキー41の押下が検出されたか否かを判断する(ステップS101)。シャッターキー41の押下が検出されたならば、適正露出を検出するとともに、この適正露出の露出値0EVを「1」減少させた−1EVで駆動制御部2に指示して撮影を実行させ、この−1EVでの撮影により得られた露出アンダー画像をRAM8に一旦保存する(ステップS102)。引き続き、適正露出の露出値0EVを「1」増加させた+1EVで駆動制御部2に指示して撮影を実行させ、この+1EVでの撮影により得られた露出オーバー画像をRAM8に一旦保存する(ステップS103)。
That is, the control unit 9 determines whether or not the pressing of the
したがって、このステップS102及びステップS103での処理により、図4(a)に示すYUV画像からなる露出アンダー画像Uと、同図(b)に示すYUV画像からなる露出オーバー画像OとがRAM8に保存される。図4において矢印tは、時間軸であり、連写された露出アンダー画像Uと露出オーバー画像Oとは、撮像画角全体を示す背景B内において動体としての手Hを上下に振っている状態で、略同じ撮像画角で連写したものである。両画像U、Oにおいて、背景Bは同一であるが、時間tが進むに従って手Hの像は背景B内において相対的に下方に変位し、露出オーバー画像Oの手Hの像は、露出アンダー画像Uの手Hの像よりも下に位置する。
Therefore, by the processing in step S102 and step S103, the underexposed image U made up of the YUV image shown in FIG. 4A and the overexposed image O made up of the YUV image shown in FIG. 4B are stored in the
尚、これら連写画像U、Oの連写に際しては、手ブレによる画像のブレは公知の技術(CCDシフトやレンズシフトによる画角補正技術)により補正されているものとする。しかし、各連写画像U、O中の手Hの像は動体ブレの要因とされる。 In the continuous shooting of these continuous shot images U and O, it is assumed that image blur due to camera shake is corrected by a known technique (view angle correction technique using CCD shift or lens shift). However, the image of the hand H in each of the continuous shot images U and O is considered to be a cause of motion blur.
次に、露出オーバー画像Oと露光条件が等しくなるように、露出アンダー画像Uのゲインをアップさせることにより、この疑似露出オーバー画像を生成して、RAM8に一旦保存する(ステップS104)。つまり、−1EVで撮影された露出アンダー画像Uと、+1EVで撮影された露出オーバー画像Oとは、画像の明るさが4倍異なり、露出オーバー画像Oは、露出アンダー画像Uよりも4倍明るい。したがって、露出アンダー画像Uをデジタルゲイン4倍で処理することにより、露出オーバー画像Oと擬似的に露出条件が同一となる疑似露出オーバー画像を生成する。 Next, by increasing the gain of the underexposed image U so that the exposure condition is equal to the overexposed image O, this pseudo overexposed image is generated and temporarily stored in the RAM 8 (step S104). That is, the underexposed image U captured at -1EV and the overexposed image O captured at + 1EV are four times brighter than the underexposed image U, and the overexposed image O is four times brighter than the underexposed image U. . Therefore, by processing the underexposed image U with a digital gain of 4 times, a pseudo overexposed image having the same exposure condition as the overexposed image O is generated.
次いで、動体判定・αブレンディング処理を行う(ステップS105)。図3は、動体判定・αブレンディング処理(ステップS105)の処理手順を示すフローチャートである。尚、この図3に示すフローチャートの説明に際しては、下記の式、符号あるいは関数を用いる。
Y_Under_4, U_ Under_4, V_ Under_4 :疑似露出オーバー画像YUV
Y_Over, U_Over, V_Over :露出オーバー画像 YUV
fMax() :最大値算出関数
fLpf() :平滑化関数
fEmphasis() :マップ強調関数
Next, a moving object determination / α blending process is performed (step S105). FIG. 3 is a flowchart showing a processing procedure of the moving object determination / α blending process (step S105). In the description of the flowchart shown in FIG. 3, the following equations, symbols, or functions are used.
Y_Under_4, U_ Under_4, V_ Under_4 : Pseudo overexposed image YUV
Y_Over, U_Over, V_Over: Overexposed image YUV
fMax (): Maximum value calculation function
fLpf (): smoothing function
fEmphasis (): Map enhancement function
図3のフローチャートにおいて、制御部9は疑似露出オーバー画像と露出オーバー画像との差分絶対値を、下記式[1]〜[3]に示すように、両画像の画素毎に求める(ステップS201)。
つまり、
Diff_Y = |Y_Under_4 − Y_Mid | ・・・式[1] // Yの差分絶対値
Diff_U = |U_Under_4 − U_Mid | ・・・式[2] // Uの差分絶対値
Diff_V = |V_Under_4 − V_Mid | ・・・式[3] // Vの差分絶対値
を前記両画像の画素毎に求める。
In the flowchart of FIG. 3, the control unit 9 obtains an absolute difference value between the pseudo overexposed image and the overexposed image for each pixel of both images as shown in the following formulas [1] to [3] (step S <b> 201). .
In other words,
Diff_Y = | Y_Under_4 − Y_Mid | ・ ・ ・ Formula [1] // Difference absolute value of Y
Diff_U = | U_Under_4 − U_Mid | ・ ・ ・ Equation [2] // Difference absolute value of U
Diff_V = | V_Under_4−V_Mid | Expression (3) // Absolute absolute value of V is obtained for each pixel of the both images.
そして、差分が大きいほど、被写体が動いた可能性が高い領域であるといえるから、下記式[4]に示すように差分が最大のもの(両画像の対応する画素毎に差分が最大のもの)を選択する(ステップS202)。
Diff = fMax(Diff_Y, Diff_U, Diff_V) ・・・式[4]
The larger the difference, the higher the possibility that the subject has moved. Therefore, as shown in the following formula [4], the difference is the largest (the difference is the largest for each corresponding pixel of both images). ) Is selected (step S202).
Diff = fMax (Diff_Y, Diff_U, Diff_V) Expression [4]
次に、下記式[5]で示すように、両画像の最大差分を平均化する処理を実行する(ステップS203)。
Ave_Diff = (Diff[0] + Diff[1] + ・・・ + Diff[N]) / N-1 ・・・式[5]
Next, as shown by the following formula [5], a process of averaging the maximum difference between the two images is executed (step S203).
Ave_Diff = (Diff [0] + Diff [1] + ... + Diff [N]) / N-1 ... Equation [5]
更に、下記式[6]で示すように、平滑化処理を実行する(ステップS204)。 Furthermore, as shown by the following formula [6], a smoothing process is executed (step S204).
Diff_Lpf = fLpf(Diff) ・・・式[6]
このステップS204での平滑化処理により、図5(a)に示すように、動体判定マップMが生成されることとなる。この動体判定マップMにおいて、斜線で示した部分は、α=0であって全透過させる領域であり、白抜き部分は、α=255であって不透過とする領域である。
Diff_Lpf = fLpf (Diff) (6)
As a result of the smoothing process in step S204, a moving object determination map M is generated as shown in FIG. In this moving object determination map M, the hatched portion is a region where α = 0 and is totally transmitted, and the white portion is a region where α = 255 and is not transmitted.
引き続き、下記式[7]で示すように、強調処理を行って前記動体判定マップMのコントラストをアップさせる(ステップS105)。
Map_Move = fEmphasis (Diff_Lpf) ・・・式[7]
このステップS205での平滑化処理により、図5(b)に示すように、動体判定マップMにおいて動体である手Hの像の領域におけるコントラストがアップされる。
Subsequently, as shown by the following equation [7], enhancement processing is performed to increase the contrast of the moving object determination map M (step S105).
Map_Move = fEmphasis (Diff_Lpf) (7)
By the smoothing process in step S205, as shown in FIG. 5B, the contrast in the region of the image of the hand H that is a moving object in the moving object determination map M is increased.
しかる後に、この図5(b)に示した動体判定マップM((Map_ Move [0 ~ 255]: 0=動体なし)をαマップとして用いて、前述した疑似露出オーバー画像と露出オーバー画像とを合成する(ステップS206)。
合成された画像(以下、ブレンディング画像という)各画素のYUVの各パラメータ(Y_result_Over,U_result_Over,V_result_Over)は下記式[8]〜[10]で表現される。
Y_result_Over = (Y_Over ×(255 − Map_Move) + Y_Under_4 × Map_Move) / 255
・・・式[8]
U_result_Over = (U_Over ×(255 − Map_Move) + U_Under _4 × Map_Move) / 255
・・・式[9]
V_result_Over = (V_Over ×(255 − Map_Move) + V_Under _4 × Map_Move) / 255
・・・式[10]
Thereafter, using the moving object determination map M ((Map_Move [0 to 255]: 0 = no moving object) shown in FIG. 5B as an α map, the above-described pseudo overexposed image and overexposed image are obtained. Combining (step S206).
The YUV parameters (Y_result_Over, U_result_Over, V_result_Over) of each pixel of the synthesized image (hereinafter referred to as a blended image) are expressed by the following equations [8] to [10].
Y_result_Over = (Y_Over × (255 − Map_Move) + Y_Under_4 × Map_Move) / 255
... Formula [8]
U_result_Over = (U_Over × (255 − Map_Move) + U_Under _4 × Map_Move) / 255
... Formula [9]
V_result_Over = (V_Over × (255 − Map_Move) + V_Under _4 × Map_Move) / 255
... Formula [10]
そして、図2のフローチャートにおけるステップS105に続くステップS106においては、このブレンディング画像をRAM8に一旦保存する。引き続き、このRAM8に一旦保存したブレンディング画像と前記露出アンダー画像Uとを画素加算合成する(ステップS107)。 これにより、図6(b)に示すように、背景Bと手Hとからなる合成画像PMを表すYUV画像データが生成されることとなる。
Then, in step S106 following step S105 in the flowchart of FIG. 2, the blended image is temporarily stored in the
ここで、図6(a)は、露出アンダー画像Uと露出オーバー画像Oとを単に平均加算処理した合成画像PNである。このように、連写された画像を単に平均加算処理した合成画像PNにあっては、動体像である手Hの像に大きなブレが生じてしまう。これに対し、本実施の形態によれば、手Hの像が動いている場合においても、図6(b)に示すように、動体ブレの少ない合成画像PMを得ることができる。
また、撮影画角に動体が存在する場合においても、白飛びや黒潰れの少ない合成画像PMを得ることができる。
Here, FIG. 6A is a composite image PN obtained by simply averaging the underexposed image U and the overexposed image O. As described above, in the composite image PN obtained by simply averaging the continuously shot images, a large blurring occurs in the image of the hand H that is a moving body image. On the other hand, according to the present embodiment, even when the image of the hand H is moving, as shown in FIG. 6B, it is possible to obtain a composite image PM with less moving body shake.
Further, even when a moving object is present at the shooting angle of view, a composite image PM with little whiteout or blackout can be obtained.
しかも前述のように、ステップS204で平滑化処理を行うことから、合成による動体(手H)と背景との境界線をより自然なものにすることができる。 Moreover, as described above, since the smoothing process is performed in step S204, the boundary line between the moving object (hand H) and the background by synthesis can be made more natural.
また、前述のステップS205では、マップMのコントラストを上げる処理を実行したことから、合成処理における被写体ブレの残像(ゴースト)を減少させることもできる。 Further, in the above-described step S205, since the process of increasing the contrast of the map M is executed, it is possible to reduce the afterimage (ghost) of the subject blur in the synthesis process.
以上のようにして、合成画像PMを表すYUV画像データを生成したならば、完成画像である合成画像PMのYUV画像データを、JPEG方式で符号化しファイル化して、画像記録部6に記録保存し(ステップS110)、処理を終了する。 When the YUV image data representing the composite image PM is generated as described above, the YUV image data of the composite image PM that is the completed image is encoded and filed by the JPEG method, and is recorded and stored in the image recording unit 6. (Step S110), the process ends.
尚、本実施の形態においては、YUV画像データを用いた場合を示したが、RGB画像データを用いるようにしてもよい。この場合、RGBそれぞれについて、同様に差分二乗を算出する。 In this embodiment, YUV image data is used, but RGB image data may be used. In this case, the difference square is similarly calculated for each of RGB.
図7は、本発明の他の実施の形態における処理手順を示すフローチャートであり、略同一画角で撮影した三枚の画像、露出アンダー画像、露出ノーマル画像、露出オーバー画像を用いるようにしたものである。ユーザがキー入力部4に設けられているモードボタンを操作して、本実施形態に係る撮影モードを設定すると、制御部9がプログラムメモリ7からプログラムを読み出して、このフローチャートに示すように、処理を開始する。
FIG. 7 is a flowchart showing a processing procedure in another embodiment of the present invention, in which three images taken with substantially the same angle of view, an underexposed image, a normal exposed image, and an overexposed image are used. It is. When the user operates the mode button provided in the
すなわち、制御部9はシャッターキー41の押下が検出されたか否かを判断する(ステップS301)。シャッターキー41の押下が検出されたならば、適正露出を検出するとともに、この適正露出の露出値0EVを「2」減少させた−2EVで駆動制御部2に指示して撮影を実行させ、この−2EVでの撮影により得られた露出アンダー画像をRAM8に一旦保存する(ステップS302)。
That is, the control unit 9 determines whether or not the pressing of the
また、適正露出の露出値0EVで駆動制御部2に指示して撮影を実行させ、この0EVでの撮影により得られた露出ノーマル画像をRAM8に一旦保存する(ステップS303)。さらに、適正露出の露出値0EVを「2」増加させた+2EVで駆動制御部2に指示して撮影を実行させ、この+2EVでの撮影により得られた露出オーバー画像をRAM8に一旦保存する(ステップS304)。 Further, the drive control unit 2 is instructed to execute photographing at an exposure value 0 EV of appropriate exposure, and the exposure normal image obtained by photographing at this 0 EV is temporarily stored in the RAM 8 (step S303). Furthermore, the drive control unit 2 is instructed to perform shooting at + 2EV, which is obtained by increasing the exposure value 0EV of the appropriate exposure by “2”, and the overexposed image obtained by the shooting at + 2EV is temporarily stored in the RAM 8 (step S1). S304).
したがって、このステップS302及びステップS303での処理により、YUV画像からなる露出アンダー画像、露出ノーマル画像、及び、露出オーバー画像がRAM8に保存される。
Therefore, an underexposed image, a normal exposed image, and an overexposed image made up of YUV images are stored in the
次に、露出ノーマル画像と露光条件が等しくなるように、露出アンダー画像のゲインをアップさせることにより、第1の疑似露出オーバー画像を生成し、且つ露出オーバー画像と露光条件が等しくなるように、露出アンダー画像のゲインをアップさせることにより、第2の疑似露出オーバー画像を生成して、RAM8に一旦保存する(ステップS305)。つまり、−2EVで撮影された露出アンダー画像と、0EVで撮影された露ノーマル画像とは、画像の明るさが8倍異なり、露出ノーマル画像は、露出アンダー画像よりも8倍明るい。したがって、露出アンダー画像をデジタルゲイン8倍で処理することにより、露出ノーマル画像と擬似的に露出条件が同一となる第1疑似露出オーバー画像を生成する。 Next, by increasing the gain of the underexposed image so that the exposure condition is equal to the normal exposure image, a first pseudo overexposure image is generated, and the overexposure image and the exposure condition are equalized. By increasing the gain of the underexposed image, a second pseudo overexposed image is generated and temporarily stored in the RAM 8 (step S305). That is, the underexposure image captured at −2 EV and the dew normal image captured at 0 EV are 8 times different in brightness, and the normal exposure image is 8 times brighter than the underexposure image. Accordingly, by processing the underexposed image with a digital gain of 8 times, a first pseudo overexposed image having the same exposure condition as that of the normal exposure image is generated.
また、−2EVで撮影された露出アンダー画像と、+2EVで撮影された露オーバー画像とは、画像の明るさが16倍異なり、露出オーバー画像は、露出アンダー画像よりも16倍明るい。したがって、露出アンダー画像をデジタルゲイン16倍で処理することにより、露出オーバー画像と擬似的に露出条件が同一となる第2疑似露出オーバー画像を生成する。そして、これら第1疑似露出オーバー画像と、第2疑似露出オーバー画像とをRAM8に一旦保存する。
Also, the underexposed image captured at -2EV and the overexposed image captured at + 2EV are 16 times brighter than the underexposed image, and the overexposed image is 16 times brighter than the underexposed image. Therefore, by processing the underexposed image with a digital gain of 16 times, a second pseudo overexposed image having the same exposure condition as the overexposed image is generated. The first pseudo overexposure image and the second pseudo overexposure image are temporarily stored in the
次いで、1回目の動体判定・ブレンディング処理が終了しているか否かを判断する(ステップS306)。未だ動体判定・ブレンディング処理が実行されておらず、今回が1回目の処理であるならば、ステップS306の判断がNOとなって、ステップS307に進む。そして、擬似的に露出値が等しい第1疑似露出オーバー画像と露出ノーマル画像とを用いて、動体判定・αブレンディング処理を行う。この動体判定・αブレンディング処理(ステップS307)の処理手順は、図3のフローチャートに基づいて説明した前記実施の形態と同様である。この第1疑似露出オーバー画像と露出ノーマル画像とを用いた動体判定・αブレンディング処理が終了したならば、これにより得られた第1ブレンディング画像をRAM8に一旦保存し(ステップS308)、ステップS306に戻る。 Next, it is determined whether or not the first moving object determination / blending process has been completed (step S306). If the moving object determination / blending process has not yet been executed and this time is the first process, the determination in step S306 is NO, and the process proceeds to step S307. Then, the moving object determination / α blending process is performed using the first pseudo overexposure image and the normal exposure image having the same pseudo exposure value. The processing procedure of the moving object determination / α blending process (step S307) is the same as that of the embodiment described based on the flowchart of FIG. When the moving object determination / α blending process using the first pseudo overexposed image and the normal exposure image is completed, the first blended image obtained thereby is temporarily stored in the RAM 8 (step S308), and the process proceeds to step S306. Return.
すると、1回目の動体判定・αブレンド処理が終了したことから、ステップS306の判断がYESとなる。したがって、ステップS309に進み、擬似的に露出値が等しい第2疑似露出オーバー画像と露出オーバー画像とを用いて、動体判定・αブレンディング処理を行う。この動体判定・αブレンディング処理(ステップS309)の処理手順も、図3のフローチャートに基づいて説明した前記実施の形態と同様である。この第2疑似露出オーバー画像と露出オーバー画像とを用いた動体判定・αブレンディング処理が終了したならば、これにより得られた第2ブレンディング画像をRAM8に一旦保存する(ステップS310)。 Then, since the first moving object determination / α blending process is completed, the determination in step S306 becomes YES. Accordingly, the process proceeds to step S309, and the moving object determination / α blending process is performed using the second pseudo overexposure image and the overexposure image that have the same pseudo exposure value. The processing procedure of the moving object determination / α blending process (step S309) is also the same as that of the embodiment described based on the flowchart of FIG. When the moving object determination / α blending process using the second pseudo overexposed image and the overexposed image is completed, the second blended image obtained thereby is temporarily stored in the RAM 8 (step S310).
引き続き、これらRAM8に一旦保存した第1ブレンディング画像及び第2ブレンディング画像と前記露出アンダー画像とを画素加算合成し、この合成画像を表すYUV画像データを生成する(ステップS311)。 しかる後に、完成画像である合成画像PMのYUV画像データを、JPEG方式で符号化しファイル化して、画像記録部6に記録保存し(ステップS312)、処理を終了する。
Subsequently, the first and second blended images once stored in the
尚、この本実施の形態においては、ステップS311において、第1ブレンディング画像、第2ブレンディング画像、及び、露出アンダー画像を画素加算合成して、完成画像を得るようにした。しかし、第1ブレンディング画像と露出アンダー画像とのみを画素加算合成して完成画像を得るようにし、あるいは第2ブレンディング画像と露出アンダー画像とを画素加算合成し完成画像を得るようにしてもよい。 In this embodiment, in step S311, the first blended image, the second blended image, and the underexposed image are subjected to pixel addition synthesis to obtain a completed image. However, a completed image may be obtained by adding and synthesizing only the first blended image and the underexposed image, or a completed image may be obtained by adding and synthesizing the second blended image and the underexposed image.
1 撮像部
2 駆動制御部
3 CDS/ADC
4 キー入力部
5 表示部
6 画像記録部
7 プログラムメモリ
8 RAM
9 制御部
10 画像処理部
11 合成部
41 シャッターキー
1 Imaging unit 2
4 Key input section 5 Display section 6
9
Claims (7)
前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得手段によって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御手段と、
このゲイン制御手段によってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを比較することにより、前記撮影画角における動体領域を検出する動体領域検出手段と、
前記ゲインが上げられた画像と露光条件が等しい画像における前記動体領域検出手段によって検出された動体領域の画像を、前記ゲインが上げられた画像における同領域の画像に置換する置換手段と、
前記動体領域検出手段によって検出された動体領域について、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像との画素毎の差分の最大値を取得する差分取得手段と、
この差分取得手段によって取得された情報を平均化し、これを透過強度の情報として前記置換手段による置換後の画像にブレンディングするブレンディング手段と、
このブレンディング手段によってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成手段と、
を備えたことを特徴とする画像合成装置。 Image acquisition means for acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions;
Control is performed to increase the brightness gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition unit so that the exposure condition is equal to the image of the other exposure conditions in the plurality of images. Gain control means;
A moving object region detecting means for detecting a moving object region at the shooting angle of view by comparing an image whose gain has been increased by the gain control unit with an image having the same exposure condition as that of the image having the increased gain;
Replacement means for replacing the image of the moving object region detected by the moving object region detection means in the image having the same exposure condition as that of the image with the increased gain with an image of the same area in the image with the increased gain;
Difference acquisition means for acquiring a maximum value of a difference for each pixel between the image with the increased gain, the image with the increased gain, and an image with the same exposure condition for the moving object region detected by the moving object region detection means; ,
A blending unit that averages the information acquired by the difference acquisition unit and blends the information as transmission intensity information into the image after replacement by the replacement unit;
Generating means for generating a pixel addition composite image of the image blended by the blending means and the image having the lower exposure amount;
An image composition device comprising:
前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得ステップによって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御ステップと、
このゲイン制御ステップによってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを比較することにより、前記撮影画角における動体領域を検出する動体領域検出ステップと、
前記ゲインが上げられた画像と露光条件が等しい画像における前記動体領域検出ステップによって検出された動体領域の画像を、前記ゲインが上げられた画像における同領域の画像に置換する置換ステップと、
前記動体領域検出ステップによって検出された動体領域について、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像との画素毎の差分の最大値を取得する差分取得ステップと、
この差分取得ステップによって取得された情報を平均化し、これを透過強度の情報として前記置換ステップによる置換後の画像にブレンディングするブレンディングステップと、
このブレンディングステップによってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成ステップと、
を含むことを特徴とする画像合成方法。 An image acquisition step of acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions;
Control is performed to increase the brightness gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition step so that the exposure condition is equal to the image of the other exposure conditions in the plurality of images. A gain control step;
A moving object region detecting step for detecting a moving object region at the shooting angle of view by comparing an image whose gain has been increased by the gain control step with an image having the same exposure condition as that of the image having the increased gain;
A replacement step of replacing an image of the moving object region detected by the moving object region detection step in an image having the same exposure condition as that of the image having the increased gain with an image of the same region in the image having the increased gain;
A difference obtaining step for obtaining a maximum value of a difference for each pixel between the image with the increased gain, the image with the increased gain, and an image with the same exposure condition for the moving object region detected by the moving object region detecting step; ,
A blending step of averaging the information acquired by the difference acquisition step, and blending the information as transmission intensity information to the image after replacement by the replacement step;
A generation step of generating a pixel addition composite image of the image blended by the blending step and the image with the lower exposure amount;
An image composition method comprising:
略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得手段、
前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得手段によって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御手段、
このゲイン制御手段によってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを比較することにより、前記撮影画角における動体領域を検出する動体領域検出手段、
前記ゲインが上げられた画像と露光条件が等しい画像における前記動体領域検出手段によって検出された動体領域の画像を、前記ゲインが上げられた画像における同領域の画像に置換する置換手段、
前記動体領域検出手段によって検出された動体領域について、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像との画素毎の差分の最大値を取得する差分取得手段、
この差分取得手段によって取得された情報を平均化し、これを透過強度の情報として前記置換手段による置換後の画像にブレンディングするブレンディング手段、
このブレンディング手段によってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成手段、
として機能させることを特徴とするプログラム。 The computer that the device has
Image acquisition means for acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions;
Control is performed to increase the brightness gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition unit so that the exposure condition is equal to the image of the other exposure conditions in the plurality of images. Gain control means,
A moving object region detecting means for detecting a moving object region at the shooting angle of view by comparing an image whose gain has been increased by the gain control unit with an image having the same exposure condition as that of the image having the increased gain;
Replacement means for replacing the image of the moving object region detected by the moving object region detection means in the image with the same exposure condition as that of the image with the increased gain, with the image of the same area in the image with the increased gain;
A difference acquisition unit that acquires a maximum value of a difference for each pixel between the image with the increased gain and the image with the increased gain and an image having the same exposure condition for the moving region detected by the moving region detection unit;
A blending unit that averages the information acquired by the difference acquisition unit and blends the information as transmission intensity information into the image after replacement by the replacement unit;
Generating means for generating a pixel-added synthesized image of the image blended by the blending means and the image with the lower exposure amount;
A program characterized by functioning as
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010182677A JP5146500B2 (en) | 2010-08-18 | 2010-08-18 | Image composition apparatus, image composition method, and program |
US13/187,367 US20120019686A1 (en) | 2010-07-23 | 2011-07-20 | Image synthesizing device, image synthesizing method and computer readable medium |
CN201110205268.5A CN102348056B (en) | 2010-07-23 | 2011-07-21 | Image synthesizing device and image synthesizing method |
EP12197315.0A EP2571249B1 (en) | 2010-07-23 | 2011-07-22 | Image synthesizing device, image synthesizing method and computer readable medium |
KR1020110072999A KR101247647B1 (en) | 2010-07-23 | 2011-07-22 | Image synthesizing device, image synthesizing method, and recording medium |
EP11174950.3A EP2410734B1 (en) | 2010-07-23 | 2011-07-22 | Image synthesizing device, image synthesizing method and computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010182677A JP5146500B2 (en) | 2010-08-18 | 2010-08-18 | Image composition apparatus, image composition method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2012044377A true JP2012044377A (en) | 2012-03-01 |
JP2012044377A5 JP2012044377A5 (en) | 2012-06-28 |
JP5146500B2 JP5146500B2 (en) | 2013-02-20 |
Family
ID=45900192
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010182677A Active JP5146500B2 (en) | 2010-07-23 | 2010-08-18 | Image composition apparatus, image composition method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5146500B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013225724A (en) * | 2012-04-19 | 2013-10-31 | Canon Inc | Imaging device, control method therefor, program, and storage medium |
JP2014179919A (en) * | 2013-03-15 | 2014-09-25 | Canon Inc | Imaging device and imaging method |
WO2014167676A1 (en) * | 2013-04-10 | 2014-10-16 | 株式会社 東芝 | Eelctronic device and image processing method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008301043A (en) * | 2007-05-30 | 2008-12-11 | Fujitsu Ltd | Image compositing device, image compositing method, and image compositing program |
JP2009105533A (en) * | 2007-10-22 | 2009-05-14 | Sony Corp | Image processing device, imaging device, image processing method, and picked-up image processing method |
-
2010
- 2010-08-18 JP JP2010182677A patent/JP5146500B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008301043A (en) * | 2007-05-30 | 2008-12-11 | Fujitsu Ltd | Image compositing device, image compositing method, and image compositing program |
JP2009105533A (en) * | 2007-10-22 | 2009-05-14 | Sony Corp | Image processing device, imaging device, image processing method, and picked-up image processing method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013225724A (en) * | 2012-04-19 | 2013-10-31 | Canon Inc | Imaging device, control method therefor, program, and storage medium |
JP2014179919A (en) * | 2013-03-15 | 2014-09-25 | Canon Inc | Imaging device and imaging method |
WO2014167676A1 (en) * | 2013-04-10 | 2014-10-16 | 株式会社 東芝 | Eelctronic device and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP5146500B2 (en) | 2013-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2410734B1 (en) | Image synthesizing device, image synthesizing method and computer readable medium | |
JP5713752B2 (en) | Image processing apparatus and control method thereof | |
KR101247646B1 (en) | Image combining apparatus, image combining method and recording medium | |
JP4218723B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP4631558B2 (en) | Imaging apparatus and image processing program | |
JP5787648B2 (en) | Image processing apparatus and image processing apparatus control method | |
JP5408053B2 (en) | Image processing apparatus and image processing method | |
JP5665436B2 (en) | Image processing apparatus, image processing method, and program | |
JP5240349B2 (en) | Image composition apparatus and program | |
JP2012044378A (en) | Imaging device, imaging method, and program | |
JP2007180631A (en) | Imaging apparatus and photographing method | |
JP2008104009A (en) | Imaging apparatus and method | |
JP5186021B2 (en) | Imaging apparatus, image processing apparatus, and imaging method | |
JP2007228451A (en) | Imaging apparatus | |
JP5146498B2 (en) | Image composition apparatus, image composition method, and program | |
EP2214136B1 (en) | Method and program for controlling image capture apparatus | |
JP5076650B2 (en) | Imaging apparatus and image processing program | |
WO2016117137A1 (en) | Image-capturing device, image-capturing method, and image display device | |
JP2006352229A (en) | Digital camera | |
JP2006080942A (en) | Image processing apparatus, image processing program, image processing method, and imaging apparatus | |
JP5146500B2 (en) | Image composition apparatus, image composition method, and program | |
JP2008136113A (en) | Image processor, imaging apparatus and image processing method | |
JP2013085040A (en) | Image processing apparatus | |
JP2009118052A (en) | Image signal processing method and apparatus | |
JP4306584B2 (en) | Digital camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120510 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120510 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20120515 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20120724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120807 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121002 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121030 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5146500 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151207 Year of fee payment: 3 |