JP2012044377A - Image compositing device, image compositing method and program - Google Patents

Image compositing device, image compositing method and program Download PDF

Info

Publication number
JP2012044377A
JP2012044377A JP2010182677A JP2010182677A JP2012044377A JP 2012044377 A JP2012044377 A JP 2012044377A JP 2010182677 A JP2010182677 A JP 2010182677A JP 2010182677 A JP2010182677 A JP 2010182677A JP 2012044377 A JP2012044377 A JP 2012044377A
Authority
JP
Japan
Prior art keywords
image
gain
moving object
object region
blending
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010182677A
Other languages
Japanese (ja)
Other versions
JP2012044377A5 (en
JP5146500B2 (en
Inventor
Keiji Manabe
佳嗣 真鍋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010182677A priority Critical patent/JP5146500B2/en
Priority to US13/187,367 priority patent/US20120019686A1/en
Priority to CN201110205268.5A priority patent/CN102348056B/en
Priority to KR1020110072999A priority patent/KR101247647B1/en
Priority to EP12197315.0A priority patent/EP2571249B1/en
Priority to EP11174950.3A priority patent/EP2410734B1/en
Publication of JP2012044377A publication Critical patent/JP2012044377A/en
Publication of JP2012044377A5 publication Critical patent/JP2012044377A5/ja
Application granted granted Critical
Publication of JP5146500B2 publication Critical patent/JP5146500B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To obtain a composite image having little halation and little black saturation even when a dynamic body exists in an imaging field angle.SOLUTION: When push of a shutter key is detected, proper exposure is detected. An image is picked up with -1EV achieved by decrementing 0EV of this proper exposure by "1" to obtain an underexposure image (step S102), and an image is picked up with +1EV achieved by incrementing 0EV by "1" to obtain an overexposure image (step S103). The gain of the underexposure image is increased so that the exposure condition is equal to that of the overexposure image, thereby generating a pseudo overexposure image (step S104). Dynamic body determination/α blending processing is executed by using the pseudo overexposure image and the overexposure image to generate a blending image (step S105), and the blending image and the underexposure image are subjected to pixel addition composition (step S107).

Description

本発明は、画像合成装置、画像合成方法、及びプログラムに関する。   The present invention relates to an image composition device, an image composition method, and a program.

従来より、撮像に関する技術分野において、撮影画像における白飛びや黒潰れなどの階調不足を解消する技術が考案されている。
例えば、下記特許文献においては、異なる露光量で連続的に撮影し、これらを適宜選択して合成処理することで、白飛びや黒潰れといった問題を解消し、ダイナミックレンジを拡大させる考案がなされている。
2. Description of the Related Art Conventionally, in the technical field related to imaging, a technique has been devised to eliminate lack of gradation such as whiteout or blackout in a photographed image.
For example, in the following patent document, a device has been devised that continuously captures images with different exposure amounts, appropriately selects and combines them, thereby solving problems such as overexposure and blackout and expanding the dynamic range. Yes.

特開2003−264738号公報JP 2003-264738 A

しかしながら上記の画像合成技術の場合、効果を奏するのは撮影画角に対し主要被写体が動いていない、つまり動体が存在しないケースに限られる。撮影画角に動体が存在すると連続的に撮影した際に、主要被写体に位置ずれが生ずることにより、異なる露光量で連続的に撮影した画像を合成することが困難となる。
したがってそのような場合にはおいては、合成処理によるダイナミックレンジの拡大ができないという問題がある。
However, in the case of the above image composition technique, the effect is limited to the case where the main subject does not move with respect to the shooting angle of view, that is, there is no moving object. If there is a moving object at the shooting angle of view, the main subject will be misaligned during continuous shooting, making it difficult to synthesize images continuously shot with different exposure amounts.
Therefore, in such a case, there is a problem that the dynamic range cannot be expanded by the synthesis process.

本発明は、かかる従来の課題に鑑みてなされたものであり、撮影画角に動体が存在する場合においても、白飛びや黒潰れの少ない合成画像を得ることができるようにすることを目的とするものである。   The present invention has been made in view of such a conventional problem, and an object thereof is to obtain a composite image with little overexposure and underexposure even when a moving object is present at a shooting angle of view. To do.

前記課題を解決するために請求項1記載の発明は、略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得手段と、前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得手段によって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御手段と、このゲイン制御手段によってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを比較することにより、前記撮影画角における動体領域を検出する動体領域検出手段と、前記ゲインが上げられた画像と露光条件が等しい画像における前記動体領域検出手段によって検出された動体領域の画像を、前記ゲインが上げられた画像における同領域の画像に置換する置換手段と、前記動体領域検出手段によって検出された動体領域について、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像との画素毎の差分の最大値を取得する差分取得手段と、この差分取得手段によって取得された情報を平均化し、これを透過強度の情報として前記置換手段による置換後の画像にブレンディングするブレンディング手段と、このブレンディング手段によってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成手段と、を備えたことを特徴とする。   In order to solve the above-mentioned problem, the invention according to claim 1 is characterized in that image acquisition means for acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions, and images of other exposure conditions in the plurality of images. And gain control means for controlling to increase the gain of the brightness of the image with the lower exposure amount among the plurality of images acquired by the image acquisition means so that the exposure conditions are equal, and the gain control means A moving body region detecting means for detecting a moving body region at the shooting angle of view by comparing the image with the increased gain and the image with the same exposure condition, and the image with the gain increased. The image of the moving object area detected by the moving object area detecting means in the image having the same exposure condition as that of the image is replaced with the image of the same area in the image having the increased gain. For the moving object region detected by the replacing means and the moving object region detecting means, the maximum value of the difference for each pixel between the image with the increased gain, the image with the increased gain, and the image with the same exposure condition is acquired. A difference acquisition unit, a blending unit that averages the information acquired by the difference acquisition unit and blends the information as transmission intensity information into the image after replacement by the replacement unit, the image blended by the blending unit, and the And generating means for generating a pixel addition combined image with an image having a lower exposure amount.

また、請求項2記載の発明は、請求項1記載の発明において、前記ブレンディング手段は、前記差分取得手段によって取得された情報を平均化し、この平均化された情報について更にコントラストを上げる処理を実行することを特徴とする。   The invention according to claim 2 is the invention according to claim 1, wherein the blending means averages the information obtained by the difference obtaining means, and executes a process for further increasing the contrast of the averaged information. It is characterized by doing.

また、請求項3記載の発明は、請求項1又は2記載の発明において、前記ブレンディング手段は、前記差分取得手段によって取得された情報を平均化し、これ平均化された情報について更に平滑化処理を実行することを特徴とする。   According to a third aspect of the invention, in the invention of the first or second aspect, the blending means averages the information acquired by the difference acquisition means, and further smoothes the averaged information. It is characterized by performing.

また、請求項4記載の発明は、請求項1乃至3の何れか記載の発明において、前記画像取得手段は、撮像手段を含むことを特徴とする。   The invention according to claim 4 is the invention according to any one of claims 1 to 3, wherein the image acquisition means includes an imaging means.

また、請求項5記載の発明は、請求項1乃至4の何れか記載の発明において、前記画像とは、略同じ撮像画角で取得されたものであることを特徴とする。   The invention according to claim 5 is characterized in that, in the invention according to any one of claims 1 to 4, the image is acquired at substantially the same imaging angle of view.

また、請求項6記載の発明は、略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得ステップと、前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得ステップによって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御ステップと、このゲイン制御ステップによってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを比較することにより、前記撮影画角における動体領域を検出する動体領域検出ステップと、前記ゲインが上げられた画像と露光条件が等しい画像における前記動体領域検出ステップによって検出された動体領域の画像を、前記ゲインが上げられた画像における同領域の画像に置換する置換ステップと、前記動体領域検出ステップによって検出された動体領域について、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像との画素毎の差分の最大値を取得する差分取得ステップと、この差分取得ステップによって取得された情報を平均化し、これを透過強度の情報として前記置換ステップによる置換後の画像にブレンディングするブレンディングステップと、このブレンディングステップによってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成ステップと、を含むことを特徴とする。   According to a sixth aspect of the present invention, the image acquisition step of acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions, and the exposure conditions of the images of other exposure conditions in the plurality of images are equal. The gain control step for controlling to increase the gain of the brightness of the image having the lower exposure amount among the plurality of images acquired by the image acquisition step, and the image whose gain has been increased by the gain control step And a moving object region detecting step for detecting a moving object region at the shooting angle of view by comparing the image with the increased gain and the image with the same exposure condition, and the exposure condition is equal to the image with the increased gain. The image of the moving object area detected by the moving object area detecting step in the image is changed to the image of the same area in the image with the gain increased. For the moving object region detected by the replacing step and the moving object region detecting step, the maximum value of the difference for each pixel between the image with the increased gain, the image with the increased gain, and the image with the same exposure condition. The difference acquisition step to be acquired, the information acquired by the difference acquisition step is averaged, and the blended step is blended to the image after the replacement by the replacement step as transmission intensity information, and the image blended by the blending step And a generation step of generating a pixel addition composite image of the image with the lower exposure amount.

また、請求項6記載の発明は、装置が有するコンピュータを、略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得手段、前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得手段によって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御手段、このゲイン制御手段によってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを比較することにより、前記撮影画角における動体領域を検出する動体領域検出手段、前記ゲインが上げられた画像と露光条件が等しい画像における前記動体領域検出手段によって検出された動体領域の画像を、前記ゲインが上げられた画像における同領域の画像に置換する置換手段、前記動体領域検出手段によって検出された動体領域について、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像との画素毎の差分の最大値を取得する差分取得手段、この差分取得手段によって取得された情報を平均化し、これを透過強度の情報として前記置換手段による置換後の画像にブレンディングするブレンディング手段、このブレンディング手段によってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成手段、として機能させることを特徴とする。   According to a sixth aspect of the present invention, there is provided an image acquisition means for acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions, and images of other exposure conditions in the plurality of images. Gain control means for controlling the gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition means so that the exposure conditions are equal, and the gain control means controls the gain. A moving object region detecting means for detecting a moving object region at the shooting angle of view by comparing the raised image with an image having the same exposure condition as that of the image having the increased gain, and the image having the increased gain and the exposure An image of the moving object region detected by the moving object region detection unit in an image having the same condition is placed on the image of the same region in the image with the gain increased. For the moving body region detected by the moving body region detecting unit, the maximum value of the difference for each pixel between the image with the increased gain, the image with the increased gain, and the image with the same exposure condition is acquired. Difference obtaining means, information obtained by the difference obtaining means is averaged, and blending means for blending the obtained information as transmission intensity information on the image after replacement by the replacing means, the image blended by the blending means and the exposure amount And generating means for generating a pixel-added combined image with the lower image.

本発明によれば、撮影画角に動体が存在する場合においても、白飛びや黒潰れの少ない合成画像を得ることができる。   According to the present invention, it is possible to obtain a composite image with little overexposure and underexposure even when a moving object is present at the shooting angle of view.

本発明の一実施の形態を適用した撮像装置の回路ブロック図である。It is a circuit block diagram of an imaging device to which an embodiment of the present invention is applied. 同撮像装置における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the imaging device. 動体判定・ブレンディング処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a moving body determination and blending process. 連写された画像の一例を示す図である。It is a figure which shows an example of the image continuously taken. (a)は平滑化処理による処理結果を示す図であり、(b)は強調処理により処理結果を示す図である。(A) is a figure which shows the process result by a smoothing process, (b) is a figure which shows a process result by an emphasis process. (a)は加算合成による合成画像を示す図であり、(b)は本実施の形態による合成画像を示す図である。(A) is a figure which shows the synthesized image by addition composition, (b) is a figure which shows the synthesized image by this Embodiment. 本発明の他の実施の形態における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in other embodiment of this invention.

以下、本発明の一実施の形態を図に従って説明する。図1は、本発明の一実施の形態に係る画像合成装置を備える撮像装置の回路構成図である。この撮像装置は、撮像部1、駆動制御部2、CDS/ADC3、キー入力部4、表示部5、画像記録部6、プログラムメモリ7、RAM8、制御部9、画像処理部10を有している。これらは、バスラインを介して接続されている。キー入力部4は撮影者の記録指示を検出するためのシャッターキー41を備え、画像処理部10は合成部11を備える。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a circuit configuration diagram of an imaging apparatus including an image synthesis apparatus according to an embodiment of the present invention. The imaging apparatus includes an imaging unit 1, a drive control unit 2, a CDS / ADC 3, a key input unit 4, a display unit 5, an image recording unit 6, a program memory 7, a RAM 8, a control unit 9, and an image processing unit 10. Yes. These are connected via a bus line. The key input unit 4 includes a shutter key 41 for detecting a recording instruction of a photographer, and the image processing unit 10 includes a synthesis unit 11.

同図において撮像部1は、CMOS等のイメージセンサ、このイメージセンサ上に設けられたRGBのカラーフィルタ、及び、駆動制御部2からの制御により、光の強度を電荷の蓄積として一定時間保持し、CDS/ADC3にアナログの撮像信号としてこれらを出力するドライバを内蔵する。そして、シャッターキー41、制御部9、駆動制御部2を経由した撮影者の撮影指示を検出することで、露光条件(シャッタースピード、若しくは絞り値)を変えながら、露出アンダー、適正露出、露出オーバーを含む複数の画像(カラー画像)を取得する。   In the figure, the imaging unit 1 holds the light intensity as a charge accumulation for a certain period of time by controlling from an image sensor such as a CMOS, an RGB color filter provided on the image sensor, and the drive control unit 2. The CDS / ADC 3 includes a driver that outputs these as analog imaging signals. Then, by detecting the shooting instruction of the photographer via the shutter key 41, the control unit 9, and the drive control unit 2, while changing the exposure condition (shutter speed or aperture value), underexposure, proper exposure, overexposure A plurality of images (color images) including are acquired.

CDS/ADC3は、撮像部1から出力される被写体の光学像に応じたアナログの撮像信号が入力される回路であって、入力した撮像信号を保持するCDSと、その撮像信号を増幅するゲイン調整アンプ(AGC)、増幅された撮像信号をデジタルの撮像信号に変換するA/D変換器(ADC)等から構成される。尚、ゲイン調整アンプの調整に関わる制御についても、駆動制御部2からの指示に基づき行われる。このため、露光条件(シャッタースピード、若しくは絞り値)を同じくして複数枚の画像を取得しても、RGBのゲイン調整アンプや画像の色味を順次変えることによる条件の異なる複数の画像を生成することができる。   The CDS / ADC 3 is a circuit to which an analog imaging signal corresponding to the optical image of the subject output from the imaging unit 1 is input. The CDS / ADC 3 holds the input imaging signal and gain adjustment for amplifying the imaging signal. An amplifier (AGC), an A / D converter (ADC) that converts the amplified imaging signal into a digital imaging signal, and the like are configured. Note that control related to the adjustment of the gain adjustment amplifier is also performed based on an instruction from the drive control unit 2. Therefore, even if multiple images are acquired with the same exposure conditions (shutter speed or aperture value), multiple images with different conditions can be generated by sequentially changing the RGB gain adjustment amplifier and the color of the image. can do.

尚、本実施の形態においては、駆動制御部2がゲイン調整アンプに関わる制御を行なうようにしたが、これに限らない。例えば上記の制御は制御部9で行なうようにしてもよい。   In the present embodiment, the drive control unit 2 performs control related to the gain adjustment amplifier. However, the present invention is not limited to this. For example, the above control may be performed by the control unit 9.

キー入力部4は、上述のシャッターキー41の他、本発明に係る画像の取得・記録を目的すとする撮影モードへの切り換え、表示の切り換え等を検出するための各種キーを備える。   In addition to the shutter key 41 described above, the key input unit 4 includes various keys for detecting switching to a shooting mode for the purpose of acquiring and recording an image according to the present invention, display switching, and the like.

表示部5は、合成された画像を表示する機能を有する。画像記録部6は、本発明に係る合成処理が実行された後、JPEG方式で符号化された画像データ(画像ファイル)を記憶・格納する。プログラムメモリ7は、制御部9、画像処理部10にて実行されるプログラムを記憶し、このプログラムは必要に応じて制御部9が読み出す。RAM8は、各処理により発生する処理中のデータを一時的に保持する機能を有する。制御部9は、この撮像装置全体の処理動作を制御する。画像処理部10は、画像データの符号化/復号化処理の他、本発明の特徴的構成に対応する合成部11を備える。   The display unit 5 has a function of displaying the synthesized image. The image recording unit 6 stores and stores image data (image file) encoded by the JPEG method after the composition processing according to the present invention is executed. The program memory 7 stores a program executed by the control unit 9 and the image processing unit 10, and this program is read by the control unit 9 as necessary. The RAM 8 has a function of temporarily holding data being processed generated by each process. The control unit 9 controls the processing operation of the entire imaging apparatus. The image processing unit 10 includes a synthesizing unit 11 corresponding to the characteristic configuration of the present invention, in addition to image data encoding / decoding processing.

すなわち合成部11は、後述する露出オーバー画像と疑似露出オーバー画像との合成を実行するとともに、この合成画像について後述する動体判定マップを差分領域に対応する透過強度マップ(αマップ)として用いて動体による残像を少なくさせるものである。また、前記合成画像と露出アンダー画像とを画素加算合成することにより、ダイナミックレンジを拡大させるものである。   That is, the synthesizing unit 11 performs synthesis of an overexposed image and a pseudo overexposed image, which will be described later, and uses a moving object determination map, which will be described later, for this synthesized image as a transmission intensity map (α map) corresponding to the difference area. This reduces the afterimage caused by. Further, the dynamic range is expanded by adding and synthesizing the synthesized image and the underexposed image with pixels.

次に、本実施の形態の動作について説明する。ユーザがキー入力部4に設けられているモードボタンを操作して、本実施形態に係る撮影モードを設定すると、制御部9がプログラムメモリ7からプログラムを読み出して、図2のフローチャートに示すように、処理を開始する。   Next, the operation of the present embodiment will be described. When the user operates the mode button provided in the key input unit 4 to set the shooting mode according to the present embodiment, the control unit 9 reads the program from the program memory 7 and as shown in the flowchart of FIG. Start processing.

すなわち、制御部9はシャッターキー41の押下が検出されたか否かを判断する(ステップS101)。シャッターキー41の押下が検出されたならば、適正露出を検出するとともに、この適正露出の露出値0EVを「1」減少させた−1EVで駆動制御部2に指示して撮影を実行させ、この−1EVでの撮影により得られた露出アンダー画像をRAM8に一旦保存する(ステップS102)。引き続き、適正露出の露出値0EVを「1」増加させた+1EVで駆動制御部2に指示して撮影を実行させ、この+1EVでの撮影により得られた露出オーバー画像をRAM8に一旦保存する(ステップS103)。   That is, the control unit 9 determines whether or not the pressing of the shutter key 41 is detected (step S101). If the pressing of the shutter key 41 is detected, the proper exposure is detected, and the drive control unit 2 is instructed to execute photographing by −1EV, which is obtained by reducing the exposure value 0EV of the proper exposure by “1”. The underexposed image obtained by photographing at -1 EV is temporarily stored in the RAM 8 (step S102). Subsequently, the drive control unit 2 is instructed to execute photographing with + 1EV, which is obtained by increasing the exposure value 0EV of the appropriate exposure by “1”, and the overexposed image obtained by the photographing with + 1EV is temporarily stored in the RAM 8 (Step S1). S103).

したがって、このステップS102及びステップS103での処理により、図4(a)に示すYUV画像からなる露出アンダー画像Uと、同図(b)に示すYUV画像からなる露出オーバー画像OとがRAM8に保存される。図4において矢印tは、時間軸であり、連写された露出アンダー画像Uと露出オーバー画像Oとは、撮像画角全体を示す背景B内において動体としての手Hを上下に振っている状態で、略同じ撮像画角で連写したものである。両画像U、Oにおいて、背景Bは同一であるが、時間tが進むに従って手Hの像は背景B内において相対的に下方に変位し、露出オーバー画像Oの手Hの像は、露出アンダー画像Uの手Hの像よりも下に位置する。   Therefore, by the processing in step S102 and step S103, the underexposed image U made up of the YUV image shown in FIG. 4A and the overexposed image O made up of the YUV image shown in FIG. 4B are stored in the RAM 8. Is done. In FIG. 4, an arrow t is a time axis, and the continuously exposed underexposed image U and overexposed image O are in a state where the hand H as a moving object is shaken up and down in the background B indicating the entire imaging field angle. Thus, continuous shooting is performed with substantially the same angle of view. In both images U and O, the background B is the same, but as the time t advances, the image of the hand H is displaced relatively downward in the background B, and the image of the hand H of the overexposed image O is underexposed. It is located below the image of the hand H of the image U.

尚、これら連写画像U、Oの連写に際しては、手ブレによる画像のブレは公知の技術(CCDシフトやレンズシフトによる画角補正技術)により補正されているものとする。しかし、各連写画像U、O中の手Hの像は動体ブレの要因とされる。   In the continuous shooting of these continuous shot images U and O, it is assumed that image blur due to camera shake is corrected by a known technique (view angle correction technique using CCD shift or lens shift). However, the image of the hand H in each of the continuous shot images U and O is considered to be a cause of motion blur.

次に、露出オーバー画像Oと露光条件が等しくなるように、露出アンダー画像Uのゲインをアップさせることにより、この疑似露出オーバー画像を生成して、RAM8に一旦保存する(ステップS104)。つまり、−1EVで撮影された露出アンダー画像Uと、+1EVで撮影された露出オーバー画像Oとは、画像の明るさが4倍異なり、露出オーバー画像Oは、露出アンダー画像Uよりも4倍明るい。したがって、露出アンダー画像Uをデジタルゲイン4倍で処理することにより、露出オーバー画像Oと擬似的に露出条件が同一となる疑似露出オーバー画像を生成する。   Next, by increasing the gain of the underexposed image U so that the exposure condition is equal to the overexposed image O, this pseudo overexposed image is generated and temporarily stored in the RAM 8 (step S104). That is, the underexposed image U captured at -1EV and the overexposed image O captured at + 1EV are four times brighter than the underexposed image U, and the overexposed image O is four times brighter than the underexposed image U. . Therefore, by processing the underexposed image U with a digital gain of 4 times, a pseudo overexposed image having the same exposure condition as the overexposed image O is generated.

次いで、動体判定・αブレンディング処理を行う(ステップS105)。図3は、動体判定・αブレンディング処理(ステップS105)の処理手順を示すフローチャートである。尚、この図3に示すフローチャートの説明に際しては、下記の式、符号あるいは関数を用いる。
Y_Under_4, U_ Under_4, V_ Under_4 :疑似露出オーバー画像YUV
Y_Over, U_Over, V_Over :露出オーバー画像 YUV
fMax() :最大値算出関数
fLpf() :平滑化関数
fEmphasis() :マップ強調関数
Next, a moving object determination / α blending process is performed (step S105). FIG. 3 is a flowchart showing a processing procedure of the moving object determination / α blending process (step S105). In the description of the flowchart shown in FIG. 3, the following equations, symbols, or functions are used.
Y_Under_4, U_ Under_4, V_ Under_4 : Pseudo overexposed image YUV
Y_Over, U_Over, V_Over: Overexposed image YUV
fMax (): Maximum value calculation function
fLpf (): smoothing function
fEmphasis (): Map enhancement function

図3のフローチャートにおいて、制御部9は疑似露出オーバー画像と露出オーバー画像との差分絶対値を、下記式[1]〜[3]に示すように、両画像の画素毎に求める(ステップS201)。
つまり、
Diff_Y = |Y_Under_4 − Y_Mid | ・・・式[1] // Yの差分絶対値
Diff_U = |U_Under_4 − U_Mid | ・・・式[2] // Uの差分絶対値
Diff_V = |V_Under_4 − V_Mid | ・・・式[3] // Vの差分絶対値
を前記両画像の画素毎に求める。
In the flowchart of FIG. 3, the control unit 9 obtains an absolute difference value between the pseudo overexposed image and the overexposed image for each pixel of both images as shown in the following formulas [1] to [3] (step S <b> 201). .
In other words,
Diff_Y = | Y_Under_4 − Y_Mid | ・ ・ ・ Formula [1] // Difference absolute value of Y
Diff_U = | U_Under_4 − U_Mid | ・ ・ ・ Equation [2] // Difference absolute value of U
Diff_V = | V_Under_4−V_Mid | Expression (3) // Absolute absolute value of V is obtained for each pixel of the both images.

そして、差分が大きいほど、被写体が動いた可能性が高い領域であるといえるから、下記式[4]に示すように差分が最大のもの(両画像の対応する画素毎に差分が最大のもの)を選択する(ステップS202)。
Diff = fMax(Diff_Y, Diff_U, Diff_V) ・・・式[4]
The larger the difference, the higher the possibility that the subject has moved. Therefore, as shown in the following formula [4], the difference is the largest (the difference is the largest for each corresponding pixel of both images). ) Is selected (step S202).
Diff = fMax (Diff_Y, Diff_U, Diff_V) Expression [4]

次に、下記式[5]で示すように、両画像の最大差分を平均化する処理を実行する(ステップS203)。
Ave_Diff = (Diff[0] + Diff[1] + ・・・ + Diff[N]) / N-1 ・・・式[5]
Next, as shown by the following formula [5], a process of averaging the maximum difference between the two images is executed (step S203).
Ave_Diff = (Diff [0] + Diff [1] + ... + Diff [N]) / N-1 ... Equation [5]

更に、下記式[6]で示すように、平滑化処理を実行する(ステップS204)。   Furthermore, as shown by the following formula [6], a smoothing process is executed (step S204).

Diff_Lpf = fLpf(Diff) ・・・式[6]
このステップS204での平滑化処理により、図5(a)に示すように、動体判定マップMが生成されることとなる。この動体判定マップMにおいて、斜線で示した部分は、α=0であって全透過させる領域であり、白抜き部分は、α=255であって不透過とする領域である。
Diff_Lpf = fLpf (Diff) (6)
As a result of the smoothing process in step S204, a moving object determination map M is generated as shown in FIG. In this moving object determination map M, the hatched portion is a region where α = 0 and is totally transmitted, and the white portion is a region where α = 255 and is not transmitted.

引き続き、下記式[7]で示すように、強調処理を行って前記動体判定マップMのコントラストをアップさせる(ステップS105)。
Map_Move = fEmphasis (Diff_Lpf) ・・・式[7]
このステップS205での平滑化処理により、図5(b)に示すように、動体判定マップMにおいて動体である手Hの像の領域におけるコントラストがアップされる。
Subsequently, as shown by the following equation [7], enhancement processing is performed to increase the contrast of the moving object determination map M (step S105).
Map_Move = fEmphasis (Diff_Lpf) (7)
By the smoothing process in step S205, as shown in FIG. 5B, the contrast in the region of the image of the hand H that is a moving object in the moving object determination map M is increased.

しかる後に、この図5(b)に示した動体判定マップM((Map_ Move [0 ~ 255]: 0=動体なし)をαマップとして用いて、前述した疑似露出オーバー画像と露出オーバー画像とを合成する(ステップS206)。
合成された画像(以下、ブレンディング画像という)各画素のYUVの各パラメータ(Y_result_Over,U_result_Over,V_result_Over)は下記式[8]〜[10]で表現される。
Y_result_Over = (Y_Over ×(255 − Map_Move) + Y_Under_4 × Map_Move) / 255
・・・式[8]
U_result_Over = (U_Over ×(255 − Map_Move) + U_Under _4 × Map_Move) / 255
・・・式[9]
V_result_Over = (V_Over ×(255 − Map_Move) + V_Under _4 × Map_Move) / 255
・・・式[10]
Thereafter, using the moving object determination map M ((Map_Move [0 to 255]: 0 = no moving object) shown in FIG. 5B as an α map, the above-described pseudo overexposed image and overexposed image are obtained. Combining (step S206).
The YUV parameters (Y_result_Over, U_result_Over, V_result_Over) of each pixel of the synthesized image (hereinafter referred to as a blended image) are expressed by the following equations [8] to [10].
Y_result_Over = (Y_Over × (255 − Map_Move) + Y_Under_4 × Map_Move) / 255
... Formula [8]
U_result_Over = (U_Over × (255 − Map_Move) + U_Under _4 × Map_Move) / 255
... Formula [9]
V_result_Over = (V_Over × (255 − Map_Move) + V_Under _4 × Map_Move) / 255
... Formula [10]

そして、図2のフローチャートにおけるステップS105に続くステップS106においては、このブレンディング画像をRAM8に一旦保存する。引き続き、このRAM8に一旦保存したブレンディング画像と前記露出アンダー画像Uとを画素加算合成する(ステップS107)。 これにより、図6(b)に示すように、背景Bと手Hとからなる合成画像PMを表すYUV画像データが生成されることとなる。   Then, in step S106 following step S105 in the flowchart of FIG. 2, the blended image is temporarily stored in the RAM 8. Subsequently, the blended image once stored in the RAM 8 and the underexposed image U are added and combined (step S107). Thereby, as shown in FIG. 6B, YUV image data representing the composite image PM composed of the background B and the hand H is generated.

ここで、図6(a)は、露出アンダー画像Uと露出オーバー画像Oとを単に平均加算処理した合成画像PNである。このように、連写された画像を単に平均加算処理した合成画像PNにあっては、動体像である手Hの像に大きなブレが生じてしまう。これに対し、本実施の形態によれば、手Hの像が動いている場合においても、図6(b)に示すように、動体ブレの少ない合成画像PMを得ることができる。
また、撮影画角に動体が存在する場合においても、白飛びや黒潰れの少ない合成画像PMを得ることができる。
Here, FIG. 6A is a composite image PN obtained by simply averaging the underexposed image U and the overexposed image O. As described above, in the composite image PN obtained by simply averaging the continuously shot images, a large blurring occurs in the image of the hand H that is a moving body image. On the other hand, according to the present embodiment, even when the image of the hand H is moving, as shown in FIG. 6B, it is possible to obtain a composite image PM with less moving body shake.
Further, even when a moving object is present at the shooting angle of view, a composite image PM with little whiteout or blackout can be obtained.

しかも前述のように、ステップS204で平滑化処理を行うことから、合成による動体(手H)と背景との境界線をより自然なものにすることができる。   Moreover, as described above, since the smoothing process is performed in step S204, the boundary line between the moving object (hand H) and the background by synthesis can be made more natural.

また、前述のステップS205では、マップMのコントラストを上げる処理を実行したことから、合成処理における被写体ブレの残像(ゴースト)を減少させることもできる。   Further, in the above-described step S205, since the process of increasing the contrast of the map M is executed, it is possible to reduce the afterimage (ghost) of the subject blur in the synthesis process.

以上のようにして、合成画像PMを表すYUV画像データを生成したならば、完成画像である合成画像PMのYUV画像データを、JPEG方式で符号化しファイル化して、画像記録部6に記録保存し(ステップS110)、処理を終了する。   When the YUV image data representing the composite image PM is generated as described above, the YUV image data of the composite image PM that is the completed image is encoded and filed by the JPEG method, and is recorded and stored in the image recording unit 6. (Step S110), the process ends.

尚、本実施の形態においては、YUV画像データを用いた場合を示したが、RGB画像データを用いるようにしてもよい。この場合、RGBそれぞれについて、同様に差分二乗を算出する。   In this embodiment, YUV image data is used, but RGB image data may be used. In this case, the difference square is similarly calculated for each of RGB.

図7は、本発明の他の実施の形態における処理手順を示すフローチャートであり、略同一画角で撮影した三枚の画像、露出アンダー画像、露出ノーマル画像、露出オーバー画像を用いるようにしたものである。ユーザがキー入力部4に設けられているモードボタンを操作して、本実施形態に係る撮影モードを設定すると、制御部9がプログラムメモリ7からプログラムを読み出して、このフローチャートに示すように、処理を開始する。   FIG. 7 is a flowchart showing a processing procedure in another embodiment of the present invention, in which three images taken with substantially the same angle of view, an underexposed image, a normal exposed image, and an overexposed image are used. It is. When the user operates the mode button provided in the key input unit 4 to set the shooting mode according to the present embodiment, the control unit 9 reads the program from the program memory 7 and performs processing as shown in this flowchart. To start.

すなわち、制御部9はシャッターキー41の押下が検出されたか否かを判断する(ステップS301)。シャッターキー41の押下が検出されたならば、適正露出を検出するとともに、この適正露出の露出値0EVを「2」減少させた−2EVで駆動制御部2に指示して撮影を実行させ、この−2EVでの撮影により得られた露出アンダー画像をRAM8に一旦保存する(ステップS302)。   That is, the control unit 9 determines whether or not the pressing of the shutter key 41 is detected (step S301). If the pressing of the shutter key 41 is detected, the appropriate exposure is detected, and the appropriate exposure value 0EV is decreased by “2”. The underexposed image obtained by photographing at −2 EV is temporarily stored in the RAM 8 (step S302).

また、適正露出の露出値0EVで駆動制御部2に指示して撮影を実行させ、この0EVでの撮影により得られた露出ノーマル画像をRAM8に一旦保存する(ステップS303)。さらに、適正露出の露出値0EVを「2」増加させた+2EVで駆動制御部2に指示して撮影を実行させ、この+2EVでの撮影により得られた露出オーバー画像をRAM8に一旦保存する(ステップS304)。   Further, the drive control unit 2 is instructed to execute photographing at an exposure value 0 EV of appropriate exposure, and the exposure normal image obtained by photographing at this 0 EV is temporarily stored in the RAM 8 (step S303). Furthermore, the drive control unit 2 is instructed to perform shooting at + 2EV, which is obtained by increasing the exposure value 0EV of the appropriate exposure by “2”, and the overexposed image obtained by the shooting at + 2EV is temporarily stored in the RAM 8 (step S1). S304).

したがって、このステップS302及びステップS303での処理により、YUV画像からなる露出アンダー画像、露出ノーマル画像、及び、露出オーバー画像がRAM8に保存される。   Therefore, an underexposed image, a normal exposed image, and an overexposed image made up of YUV images are stored in the RAM 8 by the processing in steps S302 and S303.

次に、露出ノーマル画像と露光条件が等しくなるように、露出アンダー画像のゲインをアップさせることにより、第1の疑似露出オーバー画像を生成し、且つ露出オーバー画像と露光条件が等しくなるように、露出アンダー画像のゲインをアップさせることにより、第2の疑似露出オーバー画像を生成して、RAM8に一旦保存する(ステップS305)。つまり、−2EVで撮影された露出アンダー画像と、0EVで撮影された露ノーマル画像とは、画像の明るさが8倍異なり、露出ノーマル画像は、露出アンダー画像よりも8倍明るい。したがって、露出アンダー画像をデジタルゲイン8倍で処理することにより、露出ノーマル画像と擬似的に露出条件が同一となる第1疑似露出オーバー画像を生成する。   Next, by increasing the gain of the underexposed image so that the exposure condition is equal to the normal exposure image, a first pseudo overexposure image is generated, and the overexposure image and the exposure condition are equalized. By increasing the gain of the underexposed image, a second pseudo overexposed image is generated and temporarily stored in the RAM 8 (step S305). That is, the underexposure image captured at −2 EV and the dew normal image captured at 0 EV are 8 times different in brightness, and the normal exposure image is 8 times brighter than the underexposure image. Accordingly, by processing the underexposed image with a digital gain of 8 times, a first pseudo overexposed image having the same exposure condition as that of the normal exposure image is generated.

また、−2EVで撮影された露出アンダー画像と、+2EVで撮影された露オーバー画像とは、画像の明るさが16倍異なり、露出オーバー画像は、露出アンダー画像よりも16倍明るい。したがって、露出アンダー画像をデジタルゲイン16倍で処理することにより、露出オーバー画像と擬似的に露出条件が同一となる第2疑似露出オーバー画像を生成する。そして、これら第1疑似露出オーバー画像と、第2疑似露出オーバー画像とをRAM8に一旦保存する。   Also, the underexposed image captured at -2EV and the overexposed image captured at + 2EV are 16 times brighter than the underexposed image, and the overexposed image is 16 times brighter than the underexposed image. Therefore, by processing the underexposed image with a digital gain of 16 times, a second pseudo overexposed image having the same exposure condition as the overexposed image is generated. The first pseudo overexposure image and the second pseudo overexposure image are temporarily stored in the RAM 8.

次いで、1回目の動体判定・ブレンディング処理が終了しているか否かを判断する(ステップS306)。未だ動体判定・ブレンディング処理が実行されておらず、今回が1回目の処理であるならば、ステップS306の判断がNOとなって、ステップS307に進む。そして、擬似的に露出値が等しい第1疑似露出オーバー画像と露出ノーマル画像とを用いて、動体判定・αブレンディング処理を行う。この動体判定・αブレンディング処理(ステップS307)の処理手順は、図3のフローチャートに基づいて説明した前記実施の形態と同様である。この第1疑似露出オーバー画像と露出ノーマル画像とを用いた動体判定・αブレンディング処理が終了したならば、これにより得られた第1ブレンディング画像をRAM8に一旦保存し(ステップS308)、ステップS306に戻る。   Next, it is determined whether or not the first moving object determination / blending process has been completed (step S306). If the moving object determination / blending process has not yet been executed and this time is the first process, the determination in step S306 is NO, and the process proceeds to step S307. Then, the moving object determination / α blending process is performed using the first pseudo overexposure image and the normal exposure image having the same pseudo exposure value. The processing procedure of the moving object determination / α blending process (step S307) is the same as that of the embodiment described based on the flowchart of FIG. When the moving object determination / α blending process using the first pseudo overexposed image and the normal exposure image is completed, the first blended image obtained thereby is temporarily stored in the RAM 8 (step S308), and the process proceeds to step S306. Return.

すると、1回目の動体判定・αブレンド処理が終了したことから、ステップS306の判断がYESとなる。したがって、ステップS309に進み、擬似的に露出値が等しい第2疑似露出オーバー画像と露出オーバー画像とを用いて、動体判定・αブレンディング処理を行う。この動体判定・αブレンディング処理(ステップS309)の処理手順も、図3のフローチャートに基づいて説明した前記実施の形態と同様である。この第2疑似露出オーバー画像と露出オーバー画像とを用いた動体判定・αブレンディング処理が終了したならば、これにより得られた第2ブレンディング画像をRAM8に一旦保存する(ステップS310)。   Then, since the first moving object determination / α blending process is completed, the determination in step S306 becomes YES. Accordingly, the process proceeds to step S309, and the moving object determination / α blending process is performed using the second pseudo overexposure image and the overexposure image that have the same pseudo exposure value. The processing procedure of the moving object determination / α blending process (step S309) is also the same as that of the embodiment described based on the flowchart of FIG. When the moving object determination / α blending process using the second pseudo overexposed image and the overexposed image is completed, the second blended image obtained thereby is temporarily stored in the RAM 8 (step S310).

引き続き、これらRAM8に一旦保存した第1ブレンディング画像及び第2ブレンディング画像と前記露出アンダー画像とを画素加算合成し、この合成画像を表すYUV画像データを生成する(ステップS311)。 しかる後に、完成画像である合成画像PMのYUV画像データを、JPEG方式で符号化しファイル化して、画像記録部6に記録保存し(ステップS312)、処理を終了する。   Subsequently, the first and second blended images once stored in the RAM 8 and the underexposed image are subjected to pixel addition synthesis to generate YUV image data representing the synthesized image (step S311). Thereafter, the YUV image data of the composite image PM, which is a completed image, is encoded and filed by the JPEG method, recorded and saved in the image recording unit 6 (step S312), and the process is terminated.

尚、この本実施の形態においては、ステップS311において、第1ブレンディング画像、第2ブレンディング画像、及び、露出アンダー画像を画素加算合成して、完成画像を得るようにした。しかし、第1ブレンディング画像と露出アンダー画像とのみを画素加算合成して完成画像を得るようにし、あるいは第2ブレンディング画像と露出アンダー画像とを画素加算合成し完成画像を得るようにしてもよい。   In this embodiment, in step S311, the first blended image, the second blended image, and the underexposed image are subjected to pixel addition synthesis to obtain a completed image. However, a completed image may be obtained by adding and synthesizing only the first blended image and the underexposed image, or a completed image may be obtained by adding and synthesizing the second blended image and the underexposed image.

1 撮像部
2 駆動制御部
3 CDS/ADC
4 キー入力部
5 表示部
6 画像記録部
7 プログラムメモリ
8 RAM
9 制御部
10 画像処理部
11 合成部
41 シャッターキー
1 Imaging unit 2 Drive control unit 3 CDS / ADC
4 Key input section 5 Display section 6 Image recording section 7 Program memory 8 RAM
9 Control unit 10 Image processing unit 11 Composition unit 41 Shutter key

Claims (7)

略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得手段と、
前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得手段によって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御手段と、
このゲイン制御手段によってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを比較することにより、前記撮影画角における動体領域を検出する動体領域検出手段と、
前記ゲインが上げられた画像と露光条件が等しい画像における前記動体領域検出手段によって検出された動体領域の画像を、前記ゲインが上げられた画像における同領域の画像に置換する置換手段と、
前記動体領域検出手段によって検出された動体領域について、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像との画素毎の差分の最大値を取得する差分取得手段と、
この差分取得手段によって取得された情報を平均化し、これを透過強度の情報として前記置換手段による置換後の画像にブレンディングするブレンディング手段と、
このブレンディング手段によってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成手段と、
を備えたことを特徴とする画像合成装置。
Image acquisition means for acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions;
Control is performed to increase the brightness gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition unit so that the exposure condition is equal to the image of the other exposure conditions in the plurality of images. Gain control means;
A moving object region detecting means for detecting a moving object region at the shooting angle of view by comparing an image whose gain has been increased by the gain control unit with an image having the same exposure condition as that of the image having the increased gain;
Replacement means for replacing the image of the moving object region detected by the moving object region detection means in the image having the same exposure condition as that of the image with the increased gain with an image of the same area in the image with the increased gain;
Difference acquisition means for acquiring a maximum value of a difference for each pixel between the image with the increased gain, the image with the increased gain, and an image with the same exposure condition for the moving object region detected by the moving object region detection means; ,
A blending unit that averages the information acquired by the difference acquisition unit and blends the information as transmission intensity information into the image after replacement by the replacement unit;
Generating means for generating a pixel addition composite image of the image blended by the blending means and the image having the lower exposure amount;
An image composition device comprising:
前記ブレンディング手段は、前記差分取得手段によって取得された情報を平均化し、この平均化された情報について更にコントラストを上げる処理を実行することを特徴とする請求項1記載の画像合成装置。   2. The image synthesizing apparatus according to claim 1, wherein the blending means averages the information acquired by the difference acquisition means, and executes a process for further increasing the contrast of the averaged information. 前記ブレンディング手段は、前記差分取得手段によって取得された情報を平均化し、これ平均化された情報について更に平滑化処理を実行することを特徴とする請求項1又は2記載の画像合成装置。   The image blending apparatus according to claim 1, wherein the blending unit averages the information acquired by the difference acquisition unit, and further executes a smoothing process on the averaged information. 前記画像取得手段は、撮像手段を含むことを特徴とする請求項1乃至3の何れか記載の画像合成装置。   The image synthesizing apparatus according to claim 1, wherein the image acquisition unit includes an imaging unit. 前記画像とは、略同じ撮像画角で取得されたものであることを特徴とする請求項1乃至4の何れか記載の画像合成装置。   The image synthesizing apparatus according to claim 1, wherein the image is acquired at substantially the same imaging angle of view. 略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得ステップと、
前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得ステップによって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御ステップと、
このゲイン制御ステップによってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを比較することにより、前記撮影画角における動体領域を検出する動体領域検出ステップと、
前記ゲインが上げられた画像と露光条件が等しい画像における前記動体領域検出ステップによって検出された動体領域の画像を、前記ゲインが上げられた画像における同領域の画像に置換する置換ステップと、
前記動体領域検出ステップによって検出された動体領域について、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像との画素毎の差分の最大値を取得する差分取得ステップと、
この差分取得ステップによって取得された情報を平均化し、これを透過強度の情報として前記置換ステップによる置換後の画像にブレンディングするブレンディングステップと、
このブレンディングステップによってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成ステップと、
を含むことを特徴とする画像合成方法。
An image acquisition step of acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions;
Control is performed to increase the brightness gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition step so that the exposure condition is equal to the image of the other exposure conditions in the plurality of images. A gain control step;
A moving object region detecting step for detecting a moving object region at the shooting angle of view by comparing an image whose gain has been increased by the gain control step with an image having the same exposure condition as that of the image having the increased gain;
A replacement step of replacing an image of the moving object region detected by the moving object region detection step in an image having the same exposure condition as that of the image having the increased gain with an image of the same region in the image having the increased gain;
A difference obtaining step for obtaining a maximum value of a difference for each pixel between the image with the increased gain, the image with the increased gain, and an image with the same exposure condition for the moving object region detected by the moving object region detecting step; ,
A blending step of averaging the information acquired by the difference acquisition step, and blending the information as transmission intensity information to the image after replacement by the replacement step;
A generation step of generating a pixel addition composite image of the image blended by the blending step and the image with the lower exposure amount;
An image composition method comprising:
装置が有するコンピュータを、
略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得手段、
前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得手段によって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御手段、
このゲイン制御手段によってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを比較することにより、前記撮影画角における動体領域を検出する動体領域検出手段、
前記ゲインが上げられた画像と露光条件が等しい画像における前記動体領域検出手段によって検出された動体領域の画像を、前記ゲインが上げられた画像における同領域の画像に置換する置換手段、
前記動体領域検出手段によって検出された動体領域について、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像との画素毎の差分の最大値を取得する差分取得手段、
この差分取得手段によって取得された情報を平均化し、これを透過強度の情報として前記置換手段による置換後の画像にブレンディングするブレンディング手段、
このブレンディング手段によってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成手段、
として機能させることを特徴とするプログラム。
The computer that the device has
Image acquisition means for acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions;
Control is performed to increase the brightness gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition unit so that the exposure condition is equal to the image of the other exposure conditions in the plurality of images. Gain control means,
A moving object region detecting means for detecting a moving object region at the shooting angle of view by comparing an image whose gain has been increased by the gain control unit with an image having the same exposure condition as that of the image having the increased gain;
Replacement means for replacing the image of the moving object region detected by the moving object region detection means in the image with the same exposure condition as that of the image with the increased gain, with the image of the same area in the image with the increased gain;
A difference acquisition unit that acquires a maximum value of a difference for each pixel between the image with the increased gain and the image with the increased gain and an image having the same exposure condition for the moving region detected by the moving region detection unit;
A blending unit that averages the information acquired by the difference acquisition unit and blends the information as transmission intensity information into the image after replacement by the replacement unit;
Generating means for generating a pixel-added synthesized image of the image blended by the blending means and the image with the lower exposure amount;
A program characterized by functioning as
JP2010182677A 2010-07-23 2010-08-18 Image composition apparatus, image composition method, and program Active JP5146500B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2010182677A JP5146500B2 (en) 2010-08-18 2010-08-18 Image composition apparatus, image composition method, and program
US13/187,367 US20120019686A1 (en) 2010-07-23 2011-07-20 Image synthesizing device, image synthesizing method and computer readable medium
CN201110205268.5A CN102348056B (en) 2010-07-23 2011-07-21 Image synthesizing device and image synthesizing method
EP12197315.0A EP2571249B1 (en) 2010-07-23 2011-07-22 Image synthesizing device, image synthesizing method and computer readable medium
KR1020110072999A KR101247647B1 (en) 2010-07-23 2011-07-22 Image synthesizing device, image synthesizing method, and recording medium
EP11174950.3A EP2410734B1 (en) 2010-07-23 2011-07-22 Image synthesizing device, image synthesizing method and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010182677A JP5146500B2 (en) 2010-08-18 2010-08-18 Image composition apparatus, image composition method, and program

Publications (3)

Publication Number Publication Date
JP2012044377A true JP2012044377A (en) 2012-03-01
JP2012044377A5 JP2012044377A5 (en) 2012-06-28
JP5146500B2 JP5146500B2 (en) 2013-02-20

Family

ID=45900192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010182677A Active JP5146500B2 (en) 2010-07-23 2010-08-18 Image composition apparatus, image composition method, and program

Country Status (1)

Country Link
JP (1) JP5146500B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013225724A (en) * 2012-04-19 2013-10-31 Canon Inc Imaging device, control method therefor, program, and storage medium
JP2014179919A (en) * 2013-03-15 2014-09-25 Canon Inc Imaging device and imaging method
WO2014167676A1 (en) * 2013-04-10 2014-10-16 株式会社 東芝 Eelctronic device and image processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008301043A (en) * 2007-05-30 2008-12-11 Fujitsu Ltd Image compositing device, image compositing method, and image compositing program
JP2009105533A (en) * 2007-10-22 2009-05-14 Sony Corp Image processing device, imaging device, image processing method, and picked-up image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008301043A (en) * 2007-05-30 2008-12-11 Fujitsu Ltd Image compositing device, image compositing method, and image compositing program
JP2009105533A (en) * 2007-10-22 2009-05-14 Sony Corp Image processing device, imaging device, image processing method, and picked-up image processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013225724A (en) * 2012-04-19 2013-10-31 Canon Inc Imaging device, control method therefor, program, and storage medium
JP2014179919A (en) * 2013-03-15 2014-09-25 Canon Inc Imaging device and imaging method
WO2014167676A1 (en) * 2013-04-10 2014-10-16 株式会社 東芝 Eelctronic device and image processing method

Also Published As

Publication number Publication date
JP5146500B2 (en) 2013-02-20

Similar Documents

Publication Publication Date Title
EP2410734B1 (en) Image synthesizing device, image synthesizing method and computer readable medium
JP5713752B2 (en) Image processing apparatus and control method thereof
KR101247646B1 (en) Image combining apparatus, image combining method and recording medium
JP4218723B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP4631558B2 (en) Imaging apparatus and image processing program
JP5787648B2 (en) Image processing apparatus and image processing apparatus control method
JP5408053B2 (en) Image processing apparatus and image processing method
JP5665436B2 (en) Image processing apparatus, image processing method, and program
JP5240349B2 (en) Image composition apparatus and program
JP2012044378A (en) Imaging device, imaging method, and program
JP2007180631A (en) Imaging apparatus and photographing method
JP2008104009A (en) Imaging apparatus and method
JP5186021B2 (en) Imaging apparatus, image processing apparatus, and imaging method
JP2007228451A (en) Imaging apparatus
JP5146498B2 (en) Image composition apparatus, image composition method, and program
EP2214136B1 (en) Method and program for controlling image capture apparatus
JP5076650B2 (en) Imaging apparatus and image processing program
WO2016117137A1 (en) Image-capturing device, image-capturing method, and image display device
JP2006352229A (en) Digital camera
JP2006080942A (en) Image processing apparatus, image processing program, image processing method, and imaging apparatus
JP5146500B2 (en) Image composition apparatus, image composition method, and program
JP2008136113A (en) Image processor, imaging apparatus and image processing method
JP2013085040A (en) Image processing apparatus
JP2009118052A (en) Image signal processing method and apparatus
JP4306584B2 (en) Digital camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120510

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120510

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20120515

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20120724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121112

R150 Certificate of patent or registration of utility model

Ref document number: 5146500

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3