JP5146500B2 - Image composition apparatus, image composition method, and program - Google Patents

Image composition apparatus, image composition method, and program Download PDF

Info

Publication number
JP5146500B2
JP5146500B2 JP2010182677A JP2010182677A JP5146500B2 JP 5146500 B2 JP5146500 B2 JP 5146500B2 JP 2010182677 A JP2010182677 A JP 2010182677A JP 2010182677 A JP2010182677 A JP 2010182677A JP 5146500 B2 JP5146500 B2 JP 5146500B2
Authority
JP
Japan
Prior art keywords
image
gain
moving object
blending
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010182677A
Other languages
Japanese (ja)
Other versions
JP2012044377A5 (en
JP2012044377A (en
Inventor
佳嗣 真鍋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010182677A priority Critical patent/JP5146500B2/en
Priority to US13/187,367 priority patent/US20120019686A1/en
Priority to CN201110205268.5A priority patent/CN102348056B/en
Priority to EP11174950.3A priority patent/EP2410734B1/en
Priority to KR1020110072999A priority patent/KR101247647B1/en
Priority to EP12197315.0A priority patent/EP2571249B1/en
Publication of JP2012044377A publication Critical patent/JP2012044377A/en
Publication of JP2012044377A5 publication Critical patent/JP2012044377A5/ja
Application granted granted Critical
Publication of JP5146500B2 publication Critical patent/JP5146500B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像合成装置、画像合成方法、及びプログラムに関する。   The present invention relates to an image composition device, an image composition method, and a program.

従来より、撮像に関する技術分野において、撮影画像における白飛びや黒潰れなどの階調不足を解消する技術が考案されている。
例えば、下記特許文献においては、異なる露光量で連続的に撮影し、これらを適宜選択して合成処理することで、白飛びや黒潰れといった問題を解消し、ダイナミックレンジを拡大させる考案がなされている。
2. Description of the Related Art Conventionally, in the technical field related to imaging, a technique has been devised to eliminate lack of gradation such as whiteout or blackout in a photographed image.
For example, in the following patent document, a device has been devised that continuously captures images with different exposure amounts, appropriately selects and combines them, thereby solving problems such as overexposure and blackout and expanding the dynamic range. Yes.

特開2003−264738号公報JP 2003-264738 A

しかしながら上記の画像合成技術の場合、効果を奏するのは撮影画角に対し主要被写体が動いていない、つまり動体が存在しないケースに限られる。撮影画角に動体が存在すると連続的に撮影した際に、主要被写体に位置ずれが生ずることにより、異なる露光量で連続的に撮影した画像を合成することが困難となる。
したがってそのような場合にはおいては、合成処理によるダイナミックレンジの拡大ができないという問題がある。
However, in the case of the above image composition technique, the effect is limited to the case where the main subject does not move with respect to the shooting angle of view, that is, there is no moving object. If there is a moving object at the shooting angle of view, the main subject will be misaligned during continuous shooting, making it difficult to synthesize images continuously shot with different exposure amounts.
Therefore, in such a case, there is a problem that the dynamic range cannot be expanded by the synthesis process.

本発明は、かかる従来の課題に鑑みてなされたものであり、撮影画角に動体が存在する場合においても、白飛びや黒潰れの少ない合成画像を得ることができるようにすることを目的とするものである。   The present invention has been made in view of such a conventional problem, and an object thereof is to obtain a composite image with little overexposure and underexposure even when a moving object is present at a shooting angle of view. To do.

前記課題を解決するため請求項1記載の発明は、略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得手段と、前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得手段によって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御手段と、このゲイン制御手段によってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを画素毎に比較し、差分が存在する領域を前記撮影画角における動体領域として検出する動体領域検出手段と、この動体領域検出手段によって検出された動体領域を不透過領域として、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像とをブレンディングするブレンディング手段と、このブレンディング手段によってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成手段と、を備えたことを特徴とする。 In order to solve the above-mentioned problem, the invention according to claim 1 is characterized in that image acquisition means for acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions, and images of other exposure conditions in the plurality of images, Gain control means for controlling the gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition means so that the exposure conditions are equal, and the gain by the gain control means an image that has been raised, the image and the exposure condition image the gain is raised is equal compared for each pixel, a motion region detection means for detecting a region in which the difference is present as the moving object region in the photographing field angle, this Using the moving object region detected by the moving object region detection means as the non-transparent region, the image with the increased gain and the image with the same exposure condition as the image with the increased gain are blocked. And blending means for bindings, characterized by comprising a generating means for generating a pixel addition composite image of the person in the image as low as blending images with the exposure amount by the blending unit.

また、請求項2記載の発明は、請求項1記載の発明において、前記ブレンディング手段は、前記動体領域検出手段によって検出された領域の画素毎の差分値についてその最大値を平均化し、この平均化された差分値について更にコントラストを上げる処理を実行することを特徴とする。 According to a second aspect of the present invention, in the first aspect of the invention, the blending means averages the maximum value of the difference value for each pixel of the area detected by the moving object area detecting means , and this averaging is performed. It is characterized in that a process for further increasing the contrast is executed for the difference value .

また、請求項記載の発明は、請求項1又は2記載の発明において、前記画像取得手段は、撮像手段を含むことを特徴とする。 According to a third aspect of the present invention, in the first or second aspect of the present invention, the image acquisition means includes an imaging means.

また、請求項記載の発明は、請求項1乃至の何れか記載の発明において、前記画像とは、略同じ撮像画角で取得されたものであることを特徴とする。 The invention according to claim 4 is the invention according to any one of claims 1 to 3 , characterized in that the image is acquired at substantially the same angle of view.

また、請求項記載の発明は、略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得ステップと、前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得ステップによって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御ステップと、このゲイン制御ステップによってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを比較し、差分が存在する領域を前記撮影画角における動体領域として検出する動体領域検出ステップと、この動体領域検出ステップによって検出された動体領域を不透過領域として、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像とをブレンディングするブレンディングステップと、このブレンディングステップによってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成ステップと、を含むことを特徴とする。 According to a fifth aspect of the present invention, there is provided an image acquisition step of acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions, and an exposure condition equal to an image of another exposure condition in the plurality of images. The gain control step for controlling to increase the gain of the brightness of the image having the lower exposure amount among the plurality of images acquired by the image acquisition step, and the image whose gain has been increased by the gain control step And a moving object region detecting step for comparing the image with the increased gain with an image having the same exposure condition, and detecting a region where the difference exists as a moving object region at the shooting angle of view, and the moving object region detecting step. The moving object region is set as a non-transparent region, and the image with the increased gain and the image with the same exposure condition as the image with the increased gain are blocked. A blending step of bindings, characterized in that it comprises a generation step of generating a pixel addition composite image of the images of the lower and blending images with the exposure amount by this blending step.

また、請求項記載の発明は、装置が有するコンピュータを、略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得手段、前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得手段によって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御手段、このゲイン制御手段によってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを画素毎に比較し、差分が存在する領域を前記撮影画角における動体領域として検出する動体領域検出手段、この動体領域検出手段によって検出された動体領域を不透過領域として、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像とをブレンディングするブレンディング手段、このブレンディング手段によってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成手段、として機能させることを特徴とする。 According to a sixth aspect of the present invention, there is provided an image acquisition means for acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions, and images of other exposure conditions in the plurality of images. Gain control means for controlling the gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition means so that the exposure conditions are equal, and the gain control means controls the gain. The moving object region detecting means for comparing the raised image with the image having the increased gain and the image having the same exposure condition for each pixel, and detecting a region where a difference exists as a moving object region at the shooting angle of view, and the moving object The moving object area detected by the area detecting means is set as a non-transparent area, and the image with the same gain as the image with the increased gain and the image with the same exposure condition. Blending means for blending the, characterized in that to function as generating means, for generating a pixel addition composite image of the images of the lower and blending images with the exposure amount by the blending unit.

本発明によれば、撮影画角に動体が存在する場合においても、白飛びや黒潰れの少ない合成画像を得ることができる。   According to the present invention, it is possible to obtain a composite image with little overexposure and underexposure even when a moving object is present at the shooting angle of view.

本発明の一実施の形態を適用した撮像装置の回路ブロック図である。It is a circuit block diagram of an imaging device to which an embodiment of the present invention is applied. 同撮像装置における処理手順を示すフローチャートである。3 is a flowchart illustrating a processing procedure in the imaging apparatus. 動体判定・ブレンディング処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a moving body determination and blending process. 連写された画像の一例を示す図である。It is a figure which shows an example of the image continuously taken. (a)は平滑化処理による処理結果を示す図であり、(b)は強調処理により処理結果を示す図である。(A) is a figure which shows the process result by a smoothing process, (b) is a figure which shows a process result by an emphasis process. (a)は加算合成による合成画像を示す図であり、(b)は本実施の形態による合成画像を示す図である。(A) is a figure which shows the synthesized image by addition composition, (b) is a figure which shows the synthesized image by this Embodiment. 本発明の他の実施の形態における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in other embodiment of this invention.

以下、本発明の一実施の形態を図に従って説明する。図1は、本発明の一実施の形態に係る画像合成装置を備える撮像装置の回路構成図である。この撮像装置は、撮像部1、駆動制御部2、CDS/ADC3、キー入力部4、表示部5、画像記録部6、プログラムメモリ7、RAM8、制御部9、画像処理部10を有している。これらは、バスラインを介して接続されている。キー入力部4は撮影者の記録指示を検出するためのシャッターキー41を備え、画像処理部10は合成部11を備える。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a circuit configuration diagram of an imaging apparatus including an image synthesis apparatus according to an embodiment of the present invention. The imaging apparatus includes an imaging unit 1, a drive control unit 2, a CDS / ADC 3, a key input unit 4, a display unit 5, an image recording unit 6, a program memory 7, a RAM 8, a control unit 9, and an image processing unit 10. Yes. These are connected via a bus line. The key input unit 4 includes a shutter key 41 for detecting a recording instruction of a photographer, and the image processing unit 10 includes a synthesis unit 11.

同図において撮像部1は、CMOS等のイメージセンサ、このイメージセンサ上に設けられたRGBのカラーフィルタ、及び、駆動制御部2からの制御により、光の強度を電荷の蓄積として一定時間保持し、CDS/ADC3にアナログの撮像信号としてこれらを出力するドライバを内蔵する。そして、シャッターキー41、制御部9、駆動制御部2を経由した撮影者の撮影指示を検出することで、露光条件(シャッタースピード、若しくは絞り値)を変えながら、露出アンダー、適正露出、露出オーバーを含む複数の画像(カラー画像)を取得する。   In the figure, the imaging unit 1 holds the light intensity as a charge accumulation for a certain period of time by controlling from an image sensor such as a CMOS, an RGB color filter provided on the image sensor, and the drive control unit 2. The CDS / ADC 3 includes a driver that outputs these as analog imaging signals. Then, by detecting the shooting instruction of the photographer via the shutter key 41, the control unit 9, and the drive control unit 2, while changing the exposure condition (shutter speed or aperture value), underexposure, proper exposure, overexposure A plurality of images (color images) including are acquired.

CDS/ADC3は、撮像部1から出力される被写体の光学像に応じたアナログの撮像信号が入力される回路であって、入力した撮像信号を保持するCDSと、その撮像信号を増幅するゲイン調整アンプ(AGC)、増幅された撮像信号をデジタルの撮像信号に変換するA/D変換器(ADC)等から構成される。尚、ゲイン調整アンプの調整に関わる制御についても、駆動制御部2からの指示に基づき行われる。このため、露光条件(シャッタースピード、若しくは絞り値)を同じくして複数枚の画像を取得しても、RGBのゲイン調整アンプや画像の色味を順次変えることによる条件の異なる複数の画像を生成することができる。   The CDS / ADC 3 is a circuit to which an analog imaging signal corresponding to the optical image of the subject output from the imaging unit 1 is input. The CDS / ADC 3 holds the input imaging signal and gain adjustment for amplifying the imaging signal. An amplifier (AGC), an A / D converter (ADC) that converts the amplified imaging signal into a digital imaging signal, and the like are configured. Note that control related to the adjustment of the gain adjustment amplifier is also performed based on an instruction from the drive control unit 2. Therefore, even if multiple images are acquired with the same exposure conditions (shutter speed or aperture value), multiple images with different conditions can be generated by sequentially changing the RGB gain adjustment amplifier and the color of the image. can do.

尚、本実施の形態においては、駆動制御部2がゲイン調整アンプに関わる制御を行なうようにしたが、これに限らない。例えば上記の制御は制御部9で行なうようにしてもよい。   In the present embodiment, the drive control unit 2 performs control related to the gain adjustment amplifier. However, the present invention is not limited to this. For example, the above control may be performed by the control unit 9.

キー入力部4は、上述のシャッターキー41の他、本発明に係る画像の取得・記録を目的すとする撮影モードへの切り換え、表示の切り換え等を検出するための各種キーを備える。   In addition to the shutter key 41 described above, the key input unit 4 includes various keys for detecting switching to a shooting mode for the purpose of acquiring and recording an image according to the present invention, display switching, and the like.

表示部5は、合成された画像を表示する機能を有する。画像記録部6は、本発明に係る合成処理が実行された後、JPEG方式で符号化された画像データ(画像ファイル)を記憶・格納する。プログラムメモリ7は、制御部9、画像処理部10にて実行されるプログラムを記憶し、このプログラムは必要に応じて制御部9が読み出す。RAM8は、各処理により発生する処理中のデータを一時的に保持する機能を有する。制御部9は、この撮像装置全体の処理動作を制御する。画像処理部10は、画像データの符号化/復号化処理の他、本発明の特徴的構成に対応する合成部11を備える。   The display unit 5 has a function of displaying the synthesized image. The image recording unit 6 stores and stores image data (image file) encoded by the JPEG method after the composition processing according to the present invention is executed. The program memory 7 stores a program executed by the control unit 9 and the image processing unit 10, and this program is read by the control unit 9 as necessary. The RAM 8 has a function of temporarily holding data being processed generated by each process. The control unit 9 controls the processing operation of the entire imaging apparatus. The image processing unit 10 includes a synthesizing unit 11 corresponding to the characteristic configuration of the present invention, in addition to image data encoding / decoding processing.

すなわち合成部11は、後述する露出オーバー画像と疑似露出オーバー画像との合成を実行するとともに、この合成画像について後述する動体判定マップを差分領域に対応する透過強度マップ(αマップ)として用いて動体による残像を少なくさせるものである。また、前記合成画像と露出アンダー画像とを画素加算合成することにより、ダイナミックレンジを拡大させるものである。   That is, the synthesizing unit 11 performs synthesis of an overexposed image and a pseudo overexposed image, which will be described later, and uses a moving object determination map, which will be described later, for this synthesized image as a transmission intensity map (α map) corresponding to the difference area. This reduces the afterimage caused by. Further, the dynamic range is expanded by adding and synthesizing the synthesized image and the underexposed image with pixels.

次に、本実施の形態の動作について説明する。ユーザがキー入力部4に設けられているモードボタンを操作して、本実施形態に係る撮影モードを設定すると、制御部9がプログラムメモリ7からプログラムを読み出して、図2のフローチャートに示すように、処理を開始する。   Next, the operation of the present embodiment will be described. When the user operates the mode button provided in the key input unit 4 to set the shooting mode according to the present embodiment, the control unit 9 reads the program from the program memory 7 and as shown in the flowchart of FIG. Start processing.

すなわち、制御部9はシャッターキー41の押下が検出されたか否かを判断する(ステップS101)。シャッターキー41の押下が検出されたならば、適正露出を検出するとともに、この適正露出の露出値0EVを「1」減少させた−1EVで駆動制御部2に指示して撮影を実行させ、この−1EVでの撮影により得られた露出アンダー画像をRAM8に一旦保存する(ステップS102)。引き続き、適正露出の露出値0EVを「1」増加させた+1EVで駆動制御部2に指示して撮影を実行させ、この+1EVでの撮影により得られた露出オーバー画像をRAM8に一旦保存する(ステップS103)。   That is, the control unit 9 determines whether or not the pressing of the shutter key 41 is detected (step S101). If the pressing of the shutter key 41 is detected, the proper exposure is detected, and the drive control unit 2 is instructed to execute photographing by −1EV, which is obtained by reducing the exposure value 0EV of the proper exposure by “1”. The underexposed image obtained by photographing at -1 EV is temporarily stored in the RAM 8 (step S102). Subsequently, the drive control unit 2 is instructed to execute photographing with + 1EV, which is obtained by increasing the exposure value 0EV of the appropriate exposure by “1”, and the overexposed image obtained by the photographing with + 1EV is temporarily stored in the RAM 8 (Step S1). S103).

したがって、このステップS102及びステップS103での処理により、図4(a)に示すYUV画像からなる露出アンダー画像Uと、同図(b)に示すYUV画像からなる露出オーバー画像OとがRAM8に保存される。連写された露出アンダー画像Uと露出オーバー画像Oとは、撮像画角全体を示す背景B内において動体としての手Hを上下に振っている状態で、略同じ撮像画角で連写したものである。両画像U、Oにおいて、背景Bは同一であるが、時間tが進むに従って手Hの像は背景B内において相対的に下方に変位し、露出オーバー画像Oの手Hの像は、露出アンダー画像Uの手Hの像よりも下に位置する。 Therefore, by the processing in step S102 and step S103, the underexposed image U made up of the YUV image shown in FIG. 4A and the overexposed image O made up of the YUV image shown in FIG. 4B are stored in the RAM 8. Is done . The continuously exposed underexposed image U and overexposed image O are obtained by continuously shooting at substantially the same imaging angle of view while shaking the hand H as a moving object up and down in the background B showing the entire imaging angle of view. It is. In both images U and O, the background B is the same, but as the time t advances, the image of the hand H is displaced relatively downward in the background B, and the image of the hand H of the overexposed image O is underexposed. It is located below the image of the hand H of the image U.

尚、これら連写画像U、Oの連写に際しては、手ブレによる画像のブレは公知の技術(CCDシフトやレンズシフトによる画角補正技術)により補正されているものとする。しかし、各連写画像U、O中の手Hの像は動体ブレの要因とされる。   In the continuous shooting of these continuous shot images U and O, it is assumed that image blur due to camera shake is corrected by a known technique (view angle correction technique using CCD shift or lens shift). However, the image of the hand H in each of the continuous shot images U and O is considered to be a cause of motion blur.

次に、露出オーバー画像Oと露光条件が等しくなるように、露出アンダー画像Uのゲインをアップさせることにより、この疑似露出オーバー画像を生成して、RAM8に一旦保存する(ステップS104)。つまり、−1EVで撮影された露出アンダー画像Uと、+1EVで撮影された露出オーバー画像Oとは、画像の明るさが4倍異なり、露出オーバー画像Oは、露出アンダー画像Uよりも4倍明るい。したがって、露出アンダー画像Uをデジタルゲイン4倍で処理することにより、露出オーバー画像Oと擬似的に露出条件が同一となる疑似露出オーバー画像を生成する。   Next, by increasing the gain of the underexposed image U so that the exposure condition is equal to the overexposed image O, this pseudo overexposed image is generated and temporarily stored in the RAM 8 (step S104). That is, the underexposed image U captured at -1EV and the overexposed image O captured at + 1EV are four times brighter than the underexposed image U, and the overexposed image O is four times brighter than the underexposed image U. . Therefore, by processing the underexposed image U with a digital gain of 4 times, a pseudo overexposed image having the same exposure condition as the overexposed image O is generated.

次いで、動体判定・αブレンディング処理を行う(ステップS105)。図3は、動体判定・αブレンディング処理(ステップS105)の処理手順を示すフローチャートである。尚、この図3に示すフローチャートの説明に際しては、下記の式、符号あるいは関数を用いる。
Y_Under_4, U_ Under_4, V_ Under_4 :疑似露出オーバー画像YUV
Y_Over, U_Over, V_Over :露出オーバー画像 YUV
fMax() :最大値算出関数
fLpf() :平滑化関数
fEmphasis() :マップ強調関数
Next, a moving object determination / α blending process is performed (step S105). FIG. 3 is a flowchart showing a processing procedure of the moving object determination / α blending process (step S105). In the description of the flowchart shown in FIG. 3, the following equations, symbols, or functions are used.
Y_Under_4, U_ Under_4, V_ Under_4 : Pseudo overexposed image YUV
Y_Over, U_Over, V_Over: Overexposed image YUV
fMax (): Maximum value calculation function
fLpf (): smoothing function
fEmphasis (): Map enhancement function

図3のフローチャートにおいて、制御部9は疑似露出オーバー画像と露出オーバー画像との差分絶対値を、下記式[1]〜[3]に示すように、両画像の画素毎に求める(ステップS201)。
つまり、
Diff_Y = |Y_Under_4 − Y_Mid | ・・・式[1] // Yの差分絶対値
Diff_U = |U_Under_4 − U_Mid | ・・・式[2] // Uの差分絶対値
Diff_V = |V_Under_4 − V_Mid | ・・・式[3] // Vの差分絶対値
を前記両画像の画素毎に求める。
In the flowchart of FIG. 3, the control unit 9 obtains an absolute difference value between the pseudo overexposed image and the overexposed image for each pixel of both images as shown in the following formulas [1] to [3] (step S <b> 201). .
In other words,
Diff_Y = | Y_Under_4 − Y_Mid | ・ ・ ・ Formula [1] // Difference absolute value of Y
Diff_U = | U_Under_4 − U_Mid | ・ ・ ・ Equation [2] // Difference absolute value of U
Diff_V = | V_Under_4−V_Mid | Expression [3] // The absolute difference value of V is obtained for each pixel of both images.

そして、差分が大きいほど、被写体が動いた可能性が高い領域であるといえるから、下記式[4]に示すように差分が最大のもの(両画像の対応する画素毎に差分が最大のもの)を選択する(ステップS202)。
Diff = fMax(Diff_Y, Diff_U, Diff_V) ・・・式[4]
The larger the difference, the higher the possibility that the subject has moved. Therefore, as shown in the following formula [4], the difference is the largest (the difference is the largest for each corresponding pixel of both images). ) Is selected (step S202).
Diff = fMax (Diff_Y, Diff_U, Diff_V) Expression [4]

次に、下記式[5]で示すように、両画像の最大差分を平均化する処理を実行する(ステップS203)。
Ave_Diff = (Diff[0] + Diff[1] + ・・・ + Diff[N]) / N-1 ・・・式[5]
Next, as shown by the following formula [5], a process of averaging the maximum difference between the two images is executed (step S203).
Ave_Diff = (Diff [0] + Diff [1] + ... + Diff [N]) / N-1 ... Equation [5]

更に、下記式[6]で示すように、平滑化処理を実行する(ステップS204)。   Furthermore, as shown by the following formula [6], a smoothing process is executed (step S204).

Diff_Lpf = fLpf(Diff) ・・・式[6]
このステップS204での平滑化処理により、図5(a)に示すように、動体判定マップMが生成されることとなる。この動体判定マップMにおいて、斜線で示した部分は、α=0であって全透過させる領域であり、白抜き部分は、α=255であって不透過とする領域である。
Diff_Lpf = fLpf (Diff) (6)
As a result of the smoothing process in step S204, a moving object determination map M is generated as shown in FIG. In this moving object determination map M, the hatched portion is a region where α = 0 and is totally transmitted, and the white portion is a region where α = 255 and is not transmitted.

引き続き、下記式[7]で示すように、強調処理を行って前記動体判定マップMのコントラストをアップさせる(ステップS205)。
Map_Move = fEmphasis (Diff_Lpf) ・・・式[7]
このステップS205での平滑化処理により、図5(b)に示すように、動体判定マップMにおいて動体である手Hの像の領域におけるコントラストがアップされる。
Subsequently, as shown by the following equation [7], enhancement processing is performed to increase the contrast of the moving object determination map M (step S205 ).
Map_Move = fEmphasis (Diff_Lpf) (7)
By the smoothing process in step S205, as shown in FIG. 5B, the contrast in the region of the image of the hand H that is a moving object in the moving object determination map M is increased.

しかる後に、この図5(b)に示した動体判定マップM((Map_ Move [0 ~ 255]: 0=動体なし)をαマップとして用いて、前述した疑似露出オーバー画像と露出オーバー画像とを合成する(ステップS206)。
合成された画像(以下、ブレンディング画像という)各画素のYUVの各パラメータ(Y_result_Over,U_result_Over,V_result_Over)は下記式[8]〜[10]で表現される。
Y_result_Over = (Y_Over ×(255 − Map_Move) + Y_Under_4 × Map_Move) / 255
・・・式[8]
U_result_Over = (U_Over ×(255 − Map_Move) + U_Under _4 × Map_Move) / 255
・・・式[9]
V_result_Over = (V_Over ×(255 − Map_Move) + V_Under _4 × Map_Move) / 255
・・・式[10]
Thereafter, using the moving object determination map M ((Map_Move [0 to 255]: 0 = no moving object) shown in FIG. 5B as an α map, the above-described pseudo overexposed image and overexposed image are obtained. Combining (step S206).
The YUV parameters (Y_result_Over, U_result_Over, V_result_Over) of each pixel of the synthesized image (hereinafter referred to as a blended image) are expressed by the following equations [8] to [10].
Y_result_Over = (Y_Over × (255 − Map_Move) + Y_Under_4 × Map_Move) / 255
... Formula [8]
U_result_Over = (U_Over × (255 − Map_Move) + U_Under _4 × Map_Move) / 255
... Formula [9]
V_result_Over = (V_Over × (255 − Map_Move) + V_Under _4 × Map_Move) / 255
... Formula [10]

そして、図2のフローチャートにおけるステップS105に続くステップS106においては、このブレンディング画像をRAM8に一旦保存する。引き続き、このRAM8に一旦保存したブレンディング画像と前記露出アンダー画像Uとを画素加算合成する(ステップS107)。 これにより、図6(b)に示すように、背景Bと手Hとからなる合成画像PMを表すYUV画像データが生成されることとなる。   Then, in step S106 following step S105 in the flowchart of FIG. 2, the blended image is temporarily stored in the RAM 8. Subsequently, the blended image once stored in the RAM 8 and the underexposed image U are added and combined (step S107). Thereby, as shown in FIG. 6B, YUV image data representing the composite image PM composed of the background B and the hand H is generated.

ここで、図6(a)は、露出アンダー画像Uと露出オーバー画像Oとを単に平均加算処理した合成画像PNである。このように、連写された画像を単に平均加算処理した合成画像PNにあっては、動体像である手Hの像に大きなブレが生じてしまう。これに対し、本実施の形態によれば、手Hの像が動いている場合においても、図6(b)に示すように、動体ブレの少ない合成画像PMを得ることができる。
また、撮影画角に動体が存在する場合においても、白飛びや黒潰れの少ない合成画像PMを得ることができる。
Here, FIG. 6A is a composite image PN obtained by simply averaging the underexposed image U and the overexposed image O. As described above, in the composite image PN obtained by simply averaging the continuously shot images, a large blurring occurs in the image of the hand H that is a moving body image. On the other hand, according to the present embodiment, even when the image of the hand H is moving, as shown in FIG. 6B, it is possible to obtain a composite image PM with less moving body shake.
Further, even when a moving object is present at the shooting angle of view, a composite image PM with little whiteout or blackout can be obtained.

しかも前述のように、ステップS204で平滑化処理を行うことから、合成による動体(手H)と背景との境界線をより自然なものにすることができる。   Moreover, as described above, since the smoothing process is performed in step S204, the boundary line between the moving object (hand H) and the background by synthesis can be made more natural.

また、前述のステップS205では、マップMのコントラストを上げる処理を実行したことから、合成処理における被写体ブレの残像(ゴースト)を減少させることもできる。   Further, in the above-described step S205, since the process of increasing the contrast of the map M is executed, it is possible to reduce the afterimage (ghost) of the subject blur in the synthesis process.

以上のようにして、合成画像PMを表すYUV画像データを生成したならば、完成画像である合成画像PMのYUV画像データを、JPEG方式で符号化しファイル化して、画像記録部6に記録保存し(ステップS108)、処理を終了する。 When the YUV image data representing the composite image PM is generated as described above, the YUV image data of the composite image PM that is the completed image is encoded and filed by the JPEG method, and is recorded and stored in the image recording unit 6. (Step S108 ), the process is terminated.

尚、本実施の形態においては、YUV画像データを用いた場合を示したが、RGB画像データを用いるようにしてもよい。この場合、RGBそれぞれについて、同様に差分二乗を算出する。   In this embodiment, YUV image data is used, but RGB image data may be used. In this case, the difference square is similarly calculated for each of RGB.

図7は、本発明の他の実施の形態における処理手順を示すフローチャートであり、略同一画角で撮影した三枚の画像、露出アンダー画像、露出ノーマル画像、露出オーバー画像を用いるようにしたものである。ユーザがキー入力部4に設けられているモードボタンを操作して、本実施形態に係る撮影モードを設定すると、制御部9がプログラムメモリ7からプログラムを読み出して、このフローチャートに示すように、処理を開始する。   FIG. 7 is a flowchart showing a processing procedure in another embodiment of the present invention, in which three images taken with substantially the same angle of view, an underexposed image, a normal exposed image, and an overexposed image are used. It is. When the user operates the mode button provided in the key input unit 4 to set the shooting mode according to the present embodiment, the control unit 9 reads the program from the program memory 7 and performs processing as shown in this flowchart. To start.

すなわち、制御部9はシャッターキー41の押下が検出されたか否かを判断する(ステップS301)。シャッターキー41の押下が検出されたならば、適正露出を検出するとともに、この適正露出の露出値0EVを「2」減少させた−2EVで駆動制御部2に指示して撮影を実行させ、この−2EVでの撮影により得られた露出アンダー画像をRAM8に一旦保存する(ステップS302)。   That is, the control unit 9 determines whether or not the pressing of the shutter key 41 is detected (step S301). If the pressing of the shutter key 41 is detected, the appropriate exposure is detected, and the appropriate exposure value 0EV is decreased by “2”. The underexposed image obtained by photographing at −2 EV is temporarily stored in the RAM 8 (step S302).

また、適正露出の露出値0EVで駆動制御部2に指示して撮影を実行させ、この0EVでの撮影により得られた露出ノーマル画像をRAM8に一旦保存する(ステップS303)。さらに、適正露出の露出値0EVを「2」増加させた+2EVで駆動制御部2に指示して撮影を実行させ、この+2EVでの撮影により得られた露出オーバー画像をRAM8に一旦保存する(ステップS304)。   Further, the drive control unit 2 is instructed to execute photographing at an exposure value 0 EV of appropriate exposure, and the exposure normal image obtained by photographing at this 0 EV is temporarily stored in the RAM 8 (step S303). Further, the drive control unit 2 is instructed to perform photographing at + 2EV, which is obtained by increasing the exposure value 0EV of the appropriate exposure by “2”, and the overexposed image obtained by photographing at + 2EV is temporarily stored in the RAM 8 (step S1). S304).

したがって、このステップS302及びステップS303での処理により、YUV画像からなる露出アンダー画像、露出ノーマル画像、及び、露出オーバー画像がRAM8に保存される。   Therefore, an underexposed image, a normal exposed image, and an overexposed image made up of YUV images are stored in the RAM 8 by the processing in steps S302 and S303.

次に、露出ノーマル画像と露光条件が等しくなるように、露出アンダー画像のゲインをアップさせることにより、第1の疑似露出オーバー画像を生成し、且つ露出オーバー画像と露光条件が等しくなるように、露出アンダー画像のゲインをアップさせることにより、第2の疑似露出オーバー画像を生成して、RAM8に一旦保存する(ステップS305)。つまり、−2EVで撮影された露出アンダー画像と、0EVで撮影された露ノーマル画像とは、画像の明るさが8倍異なり、露出ノーマル画像は、露出アンダー画像よりも8倍明るい。したがって、露出アンダー画像をデジタルゲイン8倍で処理することにより、露出ノーマル画像と擬似的に露出条件が同一となる第1疑似露出オーバー画像を生成する。   Next, by increasing the gain of the underexposed image so that the exposure condition is equal to the normal exposure image, a first pseudo overexposure image is generated, and the overexposure image and the exposure condition are equalized. By increasing the gain of the underexposed image, a second pseudo overexposed image is generated and temporarily stored in the RAM 8 (step S305). That is, the underexposure image captured at −2 EV and the dew normal image captured at 0 EV are 8 times different in brightness, and the normal exposure image is 8 times brighter than the underexposure image. Accordingly, by processing the underexposed image with a digital gain of 8 times, a first pseudo overexposed image having the same exposure condition as that of the normal exposure image is generated.

また、−2EVで撮影された露出アンダー画像と、+2EVで撮影された露オーバー画像とは、画像の明るさが16倍異なり、露出オーバー画像は、露出アンダー画像よりも16倍明るい。したがって、露出アンダー画像をデジタルゲイン16倍で処理することにより、露出オーバー画像と擬似的に露出条件が同一となる第2疑似露出オーバー画像を生成する。そして、これら第1疑似露出オーバー画像と、第2疑似露出オーバー画像とをRAM8に一旦保存する。   Also, the underexposed image captured at -2EV and the overexposed image captured at + 2EV are 16 times brighter than the underexposed image, and the overexposed image is 16 times brighter than the underexposed image. Therefore, by processing the underexposed image with a digital gain of 16 times, a second pseudo overexposed image having the same exposure condition as the overexposed image is generated. The first pseudo overexposure image and the second pseudo overexposure image are temporarily stored in the RAM 8.

次いで、1回目の動体判定・ブレンディング処理が終了しているか否かを判断する(ステップS306)。未だ動体判定・ブレンディング処理が実行されておらず、今回が1回目の処理であるならば、ステップS306の判断がNOとなって、ステップS307に進む。そして、擬似的に露出値が等しい第1疑似露出オーバー画像と露出ノーマル画像とを用いて、動体判定・αブレンディング処理を行う。この動体判定・αブレンディング処理(ステップS307)の処理手順は、図3のフローチャートに基づいて説明した前記実施の形態と同様である。この第1疑似露出オーバー画像と露出ノーマル画像とを用いた動体判定・αブレンディング処理が終了したならば、これにより得られた第1ブレンディング画像をRAM8に一旦保存し(ステップS308)、ステップS306に戻る。   Next, it is determined whether or not the first moving object determination / blending process has been completed (step S306). If the moving object determination / blending process has not yet been executed and this time is the first process, the determination in step S306 is NO, and the process proceeds to step S307. Then, the moving object determination / α blending process is performed using the first pseudo overexposure image and the normal exposure image having the same pseudo exposure value. The processing procedure of the moving object determination / α blending process (step S307) is the same as that of the embodiment described based on the flowchart of FIG. When the moving object determination / α blending process using the first pseudo overexposed image and the normal exposure image is completed, the first blended image obtained thereby is temporarily stored in the RAM 8 (step S308), and the process proceeds to step S306. Return.

すると、1回目の動体判定・αブレンド処理が終了したことから、ステップS306の判断がYESとなる。したがって、ステップS309に進み、擬似的に露出値が等しい第2疑似露出オーバー画像と露出オーバー画像とを用いて、動体判定・αブレンディング処理を行う。この動体判定・αブレンディング処理(ステップS309)の処理手順も、図3のフローチャートに基づいて説明した前記実施の形態と同様である。この第2疑似露出オーバー画像と露出オーバー画像とを用いた動体判定・αブレンディング処理が終了したならば、これにより得られた第2ブレンディング画像をRAM8に一旦保存する(ステップS310)。   Then, since the first moving object determination / α blending process is completed, the determination in step S306 becomes YES. Accordingly, the process proceeds to step S309, and the moving object determination / α blending process is performed using the second pseudo overexposure image and the overexposure image that have the same pseudo exposure value. The processing procedure of the moving object determination / α blending process (step S309) is also the same as that of the embodiment described based on the flowchart of FIG. When the moving object determination / α blending process using the second pseudo overexposed image and the overexposed image is completed, the second blended image obtained thereby is temporarily stored in the RAM 8 (step S310).

引き続き、これらRAM8に一旦保存した第1ブレンディング画像及び第2ブレンディング画像と前記露出アンダー画像とを画素加算合成し、この合成画像を表すYUV画像データを生成する(ステップS311)。 しかる後に、完成画像である合成画像PMのYUV画像データを、JPEG方式で符号化しファイル化して、画像記録部6に記録保存し(ステップS312)、処理を終了する。   Subsequently, the first and second blended images once stored in the RAM 8 and the underexposed image are subjected to pixel addition synthesis to generate YUV image data representing the synthesized image (step S311). Thereafter, the YUV image data of the composite image PM, which is a completed image, is encoded and filed by the JPEG method, recorded and saved in the image recording unit 6 (step S312), and the process is terminated.

尚、この本実施の形態においては、ステップS311において、第1ブレンディング画像、第2ブレンディング画像、及び、露出アンダー画像を画素加算合成して、完成画像を得るようにした。しかし、第1ブレンディング画像と露出アンダー画像とのみを画素加算合成して完成画像を得るようにし、あるいは第2ブレンディング画像と露出アンダー画像とを画素加算合成し完成画像を得るようにしてもよい。   In this embodiment, in step S311, the first blended image, the second blended image, and the underexposed image are subjected to pixel addition synthesis to obtain a completed image. However, a completed image may be obtained by adding and synthesizing only the first blended image and the underexposed image, or a completed image may be obtained by adding and synthesizing the second blended image and the underexposed image.

1 撮像部
2 駆動制御部
3 CDS/ADC
4 キー入力部
5 表示部
6 画像記録部
7 プログラムメモリ
8 RAM
9 制御部
10 画像処理部
11 合成部
41 シャッターキー
1 Imaging unit 2 Drive control unit 3 CDS / ADC
4 Key input section 5 Display section 6 Image recording section 7 Program memory 8 RAM
9 Control unit 10 Image processing unit 11 Composition unit 41 Shutter key

Claims (6)

略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得手段と、
前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得手段によって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御手段と、
このゲイン制御手段によってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを画素毎に比較し、差分が存在する領域を前記撮影画角における動体領域として検出する動体領域検出手段と、
この動体領域検出手段によって検出された動体領域を不透過領域として、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像とをブレンディングするブレンディング手段と、
このブレンディング手段によってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成手段と、
を備えたことを特徴とする画像合成装置。
Image acquisition means for acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions;
Control is performed to increase the brightness gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition unit so that the exposure condition is equal to the image of the other exposure conditions in the plurality of images. Gain control means;
And image raised gain by the gain control means, and an image with the exposure condition image the gain is raised is equal compared for each pixel, detects an area where the difference is present as the moving object region in the photographing field angle Moving object region detection means ;
Blending means for blending the image with the increased gain and the image with the same exposure condition with the gain increased, with the moving object area detected by the moving object area detecting means as the opaque area ;
Generating means for generating a pixel addition composite image of the image blended by the blending means and the image having the lower exposure amount;
An image composition device comprising:
前記ブレンディング手段は、前記動体領域検出手段によって検出された領域の画素毎の差分値についてその最大値を平均化し、この平均化された差分値について更にコントラストを上げる処理を実行することを特徴とする請求項1記載の画像合成装置。 The blending means averages the maximum value of the difference values for each pixel in the area detected by the moving object area detection means, and executes a process of further increasing the contrast for the averaged difference value. The image composition device according to claim 1. 前記画像取得手段は、撮像手段を含むことを特徴とする請求項1又は2記載の画像合成装置。 The image synthesizing apparatus according to claim 1 , wherein the image acquisition unit includes an imaging unit . 前記画像とは、略同じ撮像画角で取得されたものであることを特徴とする請求項1乃至3の何れか記載の画像合成装置。 The image synthesizing apparatus according to any one of claims 1 to 3, wherein the image is acquired at substantially the same imaging angle of view . 略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得ステップと、An image acquisition step of acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions;
前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得ステップによって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御ステップと、Control is performed to increase the brightness gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition step so that the exposure condition is equal to the image of the other exposure conditions in the plurality of images. A gain control step;
このゲイン制御ステップによってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを比較し、差分が存在する領域を前記撮影画角における動体領域として検出する動体領域検出ステップと、A moving object region detection that compares an image whose gain has been increased by the gain control step with an image having the same exposure condition as that of the image whose gain has been increased, and detects an area where a difference exists as a moving object region at the shooting angle of view. Steps,
この動体領域検出ステップによって検出された動体領域を不透過領域として、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像とをブレンディングするブレンディングステップと、A blending step for blending an image with an increased gain and an image with the same exposure condition as the gain increased with the moving body region detected by the moving body region detecting step as an opaque region;
このブレンディングステップによってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成ステップと、A generation step of generating a pixel addition composite image of the image blended by the blending step and the image with the lower exposure amount;
を含むことを特徴とする画像合成方法。An image composition method comprising:
装置が有するコンピュータを、The computer that the device has
略同一の撮影画角で且つ露光条件が夫々異なる複数の画像を取得する画像取得手段、Image acquisition means for acquiring a plurality of images having substantially the same shooting angle of view and different exposure conditions;
前記複数の画像における他の露光条件の画像と露光条件が等しくなるように、前記画像取得手段によって取得された複数の画像のうち露光量が低い方の画像の明るさのゲインを上げるよう制御するゲイン制御手段、Control is performed to increase the brightness gain of the image with the lower exposure amount among the plurality of images acquired by the image acquisition unit so that the exposure condition is equal to the image of the other exposure conditions in the plurality of images. Gain control means,
このゲイン制御手段によってゲインが上げられた画像と、このゲインが上げられた画像と露光条件が等しい画像とを画素毎に比較し、差分が存在する領域を前記撮影画角における動体領域として検出する動体領域検出手段、The image with the gain increased by the gain control means and the image with the same exposure condition as that of the image with the increased gain are compared for each pixel, and an area where there is a difference is detected as a moving object area at the shooting angle of view. Moving body region detection means,
この動体領域検出手段によって検出された動体領域を不透過領域として、前記ゲインが上げられた画像と前記ゲインが上げられた画像と露光条件が等しい画像とをブレンディングするブレンディング手段、Blending means for blending an image with an increased gain and an image with the same exposure condition as the gain increased with the moving body area detected by the moving body area detecting means as an opaque area;
このブレンディング手段によってブレンディングされた画像と前記露光量の低い方の画像との画素加算合成画像を生成する生成手段、Generating means for generating a pixel-added synthesized image of the image blended by the blending means and the image with the lower exposure amount;
として機能させることを特徴とするプログラム。A program characterized by functioning as
JP2010182677A 2010-07-23 2010-08-18 Image composition apparatus, image composition method, and program Active JP5146500B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2010182677A JP5146500B2 (en) 2010-08-18 2010-08-18 Image composition apparatus, image composition method, and program
US13/187,367 US20120019686A1 (en) 2010-07-23 2011-07-20 Image synthesizing device, image synthesizing method and computer readable medium
CN201110205268.5A CN102348056B (en) 2010-07-23 2011-07-21 Image synthesizing device and image synthesizing method
KR1020110072999A KR101247647B1 (en) 2010-07-23 2011-07-22 Image synthesizing device, image synthesizing method, and recording medium
EP11174950.3A EP2410734B1 (en) 2010-07-23 2011-07-22 Image synthesizing device, image synthesizing method and computer readable medium
EP12197315.0A EP2571249B1 (en) 2010-07-23 2011-07-22 Image synthesizing device, image synthesizing method and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010182677A JP5146500B2 (en) 2010-08-18 2010-08-18 Image composition apparatus, image composition method, and program

Publications (3)

Publication Number Publication Date
JP2012044377A JP2012044377A (en) 2012-03-01
JP2012044377A5 JP2012044377A5 (en) 2012-06-28
JP5146500B2 true JP5146500B2 (en) 2013-02-20

Family

ID=45900192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010182677A Active JP5146500B2 (en) 2010-07-23 2010-08-18 Image composition apparatus, image composition method, and program

Country Status (1)

Country Link
JP (1) JP5146500B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6108680B2 (en) * 2012-04-19 2017-04-05 キヤノン株式会社 Imaging apparatus, control method therefor, program, and storage medium
JP6185730B2 (en) * 2013-03-15 2017-08-23 キヤノン株式会社 Imaging apparatus and imaging method
WO2014167676A1 (en) * 2013-04-10 2014-10-16 株式会社 東芝 Eelctronic device and image processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4851392B2 (en) * 2007-05-30 2012-01-11 富士通株式会社 Image composition apparatus, image composition method, and image composition program
JP2009105533A (en) * 2007-10-22 2009-05-14 Sony Corp Image processing device, imaging device, image processing method, and picked-up image processing method

Also Published As

Publication number Publication date
JP2012044377A (en) 2012-03-01

Similar Documents

Publication Publication Date Title
EP2410734B1 (en) Image synthesizing device, image synthesizing method and computer readable medium
KR101247646B1 (en) Image combining apparatus, image combining method and recording medium
JP5019543B2 (en) Imaging device
JP5141733B2 (en) Imaging apparatus, imaging method, and program
JP5713752B2 (en) Image processing apparatus and control method thereof
JP5787648B2 (en) Image processing apparatus and image processing apparatus control method
JP5240349B2 (en) Image composition apparatus and program
JP4720537B2 (en) Imaging device
JP2011018141A (en) Image processing apparatus and program
WO2012160847A1 (en) Image capture device, image processing device, and image capture method
JP2014017681A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP4999871B2 (en) Imaging apparatus and control method thereof
JP5146498B2 (en) Image composition apparatus, image composition method, and program
JP5076650B2 (en) Imaging apparatus and image processing program
JP6873679B2 (en) Imaging device, control method and program of imaging device
WO2016117137A1 (en) Image-capturing device, image-capturing method, and image display device
JP2010206776A (en) Image capture apparatus, method of controlling the same and program
JP2006352229A (en) Digital camera
JP5146500B2 (en) Image composition apparatus, image composition method, and program
JP2009213032A (en) Wide dynamic range image formation processing apparatus
JP6376339B2 (en) Image processing apparatus and image processing method
JP2008136113A (en) Image processor, imaging apparatus and image processing method
JP6090565B2 (en) Imaging apparatus, imaging method, and program
JP5984533B2 (en) Imaging apparatus, control method thereof, and program
JP4306584B2 (en) Digital camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120510

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120510

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20120515

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20120724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121112

R150 Certificate of patent or registration of utility model

Ref document number: 5146500

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3