JP2013009104A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2013009104A
JP2013009104A JP2011139688A JP2011139688A JP2013009104A JP 2013009104 A JP2013009104 A JP 2013009104A JP 2011139688 A JP2011139688 A JP 2011139688A JP 2011139688 A JP2011139688 A JP 2011139688A JP 2013009104 A JP2013009104 A JP 2013009104A
Authority
JP
Japan
Prior art keywords
difference
value
image data
exposure image
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011139688A
Other languages
Japanese (ja)
Other versions
JP5609787B2 (en
Inventor
Ryuji Shirakawa
龍治 白川
Tetsuya Shioyama
哲也 塩山
Yusuke Machida
雄輔 町田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2011139688A priority Critical patent/JP5609787B2/en
Priority to US13/530,653 priority patent/US8970719B2/en
Priority to EP12004707.1A priority patent/EP2538661B1/en
Publication of JP2013009104A publication Critical patent/JP2013009104A/en
Application granted granted Critical
Publication of JP5609787B2 publication Critical patent/JP5609787B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of generating a visually natural wide dynamic range image.SOLUTION: A pixel value conversion unit 51 converts pixel values of image signals obtained by imaging an identical subject a plurality of times with mutually different exposure amounts on the basis of pixel value conversion coefficients Coa and Cob. A composition weighting coefficient generation unit 52 generates composition weighting coefficients. A difference generation unit 53 generates a difference between short-time exposure image data Da1 and long-time exposure image data Db2. A weighting composition unit 54 combines the short-time exposure image data Da1 and the long-time exposure image data Db2 using the composition weighting coefficients. A control unit 11 evaluates the difference, and updates the pixel value conversion coefficients so that the difference becomes smaller.

Description

本発明は、露光量の異なる複数フレームの画像を合成してダイナミックレンジを拡大した合成画像を生成する画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for generating a composite image in which a dynamic range is expanded by combining images of a plurality of frames having different exposure amounts.

人間の視覚が非常に広いダイナミックレンジを持っているのに対し、ビデオカメラ等の撮像装置はダイナミックレンジが狭い。このため、人物等の主要な被写体と背景とを同時に撮影する場合、主要な被写体が暗く撮影されたり、背景が白く飛んで撮影されたりして、見た目と異なった状態で撮影される場合がある。そこで、同一の被写体を、露光量を異ならせる等の異なる撮影条件で複数回撮影して、複数フレームの画像を合成することにより、画像のダイナミックレンジを拡大するという技術が知られている。   While human vision has a very wide dynamic range, an imaging device such as a video camera has a narrow dynamic range. For this reason, when a main subject such as a person is photographed at the same time as the background, the main subject may be photographed in a dark state, or the background may be photographed with a white background and may be photographed in a different state from the appearance. . Therefore, a technique is known in which the same subject is photographed a plurality of times under different photographing conditions such as different exposure amounts, and the dynamic range of the image is expanded by combining a plurality of frames of images.

複数フレームの画像を合成して広ダイナミックレンジ画像を生成する場合、合成する各画像の画素値を撮影時の露光量比に基づいて整合させる必要がある。ところが、実際の撮影においては設定した露光量比で撮影することが難しく、複数フレームの画像を合成した場合の画像が切り替わる境界部で画素値が不連続になってしまう。境界部での画素値の不連続性を低減させるための技術が例えば特許文献1,2に記載されている。   When a wide dynamic range image is generated by combining a plurality of frames of images, it is necessary to match the pixel values of the images to be combined based on the exposure amount ratio at the time of shooting. However, in actual photographing, it is difficult to photograph with a set exposure amount ratio, and pixel values become discontinuous at a boundary portion where images when a plurality of frames are combined are switched. For example, Patent Documents 1 and 2 describe techniques for reducing discontinuity of pixel values at the boundary.

特開2002−223350号公報JP 2002-223350 A 特開2010−273001号公報JP 2010-273001 A

特許文献1,2においては、複数枚の画像を合成する際に画像のヒストグラムを用いて合成する各画像の画素値の整合を図っている。ヒストグラムのような演算量の大きい処理を用い、高精度な演算を行うとすれば、回路規模が増大する。回路規模の増大はコストアップを招く。動画像を撮影するビデオカメラにおいて動画像を合成する場合には、被写体の状態は刻々と変化するため、被写体の変化に対応して素早く対応して境界部で画素値を整合させようとすると、高速の演算素子が必要となってしまう。演算量の大きい処理を高速で行おうとすれば、回路規模の増大とコストアップを避けることは難しい。   In Patent Documents 1 and 2, when combining a plurality of images, the pixel values of the images to be combined are matched using an image histogram. If processing with a large calculation amount such as a histogram is used to perform highly accurate calculation, the circuit scale increases. An increase in circuit scale causes an increase in cost. When synthesizing moving images in a video camera that shoots moving images, the state of the subject changes every moment, so if you try to quickly respond to the change of the subject and match the pixel value at the boundary, A high-speed arithmetic element is required. If processing with a large amount of computation is to be performed at high speed, it is difficult to avoid an increase in circuit scale and cost.

本発明はこのような問題点に鑑み、回路規模や演算量をさほど増大させることなく、複数フレームの画像を合成する際の境界部での画素値を連続させることができ、視覚的に自然な広ダイナミックレンジ画像を生成することができる画像処理装置及び画像処理方法を提供することを目的とする。   In view of such a problem, the present invention can make the pixel values at the boundary when combining images of a plurality of frames continuous without increasing the circuit scale and the amount of calculation so much, and is visually natural. An object of the present invention is to provide an image processing apparatus and an image processing method capable of generating a wide dynamic range image.

本発明は、上述した従来の技術の課題を解決するため、露光量を互いに異ならせて同一の被写体を複数回撮影した第1の複数の画像信号が入力され、露光量が異なることによる前記第1の複数の画像信号における画素値の違いを合わせるように、画素値変換係数に基づいて、前記第1の複数の画像信号の内の少なくとも1つの画像信号の画素値を変換して、第2の複数の画像信号として出力する画素値変換部(51)と、前記第2の複数の画像信号を所定の画素値の画素を含む領域を境界部として合成する際に用いる合成重み付け係数を生成する合成重み付け係数生成部(52)と、前記第2の複数の画像信号の差分を生成する差分生成部(53)と、前記第2の複数の画像信号を、前記合成重み付け係数を用いて重み付けして合成して合成画像信号を生成する重み付け合成部(54)と、前記差分生成部によって生成された差分を評価して、差分が小さくなるように前記画素値変換係数を更新するパラメータ更新部(11)とを備えることを特徴とする画像処理装置を提供する。   In order to solve the above-described problems of the prior art, the present invention provides the first plurality of image signals obtained by inputting the first plurality of image signals obtained by photographing the same subject a plurality of times with different exposure amounts. A pixel value of at least one of the first plurality of image signals is converted based on a pixel value conversion coefficient so as to match a difference in pixel values in the plurality of one image signal; A pixel value conversion unit (51) that outputs a plurality of image signals, and a combination weighting coefficient that is used when combining the second plurality of image signals with a region including pixels having a predetermined pixel value as a boundary portion. A synthesis weighting coefficient generation unit (52), a difference generation unit (53) that generates a difference between the second plurality of image signals, and the second plurality of image signals are weighted using the synthesis weighting coefficient. To synthesize A weighting and synthesizing unit (54) that generates an image signal; and a parameter updating unit (11) that evaluates the difference generated by the difference generating unit and updates the pixel value conversion coefficient so that the difference is reduced. An image processing apparatus is provided.

上記の構成において、前記パラメータ更新部は、前記画素値変換係数を更新するのに併せて、前記合成重み付け係数を更新することが好ましい。   In the above configuration, it is preferable that the parameter updating unit updates the synthesis weighting coefficient in conjunction with updating the pixel value conversion coefficient.

上記の構成において、前記境界部は複数の画素値の画素を含む領域であり、前記境界部の最も大きい画素値を上限値とし、前記境界部の最も小さい画素値を下限値としたとき、前記合成重み付け係数生成部は、前記第2の複数の画像信号における2つの画像信号を合成する合成重み付け係数として、前記上限値より大きい部分では前記2つの画像信号の内の一方の画像信号とし、前記下限値より小さい部分では前記2つの画像信号の内の他方の画像信号とし、前記上限値と前記下限値との間では、前記2つの画像信号をクロスフェードさせて混合させる合成重み付け係数を生成することが好ましい。   In the above configuration, the boundary portion is a region including pixels having a plurality of pixel values, and when the largest pixel value of the boundary portion is an upper limit value and the smallest pixel value of the boundary portion is a lower limit value, The synthesis weighting coefficient generation unit, as a synthesis weighting coefficient for synthesizing two image signals in the second plurality of image signals, as one image signal of the two image signals in a portion larger than the upper limit value, A portion that is smaller than the lower limit value is set as the other image signal of the two image signals, and a synthetic weighting coefficient is generated between the upper limit value and the lower limit value to crossfade and mix the two image signals. It is preferable.

上記の構成において、前記パラメータ更新部は、前記画素値変換係数を更新するのに併せて、前記上限値と前記下限値とを互いの間隔が狭くなるように更新し、前記合成重み付け係数生成部は、更新された前記上限値と前記下限値とに基づいて合成重み付け係数を生成することが好ましい。   In the above-described configuration, the parameter update unit updates the upper limit value and the lower limit value so that the interval between the upper limit value and the lower limit value becomes narrow, and updates the pixel value conversion coefficient. Preferably generates a composite weighting coefficient based on the updated upper limit value and the lower limit value.

上記の構成において、前記差分生成部は、前記2つの画像信号における一方の画像信号を基準としたとき、基準とした前記一方の画像信号が前記上限値と前記下限値との間で他方の画像信号の差分を生成することが好ましい。   In the above configuration, when the difference generating unit uses one image signal in the two image signals as a reference, the one image signal used as a reference is between the upper limit value and the lower limit value, and the other image It is preferable to generate a signal difference.

前記パラメータ更新部は、画面内の部分的な領域における前記第2の複数の画像信号の差分を評価してもよい。   The parameter updating unit may evaluate a difference between the second plurality of image signals in a partial region in the screen.

また、本発明は、上述した従来の技術の課題を解決するため、露光量を互いに異ならせて同一の被写体を複数回撮影して第1の複数の画像信号を生成し(S1)、露光量が異なることによる前記第1の複数の画像信号における画素値の違いを合わせるように、画素値変換係数に基づいて、前記第1の複数の画像信号の内の少なくとも1つの画像信号の画素値を変換して、第2の複数の画像信号を生成し(S6)、前記第2の複数の画像信号を所定の画素値の画素を含む領域を境界部として合成する際に用いる合成重み付け係数を生成し(S7)、前記第2の複数の画像信号の差分を生成し、前記第2の複数の画像信号を、前記合成重み付け係数を用いて重み付けして合成して合成画像信号を生成し(S8)、前記差分を評価して、差分が小さくなるように前記画素値変換係数を更新する(S504)ことを特徴とする画像処理方法を提供する。   In order to solve the above-described problems of the conventional technology, the present invention generates the first plurality of image signals by photographing the same subject a plurality of times with different exposure amounts (S1), and the exposure amount. Based on the pixel value conversion coefficient, the pixel value of at least one of the first plurality of image signals is determined based on the pixel value conversion coefficient so as to match the difference in pixel values in the first plurality of image signals. Convert to generate a second plurality of image signals (S6), and generate a combination weighting coefficient used when combining the second plurality of image signals with a region including pixels having a predetermined pixel value as a boundary portion. Then, a difference between the second plurality of image signals is generated, and the second plurality of image signals are weighted using the combination weighting coefficient to generate a combined image signal (S8). ), Evaluate the difference, the difference is small So as to update the pixel value conversion factor (S504) to provide an image processing method characterized by.

本発明の画像処理装置及び画像処理方法によれば、回路規模や演算量をさほど増大させることなく、複数フレームの画像を合成する際の境界部での画素値を連続させることができ、視覚的に自然な広ダイナミックレンジ画像を生成することが可能となる。   According to the image processing apparatus and the image processing method of the present invention, the pixel values at the boundary when combining the images of a plurality of frames can be made continuous without increasing the circuit scale or the amount of calculation so much. It is possible to generate a natural wide dynamic range image.

第1,第2,第4実施形態を示すブロック図である。It is a block diagram which shows 1st, 2nd, 4th embodiment. 画素値変換部51の動作を説明するための図である。6 is a diagram for explaining an operation of a pixel value conversion unit 51. FIG. 多重露光画像合成部501,503,506,507の動作を説明するための図である。It is a figure for demonstrating operation | movement of the multiple exposure image synthetic | combination part 501,503,506,507. 重み付け合成部54における重み付け合成動作を説明するための図である。It is a figure for demonstrating the weighting synthetic | combination operation | movement in the weighting synthetic | combination part. 各実施形態の全体的な動作を示すフローチャートである。It is a flowchart which shows the whole operation | movement of each embodiment. 図5におけるステップS5であり、第1実施形態によるステップS5の具体的な処理を示すフローチャートである。A step S5 in FIG. 5 is a flowchart illustrating a specific process of step S5 1 according to the first embodiment. 図5におけるステップS7の具体的な処理を示すフローチャートである。It is a flowchart which shows the specific process of step S7 in FIG. 図5におけるステップS5であり、第2実施形態によるステップS5の具体的な処理を示すフローチャートである。A step S5 in FIG. 5 is a flowchart illustrating a specific process of step S5 2 according to the second embodiment. 第3実施形態を示すブロック図である。It is a block diagram which shows 3rd Embodiment. 図5におけるステップS5であり、第3実施形態によるステップS5の具体的な処理を示すフローチャートである。A step S5 in FIG. 5 is a flowchart illustrating a specific process of step S5 3 according to the third embodiment. 第4実施形態を示すブロック図である。It is a block diagram which shows 4th Embodiment. 図5におけるステップS5であり、第4実施形態によるステップS5の具体的な処理を示すフローチャートである。A step S5 in FIG. 5 is a flowchart illustrating a specific process of step S5 4 according to the fourth embodiment. 第5実施形態を示すブロック図である。It is a block diagram which shows 5th Embodiment. 図5におけるステップS5であり、第5実施形態によるステップS5の具体的な処理を示すフローチャートである。A step S5 in FIG. 5 is a flowchart illustrating a specific process of step S5 5 according to the fifth embodiment. 第6実施形態を示すブロック図である。It is a block diagram which shows 6th Embodiment. 図5におけるステップS5であり、第6実施形態によるステップS5の具体的な処理を示すフローチャートである。A step S5 in FIG. 5 is a flowchart illustrating a specific process of step S5 6 according to the sixth embodiment. 第7実施形態を示すブロック図である。It is a block diagram which shows 7th Embodiment. 図5におけるステップS5であり、第7実施形態によるステップS5の具体的な処理を示すフローチャートである。A step S5 in FIG. 5 is a flowchart illustrating a specific process of step S5 7 according to the seventh embodiment.

以下、本発明の画像処理装置及び画像処理方法の各実施形態について、添付図面を参照して説明する。各実施形態は、ビデオカメラに画像処理装置を搭載した例を示している。   Hereinafter, embodiments of an image processing apparatus and an image processing method of the present invention will be described with reference to the accompanying drawings. Each embodiment shows an example in which an image processing apparatus is mounted on a video camera.

<第1実施形態>
図1において、ビデオカメラ101は、撮像部1,入力信号処理部2,多重露光画像出力部3,バッファメモリ4,多重露光画像合成部501,ダイナミックレンジ圧縮部6,バッファメモリ7,圧縮伸張処理部8,出力信号処理部9,表示部10,制御部11,RAM12,ROM13,記録再生部14,操作スイッチ15を備える。多重露光画像合成部501は、画素値変換部51,合成重み付け係数生成部52,差分生成部53,重み付け合成部54を備える。画素値変換部51は、画素値変換部51a,51bを含む。
<First Embodiment>
In FIG. 1, a video camera 101 includes an imaging unit 1, an input signal processing unit 2, a multiple exposure image output unit 3, a buffer memory 4, a multiple exposure image synthesis unit 501, a dynamic range compression unit 6, a buffer memory 7, and a compression / decompression process. A unit 8, an output signal processing unit 9, a display unit 10, a control unit 11, a RAM 12, a ROM 13, a recording / reproducing unit 14, and an operation switch 15 are provided. The multiple exposure image synthesis unit 501 includes a pixel value conversion unit 51, a synthesis weighting coefficient generation unit 52, a difference generation unit 53, and a weighting synthesis unit 54. The pixel value conversion unit 51 includes pixel value conversion units 51a and 51b.

撮像部1は、レンズや絞り等の光学系、CCDやCMOS等の撮像素子、露出やピントの制御機構等を備えている。撮像部1は、レンズを介して撮像素子に入力された光情報を所定のタイミングで電気信号として取り出し、電気信号を入力信号処理部2に供給する。撮像部1は、制御部11による制御に基づいて、撮像素子のダイナミックレンジより広いダイナミックレンジの画像を生成するため、同一の被写体を異なる撮像条件で複数回に分けて撮影する、いわゆる多重露光を行う。第1実施形態では、異なる撮影条件として露光量を異ならせて撮影する。   The imaging unit 1 includes an optical system such as a lens and a diaphragm, an imaging device such as a CCD and a CMOS, an exposure and focus control mechanism, and the like. The imaging unit 1 takes out optical information input to the imaging device via the lens as an electrical signal at a predetermined timing, and supplies the electrical signal to the input signal processing unit 2. The imaging unit 1 generates a dynamic range image wider than the dynamic range of the imaging device based on the control by the control unit 11, so that the same subject is shot multiple times under different imaging conditions, so-called multiple exposure. Do. In the first embodiment, shooting is performed with different exposure amounts as different shooting conditions.

露光量を異ならせるためには、シャッタスピードを調節して露光時間を異ならせたり、絞り値を調節したり、両者を組み合わせたりすればよい。第1実施形態では、シャッタスピードを速くした短時間露光による画像と、シャッタスピードを遅くした長時間露光による画像との2枚の画像を撮影して、両者を合成するものとする。なお、長時間露光による撮影の際にフレームレートに合わせてシャッタスピードを固定とし、短時間露光画像の高輝度部分が大幅に飽和しないよう露出を制御しながら撮影をすることが好ましい。   In order to vary the exposure amount, the exposure time may be varied by adjusting the shutter speed, the aperture value may be adjusted, or the two may be combined. In the first embodiment, two images, that is, an image obtained by short-time exposure with a higher shutter speed and an image obtained by long-time exposure at a lower shutter speed are taken and combined. Note that it is preferable to shoot while controlling exposure so that the shutter speed is fixed in accordance with the frame rate when shooting with long exposure and the high luminance portion of the short exposure image is not significantly saturated.

撮像部1は、短時間露光画像の電気信号と長時間露光画像の電気信号とをいずれかの順で入力信号処理部2に供給する。入力信号処理部2は、入力された電気信号をA/D変換し、RGBの3原色信号に変換して、ホワイトバランス調整,ゲイン調整,ガンマ処理等の各種の信号処理を施して、輝度信号Y及び色差信号Cb,Crに変換する。短時間露光画像の輝度信号Y及び色差信号Cb,Crと、長時間露光画像の輝度信号Y及び色差信号Cb,Crとは、多重露光画像出力部3に順次入力される。RGB信号を輝度信号Y及び色差信号Cb,Crに変換すると、データ量が削減されるので必要となるメモリ容量を削減することができる。この際、色差信号Cb,Crの帯域を制限して時間軸多重することにより、データ量をさらに削減することができる。   The imaging unit 1 supplies the electrical signal of the short exposure image and the electrical signal of the long exposure image to the input signal processing unit 2 in either order. The input signal processing unit 2 performs A / D conversion on the input electrical signal, converts it into RGB three primary color signals, performs various signal processing such as white balance adjustment, gain adjustment, gamma processing, etc. Y and color difference signals Cb and Cr are converted. The luminance signal Y and color difference signals Cb and Cr of the short exposure image and the luminance signal Y and color difference signals Cb and Cr of the long exposure image are sequentially input to the multiple exposure image output unit 3. When the RGB signal is converted into the luminance signal Y and the color difference signals Cb and Cr, the amount of data is reduced, so that the required memory capacity can be reduced. At this time, the data amount can be further reduced by limiting the bands of the color difference signals Cb and Cr and performing time-axis multiplexing.

多重露光画像出力部3は、先に入力された輝度信号Y及び色差信号Cb,Crを、バッファメモリ4を用いて1垂直走査期間だけ遅延させる。そして、多重露光画像出力部3は、短時間露光画像の輝度信号Y及び色差信号Cb,Cr(以下、短時間露光画像データDaと称する)と、長時間露光画像の輝度信号Y及び色差信号Cb,Cr(以下、長時間露光画像データDbと称する)とを同じタイミングに揃えて多重露光画像合成部501に供給する。この際、動きベクトルを用いてバッファメモリ4からのデータの読み出し開始アドレスを制御することにより、短時間露光画像データDa及び長時間露光画像データDbの画面ぶれを補正することが好ましい。   The multiple exposure image output unit 3 delays the previously input luminance signal Y and color difference signals Cb and Cr by one vertical scanning period using the buffer memory 4. Then, the multiple exposure image output unit 3 includes the luminance signal Y and the color difference signals Cb and Cr (hereinafter referred to as the short exposure image data Da) of the short exposure image, and the luminance signal Y and the color difference signal Cb of the long exposure image. , Cr (hereinafter referred to as long-time exposure image data Db) are supplied to the multiple exposure image composition unit 501 at the same timing. At this time, it is preferable to correct the screen blur of the short-exposure image data Da and the long-exposure image data Db by controlling the read start address of the data from the buffer memory 4 using the motion vector.

短時間露光画像データDaは画素値変換部51aに入力され、長時間露光画像データDbは画素値変換部51bに入力される。画素値変換部51aには、制御部11によって画素値変換係数Coaが設定され、画素値変換部51bには、制御部11によって画素値変換係数Cobが設定される。画素値変換係数Coa,Cobは画像合成の際に用いるパラメータの1つである。以下、変換係数Coa,Cobと略記する。   The short exposure image data Da is input to the pixel value converter 51a, and the long exposure image data Db is input to the pixel value converter 51b. The pixel value conversion coefficient Coa is set by the control unit 11 in the pixel value conversion unit 51a, and the pixel value conversion coefficient Cob is set by the control unit 11 in the pixel value conversion unit 51b. Pixel value conversion coefficients Coa and Cob are one of the parameters used for image composition. Hereinafter, the conversion coefficients are abbreviated as Coa and Cob.

変換係数Coa,Cobは、後述するように、仮設定された変換係数から順次補正された変換係数へと変更されていく。変換係数Coa,Cobの一方を固定の変換係数とし、他方を順次補正された変換係数へと変更するようにしてもよい。第1実施形態では、短時間露光画像データDaに対する変換係数Coaを固定とし、長時間露光画像データDbに対する変換係数Cobを順次変更する。   As will be described later, the conversion coefficients Coa and Cob are changed from the temporarily set conversion coefficients to sequentially corrected conversion coefficients. One of the conversion coefficients Coa and Cob may be a fixed conversion coefficient, and the other may be changed to a sequentially corrected conversion coefficient. In the first embodiment, the conversion coefficient Coa for the short-time exposure image data Da is fixed, and the conversion coefficient Cob for the long-time exposure image data Db is sequentially changed.

短時間露光画像データDa及び長時間露光画像データDbを例えば10ビットのデジタルデータであるとする。画素値変換部51aは、変換係数Coaに基づいて、入力された10ビットの短時間露光画像データDaを64倍して16ビットのデジタルデータに変換する。第1実施形態では、短時間露光画像の高輝度部分が大幅に飽和しないよう露出が制御されているため、短時間露光画像データDaの画素値を画像合成後のフルダイナミックレンジに正規化させるよう、変換係数Coaとして固定のゲイン値を設定している。図2(A)は、16ビットに変換後の短時間露光画像データDa1の特性a1を示している。横軸は被写体の明るさ、縦軸は画素値(輝度値)である。   It is assumed that the short exposure image data Da and the long exposure image data Db are, for example, 10-bit digital data. Based on the conversion coefficient Coa, the pixel value conversion unit 51a multiplies the input 10-bit short-time exposure image data Da by 64 and converts it into 16-bit digital data. In the first embodiment, the exposure is controlled so that the high-intensity portion of the short-time exposure image is not significantly saturated, so that the pixel value of the short-time exposure image data Da is normalized to the full dynamic range after image synthesis. A fixed gain value is set as the conversion coefficient Coa. FIG. 2A shows a characteristic a1 of the short-time exposure image data Da1 after conversion to 16 bits. The horizontal axis represents the brightness of the subject, and the vertical axis represents the pixel value (luminance value).

画素値変換部51bは、まず、入力された10ビットの長時間露光画像データDbを16ビットのデジタルデータに変換する。図2(B)は、16ビットに変換後の長時間露光画像データDb1の特性b1を示している。図2(B)に示すように、長時間露光画像データDb1の特性b1は、所定の明るさ以上で画素値が飽和している特性である。画素値変換部51bは、次に、特性b1の非飽和領域の傾きを特性a1の傾きと一致させて、互いの画素値を合わせるために、特性b1を短時間露光画像データDa(Da1)と長時間露光画像データDb(Db1)との露光量比に応じて画素値を変換して特性b2の長時間露光画像データDb2とする。長時間露光画像データDbの露光量が短時間露光画像データDaの露光量のn倍であれば、特性b1の画素値を1/n倍すればよい。   The pixel value converter 51b first converts the input 10-bit long exposure image data Db into 16-bit digital data. FIG. 2B shows the characteristic b1 of the long-time exposure image data Db1 after conversion to 16 bits. As shown in FIG. 2B, the characteristic b1 of the long exposure image data Db1 is a characteristic that the pixel value is saturated at a predetermined brightness or more. Next, the pixel value conversion unit 51b matches the inclination of the non-saturated region of the characteristic b1 with the inclination of the characteristic a1 and matches the pixel values of the characteristic b1 with the short-time exposure image data Da (Da1). The pixel value is converted in accordance with the exposure amount ratio with the long-time exposure image data Db (Db1) to obtain long-time exposure image data Db2 having the characteristic b2. If the exposure amount of the long exposure image data Db is n times the exposure amount of the short exposure image data Da, the pixel value of the characteristic b1 may be multiplied by 1 / n.

長時間露光画像データDb1の画素値を露光量比に応じて変換するのは、上記のように正規化した短時間露光画像データDa1の領域に、長時間露光画像データDb2をマッピングさせるためである。長時間露光画像データDbに対する変換係数Cobは、ビット数変換及び露光量比に応じて画素値を変換するための変換係数である。   The reason why the pixel value of the long exposure image data Db1 is converted according to the exposure amount ratio is to map the long exposure image data Db2 to the region of the short exposure image data Da1 normalized as described above. . The conversion coefficient Cob for the long-time exposure image data Db is a conversion coefficient for converting the pixel value according to the bit number conversion and the exposure amount ratio.

画素値変換部51a,51bが短時間露光画像データDa及び長時間露光画像データDbを10ビットから16ビットに変換するのは必須ではない。画素値変換部51a,51bは、少なくとも、短時間露光画像データDaと長時間露光画像データDbとの一方を基準として、被写体の明るさに対する画素値の特性の傾きを一致させて互いの画素値を合わせるよう、露光量比に応じて画素値を変換すればよい。   It is not essential for the pixel value converters 51a and 51b to convert the short-time exposure image data Da and the long-time exposure image data Db from 10 bits to 16 bits. The pixel value conversion units 51a and 51b match each other with the inclination of the characteristic of the pixel value with respect to the brightness of the subject with respect to at least one of the short-time exposure image data Da and the long-time exposure image data Db. The pixel values may be converted in accordance with the exposure amount ratio so as to match.

図2(A),(B)では、ガンマ補正を省略して特性a1を直線で、特性b1,b2を直線の折れ線にて示しているが、実際には、画素値変換部51a,51bに入力される短時間露光画像データDa及び長時間露光画像データDbはガンマ補正が施されている。そこで、制御部11は、短時間露光画像データDa及び長時間露光画像データDbそれぞれ標準ガンマ変換による画素値の変化量を求める。制御部11は、求めた変化量に基づいて仮の補正値を設定し、露光量比をゲインとした変換係数Cobに対して仮の補正値を加えて変換係数Cobを補正する。   In FIGS. 2A and 2B, gamma correction is omitted and the characteristic a1 is indicated by a straight line and the characteristics b1 and b2 are indicated by straight broken lines. In practice, however, the pixel value conversion units 51a and 51b The input short exposure image data Da and long exposure image data Db are subjected to gamma correction. Therefore, the control unit 11 determines the amount of change in pixel value by standard gamma conversion for each of the short-time exposure image data Da and the long-time exposure image data Db. The control unit 11 sets a temporary correction value based on the obtained change amount, and corrects the conversion coefficient Cob by adding the temporary correction value to the conversion coefficient Cob having the exposure amount ratio as a gain.

図3を用いて、ガンマ補正を考慮した変換係数Cobの補正について説明する。図3は、図2(A),(B)における合成の境界部であるポイントPa,Pbの近傍を拡大して示している。図3では、ガンマ補正が施された状態の特性a1,b2を示している。特性b2は、補正値を加えていない状態の変換係数Cobによって画素値が変換された長時間露光画像データDb2の特性である。制御部11は、短時間露光画像データDa1と長時間露光画像データDb2とを合成する際の境界部を設ける範囲として、高輝度側の上限値ThHと低輝度側の下限値ThLを設定する。境界部は、上限値ThHを最大の画素値、下限値ThLを最小の画素値として、複数の画素値の画素を含む領域となっている。   The correction of the conversion coefficient Cob considering the gamma correction will be described with reference to FIG. FIG. 3 is an enlarged view of the vicinity of the points Pa and Pb that are the boundary portions of the synthesis in FIGS. 2 (A) and 2 (B). FIG. 3 shows the characteristics a1 and b2 in a state where the gamma correction is performed. The characteristic b2 is a characteristic of the long exposure image data Db2 in which the pixel value is converted by the conversion coefficient Cob in a state where no correction value is added. The control unit 11 sets an upper limit value ThH on the high luminance side and a lower limit value ThL on the low luminance side as a range for providing a boundary portion when the short exposure image data Da1 and the long exposure image data Db2 are combined. The boundary portion is an area including pixels having a plurality of pixel values, where the upper limit value ThH is the maximum pixel value and the lower limit value ThL is the minimum pixel value.

図2(A),(B)では便宜上ポイントPa,Pbで合成するように示しているが、短時間露光画像データDa1と長時間露光画像データDb2とは、上限値ThHと下限値ThLとの間の境界部を合成領域として合成される。上限値ThHと下限値ThLは、画像合成の際に用いるパラメータの1つである。   In FIGS. 2A and 2B, for the sake of convenience, the images are combined at points Pa and Pb. However, the short-exposure image data Da1 and the long-exposure image data Db2 have an upper limit value ThH and a lower limit value ThL. The boundary between them is synthesized as a synthesis area. The upper limit value ThH and the lower limit value ThL are one of parameters used for image composition.

一例として、初期の仮設定として、特性b2の飽和領域の画素値に対して、3/4を上限値ThHに、1/2を下限値ThLに設定する。飽和領域の画素値は厳密には一定値ではないが、適宜設定すればよい。画素値変換部51a,51bで設定している変換係数Coa,Cobの比によって長時間露光画像データDb2のデータが取り得る範囲を算出でき、飽和領域の画素値も算出することができる。従って、制御部11は、上限値ThHと下限値ThLとをそれぞれ適切な画素値に設定することができる。後述するように、上限値ThHと下限値ThLは合成領域を順次狭くするように補正される。   As an example, as an initial provisional setting, 3/4 is set to the upper limit value ThH and 1/2 is set to the lower limit value ThL for the pixel value in the saturation region of the characteristic b2. Strictly speaking, the pixel value in the saturation region is not a constant value, but may be set as appropriate. The range that the data of the long-time exposure image data Db2 can take can be calculated by the ratio of the conversion coefficients Coa and Cob set in the pixel value conversion units 51a and 51b, and the pixel value of the saturated region can also be calculated. Therefore, the control unit 11 can set the upper limit value ThH and the lower limit value ThL to appropriate pixel values, respectively. As will be described later, the upper limit value ThH and the lower limit value ThL are corrected so as to narrow the synthesis region sequentially.

第1実施形態においては、特性b2で示す長時間露光画像データDb2を上限値ThHと下限値ThLとの中央の画素値に近付けた特性b20とするよう、変換係数Cobを補正する。なお、図3の横軸に示す被写体の明るさによって中央の画素値に補正する補正量が異なるが、平均値として中央の画素値に変位させるような補正量とすればよい。   In the first embodiment, the conversion coefficient Cob is corrected so that the long-time exposure image data Db2 indicated by the characteristic b2 has a characteristic b20 that is close to the center pixel value of the upper limit value ThH and the lower limit value ThL. Note that although the correction amount to be corrected to the center pixel value differs depending on the brightness of the subject shown on the horizontal axis in FIG. 3, the correction amount may be such that the average value is displaced to the center pixel value.

画素値変換部51a,51bにおいて、短時間露光画像データDaと長時間露光画像データDbとの一方をオフセットさせて画素値を変換することもある。同一の被写体を異なる撮像条件で3回以上に分けて撮影して合成する場合には、ゲインの変更のみでは画素値を整合させることが困難な場合がある。この場合には、画素値のオフセットを併用することが好ましい。   In the pixel value conversion units 51a and 51b, one of the short-time exposure image data Da and the long-time exposure image data Db may be offset to convert the pixel value. When the same subject is shot and combined three or more times under different imaging conditions, it may be difficult to match pixel values only by changing the gain. In this case, it is preferable to use a pixel value offset together.

多重露光画像合成部501は、以上のように画素値が変換された短時間露光画像データDa1と長時間露光画像データDb2とを合成する。概念的には、多重露光画像合成部501は、図2(B)に示す長時間露光画像データDb2の特性b2における画素値0から所定のポイントPbの画素値までの領域ARbと、図2(A)に示す短時間露光画像データDa1の特性a1におけるポイントPaの画素値以上の領域ARaとを合成する。領域ARbは図3における特性b20の実線部分に相当し、領域ARaは特性a1の実線部分に相当する。多重露光画像合成部501は、後述する動作によってポイントPaの画素値とポイントPbの画素値とを極力一致させるようにして、境界部での画素値を連続させる。   The multiple exposure image combining unit 501 combines the short-time exposure image data Da1 and the long-time exposure image data Db2 whose pixel values are converted as described above. Conceptually, the multiple exposure image composition unit 501 includes an area ARb from the pixel value 0 to the pixel value of the predetermined point Pb in the characteristic b2 of the long exposure image data Db2 shown in FIG. A region ARa equal to or greater than the pixel value of the point Pa in the characteristic a1 of the short-time exposure image data Da1 shown in A) is synthesized. The area ARb corresponds to the solid line part of the characteristic b20 in FIG. 3, and the area ARa corresponds to the solid line part of the characteristic a1. The multiple exposure image composition unit 501 makes the pixel value at the point Pa and the pixel value at the point Pb coincide as much as possible by an operation to be described later, and makes the pixel values at the boundary portion continuous.

画素値変換部51a,51bより出力された画素値が変換された短時間露光画像データDa1及び長時間露光画像データDb2は、合成重み付け係数生成部52,差分生成部53,重み付け合成部54に入力される。合成重み付け係数生成部52は、短時間露光画像データDa1と長時間露光画像データDb2とを合成する際に用いる合成重み付け係数を生成する。短時間露光画像データDa1に対する合成重み付け係数を合成重み付け係数Wa、長時間露光画像データDb2に対する合成重み付け係数を合成重み付け係数Wbとする。合成重み付け係数Wa,Wbは、画像合成の際に用いるパラメータの1つである。   The short-time exposure image data Da1 and the long-time exposure image data Db2 obtained by converting the pixel values output from the pixel value conversion units 51a and 51b are input to the synthesis weighting coefficient generation unit 52, the difference generation unit 53, and the weighting synthesis unit 54. Is done. The synthesis weighting coefficient generation unit 52 generates a synthesis weighting coefficient used when synthesizing the short exposure image data Da1 and the long exposure image data Db2. The synthetic weighting coefficient Wa for the short-time exposure image data Da1 and the synthetic weighting coefficient Wb for the long-exposure image data Db2 are set as the synthetic weighting coefficient Wa. The combination weighting coefficients Wa and Wb are one of parameters used for image combination.

合成重み付け係数生成部52には、制御部11より上限値ThHと下限値ThLとが入力される。合成重み付け係数生成部52は、短時間露光画像データDa1と長時間露光画像データDb2との一方を基準として、合成重み付け係数Waと合成重み付け係数Wbとを生成する。まず、長時間露光画像データDb2を基準とした場合について説明する。長時間露光画像データDb2におけるフレーム内の画素の位置を(i,j)とし、それぞれの位置(i,j)における画素値をYb(i,j)とする。ここでの画素値は輝度値である。それぞれの画素の位置(i,j)における合成重み付け係数Wb,Waは次の(1),(2)式で表すことができる。   An upper limit value ThH and a lower limit value ThL are input to the composite weighting coefficient generation unit 52 from the control unit 11. The composite weighting coefficient generation unit 52 generates the composite weighting coefficient Wa and the composite weighting coefficient Wb with reference to one of the short-time exposure image data Da1 and the long-time exposure image data Db2. First, a case where long exposure image data Db2 is used as a reference will be described. The pixel position in the frame in the long-time exposure image data Db2 is (i, j), and the pixel value at each position (i, j) is Yb (i, j). The pixel value here is a luminance value. The combined weighting coefficients Wb and Wa at the position (i, j) of each pixel can be expressed by the following equations (1) and (2).

Figure 2013009104
Figure 2013009104

短時間露光画像データDa1を基準とした場合には、短時間露光画像データDa1におけるフレーム内の画素の位置を同様に(i,j)とし、それぞれの位置(i,j)における画素値(輝度値)をYa(i,j)とする。それぞれの画素の位置(i,j)における合成重み付け係数Waと合成重み付け係数Wbは次の(3),(4)式で表すことができる。基準とする画像信号は、長時間露光画像データDb2と短時間露光画像データDa1とのいずれでもよい。即ち、合成重み付け係数Wa,Wbを、(1),(2)式で求めてもよいし、(3),(4)式で求めてもよい。   When the short-exposure image data Da1 is used as a reference, the position of the pixel in the frame in the short-exposure image data Da1 is similarly (i, j), and the pixel value (luminance at each position (i, j) is set. Value) is assumed to be Ya (i, j). The synthesis weighting coefficient Wa and the synthesis weighting coefficient Wb at the position (i, j) of each pixel can be expressed by the following equations (3) and (4). The reference image signal may be either the long exposure image data Db2 or the short exposure image data Da1. That is, the synthesis weighting factors Wa and Wb may be obtained by the equations (1) and (2), or may be obtained by the equations (3) and (4).

Figure 2013009104
Figure 2013009104

以上のように求めた合成重み付け係数Wa,Wbは、重み付け合成部54に入力される。   The synthesis weighting coefficients Wa and Wb obtained as described above are input to the weighting synthesis unit 54.

差分生成部53は、入力された短時間露光画像データDa1と長時間露光画像データDb2との輝度信号Yの差分値を生成する。制御部11は、差分値に対して正の閾値と負の閾値を設定している。差分生成部53は、正の閾値と負の閾値それぞれを超えた差分値をカウントし、差分カウント値Ddfcを生成する。   The difference generation unit 53 generates a difference value of the luminance signal Y between the input short-time exposure image data Da1 and the long-time exposure image data Db2. The control unit 11 sets a positive threshold value and a negative threshold value for the difference value. The difference generation unit 53 counts the difference values exceeding the positive threshold value and the negative threshold value, and generates a difference count value Ddfc.

図3を用いて差分生成部53における差分生成動作について説明する。差分生成部53は、短時間露光画像データDa1と長時間露光画像データDb2との内のいずれか一方を基準として両者の差分を求める。この際、制御部11から入力される上限値ThHと下限値ThLとの範囲内で差分を求めることが好ましい。短時間露光画像データDa1を基準とした場合、差分生成部53は、図3に示すように、特性a1で示す短時間露光画像データDa1の下限値ThLに相当するポイントPa1の画素値(輝度値)から上限値ThHに相当するポイントPa2の画素値(輝度値)までの範囲で、特性b20で示す長時間露光画像データDb2とのフレーム内の画素の位置ごとの差分を求める。   The difference generation operation in the difference generation unit 53 will be described with reference to FIG. The difference generator 53 obtains a difference between the short exposure image data Da1 and the long exposure image data Db2 with reference to either one. At this time, it is preferable to obtain the difference within the range between the upper limit value ThH and the lower limit value ThL input from the control unit 11. When the short-exposure image data Da1 is used as a reference, the difference generation unit 53, as shown in FIG. 3, outputs the pixel value (luminance value) of the point Pa1 corresponding to the lower limit ThL of the short-exposure image data Da1 indicated by the characteristic a1. ) To the pixel value (luminance value) of the point Pa2 corresponding to the upper limit value ThH, the difference for each pixel position in the frame from the long-exposure image data Db2 indicated by the characteristic b20 is obtained.

差分生成部53は、ポイントPa1の画素値から、ポイントPa1に対応したフレーム内の画素の位置である長時間露光画像データDb2のポイントPb1の画素値を減算して差分値を求める。上記は一例として対応した画素位置における長時間露光画像データDb2の画素値がPb1であった場合についての説明である。同様に、差分生成部53は、ポイントPa2の画素値から、ポイントPa2に対応したフレーム内の画素の位置である長時間露光画像データDb2のポイントPb2の画素値を減算して差分値を求める。上記は一例として対応した画素位置における長時間露光画像データDb2の画素値がPb2であった場合についての説明である。図3では図示を省略しているが、差分生成部53は、ポイントPa1とポイントPa2との間に位置しているそれぞれの画素に対しても差分値を求める。差分生成部53はこのようにして求めた差分値に基づいて、正の閾値と負の閾値それぞれを超えた差分カウント値Ddfcを生成する。   The difference generation unit 53 subtracts the pixel value of the point Pb1 of the long-time exposure image data Db2 that is the position of the pixel in the frame corresponding to the point Pa1 from the pixel value of the point Pa1 to obtain a difference value. The above is an example of a case where the pixel value of the long-time exposure image data Db2 at the corresponding pixel position is Pb1. Similarly, the difference generation unit 53 subtracts the pixel value of the point Pb2 of the long-time exposure image data Db2 that is the position of the pixel in the frame corresponding to the point Pa2 from the pixel value of the point Pa2 to obtain a difference value. The above is an example of the case where the pixel value of the long-time exposure image data Db2 at the corresponding pixel position is Pb2. Although not shown in FIG. 3, the difference generation unit 53 also obtains a difference value for each pixel located between the point Pa1 and the point Pa2. The difference generation unit 53 generates a difference count value Ddfc that exceeds the positive threshold value and the negative threshold value based on the difference value thus obtained.

上限値ThHと下限値ThLとの間の合成領域で差分カウント値Ddfcを生成するのは、上記のように標準ガンマ変換による画素値の変化量に基づいて仮に設定した補正値を加えた変換係数Cobが適切であるか否かを判断するためである。差分カウント値Ddfcが大きければ、合成領域において、特性a1で示す短時間露光画像データDa1と特性b20で示す長時間露光画像データDb2とがずれていることを示している。この場合には、変換係数Cobをさらに補正することが必要となる。差分生成部53が上限値ThHと下限値ThLとの間の合成領域のみで差分値を生成して差分カウント値Ddfcを求めることにより、合成領域以外の誤差を除外して、合成領域における差分を正確に求めることができる。また、不必要な部分の差分を求めないので計算が簡略化され、データ量を削減することも可能となる。   The difference count value Ddfc is generated in the synthesis region between the upper limit value ThH and the lower limit value ThL. The conversion coefficient is obtained by adding a correction value temporarily set based on the change amount of the pixel value by the standard gamma conversion as described above. This is for determining whether Cob is appropriate. If the difference count value Ddfc is large, it indicates that the short-time exposure image data Da1 indicated by the characteristic a1 and the long-time exposure image data Db2 indicated by the characteristic b20 are misaligned in the composite region. In this case, it is necessary to further correct the conversion coefficient Cob. The difference generation unit 53 generates a difference value only in the combined region between the upper limit value ThH and the lower limit value ThL and obtains the difference count value Ddfc, thereby eliminating errors other than the combined region and calculating the difference in the combined region. It can be determined accurately. In addition, since the difference between unnecessary portions is not obtained, the calculation is simplified and the amount of data can be reduced.

差分生成部53が生成した差分カウント値Ddfcは制御部11に入力される。制御部11は、短時間露光画像データDa1と長時間露光画像データDb2との差分が大きいか否かを判断する一例として、上記のように求めた差分カウント値Ddfcを用いる。差分カウント値Ddfcが大きければ、短時間露光画像データDa1と長時間露光画像データDb2とがずれていることになる。   The difference count value Ddfc generated by the difference generation unit 53 is input to the control unit 11. The control unit 11 uses the difference count value Ddfc obtained as described above as an example of determining whether or not the difference between the short-exposure image data Da1 and the long-exposure image data Db2 is large. If the difference count value Ddfc is large, the short-time exposure image data Da1 and the long-time exposure image data Db2 are shifted.

制御部11は、差分カウント値Ddfcに応じて画素値変換部51bに供給する変換係数Cobを補正する。変換係数Cobを補正した結果、カウント値が小さくなる方向に変化した場合には、制御部11は、上限値ThHと下限値ThLとの互いの間隔が狭くなるように、上限値ThHに下限値ThLを近付けるように更新する。上限値ThHと下限値ThLとが更新されると、合成重み付け係数生成部52で生成する合成重み付け係数Wa,Wbが更新される。制御部11は、変換係数Cob、上限値ThHと下限値ThL、合成重み付け係数Wa,Wbの各パラメータを更新するパラメータ更新部として動作している。   The control unit 11 corrects the conversion coefficient Cob supplied to the pixel value conversion unit 51b according to the difference count value Ddfc. As a result of correcting the conversion coefficient Cob, when the count value changes in a decreasing direction, the control unit 11 sets the lower limit value to the upper limit value ThH so that the interval between the upper limit value ThH and the lower limit value ThL is narrowed. Update to bring ThL closer. When the upper limit value ThH and the lower limit value ThL are updated, the synthesis weighting coefficients Wa and Wb generated by the synthesis weighting coefficient generation unit 52 are updated. The control unit 11 operates as a parameter updating unit that updates parameters of the conversion coefficient Cob, the upper limit value ThH and the lower limit value ThL, and the synthesis weighting coefficients Wa and Wb.

重み付け合成部54は、画素値変換部51a,51bより供給された短時間露光画像データDa1と長時間露光画像データDb2とを、合成重み付け係数Wa,Wbとを用いて重み付け合成する。図4は、重み付け合成部54における重み付け合成を概念的に示している。横軸は画素値、縦軸は混合比である。即ち、合成重み付け係数Wa,Wbを(1),(2)式で生成した場合を示している。混合比1は100%であり、短時間露光画像データDa1と長時間露光画像データDb2との一方のみを用いることを示す。   The weighting synthesis unit 54 performs weighting synthesis of the short-time exposure image data Da1 and the long-time exposure image data Db2 supplied from the pixel value conversion units 51a and 51b by using the synthesis weighting coefficients Wa and Wb. FIG. 4 conceptually shows weighting synthesis in the weighting synthesis unit 54. The horizontal axis is the pixel value, and the vertical axis is the mixing ratio. That is, a case is shown in which the synthesis weighting factors Wa and Wb are generated by the equations (1) and (2). The mixing ratio 1 is 100%, which indicates that only one of the short-time exposure image data Da1 and the long-time exposure image data Db2 is used.

重み付け合成部54は、図4に示すように、画素値が0から下限値ThLまでは長時間露光画像データDb2(実線)のみとし、下限値ThLから上限値ThHまでは長時間露光画像データDb2が1から0となるまで順次減少させる一方で短時間露光画像データDa1(破線)を0から1まで順次増加させるように混合する。重み付け合成部54は、上限値ThHを超えたら、短時間露光画像データDa1のみとする。なお、(1),(3)式におけるYb(i,j)がThL以上ThH以下で用いる式は図4における短時間露光画像データDa1と長時間露光画像データDb2とをクロスフェードさせる際の傾きを表す。   As shown in FIG. 4, the weighting / composing unit 54 sets only the long-time exposure image data Db2 (solid line) from the pixel value 0 to the lower limit value ThL, and the long-time exposure image data Db2 from the lower limit value ThL to the upper limit value ThH. Are mixed in such a manner that the short-time exposure image data Da1 (broken line) is sequentially increased from 0 to 1 while sequentially decreasing from 1 to 0. If the upper limit value ThH is exceeded, the weighting combining unit 54 sets only the short-time exposure image data Da1. It should be noted that the equation used when Yb (i, j) in Equations (1) and (3) is greater than or equal to ThL and less than or equal to ThH is the slope when cross-fading the short-time exposure image data Da1 and the long-time exposure image data Db2 in FIG. Represents.

なお、重み付け合成部54は、短時間露光画像データDa1と長時間露光画像データDb2とを、輝度信号Yと色差信号Cb,Crそれぞれで合成重み付け係数Wa,Wbを用いて重み付け合成する。輝度信号Yに基づいて生成した合成重み付け係数Wa,Wbを色差信号Cb,Crの合成にも用いればよい。   Note that the weighting / synthesizing unit 54 weights and synthesizes the short-time exposure image data Da1 and the long-time exposure image data Db2 using the synthesis weighting coefficients Wa and Wb with the luminance signal Y and the color difference signals Cb and Cr, respectively. The combination weighting coefficients Wa and Wb generated based on the luminance signal Y may be used for combining the color difference signals Cb and Cr.

制御部11は、上記のように直前のフレームにおいて評価した差分カウント値Ddfcによって変換係数Cobを補正し、上限値ThHと下限値ThLとを更新し、合成重み付け係数Wa,Wbを更新する動作を合成画像のフレーム単位で繰り返す。すると、変換係数Cobは順次最適化されていき、上限値ThHと下限値ThLとの間の合成領域で短時間露光画像データDa1と長時間露光画像データDb2との画素値は順次近付いていく。しかも、合成領域が順次狭くなっていくことから、短時間露光画像データDa1と長時間露光画像データDb2とは上限値ThHと下限値ThLとの中央部の極めて狭い範囲で混合される。これにより、合成画像は境界部での画素値が連続して、自然な広ダイナミックレンジ画像となる。   The control unit 11 corrects the conversion coefficient Cob with the difference count value Ddfc evaluated in the immediately preceding frame as described above, updates the upper limit value ThH and the lower limit value ThL, and updates the composite weighting coefficients Wa and Wb. Repeat for each frame of the composite image. Then, the conversion coefficient Cob is sequentially optimized, and the pixel values of the short-exposure image data Da1 and the long-exposure image data Db2 gradually approach each other in the synthesis region between the upper limit value ThH and the lower limit value ThL. In addition, since the synthesis area is gradually narrowed, the short-time exposure image data Da1 and the long-time exposure image data Db2 are mixed in a very narrow range at the center between the upper limit value ThH and the lower limit value ThL. As a result, the synthesized image has a continuous wide pixel range at the boundary and becomes a natural wide dynamic range image.

図1に戻り、重み付け合成部54より出力された広ダイナミックレンジ画像データDHDRは、ダイナミックレンジ圧縮部6に入力される。ダイナミックレンジ圧縮部6は、広ダイナミックレンジ画像データDHDRを通常の画像処理回路で扱うことができる画像データに変換するためにダイナミックレンジを圧縮する。第1実施形態では、ダイナミックレンジ圧縮部6は、Retinex理論に基づいた階調補正によって広ダイナミックレンジ画像データDHDRのダイナミックレンジを圧縮して、圧縮広ダイナミックレンジ画像データDCHDRを生成する。 Returning to FIG. 1, the wide dynamic range image data D HDR output from the weighting synthesis unit 54 is input to the dynamic range compression unit 6. The dynamic range compression unit 6 compresses the dynamic range in order to convert the wide dynamic range image data D HDR into image data that can be handled by a normal image processing circuit. In the first embodiment, the dynamic range compression unit 6 compresses the dynamic range of the wide dynamic range image data D HDR by gradation correction based on the Retinex theory, and generates compressed wide dynamic range image data D CHDR .

バッファメモリ7は、広ダイナミックレンジ画像データDHDRまたは圧縮広ダイナミックレンジ画像データDCHDRを一時的に保持しておくメモリである。圧縮伸張処理部8は、バッファメモリ7に保持させた圧縮広ダイナミックレンジ画像データDCHDRをJPEG,MPEG等の圧縮方式によって圧縮処理して符号化データを生成する。符号化データは制御部11によって記録再生部14に記録される。また、圧縮伸張処理部8は、制御部11が記録再生部14に記録された符号化データを読み出した場合に、符号化データを伸張処理する。 The buffer memory 7 is a memory that temporarily holds the wide dynamic range image data D HDR or the compressed wide dynamic range image data D CHDR . The compression / decompression processing unit 8 compresses the compressed wide dynamic range image data D CHDR held in the buffer memory 7 by a compression method such as JPEG or MPEG, and generates encoded data. The encoded data is recorded in the recording / reproducing unit 14 by the control unit 11. Further, the compression / decompression processing unit 8 decompresses the encoded data when the control unit 11 reads the encoded data recorded in the recording / reproducing unit 14.

出力信号処理部9は、圧縮広ダイナミックレンジ画像データDCHDRを表示部10で表示可能な形式に変換して表示部10に入力する。また、出力信号処理部9は、図示していないディスプレイ装置等の外部機器に供給するために、外部機器のフォーマットやサイズに合わせて圧縮広ダイナミックレンジ画像データDCHDRを変換する。一例として、出力信号処理部9は圧縮広ダイナミックレンジ画像データDCHDRをNTSC信号に変換する。 The output signal processing unit 9 converts the compressed wide dynamic range image data D CHDR into a format that can be displayed on the display unit 10 and inputs the converted data to the display unit 10. Further, the output signal processing unit 9 converts the compressed wide dynamic range image data D CHDR in accordance with the format and size of the external device so as to be supplied to an external device such as a display device (not shown). As an example, the output signal processing unit 9 converts the compressed wide dynamic range image data D CHDR into an NTSC signal.

制御部11はビデオカメラ101の全体を制御する。制御部11はCPUによって構成することができる。上記のように、制御部11は、変換係数Coa,Cobを生成して画素値変換部51a,51bに供給し、上限値ThH及び下限値ThLを生成して合成重み付け係数生成部52及び差分生成部53に供給する。制御部11は、画像合成処理に必要なその他の各種のパラメータも生成または設定する。また、制御部11は、表示部10に表示する画像データや外部出力する画像データに重畳するキャラクタデータを生成して、出力信号処理部9に供給する。   The control unit 11 controls the entire video camera 101. The control unit 11 can be configured by a CPU. As described above, the control unit 11 generates the conversion coefficients Coa and Cob and supplies them to the pixel value conversion units 51a and 51b, generates the upper limit value ThH and the lower limit value ThL, and generates the combined weighting coefficient generation unit 52 and the difference generation. To the unit 53. The control unit 11 also generates or sets various other parameters necessary for the image composition process. In addition, the control unit 11 generates character data to be superimposed on image data to be displayed on the display unit 10 or image data to be externally output, and supplies the generated character data to the output signal processing unit 9.

制御部11には、制御部11の作業用メモリであるRAM12が接続されている。ROM13には、制御部11を動作させるためのプログラムが記憶されている。制御部11は、ROM13に記憶されたプログラムに基づいてビデオカメラ101を制御する。記録再生部14は、ハードディスクドライブや半導体メモリ等の任意の記録媒体であり、制御部11によって記録再生が制御される。制御部11には操作スイッチ15が接続されており、操作スイッチ15による操作信号は制御部11に入力される。操作スイッチ15はリモートコントローラであってもよい。   A RAM 12 that is a working memory of the control unit 11 is connected to the control unit 11. The ROM 13 stores a program for operating the control unit 11. The control unit 11 controls the video camera 101 based on a program stored in the ROM 13. The recording / reproducing unit 14 is an arbitrary recording medium such as a hard disk drive or a semiconductor memory, and the recording / reproducing is controlled by the control unit 11. An operation switch 15 is connected to the control unit 11, and an operation signal from the operation switch 15 is input to the control unit 11. The operation switch 15 may be a remote controller.

第1実施形態の画像処理装置は、ハードウェアで構成してもよいし、ソフトウェア(コンピュータプログラム)で構成してもよい。両者を混在させて構成してもよい。   The image processing apparatus according to the first embodiment may be configured by hardware or software (computer program). You may comprise both together.

図5〜図7に示すフローチャートを用いて、ビデオカメラ101で実行される画像処理動作についてさらに説明する。図5は第1実施形態及び後述する第2〜第7実施形態で実行される画像処理動作の全体を示している。図5において、撮像部1は、ステップS1にて、同一の被写体を設定されたシャッタスピードで多重露光する。入力信号処理部2は、ステップS2にて、多重露光画像信号を取り込む。入力信号処理部2は、ステップS3にて、RGB信号を生成して、Y,Cb,Cr信号に変換する。多重露光画像出力部3は、ステップS4にて、短時間露光画像データDaと長時間露光画像データDbとを揃えて出力する。制御部11は、ステップS5にて、変換係数Coa,Cobを算出する。ステップS5の具体的な処理は後述する。   The image processing operation executed by the video camera 101 will be further described with reference to the flowcharts shown in FIGS. FIG. 5 shows the entire image processing operation executed in the first embodiment and second to seventh embodiments described later. In FIG. 5, the imaging unit 1 performs multiple exposure on the same subject at a set shutter speed in step S1. In step S2, the input signal processing unit 2 captures the multiple exposure image signal. In step S3, the input signal processing unit 2 generates RGB signals and converts them into Y, Cb, and Cr signals. In step S4, the multiple exposure image output unit 3 aligns and outputs the short exposure image data Da and the long exposure image data Db. In step S5, the control unit 11 calculates conversion coefficients Coa and Cob. Specific processing in step S5 will be described later.

画素値変換部51a,51bは、ステップS6にて、変換係数Coa,Cobに基づいて短時間露光画像データDaと長時間露光画像データDbの画素値を変換する。合成重み付け係数生成部52は、ステップS7にて、画素値が変換された短時間露光画像データDa1と長時間露光画像データDb2とを合成するための合成重み付け係数Wa,Wbを算出する。ステップS7の具体的な処理は後述する。重み付け合成部54は、ステップS8にて、短時間露光画像データDa1と長時間露光画像データDb2とを、合成重み付け係数Wa,Wbとを用いて重み付けして合成する。   In step S6, the pixel value converters 51a and 51b convert the pixel values of the short-time exposure image data Da and the long-time exposure image data Db based on the conversion coefficients Coa and Cob. In step S7, the synthesis weighting coefficient generation unit 52 calculates synthesis weighting coefficients Wa and Wb for synthesizing the short exposure image data Da1 and the long exposure image data Db2 whose pixel values have been converted. Specific processing in step S7 will be described later. In step S8, the weighting / synthesizing unit 54 synthesizes the short-time exposure image data Da1 and the long-time exposure image data Db2 by weighting them using the synthesis weighting coefficients Wa and Wb.

ダイナミックレンジ圧縮部6は、ステップS9にて、広ダイナミックレンジ画像データDHDRのダイナミックレンジを圧縮する。制御部11は、ステップS10にて、圧縮広ダイナミックレンジ画像データDCHDRを圧縮し、符号化後に記録再生部14に記録したり、圧縮広ダイナミックレンジ画像データDCHDRを表示部10に表示したりする。制御部11は、ステップS11にて、画像合成の指示が終了したか否かを判定する。多重露光した画像を合成するか否かは操作スイッチ15の操作によって切り換えることができる。画像合成の指示が終了していないと判定されればステップS1に戻り、終了したと判定されれば合成処理の動作を終了する。 In step S9, the dynamic range compression unit 6 compresses the dynamic range of the wide dynamic range image data D HDR . In step S 10, the control unit 11 compresses the compressed wide dynamic range image data D CHDR and records the compressed wide dynamic range image data D CHDR in the recording / reproducing unit 14 after encoding, or displays the compressed wide dynamic range image data D CHDR on the display unit 10. To do. In step S <b> 11, the control unit 11 determines whether or not the image composition instruction has ended. Whether or not to synthesize the multiple-exposed images can be switched by operating the operation switch 15. If it is determined that the image compositing instruction has not ended, the process returns to step S1, and if it is determined that the instruction has ended, the operation of the compositing process ends.

図6を用いて、図5のステップS5における変換係数Coa,Cobの算出処理の詳細について説明する。第1実施形態で実行されるステップS5をステップS5と称することとする。図6において、制御部11は、ステップS501にて、短時間露光画像データDaに対する変換係数Coaを仮設定する。前述のように、変換係数Coaは、10ビットの短時間露光画像データDaを16ビットのデジタルデータに変換する固定のゲイン値でよい。仮設定としたが、第1実施形態では変換係数Coaは更新されない。制御部11は、ステップS502にて、長時間露光画像データDbに対する変換係数Cobを仮設定する。前述のように、変換係数Cobは、10ビットの長時間露光画像データDbを16ビットのデジタルデータに変換して、さらに露光量比に応じて画素値を変換するための係数である。 Details of the conversion coefficient Coa and Cob calculation process in step S5 of FIG. 5 will be described with reference to FIG. The step S5 to be executed in the first embodiment is referred to as step S5 1. In FIG. 6, the control unit 11 temporarily sets a conversion coefficient Coa for the short-time exposure image data Da in step S501. As described above, the conversion coefficient Coa may be a fixed gain value for converting the 10-bit short-time exposure image data Da into 16-bit digital data. Although temporarily set, the conversion coefficient Coa is not updated in the first embodiment. In step S502, the control unit 11 temporarily sets a conversion coefficient Cob for the long-time exposure image data Db. As described above, the conversion coefficient Cob is a coefficient for converting the 10-bit long-exposure image data Db into 16-bit digital data, and further converting the pixel value according to the exposure amount ratio.

制御部11は、ステップS503にて、変換係数Cobを、ガンマ処理によるゲイン変化分だけ補正する。ここでの補正は、短時間露光画像データDa及び長時間露光画像データDbそれぞれ標準ガンマ変換による画素値の変化量に基づいた仮の補正である。制御部11は、ステップS504にて、ステップS509,S511における短時間露光画像データDa1と長時間露光画像データDb2との差分値Ddfの評価結果に基づいて変換係数Cobを追加補正する。   In step S503, the control unit 11 corrects the conversion coefficient Cob by the amount of gain change due to gamma processing. The correction here is provisional correction based on the change amount of the pixel value by the standard gamma conversion for each of the short-time exposure image data Da and the long-time exposure image data Db. In step S504, the control unit 11 additionally corrects the conversion coefficient Cob based on the evaluation result of the difference value Ddf between the short exposure image data Da1 and the long exposure image data Db2 in steps S509 and S511.

制御部11は、ステップS505にて、差分生成部53が生成する差分値に対して正の閾値と負の閾値を設定する。制御部11は、ステップS506にて、差分生成部53が生成した差分カウント値Ddfcを取り込む。制御部11は、ノイズ等による差分値Ddfの急激な変化を除外するため、ステップS507にて、差分カウント値Ddfcを平滑化する。図1及び図6では差分カウント値Ddfcと総称しているが、ここでは便宜的に、正の閾値を越えた差分カウント値Ddfcを差分カウント値Ddfc(+)、負の閾値を越えた差分カウント値Ddfcを差分カウント値Ddfc(-)と称することとする。   In step S505, the control unit 11 sets a positive threshold value and a negative threshold value for the difference value generated by the difference generation unit 53. In step S506, the control unit 11 takes in the difference count value Ddfc generated by the difference generation unit 53. The controller 11 smoothes the difference count value Ddfc in step S507 in order to exclude a sudden change in the difference value Ddf due to noise or the like. In FIG. 1 and FIG. 6, the difference count value Ddfc is generically named, but here, for convenience, the difference count value Ddfc exceeding the positive threshold is set as the difference count value Ddfc (+) and the difference count exceeding the negative threshold. The value Ddfc is referred to as a difference count value Ddfc (−).

制御部11は、ステップS508にて、正の閾値を越えた差分カウント値Ddfc(+)が制御部11に予め設定した評価用規定値以内であるか否かを判定する。規定値以内であると判定されなければ(NO)、即ち、規定値を超えた場合には、制御部11は、ステップS509にて、変換係数Cobを増加させるよう設定して、処理をステップS504に移行させる。規定値以内であると判定されれば(YES)、制御部11は、ステップS510にて、負の閾値を越えた差分カウント値Ddfc(-)が制御部11に予め設定した評価用規定値以内であるか否かを判定する。規定値以内であると判定されなければ(NO)、即ち、規定値を超えた場合には、制御部11は、ステップS511にて、変換係数Cobを減少させるよう設定して、処理をステップS504に移行させる。規定値以内であると判定されれば(YES)、制御部11は、ステップS512にて、仮設定された変換係数Cobを維持して、処理をステップS504に移行させる。   In step S <b> 508, the control unit 11 determines whether or not the difference count value Ddfc (+) exceeding the positive threshold value is within the prescribed value for evaluation preset in the control unit 11. If it is not determined that the value is within the specified value (NO), that is, if the specified value is exceeded, the control unit 11 sets the conversion coefficient Cob to increase in step S509, and the process is performed in step S504. To migrate. If it is determined that the value is within the specified value (YES), the control unit 11 determines that the difference count value Ddfc (−) exceeding the negative threshold value is within the predetermined value for evaluation set in the control unit 11 in step S510. It is determined whether or not. If it is not determined that the value is within the specified value (NO), that is, if the specified value is exceeded, the control unit 11 sets to reduce the conversion coefficient Cob in step S511, and the process is performed in step S504. To migrate. If it is determined that the value is within the specified value (YES), the control unit 11 maintains the temporarily set conversion coefficient Cob in step S512 and shifts the process to step S504.

次に、図7を用いて、図5のステップS7における合成重み付け係数Wa,Wbを算出処理の詳細について説明する。図7において、制御部11は、ステップS701にて、図3で説明した合成領域の上限値ThHを仮設定する。制御部11は、ステップS702にて、図3で説明した合成領域の下限値ThLを仮設定する。制御部11は、ステップS703にて、図6で説明した差分カウント値Ddfcが規定値以内であるか否かによって上限値ThHと下限値ThLとを更新するか否かを判定する。更新すると判定されれば(YES)、制御部11は、ステップS704にて、変換係数Cobの変化が少なくなって安定しているか否かを判定する。更新すると判定されなければ(NO)、制御部11は、処理をステップS707に移行させる。   Next, with reference to FIG. 7, the details of the processing for calculating the combination weighting coefficients Wa and Wb in step S7 of FIG. 5 will be described. In FIG. 7, the control unit 11 temporarily sets the upper limit value ThH of the synthesis area described in FIG. 3 in step S <b> 701. In step S702, the control unit 11 temporarily sets the lower limit value ThL of the synthesis area described with reference to FIG. In step S703, the control unit 11 determines whether or not to update the upper limit value ThH and the lower limit value ThL depending on whether or not the difference count value Ddfc described with reference to FIG. If it is determined to be updated (YES), the control unit 11 determines in step S704 whether or not the change of the conversion coefficient Cob is small and stable. If it is not determined to update (NO), the controller 11 shifts the processing to step S707.

ステップS704にて変換係数Cobが安定していると判定されれば(YES)、制御部11は、ステップS705にて、差分カウント値Ddfc(差分カウント値Ddfc(+),Ddfc(-))の変化が少なくなって安定しているか否かを判定する。変換係数Cobが安定していると判定されなければ(NO)、制御部11は、処理をステップS707に移行させる。ステップS705にて差分カウント値Ddfcが安定していると判定されれば(YES)、制御部11は、ステップS706にて、合成領域を狭くするよう上限値ThHと下限値ThLとを更新する。差分カウント値Ddfcが安定していると判定されなければ(NO)、制御部11は、処理をステップS707に移行させる。   If it is determined in step S704 that the conversion coefficient Cob is stable (YES), the control unit 11 determines the difference count value Ddfc (difference count value Ddfc (+), Ddfc (−)) in step S705. It is determined whether or not the change is small and stable. If it is not determined that the conversion coefficient Cob is stable (NO), the control unit 11 shifts the processing to step S707. If it is determined in step S705 that the difference count value Ddfc is stable (YES), the control unit 11 updates the upper limit value ThH and the lower limit value ThL so as to narrow the synthesis area in step S706. If it is not determined that the difference count value Ddfc is stable (NO), the control unit 11 shifts the processing to step S707.

引き続き、制御部11は、ステップS707にて、長時間露光画像データDb2が基準になっているか否かを判定する。長時間露光画像データDb2が基準になっていると判定されれば(YES)、制御部11は、ステップS708にて、長時間露光画像データDb2に対する合成重み付け係数Wbを生成し、ステップS709にて、短時間露光画像データDa1に対する合成重み付け係数Waを生成する。長時間露光画像データDb2が基準になっていると判定されなければ(NO)、制御部11は、ステップS710にて、合成重み付け係数Waを生成し、ステップS711にて、合成重み付け係数Wbを生成する。   Subsequently, in step S707, the control unit 11 determines whether or not the long-time exposure image data Db2 is a reference. If it is determined that the long-exposure image data Db2 is the reference (YES), the control unit 11 generates a composite weighting coefficient Wb for the long-exposure image data Db2 in step S708, and in step S709. Then, a synthesis weighting coefficient Wa for the short-time exposure image data Da1 is generated. If it is not determined that the long-exposure image data Db2 is the reference (NO), the control unit 11 generates a composite weighting coefficient Wa in step S710, and generates a composite weighting coefficient Wb in step S711. To do.

以上のように、第1実施形態においては、図5のステップS1〜S7を繰り返すことによって、変換係数Cobと合成重み付け係数Wa,Wbが好ましい状態に収束していく。結果として、重み付け合成部54が図5のステップS8にて出力する広ダイナミックレンジ画像データDHDRは、境界部での画素値が連続して視覚的に自然な画像となる。以上の説明より分かるように、第1実施形態においては、短時間露光画像データDa1と長時間露光画像データDb2との差分値に基づいた差分カウント値Ddfcを求めて、変換係数Cobと合成重み付け係数Wa,Wbとが収束するまで更新していけばよいため、回路規模や演算量は少なくてよい。よって、コストアップはほとんどなく、あってもわずかである。 As described above, in the first embodiment, by repeating steps S1 to S7 in FIG. 5, the conversion coefficient Cob and the combined weighting coefficients Wa and Wb converge to a preferable state. As a result, the wide dynamic range image data D HDR output by the weighting / synthesizing unit 54 in step S8 in FIG. 5 is a visually natural image in which the pixel values at the boundary are continuous. As can be seen from the above description, in the first embodiment, the difference count value Ddfc based on the difference value between the short-time exposure image data Da1 and the long-time exposure image data Db2 is obtained, and the conversion coefficient Cob and the synthesis weighting coefficient are obtained. Since it is sufficient to update until Wa and Wb converge, the circuit scale and the calculation amount may be small. Therefore, there is almost no cost increase, and if any, it is slight.

<第2実施形態>
第2実施形態の構成は図1に示す構成と同様である。第2実施形態は、図5におけるステップS5を図8に示すステップS5としたものである。図8において、図6と同一部分には同一符号を付し、その説明を省略する。図8に示すように、ステップS5は、図6に示すステップS5におけるステップS501とステップS502との間にステップS513を設けたものである。
Second Embodiment
The configuration of the second embodiment is the same as the configuration shown in FIG. The second embodiment is obtained by the step S5 2 shown in FIG. 8 step S5 in FIG. 5. In FIG. 8, the same parts as those of FIG. As shown in FIG. 8, step S5 2 it is is provided with a step S513 between step S501 and step S502 in step S5 1 shown in FIG.

短時間露光画像データDaと長時間露光画像データDbとの露光量比によっては、合成画像の多くの領域を短時間露光画像データDaが占めることになる。すると、ノイズが少ない長時間露光画像データDbが占める領域が少なくなり、長時間露光画像データDbによる効果が十分に発揮されない。そこで、制御部11は、第2実施形態によるステップS5においては、ステップS513にて、ステップS501にて64倍に仮設定した変換係数Coaの倍数を増加させるよう設定する。制御部11は、例えば短時間露光画像データDaを100倍にするよう変換係数Coaを増加させる。この際、短時間露光画像データDaの高輝度側が飽和しないよう入力信号処理部2において短時間露光画像データDaのニー特性を変更することが好ましい。 Depending on the exposure amount ratio between the short-time exposure image data Da and the long-time exposure image data Db, the short-time exposure image data Da occupies many areas of the composite image. Then, the area occupied by the long-exposure image data Db with less noise is reduced, and the effect of the long-exposure image data Db is not sufficiently exhibited. Therefore, the control unit 11, in step S5 2 according to the second embodiment, at step S513, sets to increase the multiple of the transform coefficient Coa provisionally set to 64 times at step S501. For example, the control unit 11 increases the conversion coefficient Coa so that the short-time exposure image data Da is multiplied by 100 times. At this time, it is preferable to change the knee characteristic of the short-time exposure image data Da in the input signal processing unit 2 so that the high luminance side of the short-time exposure image data Da is not saturated.

変換係数Coaを増加設定したことにより、短時間露光画像データDaをガンマ処理した場合の画素値の変化量は、ステップS514を設けない場合と比較して異なることになる。従って、変換係数Cobの補正値も変換係数Coaの増加設定に対応させて適切な値とする。   By increasing the conversion coefficient Coa, the amount of change in the pixel value when the short-time exposure image data Da is subjected to gamma processing differs from that when step S514 is not provided. Therefore, the correction value of the conversion coefficient Cob is also set to an appropriate value corresponding to the increase setting of the conversion coefficient Coa.

第2実施形態によれば、合成画像における長時間露光画像データDbが占める領域を多くすることができ、ノイズの少ない合成画像を得ることができる。   According to the second embodiment, the area occupied by the long-time exposure image data Db in the composite image can be increased, and a composite image with less noise can be obtained.

<第3実施形態>
図9及び図10を用いて第3実施形態の構成及び動作について説明する。第3実施形態は、図5におけるステップS5を図10に示すステップS5としたものである。図9において図1と同一部分には同一符号を付し、図10において図6と同一ステップには同一符号を付し、それぞれ説明を適宜省略する。図9において、ビデオカメラ103は、図1における多重露光画像合成部501の代わりに多重露光画像合成部503を設けている。多重露光画像合成部503は、差分生成部53より出力された画面(フレーム)全体における差分カウント値Ddfcの内、部分的な特定の領域内の差分カウント値Ddfcpを出力する差分領域設定部55を有する。ここでも便宜的に、正の閾値を越えた差分カウント値Ddfcpを差分カウント値Ddfcp(+)、負の閾値を越えた差分カウント値Ddfcpを差分カウント値Ddfcp(-)と称することとする。
<Third Embodiment>
The configuration and operation of the third embodiment will be described with reference to FIGS. 9 and 10. The third embodiment is obtained by the step S5 3 shown in FIG. 10 to step S5 in FIG. 5. 9, the same parts as those in FIG. 1 are denoted by the same reference numerals, and in FIG. 10, the same steps as those in FIG. In FIG. 9, the video camera 103 is provided with a multiple exposure image composition unit 503 in place of the multiple exposure image composition unit 501 in FIG. The multiple exposure image composition unit 503 includes a difference region setting unit 55 that outputs a difference count value Ddfcp in a partial specific region of the difference count value Ddfc in the entire screen (frame) output from the difference generation unit 53. Have. Here again, for convenience, the difference count value Ddfcp exceeding the positive threshold is referred to as the difference count value Ddfcp (+), and the difference count value Ddfcp exceeding the negative threshold is referred to as the difference count value Ddfcp (-).

画面内の特定の領域は、例えば画面の中央部である。ユーザが操作スイッチ15によって特定の領域を指定してもよい。また、図示していない顔検出部によって検出された顔の領域を特定の領域とすることもできる。   The specific area in the screen is, for example, the center of the screen. The user may specify a specific area with the operation switch 15. In addition, a face area detected by a face detection unit (not shown) can be set as a specific area.

第3実施形態においては、図10に示すように、制御部11は、ステップS505の後、ステップS5063にて、差分領域設定部55から出力された部分的な領域からの差分カウント値Ddfcpを取り込む。制御部11は、ステップS5073にて差分カウント値Ddfcpを平滑化する。制御部11は、ステップS5083にて、正の差分カウント値Ddfcp(+)が制御部11に予め設定した規定値以内であるか否かを判定する。規定値以内であると判定されなければ(NO)、制御部11は、ステップS510にて、変換係数Cobを増加させるよう設定する。制御部11は、ステップS5103にて、負の差分カウント値Ddfcp(-)が制御部11に予め設定した規定値以内であるか否かを判定する。規定値以内であると判定されなければ(NO)、制御部11は、ステップS511にて、変換係数Cobを減少させるよう設定する。ステップS5063にて部分的な領域からの差分カウント値Ddfcpを取り込むことから、図10のステップS5083,S5103で用いる規定値は図6のステップS508,S510で用いる規定値とは異ならせる必要がある。   In the third embodiment, as illustrated in FIG. 10, the control unit 11 captures the difference count value Ddfcp from the partial region output from the difference region setting unit 55 in step S5063 after step S505. . In step S5073, the controller 11 smoothes the difference count value Ddfcp. In step S5083, the control unit 11 determines whether or not the positive difference count value Ddfcp (+) is within a specified value preset in the control unit 11. If it is not determined that the value is within the specified value (NO), the control unit 11 sets the conversion coefficient Cob to be increased in step S510. In step S5103, the control unit 11 determines whether or not the negative difference count value Ddfcp (−) is within a specified value preset in the control unit 11. If it is not determined that the value is within the specified value (NO), the control unit 11 sets the conversion coefficient Cob to be decreased in step S511. Since the difference count value Ddfcp from the partial area is captured in step S5063, the specified value used in steps S5083 and S5103 in FIG. 10 must be different from the specified value used in steps S508 and S510 in FIG.

第3実施形態によれば、短時間露光画像データDa1と長時間露光画像データDb2とが合成領域で画素値が近接したか否かを部分的な領域からの差分カウント値Ddfcpに基づいて判断するので、データ量を削減することができ、合成のための各種パラメータが収束するまでの時間も短くすることができる。画面全体の差分カウント値Ddfcの代わりに部分的な領域からの差分カウント値Ddfcpを用いることから、境界部で画素値を連続させる精度は第1実施形態の方がよい。しかしながら、ユーザが画面内で注目する中央部や顔の領域を特定の領域とすることにより、実質的に精度の差は問題にならない。   According to the third embodiment, it is determined based on the difference count value Ddfcp from the partial area whether or not the pixel values of the short-exposure image data Da1 and the long-exposure image data Db2 are close to each other in the synthesis area. Therefore, the amount of data can be reduced, and the time until various parameters for synthesis converge can be shortened. Since the difference count value Ddfcp from a partial area is used instead of the difference count value Ddfc of the entire screen, the accuracy of the continuous pixel value at the boundary is better in the first embodiment. However, the difference in accuracy does not become a problem substantially by setting the central area or the face area that the user pays attention to in the screen as a specific area.

第3実施形態においても、図10のステップS501とステップS502との間に、第2実施形態の図8におけるステップS513を設けてもよい。   Also in the third embodiment, step S513 in FIG. 8 of the second embodiment may be provided between step S501 and step S502 in FIG.

<第4実施形態>
図11及び図12を用いて第4実施形態の構成及び動作について説明する。第4実施形態は、図5におけるステップS5を図12に示すステップS5としたものである。図11において図1と同一部分には同一符号を付し、図12において図6と同一ステップには同一符号を付し、それぞれ説明を適宜省略する。図11において、ビデオカメラ104は、図1における多重露光画像合成部501の代わりに多重露光画像合成部504を設けている。多重露光画像合成部504においては、差分生成部53が第1実施形態の差分カウント値Ddfcを出力するのではなく、差分値Ddf自体を出力するように構成している。第4実施形態においては、制御部11は差分値Ddfに基づく代表値を直接評価する。
<Fourth embodiment>
The configuration and operation of the fourth embodiment will be described with reference to FIGS. 11 and 12. The fourth embodiment is obtained by the step S5 4 shown in FIG. 12 to step S5 in FIG. 5. 11, the same parts as those in FIG. 1 are denoted by the same reference numerals, and in FIG. 12, the same steps as those in FIG. In FIG. 11, the video camera 104 includes a multiple exposure image composition unit 504 instead of the multiple exposure image composition unit 501 in FIG. 1. The multiple exposure image composition unit 504 is configured such that the difference generation unit 53 does not output the difference count value Ddfc of the first embodiment but outputs the difference value Ddf itself. In the fourth embodiment, the control unit 11 directly evaluates the representative value based on the difference value Ddf.

図12において、制御部11は、ステップS5054にて、後述する差分平均値Ddfavgに対する閾値を設定する。ここで設定する閾値は、差分平均値Ddfavgの変動に過敏に追従しないよう、差分平均値Ddfavgが閾値以下の場合には変換係数Cobを増減させにようにするためのものである。制御部11は、ステップS5064にて、差分値Ddfを取り込む。制御部11は、ステップS5074にて、差分値Ddfを平滑化し、平均値化して差分平均値Ddfavgを生成する。制御部11は、差分平均値Ddfavgを差分値Ddfの評価のための代表値とする。差分値Ddfを平均値化する代わりに、差分値Ddfを加算した差分加算値を代表値としてもよい。   In FIG. 12, the control unit 11 sets a threshold value for a difference average value Ddfavg described later in step S5054. The threshold value set here is to increase or decrease the conversion coefficient Cob when the difference average value Ddfavg is equal to or less than the threshold value so as not to follow the fluctuation of the difference average value Ddfavg. In step S5064, the control unit 11 captures the difference value Ddf. In step S5074, the control unit 11 smoothes and averages the difference value Ddf to generate the difference average value Ddfavg. The control unit 11 sets the difference average value Ddfavg as a representative value for evaluating the difference value Ddf. Instead of averaging the difference value Ddf, a difference addition value obtained by adding the difference value Ddf may be used as the representative value.

図12において、制御部11は、ステップS5084にて、差分平均値Ddfavgが制御部11に予め設定した正の規定値以内であるか否かを判定する。規定値以内であると判定されなければ(NO)、制御部11は、ステップS509にて、変換係数Cobを増加させるよう設定する。制御部11は、ステップS5104にて、差分平均値Ddfavgが制御部11に予め設定した規定値以内であるか否かを判定する。負の規定値以内であると判定されなければ(NO)、制御部11は、ステップS511にて、変換係数Cobを減少させるよう設定する。   In FIG. 12, the control unit 11 determines whether or not the difference average value Ddfavg is within a positive specified value preset in the control unit 11 in step S5084. If it is not determined that the value is within the specified value (NO), the control unit 11 sets the conversion coefficient Cob to be increased in step S509. In step S5104, the control unit 11 determines whether or not the difference average value Ddfavg is within a specified value preset in the control unit 11. If it is not determined to be within the negative specified value (NO), the control unit 11 sets the conversion coefficient Cob to be decreased in step S511.

このように、閾値を超えた差分値の差分カウント値Ddfcの代わりに差分値Ddf自体から求めた差分平均値Ddfavgを評価するようにしても、第1実施形態と同様の効果を奏することができる。なお、第4実施形態では差分カウント値Ddfcを用いないので、図7におけるステップS705は差分平均値Ddfavgが安定しているか否かを判定するステップとすればよい。   As described above, even if the difference average value Ddfavg obtained from the difference value Ddf itself is evaluated instead of the difference count value Ddfc of the difference value exceeding the threshold value, the same effect as that of the first embodiment can be obtained. . In the fourth embodiment, since the difference count value Ddfc is not used, step S705 in FIG. 7 may be a step for determining whether or not the difference average value Ddfavg is stable.

第4実施形態においても、図11のステップS501とステップS502との間に、第2実施形態の図8におけるステップS513を設けてもよい。   Also in the fourth embodiment, step S513 in FIG. 8 of the second embodiment may be provided between step S501 and step S502 in FIG.

<第5実施形態>
図13及び図14を用いて第5実施形態の構成及び動作について説明する。第5実施形態は、図5におけるステップS5を図14に示すステップS5としたものである。図13において図1と同一部分には同一符号を付し、図14において図6と同一ステップには同一符号を付し、それぞれ説明を適宜省略する。図13において、ビデオカメラ105は、図1における多重露光画像合成部501の代わりに多重露光画像合成部505を設けている。多重露光画像合成部505においては、差分生成部53が差分値Ddf自体を出力し、差分領域設定部55が画面(フレーム)全体における差分値Ddfの内、部分的な特定の領域内の差分値Ddfpを出力するように構成している。画面内の特定の領域は、第3実施形態と同様である。
<Fifth Embodiment>
The configuration and operation of the fifth embodiment will be described with reference to FIGS. 13 and 14. The fifth embodiment is obtained by the step S5 5 shown in FIG. 14 step S5 in FIG. 5. In FIG. 13, the same parts as those in FIG. 1 are denoted by the same reference numerals, and in FIG. 14, the same steps as those in FIG. In FIG. 13, the video camera 105 includes a multiple exposure image composition unit 505 instead of the multiple exposure image composition unit 501 in FIG. 1. In the multiple exposure image composition unit 505, the difference generation unit 53 outputs the difference value Ddf itself, and the difference region setting unit 55 includes a difference value in a partial specific region among the difference values Ddf in the entire screen (frame). It is configured to output Ddfp. The specific area in the screen is the same as in the third embodiment.

図14において、制御部11は、ステップS5055にて、後述する差分平均値Ddfpavgに対する閾値を設定する。差分平均値Ddfpavgに対する閾値は、第4実施形態における差分平均値Ddfavgに対する閾値と同様である。制御部11は、ステップS5065にて、部分的な差分値Ddfpを取り込む。制御部11は、ステップS5075にて、部分的な差分値Ddfpを平滑化し、平均値化して差分平均値Ddfpavgを生成する。制御部11は、ステップS5085にて、差分平均値Ddfpavgが制御部11に予め設定した正の規定値以内であるか否かを判定する。規定値以内であると判定されなければ(NO)、制御部11は、ステップS509にて、変換係数Cobを増加させるよう設定する。制御部11は、ステップS5105にて、差分平均値Ddfpavgが制御部11に予め設定した負の規定値以内であるか否かを判定する。規定値以内であると判定されなければ(NO)、制御部11は、ステップS511にて、変換係数Cobを減少させるよう設定する。   In FIG. 14, the control unit 11 sets a threshold value for a difference average value Ddfpavg, which will be described later, in step S5055. The threshold for the difference average value Ddfpavg is the same as the threshold for the difference average value Ddfavg in the fourth embodiment. In step S5065, the control unit 11 captures a partial difference value Ddfp. In step S5075, the control unit 11 smoothes the partial difference value Ddfp and averages it to generate a difference average value Ddfpavg. In step S5085, the control unit 11 determines whether or not the difference average value Ddfpavg is within a positive specified value preset in the control unit 11. If it is not determined that the value is within the specified value (NO), the control unit 11 sets the conversion coefficient Cob to be increased in step S509. In step S5105, the control unit 11 determines whether or not the difference average value Ddfpavg is within a negative specified value preset in the control unit 11. If it is not determined that the value is within the specified value (NO), the control unit 11 sets the conversion coefficient Cob to be decreased in step S511.

閾値を超えた差分カウント値Ddfcを評価する代わりに差分値Ddf自体を評価する場合には、部分的な領域からの差分平均値Ddfpavgとした方がデータ量を削減することができるので好ましい。   When evaluating the difference value Ddf itself instead of evaluating the difference count value Ddfc exceeding the threshold value, it is preferable to use the difference average value Ddfpavg from a partial area because the data amount can be reduced.

第5実施形態においても、図12のステップS501とステップS502との間に、第2実施形態の図8におけるステップS513を設けてもよい。   Also in the fifth embodiment, step S513 in FIG. 8 of the second embodiment may be provided between step S501 and step S502 in FIG.

<第6実施形態>
図15及び図16を用いて第6実施形態の構成及び動作について説明する。第6実施形態は、図5におけるステップS5を図16に示すステップS5としたものである。図15において図1と同一部分には同一符号を付し、図16において図6と同一ステップには同一符号を付し、それぞれ説明を適宜省略する。図16において、ビデオカメラ106は、図1における多重露光画像合成部501の代わりに多重露光画像合成部506を設けている。
<Sixth Embodiment>
The configuration and operation of the sixth embodiment will be described with reference to FIGS. 15 and 16. Sixth embodiment is obtained by the step S5 6 shown in FIG. 16 step S5 in FIG. 5. 15, the same parts as those in FIG. 1 are denoted by the same reference numerals, and in FIG. 16, the same steps as those in FIG. In FIG. 16, the video camera 106 is provided with a multiple exposure image composition unit 506 instead of the multiple exposure image composition unit 501 in FIG.

多重露光画像合成部506は平滑化処理部56を備える。平滑化処理部56は、画素値変換部51aより出力された短時間露光画像データDa1を平滑化する平滑化処理部56aと、画素値変換部51bより出力された長時間露光画像データDb2を平滑化する平滑化処理部56bとを含む。   The multiple exposure image composition unit 506 includes a smoothing processing unit 56. The smoothing processing unit 56 smoothes the short-time exposure image data Db2 output from the smoothing processing unit 56a for smoothing the short-time exposure image data Da1 output from the pixel value conversion unit 51a and the pixel-value conversion unit 51b. And a smoothing processing unit 56b.

平滑化処理部56a,56bは、画面内で画素値を平滑化するローパスフィルタで構成することができる。平滑化処理部56a,56bによって短時間露光画像データDa1と長時間露光画像データDb2を平滑化することにより、多重露光画像出力部3で除去した画面ぶれ以外の被写体の動きやノイズが短時間露光画像データDa1と長時間露光画像データDb2との差分値に与える影響を軽減することができる。   The smoothing processing units 56a and 56b can be configured by a low-pass filter that smoothes the pixel values in the screen. By smoothing the short-exposure image data Da1 and the long-exposure image data Db2 by the smoothing processing units 56a and 56b, the movement and noise of the subject other than the screen blur removed by the multiple-exposure image output unit 3 are exposed for a short time. The influence on the difference value between the image data Da1 and the long-time exposure image data Db2 can be reduced.

平滑化処理部56a,56bより出力された平滑化処理が施された短時間露光画像データDa1と長時間露光画像データDb2は、差分生成部53に入力される。差分生成部53は、平滑化処理が施された短時間露光画像データDa1と長時間露光画像データDb2に基づいて差分カウント値Ddfcを生成する。短時間露光画像データDa1の低輝度部分はS/Nがよくなく、階調が低くなるという特性があるため、制御部11は、平滑化処理部56aにおける短時間露光画像データDa1に対するフィルタの平滑化係数を、平滑化処理部56bにおける長時間露光画像データDb2に対するフィルタの平滑化係数よりも大きくすることが好ましい。即ち、短時間露光画像データDa1に対する平滑化の程度を、長時間露光画像データDb2に対する平滑化の程度よりも大きくすることが好ましい。   The short-exposure image data Da1 and the long-exposure image data Db2 that have been subjected to the smoothing process and output from the smoothing processing units 56a and 56b are input to the difference generation unit 53. The difference generation unit 53 generates a difference count value Ddfc based on the short-time exposure image data Da1 and the long-time exposure image data Db2 that have been subjected to the smoothing process. Since the low luminance portion of the short exposure image data Da1 has a characteristic that the S / N is not good and the gradation is low, the control unit 11 smoothes the filter for the short exposure image data Da1 in the smoothing processing unit 56a. The smoothing coefficient is preferably larger than the smoothing coefficient of the filter for the long-time exposure image data Db2 in the smoothing processing unit 56b. That is, it is preferable that the degree of smoothing for the short-time exposure image data Da1 is larger than the degree of smoothing for the long-time exposure image data Db2.

図16において、制御部11は、ステップS514にて、平滑化処理部56a,56bによって短時間露光画像データDa1と長時間露光画像データDb2を平滑化させる。ステップS506で取り込まれる差分カウント値Ddfcは、平滑化処理部56a,56bによる平滑化によって被写体の動きやノイズによる影響が軽減された差分値に基づいて生成されたものである。ステップS514に続くステップS505以降は、第1実施形態と同様である。   In FIG. 16, the control unit 11 smoothes the short-time exposure image data Da1 and the long-time exposure image data Db2 by the smoothing processing units 56a and 56b in step S514. The difference count value Ddfc captured in step S506 is generated based on the difference value in which the influence of subject movement and noise is reduced by the smoothing by the smoothing processing units 56a and 56b. Steps S505 and subsequent steps following step S514 are the same as in the first embodiment.

第6実施形態においても、図14のステップS501とステップS502との間に、第2実施形態の図8におけるステップS513を設けてもよい。また、第6実施形態においても、第4実施形態と同様に、閾値を超えた差分値の差分カウント値Ddfcの代わりに差分値Ddfに基づいて生成した差分平均値Ddfavgを評価するようにしてもよい。   Also in the sixth embodiment, step S513 in FIG. 8 of the second embodiment may be provided between step S501 and step S502 in FIG. Also in the sixth embodiment, similarly to the fourth embodiment, the difference average value Ddfavg generated based on the difference value Ddf instead of the difference count value Ddfc of the difference value exceeding the threshold value may be evaluated. Good.

<第7実施形態>
図17及び図18を用いて第7実施形態の構成及び動作について説明する。第7実施形態は、図5におけるステップS5を図18に示すステップS5としたものである。図17において図9,図15と同一部分には同一符号を付し、図18において図16と同一ステップには同一符号を付し、それぞれ説明を適宜省略する。図17において、ビデオカメラ107は、図9における多重露光画像合成部503の代わりに多重露光画像合成部507を設けている。多重露光画像合成部507は、平滑化処理部56と差分領域設定部55とを備える。
<Seventh embodiment>
The configuration and operation of the seventh embodiment will be described with reference to FIGS. 17 and 18. The seventh embodiment is obtained by the step S5 7 shown in FIG. 18 step S5 in FIG. 5. 17, the same parts as those in FIGS. 9 and 15 are denoted by the same reference numerals, and in FIG. 18, the same steps as those in FIG. In FIG. 17, the video camera 107 is provided with a multiple exposure image composition unit 507 in place of the multiple exposure image composition unit 503 in FIG. The multiple exposure image composition unit 507 includes a smoothing processing unit 56 and a difference area setting unit 55.

第7実施形態は、差分生成部53が、平滑化処理部56a,56bによって平滑化処理が施された短時間露光画像データDa1と長時間露光画像データDb2とに基づいて差分カウント値Ddfcを生成し、差分領域設定部55が、差分カウント値Ddfcに基づいて部分的な領域からの差分カウント値Ddfcpを生成する構成である。   In the seventh embodiment, the difference generation unit 53 generates a difference count value Ddfc based on the short-time exposure image data Da1 and the long-time exposure image data Db2 that have been smoothed by the smoothing processing units 56a and 56b. The difference area setting unit 55 generates the difference count value Ddfcp from the partial area based on the difference count value Ddfc.

図18において、制御部11は、ステップS5067にて、差分領域設定部55から出力された部分的な領域からの差分カウント値Ddfcpを取り込む。制御部11は、ステップS5077にて差分カウント値Ddfcpを平滑化する。制御部11は、ステップS5087にて、正の差分カウント値Ddfcp(+)が制御部11に予め設定した規定値以内であるか否かを判定する。規定値以内であると判定されなければ(NO)、制御部11は、ステップS510にて、変換係数Cobを増加させるよう設定する。制御部11は、ステップS5107にて、負の差分カウント値Ddfcp(-)が制御部11に予め設定した規定値以内であるか否かを判定する。規定値以内であると判定されなければ(NO)、制御部11は、ステップS511にて、変換係数Cobを減少させるよう設定する。   In FIG. 18, the control unit 11 captures the difference count value Ddfcp from the partial area output from the difference area setting unit 55 in step S5067. The controller 11 smoothes the difference count value Ddfcp in step S5077. In step S5087, the control unit 11 determines whether or not the positive difference count value Ddfcp (+) is within a specified value preset in the control unit 11. If it is not determined that the value is within the specified value (NO), the control unit 11 sets the conversion coefficient Cob to be increased in step S510. In step S5107, the control unit 11 determines whether or not the negative difference count value Ddfcp (−) is within a specified value preset in the control unit 11. If it is not determined that the value is within the specified value (NO), the control unit 11 sets the conversion coefficient Cob to be decreased in step S511.

第7実施形態においても、図16のステップS501とステップS502との間に、第2実施形態の図8におけるステップS513を設けてもよい。また、第7実施形態においても、部分的な領域からの差分カウント値Ddfcpを評価する代わりに、第5実施形態と同様に、部分的な領域からの差分平均値Ddfpavgを評価してもよい。   Also in the seventh embodiment, step S513 in FIG. 8 of the second embodiment may be provided between step S501 and step S502 in FIG. Also in the seventh embodiment, instead of evaluating the difference count value Ddfcp from the partial area, the difference average value Ddfpavg from the partial area may be evaluated as in the fifth embodiment.

本発明は以上説明した各実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。各実施形態としてビデオカメラに画像処理装置を搭載した例を示したが、本発明は画像表示装置やコンピュータ等の情報処理装置に適用することができる。各実施形態では、撮影した画像を即座に合成して合成画像を生成するようにしているが、露光量を異ならせて撮影した画像を記憶媒体に記憶させて貯蔵しておき、記憶媒体に貯蔵された画像を合成する画像処理装置であってよい。各実施形態では、輝度信号Yと色差信号Cb,Crの形態で画像合成するようにしたが、RGB信号で合成することも可能である。   The present invention is not limited to the embodiments described above, and various modifications can be made without departing from the scope of the present invention. Although an example in which an image processing device is mounted on a video camera has been shown as each embodiment, the present invention can be applied to an information processing device such as an image display device or a computer. In each embodiment, the captured images are immediately combined to generate a composite image. However, the images captured with different exposure amounts are stored and stored in a storage medium and stored in the storage medium. The image processing apparatus may synthesize the processed images. In each embodiment, the image is synthesized in the form of the luminance signal Y and the color difference signals Cb and Cr, but it is also possible to synthesize with the RGB signal.

各実施形態では動画の合成について説明したが、静止画の合成であってもよい。露光量を異ならせて撮影した2枚の静止画を合成する場合には、同じ画像に対して繰り返し各種パラメータを更新して最適な合成画像となるまでパラメータの更新処理を繰り返せばよい。各実施形態では、圧縮広ダイナミックレンジ画像データDCHDRを表示部10に表示したり、圧縮広ダイナミックレンジ画像データDCHDRに基づいた符号化データを記録再生部14に記録したりしているが、広ダイナミックレンジ画像データDHDRそのままで記録や表示を行ってもよい。前述のように、露光量の異なる3枚以上の画像を合成してもよい。 In each embodiment, the synthesis of moving images has been described, but still image synthesis may be used. When two still images taken with different exposure amounts are combined, various parameters are repeatedly updated for the same image, and the parameter update process is repeated until an optimum combined image is obtained. In each embodiment, the compressed wide dynamic range image data D CHDR is displayed on the display unit 10, or the encoded data based on the compressed wide dynamic range image data D CHDR is recorded on the recording / reproducing unit 14. Wide dynamic range image data D HDR may be recorded and displayed as it is. As described above, three or more images having different exposure amounts may be combined.

さらに、各実施形態では、制御部11をパラメータ更新部として動作させたが、変換係数Coa,Cobを設定または更新する制御部と、上限値ThHと下限値ThLとを設定または更新する制御部とを別々に設けてもよく、具体的な構成の仕方は任意である。   Furthermore, in each embodiment, although the control part 11 was operated as a parameter update part, the control part which sets or updates the conversion coefficients Coa and Cob, the control part which sets or updates the upper limit value ThH and the lower limit value ThL, May be provided separately, and a specific configuration method is arbitrary.

ところで、各実施形態では、多重露光画像出力部3以降のデジタル信号を便宜上データと称したが、信号とはアナログ信号とデジタル信号とを区別せず両者を含む。各実施形態では、多重露光画像出力部3以降をデジタル信号処理としたが、デジタル信号処理とアナログ信号処理との使い分けも任意である。   By the way, in each embodiment, the digital signal after the multiple exposure image output unit 3 is referred to as data for the sake of convenience. However, the signal includes both analog signals and digital signals without distinguishing them. In each embodiment, the multiple exposure image output unit 3 and later are digital signal processing, but the use of digital signal processing and analog signal processing is also arbitrary.

1 撮像部
2 入力信号処理部
3 多重露光画像出力部
6 ダイナミックレンジ圧縮部
11 制御部(パラメータ更新部)
51,51a,51b 画素値変換部
52 合成重み付け係数生成部
53 差分生成部
54 重み付け合成部
55 差分領域設定部
56,56a,56b 平滑化処理部
101,103,104,105,106,107 ビデオカメラ
501,503,504,505,506,507 多重露光画像合成部
DESCRIPTION OF SYMBOLS 1 Imaging part 2 Input signal processing part 3 Multiple exposure image output part 6 Dynamic range compression part 11 Control part (parameter update part)
51, 51a, 51b Pixel value conversion unit 52 Synthesis weighting coefficient generation unit 53 Difference generation unit 54 Weighting synthesis unit 55 Difference region setting unit 56, 56a, 56b Smoothing processing unit 101, 103, 104, 105, 106, 107 Video camera 501 503 504 505 506 507 Multiple exposure image composition unit

Claims (7)

露光量を互いに異ならせて同一の被写体を複数回撮影した第1の複数の画像信号が入力され、露光量が異なることによる前記第1の複数の画像信号における画素値の違いを合わせるように、画素値変換係数に基づいて、前記第1の複数の画像信号の内の少なくとも1つの画像信号の画素値を変換して、第2の複数の画像信号として出力する画素値変換部と、
前記第2の複数の画像信号を所定の画素値の画素を含む領域を境界部として合成する際に用いる合成重み付け係数を生成する合成重み付け係数生成部と、
前記第2の複数の画像信号の差分を生成する差分生成部と、
前記第2の複数の画像信号を、前記合成重み付け係数を用いて重み付けして合成して合成画像信号を生成する重み付け合成部と、
前記差分生成部によって生成された差分を評価して、差分が小さくなるように前記画素値変換係数を更新するパラメータ更新部と、
を備えることを特徴とする画像処理装置。
The first plurality of image signals obtained by photographing the same subject a plurality of times with different exposure amounts are input, and the pixel values in the first plurality of image signals due to the different exposure amounts are matched. A pixel value conversion unit that converts a pixel value of at least one of the first plurality of image signals based on a pixel value conversion coefficient and outputs the converted pixel value as a second plurality of image signals;
A synthesis weighting coefficient generation unit that generates a synthesis weighting coefficient used when combining the second plurality of image signals with a region including a pixel having a predetermined pixel value as a boundary part;
A difference generation unit for generating a difference between the second plurality of image signals;
A weighting and synthesizing unit that generates a composite image signal by weighting and combining the second plurality of image signals using the composite weighting coefficient;
A parameter update unit that evaluates the difference generated by the difference generation unit and updates the pixel value conversion coefficient so that the difference is reduced;
An image processing apparatus comprising:
前記パラメータ更新部は、前記画素値変換係数を更新するのに併せて、前記合成重み付け係数を更新する
ことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the parameter updating unit updates the synthesis weighting coefficient in conjunction with updating the pixel value conversion coefficient.
前記境界部は複数の画素値の画素を含む領域であり、前記境界部の最も大きい画素値を上限値とし、前記境界部の最も小さい画素値を下限値としたとき、
前記合成重み付け係数生成部は、前記第2の複数の画像信号における2つの画像信号を合成する合成重み付け係数として、前記上限値より大きい部分では前記2つの画像信号の内の一方の画像信号とし、前記下限値より小さい部分では前記2つの画像信号の内の他方の画像信号とし、前記上限値と前記下限値との間では、前記2つの画像信号をクロスフェードさせて混合させる合成重み付け係数を生成する
ことを特徴とする請求項1または2に記載の画像処理装置。
The boundary portion is a region including pixels having a plurality of pixel values, and when the largest pixel value of the boundary portion is an upper limit value and the smallest pixel value of the boundary portion is a lower limit value,
The synthesis weighting coefficient generation unit, as a synthesis weighting coefficient for synthesizing two image signals in the second plurality of image signals, as one image signal of the two image signals in a portion larger than the upper limit value, A composite weighting coefficient is generated in which a portion smaller than the lower limit value is set as the other image signal of the two image signals, and the two image signals are crossfade and mixed between the upper limit value and the lower limit value. The image processing apparatus according to claim 1, wherein:
前記パラメータ更新部は、前記画素値変換係数を更新するのに併せて、前記上限値と前記下限値とを互いの間隔が狭くなるように更新し、
前記合成重み付け係数生成部は、更新された前記上限値と前記下限値とに基づいて合成重み付け係数を生成する
ことを特徴とする請求項2記載の画像処理装置。
In addition to updating the pixel value conversion coefficient, the parameter updating unit updates the upper limit value and the lower limit value so that the interval between them is narrowed,
The image processing apparatus according to claim 2, wherein the synthesis weighting coefficient generation unit generates a synthesis weighting coefficient based on the updated upper limit value and the lower limit value.
前記差分生成部は、前記2つの画像信号における一方の画像信号を基準としたとき、基準とした前記一方の画像信号が前記上限値と前記下限値との間で他方の画像信号の差分を生成する
ことを特徴とする請求項3記載の画像処理装置。
The difference generation unit generates a difference of the other image signal between the upper limit value and the lower limit value when the one image signal in the two image signals is used as a reference. The image processing apparatus according to claim 3.
前記パラメータ更新部は、画面内の部分的な領域における前記第2の複数の画像信号の差分を評価する
ことを特徴とする請求項1〜5のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the parameter updating unit evaluates a difference between the second plurality of image signals in a partial region in the screen.
露光量を互いに異ならせて同一の被写体を複数回撮影して第1の複数の画像信号を生成し、
露光量が異なることによる前記第1の複数の画像信号における画素値の違いを合わせるように、画素値変換係数に基づいて、前記第1の複数の画像信号の内の少なくとも1つの画像信号の画素値を変換して、第2の複数の画像信号を生成し、
前記第2の複数の画像信号を所定の画素値の画素を含む領域を境界部として合成する際に用いる合成重み付け係数を生成し、
前記第2の複数の画像信号の差分を生成し、
前記第2の複数の画像信号を、前記合成重み付け係数を用いて重み付けして合成して合成画像信号を生成し、
前記差分を評価して、差分が小さくなるように前記画素値変換係数を更新する
ことを特徴とする画像処理方法。
Shooting the same subject multiple times with different exposure amounts to generate a first plurality of image signals,
Based on a pixel value conversion coefficient, pixels of at least one image signal among the first plurality of image signals so as to match pixel value differences in the first plurality of image signals due to different exposure amounts. Converting the value to generate a second plurality of image signals;
Generating a combination weighting coefficient used when combining the second plurality of image signals with a region including a pixel having a predetermined pixel value as a boundary portion;
Generating a difference between the second plurality of image signals;
Generating a composite image signal by weighting and combining the second plurality of image signals using the composite weighting coefficient;
The image processing method characterized by evaluating the difference and updating the pixel value conversion coefficient so that the difference becomes small.
JP2011139688A 2011-06-23 2011-06-23 Image processing apparatus and image processing method Active JP5609787B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011139688A JP5609787B2 (en) 2011-06-23 2011-06-23 Image processing apparatus and image processing method
US13/530,653 US8970719B2 (en) 2011-06-23 2012-06-22 Image processing apparatus and image processing method
EP12004707.1A EP2538661B1 (en) 2011-06-23 2012-06-22 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011139688A JP5609787B2 (en) 2011-06-23 2011-06-23 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2013009104A true JP2013009104A (en) 2013-01-10
JP5609787B2 JP5609787B2 (en) 2014-10-22

Family

ID=47676110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011139688A Active JP5609787B2 (en) 2011-06-23 2011-06-23 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5609787B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015111238A (en) * 2013-10-31 2015-06-18 キヤノン株式会社 Display device, control method of display device, and program
JP2016173477A (en) * 2015-03-17 2016-09-29 キヤノン株式会社 Image display device and control method therefor
JP2019204098A (en) * 2019-07-01 2019-11-28 キヤノン株式会社 Image display device and control method therefor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06141229A (en) * 1992-10-27 1994-05-20 Matsushita Electric Ind Co Ltd Image picking up and synthesizing method and image pickup device with high dynamic range
JP2001245130A (en) * 2000-02-28 2001-09-07 Olympus Optical Co Ltd Image processing unit
JP2006014117A (en) * 2004-06-29 2006-01-12 Sony Corp Physical information acquisition method, physical information acquisition apparatus and semiconductor device for detecting physical quantity distribution
JP2007020087A (en) * 2005-07-11 2007-01-25 Casio Comput Co Ltd Imaging apparatus and imaging method
JP2008523695A (en) * 2004-12-07 2008-07-03 ブライト・イメージング・リミテッド Method and apparatus for imaging scene with large luminance dispersion

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06141229A (en) * 1992-10-27 1994-05-20 Matsushita Electric Ind Co Ltd Image picking up and synthesizing method and image pickup device with high dynamic range
JP2001245130A (en) * 2000-02-28 2001-09-07 Olympus Optical Co Ltd Image processing unit
JP2006014117A (en) * 2004-06-29 2006-01-12 Sony Corp Physical information acquisition method, physical information acquisition apparatus and semiconductor device for detecting physical quantity distribution
JP2008523695A (en) * 2004-12-07 2008-07-03 ブライト・イメージング・リミテッド Method and apparatus for imaging scene with large luminance dispersion
JP2007020087A (en) * 2005-07-11 2007-01-25 Casio Comput Co Ltd Imaging apparatus and imaging method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015111238A (en) * 2013-10-31 2015-06-18 キヤノン株式会社 Display device, control method of display device, and program
JP2016173477A (en) * 2015-03-17 2016-09-29 キヤノン株式会社 Image display device and control method therefor
JP2019204098A (en) * 2019-07-01 2019-11-28 キヤノン株式会社 Image display device and control method therefor

Also Published As

Publication number Publication date
JP5609787B2 (en) 2014-10-22

Similar Documents

Publication Publication Date Title
EP2538661B1 (en) Image processing apparatus and image processing method
JP5713752B2 (en) Image processing apparatus and control method thereof
US8144214B2 (en) Imaging apparatus, imaging method, integrated circuit, and storage medium
JP5975642B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JPWO2016152414A1 (en) Image processing apparatus, image processing method, and program
JP5220657B2 (en) Imaging apparatus and image processing program
JP2015201842A (en) Image processing system and control method and control program of the same
JP5609788B2 (en) Image processing apparatus and image processing method
JP6887853B2 (en) Imaging device, its control method, program
WO2015190320A1 (en) Image capture apparatus and image capture method
JP6108680B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP5609787B2 (en) Image processing apparatus and image processing method
JP2012019392A (en) Image processing apparatus, electronic camera, and image processing program
JP2011171842A (en) Image processor and image processing program
JP5315125B2 (en) Image processing apparatus, imaging apparatus, and composite image generation method
JP2009200743A (en) Image processor, image processing method, image processing program and imaging apparatus
JP5117217B2 (en) Imaging system, image processing method, and image processing program
JP2008219230A (en) Imaging apparatus, and image processing method
JP2015080157A (en) Image processing device, image processing method and program
JP2011244053A (en) Image processing apparatus, imaging apparatus, and image processing program
JP6514577B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGING APPARATUS
JP2020036162A (en) Image processing device, imaging device, image processing method, and program
JP5397509B2 (en) Image processing apparatus, electronic camera, and image processing program
JP5351663B2 (en) Imaging apparatus and control method thereof
JP2008306326A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140818

R150 Certificate of patent or registration of utility model

Ref document number: 5609787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150