JP2009017583A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2009017583A
JP2009017583A JP2008219421A JP2008219421A JP2009017583A JP 2009017583 A JP2009017583 A JP 2009017583A JP 2008219421 A JP2008219421 A JP 2008219421A JP 2008219421 A JP2008219421 A JP 2008219421A JP 2009017583 A JP2009017583 A JP 2009017583A
Authority
JP
Japan
Prior art keywords
pixel
image
luminance
equivalent signal
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008219421A
Other languages
Japanese (ja)
Inventor
Takeo Tsuruoka
建夫 鶴岡
Kazuhito Horiuchi
一仁 堀内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2008219421A priority Critical patent/JP2009017583A/en
Publication of JP2009017583A publication Critical patent/JP2009017583A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device which can obtain gradation conversion characteristics, with fewer times of operations, using smaller memories. <P>SOLUTION: The image processing device synthesizes a wide dynamic range image from multiple images of different exposures and includes a feature amount calculating section 10 having a local domain extraction portion 20 which extracts a local domain of a prescribed size for each image, a first signal extraction portion 22 which calculates an equivalent signal for the luminance in a grid point shifting horizontally and vertically by half a pixel, and a second signal extraction portion 23, which calculates an edge component of the equivalent signal of luminance; a proper exposure extracting section 11 which extracts a proper exposure domain, based on the equivalent signal of luminance; a gradation correction section 12, which performs gradation correction to the proper exposure domain based on the edge component; and an image-compositing interpolation section which generates a wide dynamic range image by compositing the gradation-corrected proper exposure domain. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理装置、より詳しくは、異なる露光条件で撮像された複数の画像から一の広ダイナミックレンジ画像を生成する画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that generates one wide dynamic range image from a plurality of images captured under different exposure conditions.

従来より、異なる露光条件で撮像された複数の画像を合成して一の広ダイナミックレンジ画像を生成する画像処理装置が提案されている。   2. Description of the Related Art Conventionally, there has been proposed an image processing apparatus that generates a single wide dynamic range image by combining a plurality of images captured under different exposure conditions.

このようなものの一例として、特願平11−338551号には、各画像を適正露光領域と不適正露光領域に分割して、各適正露光領域毎に階調補正を行い、階調補正された各画像毎の適正露光領域を合成して一の広ダイナミックレンジ画像を生成する画像処理装置が記載されており、さらに、この画像処理装置を適用した機器の例として、被写体をより広いダイナミックレンジで撮像することができるスーパーラチチュードデジタルカメラが記載されている。   As an example of such a thing, Japanese Patent Application No. 11-338551 divides each image into an appropriate exposure area and an improper exposure area, and performs gradation correction for each appropriate exposure area. An image processing apparatus that generates a single wide dynamic range image by synthesizing appropriate exposure areas for each image is described. Further, as an example of a device to which this image processing apparatus is applied, a subject with a wider dynamic range is described. A super latitude digital camera capable of imaging is described.

このようなデジタルカメラにおいては、より詳しくは、次のような処理を基本的に行うようになっている。   In more detail, such a digital camera basically performs the following processing.

まず、例えばRGBのカラーフィルタがベイヤー(Bayer)配列になされた単板CCD(本発明の実施形態を示す図4(A)参照)を使用して撮像を行い、その撮像信号中のR画素に係る信号を補間処理することにより1画面分のR画像を作成し、同様にG画素に係る信号を補間処理し、B画素に係る信号を補間処理することにより、各1画面分のG画像とB画像を作成する、いわゆる3板化の処理を行う。   First, for example, imaging is performed using a single-plate CCD in which RGB color filters are arranged in a Bayer array (see FIG. 4A showing the embodiment of the present invention), and R pixels in the imaging signal are captured. An R image for one screen is created by interpolating the signal, and similarly, a signal for the G pixel is interpolated, and a signal for the B pixel is interpolated to obtain a G image for each screen. A so-called three-plate process for creating a B image is performed.

次に、これらのRGB信号に基づき、画素毎に次の演算を行って、輝度信号Yと輝度差信号Cb,Crを算出する。   Next, based on these RGB signals, the following calculation is performed for each pixel to calculate the luminance signal Y and the luminance difference signals Cb and Cr.

Y = 0.29900R+0.58700G+0.14400B
Cb=−0.16874R−0.33126G+0.50000B
Cr= 0.50000R−0.41869G−0.08131B
その後に、これらの内の輝度信号Yに例えばラプラシアン等のフィルタをかけることにより画面内のエッジ成分を抽出し、さらに所定の閾値と比較する2値化処理を行ってエッジを検出する。
Y = 0.29900R + 0.58700G + 0.14400B
Cb = −0.16874R−0.33126G + 0.50000B
Cr = 0.50000R-0.41869G-0.0811B
Thereafter, an edge component in the screen is extracted by applying a filter such as Laplacian to the luminance signal Y among these, and further, binarization processing for comparison with a predetermined threshold is performed to detect an edge.

その後、輝度に対するエッジの出現頻度をヒストグラムとして作成して、さらに累積ヒストグラム等に変換し、ヒストグラム平坦化に基づいて階調変換曲線を求める処理を行っている。   Thereafter, the appearance frequency of the edge with respect to the luminance is created as a histogram, further converted into a cumulative histogram or the like, and a process of obtaining a gradation conversion curve based on histogram flattening is performed.

このヒストグラム平坦化は、主要被写体はエッジが多く、背景などの非主要部はエッジが少ないことを前提とした技術である。
特開平10−023324号公報 特願平11−355650号公報
This histogram flattening is a technique based on the premise that the main subject has many edges and non-main parts such as the background have few edges.
Japanese Patent Laid-Open No. 10-023324 Japanese Patent Application No. 11-355650

上述したような一般的な処理では、階調変換特性を算出するために、単板信号から作成したRGB各3画面分の画像メモリと、これらRGB3板信号から作成した輝度信号Yを記憶する1画面分のメモリと、さらに、この輝度信号Yから抽出したエッジ成分を記憶する1画面分のメモリと、の5画面分の画像メモリが必要となってしまっている。   In the general processing as described above, in order to calculate the gradation conversion characteristics, an image memory for each of three RGB screens created from a single plate signal and a luminance signal Y created from these RGB three plate signals are stored. The image memory for five screens, that is, the memory for one screen and the memory for one screen for storing the edge component extracted from the luminance signal Y, is required.

また、階調変換特性を算出する際に必要な演算は、次のようになっている。まず、単板信号から3板RGB信号を算出する際には、
R信号: (加算1,除算1)×画素数×3/4
G信号: (加算3,除算1)×画素数/2
B信号: (加算1,除算1)×画素数×3/4
だけの演算が必要である。
In addition, the calculation necessary for calculating the gradation conversion characteristics is as follows. First, when calculating a 3-plate RGB signal from a single-plate signal,
R signal: (addition 1, division 1) x number of pixels x 3/4
G signal: (addition 3, division 1) x number of pixels / 2
B signal: (addition 1, division 1) x number of pixels x 3/4
Only the calculation is necessary.

次に、これらのRGB信号から輝度信号Yを算出する際には、上記輝度信号Yの演算式から、
Y信号: (加算2,乗算3)×画素数
だけの演算が必要である。
Next, when calculating the luminance signal Y from these RGB signals, from the arithmetic expression of the luminance signal Y,
Y signal: (addition 2, multiplication 3) × the number of pixels needs to be calculated.

さらに、輝度信号からエッジ成分を算出する際には、
エッジ成分:(加算10,減算2,乗算4,論理4)×画素数
だけの演算が必要となる。
Furthermore, when calculating the edge component from the luminance signal,
Edge component: (addition 10, subtraction 2, multiplication 4, logic 4) × the number of pixels is required.

そして、抽出したエッジ成分を2値化処理する際には、
2値化: (論理1)×画素数
だけの演算が必要となる。
And when binarizing the extracted edge component,
Binarization: (Logic 1) × Calculation of the number of pixels is required.

加えて、2値化して検出したエッジからヒストグラムを算出する際には、
ヒストグラム:(加算1,減算2,除算2,論理1)×画素数
だけの演算が必要である。
In addition, when calculating a histogram from edges detected by binarization,
Histogram: (addition 1, subtraction 2, division 2, logic 1) × the number of pixels needs to be calculated.

こうして、トータルとして、ヒストグラムが算出されるまでに、
(加算16,減算4,乗算7,除算4,論理6)×画素数
の演算が必要となる。
Thus, until the histogram is calculated as a total,
The calculation of (addition 16, subtraction 4, multiplication 7, division 4, logic 6) × number of pixels is required.

また、補色系のカラーフィルタを備えたCCD(本発明の実施形態を示す図5(A)参照)の場合には、同様に、ヒストグラムが算出されるまでに、
(加算16,減算4,乗算7,除算5,論理7)×画素数
の演算と、6画面分のメモリが必要となっている。
In the case of a CCD having a complementary color filter (see FIG. 5A showing the embodiment of the present invention), before the histogram is similarly calculated,
(Addition 16, subtraction 4, multiplication 7, division 5, logic 7) x number of pixels and memory for 6 screens are required.

このように、従来からの一般的な処理を行うと、大きな作業用メモリが必要になると共に、多数の演算が必要となって、コストや処理時間を要することになってしまっている。さらに、こうした処理回路をIC化することを考えた場合には、大容量メモリがネックとなって、1チップ化するのに適しているとはいえなかった。   As described above, when conventional general processing is performed, a large working memory is required and a large number of operations are required, which requires cost and processing time. Further, when considering such a processing circuit as an IC, a large-capacity memory becomes a bottleneck and it cannot be said that it is suitable for a single chip.

本発明は上記事情に鑑みてなされたものであり、より少ない演算回数とより少ないメモリで階調変換特性を求めることが可能な画像処理装置を提供することを目的としている。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an image processing apparatus capable of obtaining tone conversion characteristics with a smaller number of operations and a smaller memory.

上記の目的を達成するために、本発明の一態様による画像処理装置は、同一被写体に対して異なる露光条件で撮像された複数の画像からなる画像群を処理して一の広ダイナミックレンジ画像を生成する画像処理装置であって、
上記画像群中の各画像毎に整数座標外の画素位置を中心として所定サイズの局所領域を抽出する局所領域抽出手段と、
上記局所領域内の画素情報から、一の整数座標外の画素位置における輝度信号に相当する信号である第1の輝度相当信号と、上記一の整数座標外の画素位置から縦方向又は横方向に1画素分離れた位置に存在する他の整数座標外の画素位置における輝度信号に相当する信号である第2の輝度相当信号と、を画像の特徴量として求めるとともに、その求めた第1の輝度相当信号と第2の輝度相当信号との差分として示される微分フィルタを用い、上記一の整数座標外の画素位置におけるエッジ成分を画像の特徴量として算出するエッジ算出手段と、
上記エッジ算出手段によるエッジ成分の算出処理を上記抽出した局所領域ごとに行って、画像上の整数座標外の画素位置におけるエッジ成分を画像の特徴量として算出するエッジ算出繰り返し手段と、
上記エッジ算出手段により得られた上記輝度相当信号各々を所定値と比較することで、上記整数座標外の画素位置に対応した画素が適正露光であるか否かを判別して、その適正露光であると判別した画素の集合からなる適正露光域を抽出する適正露光抽出手段と、
上記特徴量に基づき上記適正露光域の階調補正を行う階調補正手段と、
この階調補正手段により階調補正された適正露光域を合成して3板状態に補間することにより一の広ダイナミックレンジ画像を生成する合成手段と、
を具備している。
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention processes an image group made up of a plurality of images captured under different exposure conditions on the same subject to produce one wide dynamic range image. An image processing device to generate,
Local region extraction means for extracting a local region of a predetermined size centered on a pixel position outside the integer coordinates for each image in the image group;
From the pixel information in the local region, a first luminance equivalent signal that is a signal corresponding to a luminance signal at a pixel position outside one integer coordinate, and a vertical or horizontal direction from the pixel position outside the one integer coordinate. The second luminance equivalent signal, which is a signal corresponding to the luminance signal at the pixel position outside the integer coordinates existing at the position separated by one pixel, is obtained as an image feature amount, and the obtained first luminance is obtained. Edge calculation means for calculating an edge component at a pixel position outside the one integer coordinate as a feature quantity of an image using a differential filter shown as a difference between the equivalent signal and the second luminance equivalent signal;
Edge calculation repetition means for performing edge component calculation processing by the edge calculation means for each of the extracted local regions and calculating an edge component at a pixel position outside the integer coordinates on the image as a feature amount of the image;
By comparing each of the luminance-corresponding signals obtained by the edge calculating means with a predetermined value, it is determined whether or not the pixel corresponding to the pixel position outside the integer coordinates is appropriate exposure. A proper exposure extraction means for extracting a proper exposure area composed of a set of pixels determined to be present;
Gradation correction means for performing gradation correction of the appropriate exposure area based on the feature amount;
A synthesizing unit that generates a single wide dynamic range image by synthesizing an appropriate exposure area that has been tone-corrected by the tone correcting unit and interpolating into a three-plate state;
It has.

本発明による画像処理装置は、整数座標外の画素位置における特徴量を算出して、その過程で得られた画像信号に基づき適正露光域を抽出し、上記特徴量に基づき階調補正を行うようにしたために、階調補正を行うまでの演算回数やメモリ量を減少させることが可能になる利点を有する。   An image processing apparatus according to the present invention calculates a feature amount at a pixel position outside an integer coordinate, extracts an appropriate exposure area based on an image signal obtained in the process, and performs gradation correction based on the feature amount. Therefore, there is an advantage that it is possible to reduce the number of calculations and the amount of memory until gradation correction is performed.

以下、図面を参照して本発明の実施の形態を説明する。
図1から図6は本発明の一実施形態を示したものであり、図1は電子カメラの基本的な構成を示すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings.
1 to 6 show an embodiment of the present invention, and FIG. 1 is a block diagram showing a basic configuration of an electronic camera.

本実施形態は、本発明の画像処理装置を電子カメラに適用したものであり、簡単のために短時間露光による画像と長時間露光による画像との2画像を合成して一の広ダイナミックレンジ画像を得る場合について説明するが、もちろんより多数の画像を合成する場合に適用することも可能である。   In the present embodiment, the image processing apparatus of the present invention is applied to an electronic camera. For simplicity, two images of a short-time exposure image and a long-time exposure image are combined to create a single wide dynamic range image. However, the present invention can be applied to a case where a larger number of images are synthesized.

この電子カメラは、電子シャッタ機能を有する単板式のカラーCCD等でなり、被写体像を光電変換して画像信号として出力するためのCCD4と、このCCD4上に被写体像を結像するためのレンズ系1と、このレンズ系1を通過した光束の通過範囲を制御するための絞り2と、この絞り2を通過した光束から不要な高周波成分を除去するための光学フィルタでなるローパスフィルタ3と、上記CCD4から出力された後に図示しない相関二重サンプリング回路等でノイズ成分の除去が行われその後に増幅等がなされたアナログの画像信号をデジタル信号に変換するためのA/D変換器5と、このA/D変換器5によりデジタル化された一画面分の画像データを各蓄積するものであり長時間露光による画像と短時間露光による画像とをそれぞれ記憶する第1画像用バッファ6aおよび第2画像用バッファ6bと、これらの内の測光用および焦点検出用のデータを蓄積するのにも用いられる第1画像用バッファ6aから画像データを読み出して輝度分布を求め撮像時に適正露光となるように上記絞り2の開口径や上記CCD4の電子シャッタを制御する測光評価部7と、上記第1画像用バッファ6aから画像データを読み出して合焦位置の検出を行いその検出結果に基づいて後述するAFモータ9を制御する合焦点検出部8と、この合焦点検出部8に制御されて上記レンズ系1のAF用レンズを駆動し上記CCD4上に被写体像を結像させるようにするAFモータ9と、上記第1,第2画像用バッファ6a,6bから読み出された画像データから特徴量であるエッジ成分を抽出する特徴量算出手段たる特徴量算出部10と、この特徴量算出部10から出力される長時間露光に係る輝度信号に相当する信号に基づいて、画面全体を構成する各画素について、その画素が適切な露出であるか否かを信号レベルにより判別し、その結果に基づき分割画像情報を抽出して出力する適正露光抽出手段たる適正露光抽出部11と、上記特徴量算出部10から出力されるエッジ成分に基づき階調変換曲線を作成して上記適正露光抽出部11から出力される適正露光域の階調変換を行う階調補正手段たる階調補正部12と、この階調補正部12から出力される階調変換後の長時間露光に係る適正露光域および短時間露光に係る適正露光域を合成して3板状態に補間することにより一の広ダイナミックレンジ画像を生成する合成手段たる画像合成補間部13と、この画像合成補間部13により合成された広ダイナミックレンジ画像を例えば記録媒体や表示装置などに出力する出力部14と、上記測光評価部7や合焦点検出部8の検出結果を受け取るとともに、上記特徴量算出部10、階調補正部12、画像合成補間部13、出力部14を含むこの電子カメラ全体の制御を行う制御部15と、を有して構成されている。   This electronic camera is composed of a single-plate color CCD having an electronic shutter function, a CCD 4 for photoelectrically converting a subject image and outputting it as an image signal, and a lens system for forming a subject image on the CCD 4 1, a diaphragm 2 for controlling the passage range of the light beam that has passed through the lens system 1, a low-pass filter 3 that is an optical filter for removing unnecessary high-frequency components from the light beam that has passed through the diaphragm 2, and An A / D converter 5 for converting an analog image signal which has been output from the CCD 4 and then subjected to removal of noise components by a correlated double sampling circuit (not shown) and then amplified to a digital signal, and this The image data for one screen digitized by the A / D converter 5 is accumulated, and an image by long exposure and an image by short exposure are stored. The image data is read out from the first image buffer 6a and the second image buffer 6b to be stored and the first image buffer 6a used for accumulating the photometry and focus detection data. Image data is read from the first image buffer 6a and the photometric evaluation section 7 for controlling the aperture diameter of the diaphragm 2 and the electronic shutter of the CCD 4 so as to obtain a brightness distribution and obtain an appropriate exposure at the time of imaging. An in-focus detection unit 8 that performs detection and controls an AF motor 9 to be described later based on the detection result, and an AF lens of the lens system 1 is driven by the in-focus detection unit 8 to drive an object on the CCD 4 An edge component, which is a feature value, is extracted from the AF motor 9 for forming an image and the image data read from the first and second image buffers 6a and 6b. Based on a feature amount calculation unit 10 serving as a collection amount calculation unit and a signal corresponding to a luminance signal related to long-time exposure output from the feature amount calculation unit 10, the pixel is appropriate for each pixel constituting the entire screen. A proper exposure extraction unit 11 serving as a proper exposure extraction unit that extracts and outputs divided image information based on the result, and an edge output from the feature amount calculation unit 10 A gradation correction unit 12 that is a gradation correction unit that generates gradation conversion curves based on the components and performs gradation conversion of the appropriate exposure area output from the appropriate exposure extraction unit 11, and output from the gradation correction unit 12 A composite means for generating a single wide dynamic range image by synthesizing a proper exposure area related to long exposure after gradation conversion and a proper exposure area related to short exposure and interpolating into a three-plate state. The result of the detection by the synthesizing interpolation unit 13, the output unit 14 that outputs the wide dynamic range image synthesized by the image synthesis interpolation unit 13 to, for example, a recording medium or a display device, and the photometric evaluation unit 7 or the in-focus detection unit 8 And a control unit 15 that controls the entire electronic camera including the feature amount calculation unit 10, the gradation correction unit 12, the image synthesis interpolation unit 13, and the output unit 14.

次に、図2は上記特徴量算出部10の詳細な構成を示すブロック図である。   Next, FIG. 2 is a block diagram showing a detailed configuration of the feature amount calculation unit 10.

この特徴量算出部10は、長時間露光画像を記憶している上記第1画像用バッファ6aから画像データを読み出して、輝度信号に相当する信号を生成し上記適正露光抽出部11に出力すると共に、長時間露光画像と短時間露光画像の特徴量であるエッジ成分を順に算出して上記階調補正部12に出力するものであり、例えば5×5画素でなる局所領域を抽出する局所領域抽出手段たる局所領域抽出部20と、抽出された局所領域の画像データを記憶する作業用バッファ21と、輝度信号に相当する第1信号を抽出するエッジ算出手段たる第1信号抽出部22と、特徴量であるエッジ成分としての第2信号を抽出する同エッジ算出手段たる第2信号抽出部23と、を有して構成されている。   The feature amount calculation unit 10 reads out image data from the first image buffer 6a storing a long-time exposure image, generates a signal corresponding to a luminance signal, and outputs the signal to the appropriate exposure extraction unit 11. The edge component, which is the feature amount of the long exposure image and the short exposure image, is sequentially calculated and output to the gradation correction unit 12. For example, a local region extraction for extracting a local region of 5 × 5 pixels is performed. A local region extracting unit 20 as a means, a working buffer 21 for storing image data of the extracted local region, a first signal extracting unit 22 as an edge calculating unit for extracting a first signal corresponding to a luminance signal, and features And a second signal extraction unit 23 serving as an edge calculation means for extracting a second signal as an edge component which is a quantity.

また、図3は、上記階調補正部12の詳細な構成を示すブロック図である。   FIG. 3 is a block diagram showing a detailed configuration of the gradation correction unit 12.

この階調補正部12は、長時間露光画像と短時間露光画像を、後段の画像合成補間部13で合成して広ダイナミックレンジ画像とするのに適するように階調補正するものであり、上記適正露光抽出部11により抽出された適正露光領域について上記特徴量算出部10から出力されるエッジ成分からエッジを判別してエッジヒストグラムを作成するヒストグラム作成手段たるヒストグラム作成部30と、このエッジヒストグラムに基づき階調変換曲線を算出する階調変換曲線算出手段たる変換曲線算出部31と、算出された階調変換曲線に基づき上記特徴量算出部10から出力される画像データの階調補正を行う変換手段たる変換部32とを有して構成されている。   The gradation correction unit 12 performs gradation correction so that the long exposure image and the short exposure image are combined by the subsequent image composition interpolation unit 13 to be suitable for a wide dynamic range image. A histogram creation unit 30 that is a histogram creation unit that creates an edge histogram by discriminating an edge from the edge component output from the feature amount calculation unit 10 for the appropriate exposure region extracted by the proper exposure extraction unit 11, and the edge histogram A conversion curve calculation unit 31 that is a gradation conversion curve calculation unit that calculates a gradation conversion curve based on the conversion, and a conversion that performs gradation correction of the image data output from the feature amount calculation unit 10 based on the calculated gradation conversion curve And a conversion unit 32 as means.

次に、図6は、階調変換特性の算出処理を示すフローチャートであり、図4は、ベイヤー配列の原色系フィルタCCDにおけるエッジ成分を算出する手段を示す図である。   Next, FIG. 6 is a flowchart showing a calculation process of gradation conversion characteristics, and FIG. 4 is a diagram showing means for calculating edge components in the primary color filter CCD having the Bayer array.

まず、単板でなる上記CCD4が、図4(A)に示すような原色ベイヤー配列のカラーフィルタアレイを備えたものである場合について説明する。   First, the case where the CCD 4 made of a single plate is provided with a color filter array having a primary color Bayer arrangement as shown in FIG.

このCCD4に結像された被写体像は、異なる露光条件で複数回撮像されるようになっており、上述したように、例えば長時間露光による撮像と短時間露光による撮像とがこの順に行われて、順次画像信号として出力される。   The subject image formed on the CCD 4 is captured a plurality of times under different exposure conditions, and as described above, for example, imaging by long exposure and imaging by short exposure are performed in this order. Are sequentially output as image signals.

これらの画像信号は、A/D変換器5によってデジタル信号に変換された後に、第1画像用バッファ6aと第2画像用バッファ6bにそれぞれ記憶される。   These image signals are converted into digital signals by the A / D converter 5 and then stored in the first image buffer 6a and the second image buffer 6b, respectively.

上記測光評価部7と合焦点検出部8は、これらの内の一方の第1画像用バッファ6aに蓄積された長時間露光の画像データに基づいて、AE情報とAF情報を制御部17にそれぞれ出力する。   The photometric evaluation unit 7 and the in-focus detection unit 8 send the AE information and the AF information to the control unit 17 based on the long-exposure image data stored in the first image buffer 6a. Output.

一方、特徴量算出部10は、上記第1画像用バッファ6aおよび第2画像用バッファ6bに記憶されている画像データを、画素配列に沿う所定方向に順次読み込むことにより(ステップS1)、映像信号の走査を行う(ステップS2)。   On the other hand, the feature amount calculation unit 10 sequentially reads the image data stored in the first image buffer 6a and the second image buffer 6b in a predetermined direction along the pixel array (step S1), thereby generating a video signal. Is scanned (step S2).

そして、局所領域抽出部20において、図4(A)に示すような例えば5×5画素でなる局所領域の信号を抽出して(ステップS3)、この局所領域の信号を後段の階調補正部12で使用するために出力する(ステップS4)とともに、作業用バッファ21に一旦記憶させておく。   Then, the local region extraction unit 20 extracts a local region signal having, for example, 5 × 5 pixels as shown in FIG. 4A (step S3), and the local region signal is converted into a subsequent gradation correction unit. 12 for use (step S4) and temporarily stored in the work buffer 21.

第1信号抽出部22は、この作業用バッファ21に記憶されている図4(A)に示すような局所領域のデータから、輝度信号に相当する第1信号を抽出する(ステップS5)。   The first signal extraction unit 22 extracts the first signal corresponding to the luminance signal from the local region data as shown in FIG. 4A stored in the work buffer 21 (step S5).

すなわち、この第1信号抽出部22においては、縦横に配列された画素同士の間の格子点となる位置、つまり、縦方向および横方向に各0.5画素分ずらした画素位置における輝度信号を、G信号で代用して補間演算し抽出するようになっている。   That is, in the first signal extraction unit 22, the luminance signal at the position that becomes the lattice point between the pixels arranged in the vertical and horizontal directions, that is, the pixel position that is shifted by 0.5 pixels in the vertical and horizontal directions, is obtained. The G signal is substituted for interpolation and extracted.

具体的には、図4(B)に示すように、画素G1 と画素G3 との間の格子点の相対的な輝度相当信号をG1 +G3 として算出し、同様に、画素G1 と画素G4 との間の格子点の相対的な輝度相当信号をG1 +G4 、画素G3 と画素G6 との間の格子点の相対的な輝度相当信号をG3 +G6 、画素G4 と画素G6 との間の格子点の相対的な輝度相当信号をG4 +G6 、などととして算出する。   Specifically, as shown in FIG. 4B, the relative luminance equivalent signal of the lattice point between the pixel G1 and the pixel G3 is calculated as G1 + G3. Similarly, the pixel G1 and the pixel G4 The relative luminance equivalent signal of the grid point between G1 + G4, the relative luminance equivalent signal of the grid point between the pixel G3 and the pixel G6 is G3 + G6, and the relative luminance of the grid point between the pixel G4 and the pixel G6 A typical luminance equivalent signal is calculated as G4 + G6, etc.

このG信号で代用した輝度相当信号は、本来ならば2で除算して平均値をとるべきであるが、後段の適正露光抽出部11において適正露光域を抽出するためには、相対的な信号でも事足りるために、2で除算するのを省くことにより、演算回数を減少させている。   The luminance equivalent signal substituted with the G signal should be divided by 2 to obtain an average value, but in order to extract a proper exposure area in the proper exposure extraction unit 11 in the subsequent stage, a relative signal is used. However, in order to suffice, the number of operations is reduced by omitting division by two.

こうして第1信号である輝度相当信号が算出されたら、第1信号抽出部22から適正露光抽出部11に出力する(ステップS6)。   When the luminance-corresponding signal as the first signal is calculated in this way, it is output from the first signal extraction unit 22 to the appropriate exposure extraction unit 11 (step S6).

次に、第2信号抽出部23は、上記作業用バッファ21に記憶されている図4(A)に示すような局所領域のデータから、特徴量であるエッジ成分(第2信号)を抽出する(ステップS7)。   Next, the second signal extraction unit 23 extracts an edge component (second signal), which is a feature amount, from local area data as shown in FIG. 4A stored in the work buffer 21. (Step S7).

すなわち、この第2信号抽出部23においては、例えばラプラシアン等の2次微分フィルタをかけることにより、第2信号であるエッジ成分を取り出すようになっている。2次元のラプラシアンは、良く知られているように、x方向の2階微分とy方向の2階微分との線形結合でなる。従って、図4(C)に示すような格子点の内の符号cで示す点におけるエッジ成分をラプラシアンにより求める際には、点cを中心としてx方向およびy方向にそれぞれ2階差分をとって線形結合することにより行われる。   That is, the second signal extraction unit 23 extracts an edge component as the second signal by applying a second-order differential filter such as Laplacian. As is well known, the two-dimensional Laplacian is composed of a linear combination of a second-order derivative in the x direction and a second-order derivative in the y direction. Therefore, when the edge component at the point indicated by symbol c among the lattice points as shown in FIG. 4C is obtained by Laplacian, second-order differences are taken in the x direction and the y direction with respect to point c. This is done by linear combination.

まず、x方向についての2階差分は、
(c−b)−(d−c)=2c−b−d
であり、y方向についての2階差分は、
(c−a)−(e−c)=2c−a−e
となるために、結局、
cのエッジ=|4c−a−b−d−e|
を算出すればよいことになる。
First, the second-order difference in the x direction is
(C−b) − (d−c) = 2c−b−d
And the second-order difference in the y direction is
(C−a) − (e−c) = 2c−a−e
In the end,
c edge = | 4c−a−b−d−e |
Can be calculated.

図4(A)の点I1 を点cとしたときには、a,b,c,d,eの各格子点における輝度相当信号は、
a=(G1 +G4 )
b=(G3 +G6 )
c=(G4 +G6 )
d=(G4 +G7 )
e=(G6 +G9 )
となるために、これらを代入すれば、点I1 のエッジ成分は、
I1 =|2(G4 +G6 )−G1 −G3 −G7 −G9 |
として求められることが分かる。
When the point I1 in FIG. 4A is the point c, the luminance equivalent signals at the lattice points a, b, c, d and e are as follows:
a = (G1 + G4)
b = (G3 + G6)
c = (G4 + G6)
d = (G4 + G7)
e = (G6 + G9)
Therefore, if these are substituted, the edge component of the point I1 is
I1 = | 2 (G4 + G6) -G1-G3-G7-G9 |
It can be seen that

図4(A)に示したような5×5画素でなる局所領域においては、さらに、点I2 ,I3 ,I4 のエッジ成分も求めることができ、それぞれ、
I2 =|2(G4 +G7 )−G2 −G5 −G6 −G9 |
I3 =|2(G6 +G9 )−G4 −G7 −G8 −G11|
I4 =|2(G7 +G9 )−G4 −G6 −G10−G12|
となる。
In the local region of 5 × 5 pixels as shown in FIG. 4A, the edge components of the points I2, I3, and I4 can be obtained.
I2 = | 2 (G4 + G7) -G2-G5-G6-G9 |
I3 = | 2 (G6 + G9) -G4-G7-G8-G11 |
I4 = | 2 (G7 + G9) -G4-G6-G10-G12 |
It becomes.

このような5×5画素単位の処理を2画素間隔で繰り返して行うことにより、画面周辺の2行2列を除いた全画面のエッジ成分を算出することができる。   By repeating such processing in 5 × 5 pixel units at intervals of two pixels, it is possible to calculate edge components of the entire screen excluding 2 rows and 2 columns around the screen.

上記点I1 ,I2 ,I3 ,I4 のエッジ成分を算出する式を見れば分かるように、係数2が乗算されている()内の量は、各点I1 ,I2 ,I3 ,I4 における輝度相当信号となっている。すなわち、輝度相当信号である第1信号は、特徴量であるエッジ成分を算出する過程で得られるようになっている。   As can be seen from the equations for calculating the edge components of the points I1, I2, I3, and I4, the quantities in parentheses multiplied by the coefficient 2 are the luminance equivalent signals at the points I1, I2, I3, and I4. It has become. That is, the first signal that is a luminance equivalent signal is obtained in the process of calculating the edge component that is the feature amount.

このような処理における演算回数は、一格子点毎に、輝度相当信号である第1信号を算出する際に加算を1回行い、さらにエッジ成分を続けて算出する過程で、減算を4回、乗算を1回、絶対値をとる論理演算を1回うだけで済むようになっている。   The number of operations in such processing is as follows. For each grid point, when the first signal, which is a luminance-corresponding signal, is calculated, addition is performed once, and in the process of calculating the edge component continuously, subtraction is performed four times. Only one multiplication and one logical operation that takes an absolute value are required.

また、この処理は、単板データを3板データに補間処理するときのような画素位置に応じた分岐処理が不要となるために、近年の複数段のパイプライン処理を行うことができるプロセッサ等を有効に用いて、深い段数での処理を行うことが可能となり、処理速度を向上させることができる。   In addition, since this processing does not require branch processing according to the pixel position as in the case of interpolating single-plate data into three-plate data, a processor or the like that can perform recent multi-stage pipeline processing, etc. It is possible to perform processing with a deep number of stages by effectively using, and the processing speed can be improved.

この第2信号抽出部23から出力される第2信号は、上記階調補正部12に入力される。   The second signal output from the second signal extraction unit 23 is input to the gradation correction unit 12.

階調補正部12のヒストグラム作成部30は、上記制御部15の指令により、上記第2信号抽出部23から出力されたエッジ成分と、上記適正露光抽出部11から出力される適正露光領域情報とに基づいて、エッジヒストグラムを算出する(ステップS8)。   The histogram creation unit 30 of the gradation correction unit 12 receives the edge component output from the second signal extraction unit 23 and the appropriate exposure area information output from the appropriate exposure extraction unit 11 according to the command of the control unit 15. Based on the above, an edge histogram is calculated (step S8).

ここに、上記適正露光抽出部11は、上記第1画像用バッファ6aから読み出した長時間露光の画像データから得られる輝度相当信号である第1信号に基づいて、長時間露光に係る適正露光域を判断し、それ以外の部分を短時間露光に係る適正露光域とするようになっている。   Here, the appropriate exposure extraction unit 11 performs an appropriate exposure area related to the long exposure based on the first signal which is a luminance equivalent signal obtained from the image data of the long exposure read from the first image buffer 6a. The other portions are set as appropriate exposure areas for short-time exposure.

つまり、適正露光抽出部11において、上述したようにG信号を補間して作成された格子点における輝度相当信号の信号レベルを、所定値と比較することにより、その画素が、適切な露光であるか否かを判別し、適正露光と判断された画素の集合を長時間露光画像における適正露光域として、その結果を上記ヒストグラム作成部30に出力する。   In other words, the appropriate exposure extraction unit 11 compares the signal level of the luminance equivalent signal at the lattice point created by interpolating the G signal as described above with a predetermined value, so that the pixel has appropriate exposure. The set of pixels determined to be appropriate exposure is set as the appropriate exposure area in the long-time exposure image, and the result is output to the histogram creating unit 30.

こうして、ヒストグラム作成部30において、適正露光領域内のエッジ成分と所定の閾値とを比較することにより、エッジを抽出する。このときの閾値との比較による2値化処理では、論理演算1回を画素数分だけ行うことになる。   In this way, the histogram creation unit 30 extracts the edge by comparing the edge component in the appropriate exposure region with the predetermined threshold value. In the binarization process by comparison with the threshold value at this time, one logical operation is performed for the number of pixels.

さらに、ヒストグラム作成部30は、エッジを構成する画素の輝度レベルに対する出現頻度を示すエッジヒストグラムを作成する。このエッジヒストグラムの算出においては、例えば、加算1,減算2,除算2,論理1の各演算が画素数分だけ行われることになる。   Further, the histogram creation unit 30 creates an edge histogram indicating the appearance frequency with respect to the luminance level of the pixels constituting the edge. In the calculation of the edge histogram, for example, each operation of addition, subtraction 2, division 2, and logic 1 is performed for the number of pixels.

こうしてヒストグラム作成部30は、適正露光領域内の全ての画素について走査をし終えてエッジヒストグラムを作成したところで(ステップS9)、そのエッジヒストグラムを変換曲線算出部31に出力する。   Thus, when the histogram creation unit 30 finishes scanning all the pixels in the appropriate exposure region and creates an edge histogram (step S9), the histogram creation unit 30 outputs the edge histogram to the conversion curve calculation unit 31.

変換曲線算出部31では、エッジヒストグラムをガウシアンカーネル等を用いてコンボリューションすることにより目標ヒストグラムを生成し、この目標ヒストグラムと上記ヒストグラム作成部30から出力されたエッジヒストグラムとを各積分して累積ヒストグラムに変換し、これらに基づいて階調補正特性となるトーンカーブを算出する(ステップS10)。   The conversion curve calculation unit 31 generates a target histogram by convolving the edge histogram using a Gaussian kernel or the like, and integrates the target histogram and the edge histogram output from the histogram creation unit 30 to accumulate the histogram. Based on these, a tone curve serving as gradation correction characteristics is calculated (step S10).

変換部32は、上記制御部15の指令により、上記局所領域抽出部20から出力される画像データに、この変換曲線算出部31から得られるトーンカーブに基づいた階調補正を行い、階調補正後の画像データを上記画像合成補間部13に出力する。   The conversion unit 32 performs gradation correction on the image data output from the local region extraction unit 20 based on the tone curve obtained from the conversion curve calculation unit 31 in accordance with a command from the control unit 15, thereby correcting the gradation. The subsequent image data is output to the image composition interpolation unit 13.

画像合成補間部13では、上述したように、階調補正された長時間露光の適正露光域に係る画像データと、階調補正された短時間露光の適正露光域に係る画像データとを受け取って合成して3板状態に補間することにより、一の広ダイナミックレンジ画像を生成するようになっている。   As described above, the image composition interpolation unit 13 receives the image data related to the appropriate exposure area of the long-time exposure subjected to the gradation correction and the image data related to the appropriate exposure area of the short-time exposure corrected in the gradation. One wide dynamic range image is generated by synthesizing and interpolating into a three-plate state.

生成された広ダイナミックレンジ画像は、その後、出力部14から出力される。   The generated wide dynamic range image is then output from the output unit 14.

こうして、原色単板のCCD4の場合には、画像データからエッジヒストグラムを算出するまでに、合計で、
(加算2,減算6,乗算1,除算2,論理3)×画素数
だけの演算が行われることになり、上述したような従来における演算回数、
(加算16,減算4,乗算7,除算4,論理6)×画素数
に比してかなり演算回数を減少させることができるために、処理回路の負荷を軽減して処理時間を短縮することが可能となる。
Thus, in the case of the single-color primary plate CCD 4, the edge histogram is calculated from the image data in total,
(Addition 2, subtraction 6, multiplication 1, division 2, logic 3) x The number of pixels is calculated.
Since (addition 16, subtraction 4, multiplication 7, division 4, logic 6) × the number of operations can be considerably reduced as compared with the number of pixels, the processing time can be reduced and the processing time can be shortened. It becomes possible.

さらに、演算途中のデータを記憶するメモリも、算出したエッジ成分を記憶する1画面分のメモリだけで済むために、上述した従来例においては5画面分のメモリが必要であったのに比べて大幅に減少させることができ、回路規模を縮小させて基板面積を小さくすることができるために、処理回路を1チップのIC化する際に大きな利点となる。   Furthermore, since the memory for storing the data in the middle of the calculation is only required for one screen for storing the calculated edge component, the conventional example described above requires a memory for five screens. Since the circuit area can be reduced and the substrate area can be reduced by reducing the circuit scale, it is a great advantage when the processing circuit is made into a one-chip IC.

また、上述したような処理は、原色系のカラーフィルタアレイを備えた単板CCDにのみ適用されるものではなく、図5(A)に示すような補色系のカラーフィルタアレイを備えたものについても同様に適用することができる。図5は、補色系フィルタCCDにおけるエッジ成分を算出する手段を示す図である。   Further, the processing as described above is not applied only to a single-plate CCD having a primary color filter array, but to a process having a complementary color filter array as shown in FIG. Can be applied similarly. FIG. 5 is a diagram showing a means for calculating an edge component in the complementary color filter CCD.

すなわち、局所領域抽出部20において、図5(A)に示すような5×5画素でなる局所領域を抽出し、縦横に配列された画素同士の間の格子点となる位置、つまり、縦横に各0.5画素分ずらした画素位置における輝度相当信号を、図5(B)に示すような補間演算を用いて算出する。   That is, the local region extraction unit 20 extracts a local region of 5 × 5 pixels as shown in FIG. 5A, and positions that are lattice points between pixels arranged vertically and horizontally, that is, vertically and horizontally. A luminance equivalent signal at a pixel position shifted by 0.5 pixels is calculated using an interpolation operation as shown in FIG.

すなわち、各格子点の周りの4つの画素データを加算することにより、図5(B)における4つの格子点に関する輝度相当信号を、(M1 +Y1 +G1 +C1 )、(Y1 +M2 +C1 +G2 )、(G1 +C1 +M4 +Y4 )、(C1 +G2 +Y4 +M5 )などととして算出する。   That is, by adding the four pixel data around each lattice point, the luminance equivalent signals for the four lattice points in FIG. + C1 + M4 + Y4), (C1 + G2 + Y4 + M5), etc.

そして、ラプラシアンを用いた場合には、格子点cにおけるエッジは、上記図4(C)と同様の図5(C)に示すように、
cのエッジ=|4c−a−b−d−e|
として算出されるために、図4(A)の点I1 ,I2 ,I3 ,I4 のエッジ成分は、
I1 =|2(M5 +Y4 +G2 +C1 )
−M2 −M4 −Y1 −Y5 −G1 −G5 −C2 −C4 |
I2 =|2(M5 +Y5 +G2 +C2 )
−M2 −M6 −Y2 −Y4 −G3 −G5 −C1 −C5 |
I3 =|2(M5 +Y4 +G5 +C4 )
−M4 −M8 −Y5 −Y7 −G2 −G4 −C1 −C5 |
I4 =|2(M5 +Y5 +G5 +C5 )
−M6 −M8 −Y4 −Y8 −G2 −G6 −C2 −C4 |
となる。
When Laplacian is used, the edge at the lattice point c is as shown in FIG. 5C, which is the same as FIG.
c edge = | 4c−a−b−d−e |
Therefore, the edge components of points I1, I2, I3 and I4 in FIG.
I1 = | 2 (M5 + Y4 + G2 + C1)
-M2-M4-Y1-Y5-G1-G5-C2-C4 |
I2 = | 2 (M5 + Y5 + G2 + C2)
-M2-M6-Y2-Y4-G3-G5-C1-C5 |
I3 = | 2 (M5 + Y4 + G5 + C4)
-M4 -M8 -Y5 -Y7 -G2 -G4 -C1 -C5 |
I4 = | 2 (M5 + Y5 + G5 + C5)
-M6 -M8 -Y4 -Y8 -G2 -G6 -C2 -C4 |
It becomes.

その後に、この輝度相当信号を2値化処理して、ヒストグラムを作成するのは、上述と同様である。   After that, the luminance equivalent signal is binarized to create a histogram, as described above.

こうして、補色単板のCCD4の場合には、画像データからエッジヒストグラムを算出するまでに、合計で、
(加算4,減算10,乗算1,除算2,論理3)×画素数
だけの演算が行われることになり、上述したような従来における演算回数、
(加算16,減算4,乗算7,除算5,論理7)×画素数
に比してかなり演算回数を減少させることができるために、処理回路の負荷を軽減して処理時間を短縮することが可能となる。
In this way, in the case of the complementary color single-chip CCD 4, the edge histogram is calculated from the image data in total,
(Addition 4, subtraction 10, multiplication 1, division 2, logic 3) × the number of pixels is calculated, and the conventional number of operations as described above,
Since (addition 16, subtraction 4, multiplication 7, division 5, logic 7) × the number of operations can be considerably reduced as compared with the number of pixels, the processing time can be reduced and the processing time can be shortened. It becomes possible.

さらに、演算途中のデータを記憶するメモリとしても、算出したエッジ成分を記憶する1画面分のメモリで済むために、上述した従来例においては6画面分のメモリが必要であったのに比べて大幅に減少させることができ、回路規模を縮小させて基板面積を小さくすることができるために、処理回路を1チップのIC化する際に大きな利点となる。   Further, since the memory for storing the data in the middle of calculation only needs one screen of memory for storing the calculated edge component, the conventional example described above requires six screens of memory. Since the circuit area can be reduced and the substrate area can be reduced by reducing the circuit scale, it is a great advantage when the processing circuit is made into a one-chip IC.

このような実施形態によれば、より少ない演算回数で階調補正を行うことができるために、処理回路の負荷を軽減して処理時間を短縮することが可能となる。さらに、演算途中のデータを記憶するメモリが1画面分のもので済むために、必要なメモリ量を大幅に減少させることができて、回路規模を縮小させて基板面積を小さくすることが可能となるために、処理回路を1チップのIC化する際に大きな利点となる。   According to such an embodiment, since gradation correction can be performed with a smaller number of computations, the processing time can be reduced by reducing the load on the processing circuit. Furthermore, since the memory for storing the data in the middle of the calculation is only required for one screen, the required memory amount can be greatly reduced, and the circuit area can be reduced to reduce the board area. Therefore, this is a great advantage when the processing circuit is made into a one-chip IC.

なお、本発明は上述した実施形態に限定されるものではなく、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。   It should be noted that the present invention is not limited to the above-described embodiments, and various modifications and applications can be made without departing from the spirit of the invention.

本発明の実施形態の電子カメラの基本的な構成を示すブロック図。1 is a block diagram showing a basic configuration of an electronic camera according to an embodiment of the present invention. 上記実施形態の特徴量算出部の詳細な構成を示すブロック図。The block diagram which shows the detailed structure of the feature-value calculation part of the said embodiment. 上記実施形態の階調補正部の詳細な構成を示すブロック図。The block diagram which shows the detailed structure of the gradation correction | amendment part of the said embodiment. 上記実施形態において、ベイヤー配列の原色系フィルタCCDにおけるエッジ成分を算出する手段を示す図。The figure which shows the means to calculate the edge component in the primary color system filter CCD of a Bayer arrangement in the said embodiment. 上記実施形態において、補色系フィルタCCDにおけるエッジ成分を算出する手段を示す図。The figure which shows the means which calculates the edge component in complementary color system filter CCD in the said embodiment. 上記実施形態における階調変換特性の算出処理を示すフローチャート。6 is a flowchart showing calculation processing of gradation conversion characteristics in the embodiment.

符号の説明Explanation of symbols

4…CCD
6a…第1画像用バッファ
6b…第2画像用バッファ
10…特徴量算出部(特徴量算出手段)
11…適正露光抽出部(適正露光抽出手段)
12…階調補正部(階調補正手段)
13…画像合成補間部(合成手段)
14…出力部
15…制御部
20…局所領域抽出部(局所領域抽出手段)
21…作業用バッファ
22…第1信号抽出部(エッジ算出手段)
23…第2信号抽出部(エッジ算出手段)
30…ヒストグラム作成部(ヒストグラム作成手段)
31…変換曲線算出部(階調変換曲線算出手段)
32…変換部(変換手段)
4 ... CCD
6a... First image buffer 6b. Second image buffer 10... Feature amount calculation unit (feature amount calculation means)
11 ... Proper exposure extraction unit (Proper exposure extraction means)
12 ... gradation correction part (gradation correction means)
13: Image composition interpolation unit (composition means)
DESCRIPTION OF SYMBOLS 14 ... Output part 15 ... Control part 20 ... Local area extraction part (local area extraction means)
21 ... Working buffer 22 ... First signal extracting unit (edge calculating means)
23: Second signal extraction unit (edge calculation means)
30 ... Histogram creation section (histogram creation means)
31: Conversion curve calculation unit (tone conversion curve calculation means)
32 ... Conversion unit (conversion means)

Claims (16)

同一被写体に対して異なる露光条件で撮像された複数の画像からなる画像群を処理して一の広ダイナミックレンジ画像を生成する画像処理装置であって、
上記画像群中の各画像毎に整数座標外の画素位置を中心として所定サイズの局所領域を抽出する局所領域抽出手段と、
上記局所領域内の画素情報から、一の整数座標外の画素位置における輝度信号に相当する信号である第1の輝度相当信号と、上記一の整数座標外の画素位置から縦方向又は横方向に1画素分離れた位置に存在する他の整数座標外の画素位置における輝度信号に相当する信号である第2の輝度相当信号と、を画像の特徴量として求めるとともに、その求めた第1の輝度相当信号と第2の輝度相当信号との差分として示される微分フィルタを用い、上記一の整数座標外の画素位置におけるエッジ成分を画像の特徴量として算出するエッジ算出手段と、
上記エッジ算出手段によるエッジ成分の算出処理を上記抽出した局所領域ごとに行って、画像上の整数座標外の画素位置におけるエッジ成分を画像の特徴量として算出するエッジ算出繰り返し手段と、
上記エッジ算出手段により得られた上記輝度相当信号各々を所定値と比較することで、上記整数座標外の画素位置に対応した画素が適正露光であるか否かを判別して、その適正露光であると判別した画素の集合からなる適正露光域を抽出する適正露光抽出手段と、
上記特徴量に基づき上記適正露光域の階調補正を行う階調補正手段と、
この階調補正手段により階調補正された適正露光域を合成して3板状態に補間することにより一の広ダイナミックレンジ画像を生成する合成手段と、
を具備したことを特徴とする画像処理装置。
An image processing apparatus that generates a single wide dynamic range image by processing an image group consisting of a plurality of images captured under different exposure conditions for the same subject,
Local region extraction means for extracting a local region of a predetermined size centered on a pixel position outside the integer coordinates for each image in the image group;
From the pixel information in the local region, a first luminance equivalent signal that is a signal corresponding to a luminance signal at a pixel position outside one integer coordinate, and a vertical or horizontal direction from the pixel position outside the one integer coordinate. The second luminance equivalent signal, which is a signal corresponding to the luminance signal at the pixel position outside the integer coordinates existing at the position separated by one pixel, is obtained as an image feature amount, and the obtained first luminance is obtained. Edge calculation means for calculating an edge component at a pixel position outside the one integer coordinate as a feature quantity of an image using a differential filter shown as a difference between the equivalent signal and the second luminance equivalent signal;
Edge calculation repetition means for performing edge component calculation processing by the edge calculation means for each of the extracted local regions and calculating an edge component at a pixel position outside the integer coordinates on the image as a feature amount of the image;
By comparing each of the luminance-corresponding signals obtained by the edge calculating means with a predetermined value, it is determined whether or not the pixel corresponding to the pixel position outside the integer coordinates is appropriate exposure. A proper exposure extraction means for extracting a proper exposure area composed of a set of pixels determined to be present;
Gradation correction means for performing gradation correction of the appropriate exposure area based on the feature amount;
A synthesizing unit that generates a single wide dynamic range image by synthesizing an appropriate exposure area that has been tone-corrected by the tone correcting unit and interpolating into a three-plate state;
An image processing apparatus comprising:
上記階調補正手段は、
上記適正露光域を構成する各画素について、その画素に対応した画素位置における上記エッジ成分と所定値との比較結果に基づいてエッジを抽出することで、その抽出したエッジを有する画素の輝度信号とその輝度信号を有する画素の出現頻度との対応関係を示すヒストグラムを作成するヒストグラム作成手段と、
上記ヒストグラムに基づき階調変換曲線を算出する階調変換曲線算出手段と、
上記階調変換曲線を用いて階調変換を行う変換手段と、
を具備したことを特徴とする請求項1に記載の画像処理装置。
The gradation correction means is
For each pixel constituting the appropriate exposure area, by extracting an edge based on a comparison result between the edge component at a pixel position corresponding to the pixel and a predetermined value, a luminance signal of the pixel having the extracted edge; Histogram creation means for creating a histogram showing a correspondence relationship with the appearance frequency of pixels having the luminance signal;
A gradation conversion curve calculating means for calculating a gradation conversion curve based on the histogram;
Conversion means for performing gradation conversion using the gradation conversion curve;
The image processing apparatus according to claim 1, further comprising:
上記複数の画像は、単板の撮像素子を用いて得られた画像であることを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the plurality of images are images obtained using a single-plate image sensor. 上記複数の画像は、原色ベイヤー配列のフィルタを有する単板の撮像素子を用いて得られた画像であり、
上記整数座標外の画素位置は、上記画像群中の各画像毎に水平方向及び垂直方向にそれぞれ1/2画素ずれた位置であり、
上記エッジ算出手段は、上記得られた画像に含まれる局所領域内の画素情報から、上記1/2画素ずれた位置である上記一の整数座標外の画素位置としての一の注目格子点における上記第1の輝度相当信号と、上記一の注目格子点から縦方向または横方向に1画素分離れた位置に存在する格子点である上記他の整数座標外の画素位置としての隣接格子点における上記第2の輝度相当信号とを求め、その求めた第1の輝度相当信号と第2の輝度相当信号をもとに、上記一の整数座標外の画素位置としての上記一の注目格子点におけるエッジ成分を算出することを特徴とする請求項3に記載の画像処理装置。
The plurality of images are images obtained using a single-plate imaging device having a primary color Bayer array filter,
The pixel position outside the integer coordinates is a position shifted by 1/2 pixel in the horizontal direction and the vertical direction for each image in the image group,
The edge calculation unit is configured to output the pixel at one target lattice point as a pixel position outside the one integer coordinate, which is a position shifted by 1/2 pixel from the pixel information in the local region included in the obtained image. The first luminance-corresponding signal and the above-mentioned adjacent lattice points as pixel positions outside the other integer coordinates, which are lattice points that are present in a position separated by one pixel in the vertical or horizontal direction from the one target lattice point. The second luminance equivalent signal is obtained, and based on the obtained first luminance equivalent signal and second luminance equivalent signal, an edge at the one target lattice point as a pixel position outside the one integer coordinate is obtained. The image processing apparatus according to claim 3, wherein a component is calculated.
上記エッジ算出手段は、上記一の注目格子点を共有する二つのG成分の画素情報を用いて、上記一の注目格子点における上記第1の輝度相当信号を求めることを特徴とする請求項4に記載の画像処理装置。   5. The edge calculation unit obtains the first luminance equivalent signal at the one target lattice point using pixel information of two G components sharing the one target lattice point. An image processing apparatus according to 1. 上記エッジ算出手段は、上記隣接格子点を共有する二つのG成分の画素情報を用いて、上記隣接格子点における上記第2の輝度相当信号を求めることを特徴とする請求項4に記載の画像処理装置。   5. The image according to claim 4, wherein the edge calculating unit obtains the second luminance equivalent signal at the adjacent grid point using pixel information of two G components sharing the adjacent grid point. Processing equipment. 上記二つのG成分の画素のそれぞれは、互いに斜め方向に隣接して配置されることを特徴とする請求項5または6に記載の画像処理装置。   7. The image processing apparatus according to claim 5, wherein each of the two G component pixels is disposed adjacent to each other in an oblique direction. 上記エッジ算出手段は、上記二つのG成分の画素情報を加算することで、上記第1の輝度相当信号または上記第2の輝度相当信号を求めることを特徴とする請求項5から7のいずれかに記載の画像処理装置。   8. The edge calculation unit obtains the first luminance equivalent signal or the second luminance equivalent signal by adding the pixel information of the two G components. An image processing apparatus according to 1. 上記隣接格子点は、上記一の注目格子点に対して4つ存在し、
上記エッジ算出手段は、上記一の注目格子点における上記第1の輝度相当信号をcとして算出し、上記一の注目格子点に対応する各隣接格子点における上記第2の輝度相当信号を夫々a、b、d及びeとして算出した後、算出結果を、上記第1の輝度相当信号と上記第2の輝度相当信号との差分に応じて上記一の整数座標外の画素位置におけるエッジ成分が定まる数式|4c−a−b−d−e|に代入することにより、上記一の整数座標外の画素位置としての上記一の注目格子点におけるエッジ成分を算出することを特徴とする請求項4から8のいずれかに記載の画像処理装置。
There are four adjacent grid points with respect to the one target grid point,
The edge calculating means calculates the first luminance equivalent signal at the one target lattice point as c, and calculates the second luminance equivalent signal at each adjacent lattice point corresponding to the one target lattice point as a. , B, d, and e, the edge component at the pixel position outside the one integer coordinate is determined according to the difference between the first luminance equivalent signal and the second luminance equivalent signal. 5. The edge component at the one target lattice point as the pixel position outside the one integer coordinate is calculated by substituting into the equation | 4c−a−b−d−e |. The image processing apparatus according to any one of 8.
上記隣接格子点は、上記一の注目格子点に対して4つ存在し、
上記一の注目格子点は、上記局所領域における中央の画素を構成する4つの格子点のうちのいずれかであり、
上記エッジ算出手段は、上記一の注目格子点における上記第1の輝度相当信号をcとして算出し、上記一の注目格子点に対応する各隣接格子点における上記第2の輝度相当信号を夫々a、b、d及びeとして算出した後、算出結果を、上記第1の輝度相当信号と上記第2の輝度相当信号との差分に応じて上記一の整数座標外の画素位置におけるエッジ成分が定まる数式|4c−a−b−d−e|に代入することにより、上記一の整数座標外の画素位置としての上記一の注目格子点におけるエッジ成分を算出することを特徴とする請求項8に記載の画像処理装置。
There are four adjacent grid points with respect to the one target grid point,
The one target lattice point is any one of four lattice points constituting a central pixel in the local region,
The edge calculating means calculates the first luminance equivalent signal at the one target lattice point as c, and calculates the second luminance equivalent signal at each adjacent lattice point corresponding to the one target lattice point as a. , B, d, and e, the edge component at the pixel position outside the one integer coordinate is determined according to the difference between the first luminance equivalent signal and the second luminance equivalent signal. 9. The edge component at the one target lattice point as the pixel position outside the one integer coordinate is calculated by substituting into the equation | 4c−a−b−d−e |. The image processing apparatus described.
上記複数の画像は、補色系のフィルタを有する単板の撮像素子を用いて得られた画像であり、
上記整数座標外の画素位置は、上記画像群中の各画像毎に水平方向及び垂直方向にそれぞれ1/2画素ずれた位置であり、
上記エッジ算出手段は、上記得られた画像に含まれる局所領域内の画素情報から、上記1/2画素ずれた位置である上記一の整数座標外の画素位置としての一の注目格子点における上記第1の輝度相当信号と、上記一の注目格子点から縦方向または横方向に1画素分離れた位置に存在する格子点である上記他の整数座標外の画素位置としての隣接格子点における上記第2の輝度相当信号とを求め、その求めた第1の輝度相当信号と第2の輝度相当信号をもとに、上記一の整数座標外の画素位置としての上記一の注目格子点におけるエッジ成分を算出することを特徴とする請求項3に記載の画像処理装置。
The plurality of images are images obtained using a single-plate image sensor having a complementary color filter,
The pixel position outside the integer coordinates is a position shifted by 1/2 pixel in the horizontal direction and the vertical direction for each image in the image group,
The edge calculation unit is configured to output the pixel at one target lattice point as a pixel position outside the one integer coordinate, which is a position shifted by 1/2 pixel from the pixel information in the local region included in the obtained image. The first luminance-corresponding signal and the above-mentioned adjacent lattice points as pixel positions outside the other integer coordinates, which are lattice points that are present in a position separated by one pixel in the vertical or horizontal direction from the one target lattice point. The second luminance equivalent signal is obtained, and based on the obtained first luminance equivalent signal and second luminance equivalent signal, an edge at the one target lattice point as a pixel position outside the one integer coordinate is obtained. The image processing apparatus according to claim 3, wherein a component is calculated.
上記エッジ算出手段は、上記一の注目格子点を共有する四つの画素情報を用いて、上記一の注目格子点における上記第1の輝度相当信号を求めることを特徴とする請求項11に記載の画像処理装置。   The said edge calculation means calculates | requires the said 1st brightness | luminance equivalent signal in the said 1 attention grid point using the four pixel information which shares the said 1 attention grid point. Image processing device. 上記エッジ算出手段は、上記隣接格子点を共有する四つの画素情報を用いて、上記隣接格子点における上記第2の輝度相当信号を求めることを特徴とする請求項11に記載の画像処理装置。   The image processing apparatus according to claim 11, wherein the edge calculation unit obtains the second luminance equivalent signal at the adjacent grid point using four pieces of pixel information sharing the adjacent grid point. 上記エッジ算出手段は、上記四つの画素のそれぞれの画素情報を加算することで、上記第1の輝度相当信号または上記第2の輝度相当信号を求めることを特徴とする請求項12または13に記載の画像処理装置。   14. The edge calculation unit obtains the first luminance equivalent signal or the second luminance equivalent signal by adding pixel information of each of the four pixels. Image processing apparatus. 上記隣接格子点は、上記一の注目格子点に対して4つ存在し、
上記エッジ算出手段は、上記一の注目格子点における上記第1の輝度相当信号をcとして算出し、各隣接格子点における上記第2の輝度相当信号を夫々a、b、d及びeとして算出した後、算出結果を、上記第1の輝度相当信号と上記第2の輝度相当信号との差分に応じて上記一の整数座標外の画素位置におけるエッジ成分が定まる数式|4c−a−b−d−e|に代入することにより、上記一の整数座標外の画素位置としての上記一の注目格子点におけるエッジ成分を算出することを特徴とする請求項11から14のいずれかに記載の画像処理装置。
There are four adjacent grid points with respect to the one target grid point,
The edge calculating means calculates the first luminance equivalent signal at the one target lattice point as c, and calculates the second luminance equivalent signal at each adjacent lattice point as a, b, d, and e, respectively. Thereafter, the calculation result is expressed by a mathematical expression | 4c−a−b−d in which an edge component at a pixel position outside the one integer coordinate is determined according to a difference between the first luminance equivalent signal and the second luminance equivalent signal. The image processing according to claim 11, wherein an edge component at the one target lattice point as a pixel position outside the one integer coordinate is calculated by substituting into −e |. apparatus.
上記隣接格子点は、上記一の注目格子点に対して4つ存在し、
上記一の注目格子点は、上記局所領域における中央の画素を構成する4つの格子点のうちのいずれかであり、
上記エッジ算出手段は、上記一の注目格子点における上記第1の輝度相当信号をcとして算出し、上記一の注目格子点に対応する各隣接格子点における上記第2の輝度相当信号を夫々a、b、d及びeとして算出した後、算出結果を、上記第1の輝度相当信号と上記第2の輝度相当信号との差分に応じて上記一の整数座標外の画素位置におけるエッジ成分が定まる数式|4c−a−b−d−e|に代入することにより、上記一の整数座標外の画素位置としての上記一の注目格子点におけるエッジ成分を算出することを特徴とする請求項14に記載の画像処理装置。
There are four adjacent grid points with respect to the one target grid point,
The one target lattice point is any one of four lattice points constituting a central pixel in the local region,
The edge calculating means calculates the first luminance equivalent signal at the one target lattice point as c, and calculates the second luminance equivalent signal at each adjacent lattice point corresponding to the one target lattice point as a. , B, d, and e, the edge component at the pixel position outside the one integer coordinate is determined according to the difference between the first luminance equivalent signal and the second luminance equivalent signal. 15. The edge component at the one target lattice point as a pixel position outside the one integer coordinate is calculated by substituting into the equation | 4c-a-bd-e |. The image processing apparatus described.
JP2008219421A 2008-08-28 2008-08-28 Image processing device Withdrawn JP2009017583A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008219421A JP2009017583A (en) 2008-08-28 2008-08-28 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008219421A JP2009017583A (en) 2008-08-28 2008-08-28 Image processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000050073A Division JP4197821B2 (en) 2000-02-25 2000-02-25 Image processing device

Publications (1)

Publication Number Publication Date
JP2009017583A true JP2009017583A (en) 2009-01-22

Family

ID=40357825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008219421A Withdrawn JP2009017583A (en) 2008-08-28 2008-08-28 Image processing device

Country Status (1)

Country Link
JP (1) JP2009017583A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013168658A1 (en) * 2012-05-07 2013-11-14 株式会社ニコン Focus detection device
KR101653622B1 (en) * 2015-05-07 2016-09-05 고려대학교 산학협력단 Image sensor for extracting edge information

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013168658A1 (en) * 2012-05-07 2013-11-14 株式会社ニコン Focus detection device
CN104285173A (en) * 2012-05-07 2015-01-14 株式会社尼康 Focus detection device
US9497374B2 (en) 2012-05-07 2016-11-15 Nikon Corporation Focus detection device
KR101653622B1 (en) * 2015-05-07 2016-09-05 고려대학교 산학협력단 Image sensor for extracting edge information
US10554919B2 (en) 2015-05-07 2020-02-04 Korea University Research And Business Foundation Image sensor for extracting edge information

Similar Documents

Publication Publication Date Title
JP4284628B2 (en) IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, PROGRAM FOR IMAGE PROCESSING METHOD, AND RECORDING MEDIUM CONTAINING PROGRAM FOR IMAGE PROCESSING METHOD
JP5016255B2 (en) Noise reduction apparatus, control method thereof, control program thereof, imaging apparatus, and digital camera
JP5840008B2 (en) Image processing apparatus, image processing method, and program
JP4668185B2 (en) Image processing method
JP6046927B2 (en) Image processing apparatus and control method thereof
JP2007288439A (en) Image processing apparatus and method therefor
JP2009124552A (en) Noise reduction system, noise reduction program and imaging system
WO2016047240A1 (en) Image processing device, image pickup element, image pickup device, and image processing method
US8520099B2 (en) Imaging apparatus, integrated circuit, and image processing method
JP2009157647A (en) Image processing circuit, imaging apparatus, method and program
JP2008311874A (en) Image processor, image processing program and image processing method
US8077234B2 (en) Image pickup device and method for processing an interpolated color signal
JP5268321B2 (en) Image processing apparatus, image processing method, and image processing program
JP2009017583A (en) Image processing device
JP4380399B2 (en) Imaging apparatus, noise reduction apparatus, noise reduction method, and program
JP4197821B2 (en) Image processing device
JP5919086B2 (en) Image processing apparatus, control method therefor, and program
JP2010178226A (en) Imaging apparatus, chromatic aberration suppressing method, and chromatic aberration suppressing circuit, and program
JP4633525B2 (en) Focus detection device
JP7183015B2 (en) Image processing device, image processing method, and program
JP2010056817A (en) Imaging apparatus
JP2016082390A (en) Signal processing unit
JP2003134523A (en) Image pickup apparatus and method
JP2006245916A (en) Circuit and method for processing color separation
WO2016051911A1 (en) Image processing device, imaging device, image processing method, and program

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090918