JP2009022044A - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP2009022044A
JP2009022044A JP2008263114A JP2008263114A JP2009022044A JP 2009022044 A JP2009022044 A JP 2009022044A JP 2008263114 A JP2008263114 A JP 2008263114A JP 2008263114 A JP2008263114 A JP 2008263114A JP 2009022044 A JP2009022044 A JP 2009022044A
Authority
JP
Japan
Prior art keywords
image
color difference
luminance signal
luminance
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008263114A
Other languages
Japanese (ja)
Inventor
Takeo Tsuruoka
建夫 鶴岡
Kazuhito Horiuchi
一仁 堀内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2008263114A priority Critical patent/JP2009022044A/en
Publication of JP2009022044A publication Critical patent/JP2009022044A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus and image processing program with which adjustment can be performed, in such a way as to obtain an image of optimal saturation, after gradation correction. <P>SOLUTION: The present invention relates to an image processing apparatus comprising a photographic situation estimating section 18 for estimating a photographic situation, on the bais of photometric information of a photometric evaluating section 7 and focusing information of a focal point detecting section 8; a Y/C-separating section 12 for separating a long-time exposure image and a short-time exposure image into a luminance signal and a color difference signal, respectively; a proper exposure extracting section 13 for extracting a proper exposure area, on the basis of a luminance signal level of the long-time exposure image; a luminance-correcting section 32 for performing gradation correction, by weighting the luminance signal in the proper exposure area, according to the photographic situation; a color difference correcting section 33 for correcting the color difference signal in the proper exposure area, on the basis of the luminance signal, before and after the gradation correction and theoretical limit characteristics of color reproduction; a Y/C-combining section 34 for combining the luminance signal and the color difference signal, after the correction; and an image combining section 15 for combining the long-time exposure image and the short-time exposure image after Y/C-combining, to produce a wide dynamic range image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理装置及び画像処理プログラムに係り、より詳しくは、異なる露光条件で撮像された複数の画像から一の広ダイナミックレンジ画像を生成する画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program, and more particularly to an image processing apparatus and an image processing program that generate one wide dynamic range image from a plurality of images captured under different exposure conditions.

従来より、異なる露光条件で撮像された複数の画像を合成して一の広ダイナミックレンジ画像を生成する画像処理装置が提案されている。   2. Description of the Related Art Conventionally, there has been proposed an image processing apparatus that generates a single wide dynamic range image by combining a plurality of images captured under different exposure conditions.

このようなものの一例として、特願平11−338551号(特開2000−228747号公報)には、各画像を適正露光領域と不適正露光領域に分割して、各適正露光領域毎に階調補正を行い、階調補正された各画像毎の適正露光領域を合成して一の広ダイナミックレンジ画像を生成する画像処理装置が記載されており、さらに、この画像処理装置を適用した機器の例として、被写体をより広いダイナミックレンジで撮像することができるスーパーラチチュードデジタルカメラが記載されている。   As an example of such a technique, Japanese Patent Application No. 11-338551 (Japanese Patent Laid-Open No. 2000-228747) divides each image into a proper exposure area and an improper exposure area, and a gradation for each appropriate exposure area. An image processing apparatus is described that performs correction and synthesizes a proper exposure area for each image that has been subjected to gradation correction to generate one wide dynamic range image, and further, an example of an apparatus to which this image processing apparatus is applied Describes a super latitude digital camera that can image a subject in a wider dynamic range.

このスーパーラチチュードデジタルカメラにおける階調変換処理は、エッジ部のヒストグラム平坦化に基づいて行っており、このヒストグラム平坦化は、主要被写体はエッジが多く、背景などの非主要部はエッジが少ないことを前提とした技術である。   The gradation conversion processing in this super latitude digital camera is performed based on the histogram flattening of the edge portion, and this histogram flattening indicates that the main subject has many edges and the non-major portion such as the background has few edges. This is a prerequisite technology.

一方、従来のデジタルカメラでは、輝度信号を階調変換するときの係数に基づいて色差信号も変換するようになっている。すなわち、輝度Yorg が階調変換特性FによりYtra =F(Yorg )のように変換されるものとすると、従来においては、輝度信号の変換係数gainを、
gain=Ytra /Yorg
として求めて、この変換係数をそのまま用いて、
Cbtra =gain・Cborg
Crtra =gain・Crorg
のように色差信号の変換を行っていた。
特開2000−228747号公報
On the other hand, in a conventional digital camera, a color difference signal is also converted based on a coefficient when a luminance signal is subjected to gradation conversion. That is, if the luminance Yorg is converted by the gradation conversion characteristic F as Ytra = F (Yorg), conventionally, the luminance signal conversion coefficient gain is
gain = Ytra / Yorg
Using this conversion coefficient as it is,
Cbtra = gain ・ Cborg
Crtra = gain ・ Crorg
The color difference signal was converted as shown in FIG.
JP 2000-228747 A

上述したような主要被写体にはエッジが多いという前提に基づくヒストグラム平坦化の技術は、比較的広い範囲の被写体に対応することができるものではあるが、対応しきれない場合もあり得る。こうした例外に該当する可能性のある例としては、複雑な形状や輪郭を有する背景の下で人物が比較的小さく写っている場合が挙げられる。このときには、背景部からエッジが多く検出されるために該背景が主要被写体であると判断されてしまい、人物に割り当てられる階調幅が少なくなってしまうことになる。   Histogram flattening technology based on the premise that the main subject has many edges as described above can deal with a relatively wide range of subjects, but may not be able to cope with it. An example that may fall under such an exception is when a person is shown relatively small under a background having a complicated shape or outline. At this time, since many edges are detected from the background portion, it is determined that the background is the main subject, and the gradation width assigned to the person is reduced.

また、上述したような色差信号を輝度信号と同様の変換係数を用いて階調変換する技術では、高輝度部で不自然な色が生成されることがある。すなわち、色空間(例えばY,Cb,Cr空間)内における色再現には理論限界特性(本発明の実施形態を示す図11参照)があり、この色再現の理論限界特性は、大筋において、輝度Yを増加させて行くに従い色再現可能な色差範囲が広がり、ある輝度Yを越えたところで今度は色再現可能な色差範囲が狭まるという特性となっている。つまり、輝度が低ければ全体が黒っぽくなるために色再現範囲が狭く、適宜の輝度では広い範囲の色を再現することができ、さらに輝度が高くなると全体に白っぽくなるために色再現範囲が再び狭くなるという特性である。   Further, in the technique of converting the gradation of the color difference signal as described above using the same conversion coefficient as that of the luminance signal, an unnatural color may be generated in the high luminance portion. That is, there is a theoretical limit characteristic (see FIG. 11 showing the embodiment of the present invention) for color reproduction in a color space (for example, Y, Cb, Cr space). As Y increases, the color difference range in which color reproduction is possible widens, and when a certain luminance Y is exceeded, the color difference range in which color reproduction can be performed is narrowed. In other words, if the luminance is low, the entire image becomes blackish, so the color reproduction range is narrow, and with a suitable luminance, a wide range of colors can be reproduced. It is a characteristic that

こうした色再現範囲を考慮することなく輝度と同様に階調変換をしてしまうと、色再現範囲の限界に近づいたりあるいは越えてしまったりして、階調変換後の色が白っぽくなることがあった。こうした課題に対応するために、従来においても高輝度部の彩度を抑制する処理を付加してはいたが、充分なものとはいえず、色再現性をより向上させる技術の実現が望まれている。   If gradation conversion is performed in the same way as luminance without considering such a color reproduction range, the color reproduction range may approach or exceed the limit, and the color after gradation conversion may become whitish. It was. In order to deal with these issues, processing to suppress the saturation of high-brightness areas has been added in the past, but this is not sufficient, and the realization of a technology that further improves color reproducibility is desired. ing.

本発明は上記事情に鑑みてなされたものであり、色再現の理論限界特性を考慮したことにより、階調補正後に最適な彩度の画像を得ることができるよう調整を行うことを可能とした画像処理装置及び画像処理プログラムを提供することを目的としている。   The present invention has been made in view of the above circumstances, and by considering the theoretical limit characteristics of color reproduction, it is possible to make adjustments so that an image with optimum saturation can be obtained after gradation correction. An object of the present invention is to provide an image processing apparatus and an image processing program.

上記の目的を達成するために、本発明の一態様による画像処理装置は、同一被写体に対して異なる露光条件で撮像された複数の画像からなる画像群を処理して一の広ダイナミックレンジ画像を生成する画像処理装置であって、
上記画像群中の各画像毎に画像信号を輝度信号と色差信号に分離する輝度色差分離手段と、
上記輝度信号の信号レベルに基づき適正露光域を抽出する抽出手段と、
上記適正露光域の輝度信号に関して階調補正を行う階調補正手段と、
上記輝度色差分離手段から出力された階調補正前の輝度信号と、上記階調補正手段から出力された階調補正後の輝度信号と、色再現の理論限界特性と、に基づいて上記適正露光域の色差信号の補正を行う色差補正手段と、
上記階調補正後の輝度信号と上記補正後の色差信号とをもとの画像信号に合成する輝度色差合成手段と、
上記合成された適正露光域の画像信号を合成することにより一の広ダイナミックレンジ画像を生成する合成手段と、
を備えている。
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention processes an image group made up of a plurality of images captured under different exposure conditions on the same subject to produce one wide dynamic range image. An image processing device to generate,
Luminance color difference separation means for separating an image signal into a luminance signal and a color difference signal for each image in the image group,
Extraction means for extracting an appropriate exposure area based on the signal level of the luminance signal;
Gradation correction means for performing gradation correction on the luminance signal in the appropriate exposure area;
The appropriate exposure based on the luminance signal before gradation correction output from the luminance / color difference separation means, the luminance signal after gradation correction output from the gradation correction means, and the theoretical limit characteristic of color reproduction. Color difference correction means for correcting the color difference signal of the area;
Luminance color difference synthesizing means for synthesizing the luminance signal after gradation correction and the color difference signal after correction into an original image signal;
A synthesizing means for generating one wide dynamic range image by synthesizing the synthesized image signals of the appropriate exposure area;
It has.

また、本発明の一態様による画像処理プログラムは、同一被写体に対して異なる露光条件で撮像された複数の画像からなる画像群を処理して一の広ダイナミックレンジ画像を生成する画像処理プログラムであって、
上記画像群中の各画像毎に画像信号を輝度信号と色差信号に分離する輝度色差分離ステップと、
上記輝度信号の信号レベルに基づき適正露光域を抽出する抽出ステップと、
上記適正露光域の輝度信号に関して階調補正を行う階調補正ステップと、
上記輝度色差分離ステップにより出力された階調補正前の輝度信号と、上記階調補正ステップにより出力された階調補正後の輝度信号と、色再現の理論限界特性と、に基づいて上記適正露光域の色差信号の補正を行う色差補正ステップと、
上記階調補正後の輝度信号と上記補正後の色差信号とをもとの画像信号に合成する輝度色差合成ステップと、
上記合成された適正露光域の画像信号を合成することにより一の広ダイナミックレンジ画像を生成する合成ステップと、
をコンピュータに実行させるものである。
An image processing program according to an aspect of the present invention is an image processing program for processing an image group composed of a plurality of images captured with different exposure conditions on the same subject to generate one wide dynamic range image. And
A luminance color difference separation step for separating the image signal into a luminance signal and a color difference signal for each image in the image group;
An extraction step for extracting an appropriate exposure area based on the signal level of the luminance signal;
A gradation correction step for performing gradation correction on the luminance signal in the appropriate exposure area;
The appropriate exposure based on the luminance signal before gradation correction output by the luminance / chrominance separation step, the luminance signal after gradation correction output by the gradation correction step, and the theoretical limit characteristic of color reproduction. A color difference correction step for correcting the color difference signal of the area;
Luminance color difference synthesis step for synthesizing the luminance signal after gradation correction and the color difference signal after correction to the original image signal;
A synthesizing step for generating one wide dynamic range image by synthesizing the synthesized image signals of the appropriate exposure area;
Is executed by a computer.

本発明による画像処理装置及び画像処理プログラムは、色再現の理論限界特性を考慮したことにより、階調補正後に最適な彩度の画像を得ることができるよう調整を行うことを可能とした。   The image processing apparatus and the image processing program according to the present invention make it possible to perform adjustment so that an image having optimum saturation can be obtained after gradation correction by considering the theoretical limit characteristics of color reproduction.

以下、図面を参照して本発明の実施の形態を説明する。
図1から図7は本発明の第1の実施形態を示したものであり、図1は電子カメラの基本的な構成を示すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings.
1 to 7 show a first embodiment of the present invention, and FIG. 1 is a block diagram showing a basic configuration of an electronic camera.

本実施形態は、本発明の画像処理装置を電子カメラに適用したものであり、簡単のために短時間露光による画像と長時間露光による画像との2画像を合成して一の広ダイナミックレンジ画像を得る場合について説明するが、もちろんより多数の画像を合成する場合に適用することも可能である。   In the present embodiment, the image processing apparatus of the present invention is applied to an electronic camera. For simplicity, two images of a short-time exposure image and a long-time exposure image are combined to create a single wide dynamic range image. However, the present invention can be applied to a case where a larger number of images are synthesized.

この電子カメラは、電子シャッタ機能を有する単板式のカラーCCD等でなり、被写体像を光電変換して画像信号として出力するためのCCD4と、このCCD4上に被写体像を結像するためのレンズ系1と、このレンズ系1を通過した光束の通過範囲を制御するための絞り2と、この絞り2を通過した光束から不要な高周波成分を除去するための光学フィルタでなるローパスフィルタ3と、上記CCD4から出力された後に図示しない相関二重サンプリング回路等でノイズ成分の除去が行われその後に増幅等がなされたアナログの画像信号をデジタル信号に変換するためのA/D変換器5と、このA/D変換器5によりデジタル化された一画面分の画像データを各蓄積するものであり長時間露光による画像と短時間露光による画像とをそれぞれ記憶する第1画像用バッファ6aおよび第2画像用バッファ6bと、これらの内の測光用および焦点検出用のデータを蓄積するのにも用いられる第1画像用バッファ6aから画像データを読み出して輝度分布を求め撮像時に適正露光となるように上記絞り2の開口径や上記CCD4の電子シャッタを制御する測光評価部7と、上記第1画像用バッファ6aから画像データを読み出して合焦位置の検出を行いその検出結果に基づいて後述するAFモータ9を制御する合焦点検出部8と、この合焦点検出部8に制御されて上記レンズ系1のAF用レンズを駆動し上記CCD4上に被写体像を結像させるようにするAFモータ9と、上記第1,第2画像用バッファ6a,6bから読み出された単板の画像データを補間して3板の画像データに変換する補間部10と、補間後の画像データを蓄積する作業用バッファ11と、この作業用バッファ11から読み出した3板の画像データを輝度信号Yと色差信号Cb,Crとに分離する輝度色差分離手段たるY/C分離部12と、このY/C分離部12からまず輝度信号Yを読み出して、画面全体を構成する各画素について、その画素が適切な露出であるか否かを信号レベルにより判別し、その結果に基づき分割画像情報を抽出して出力する抽出手段たる適正露光抽出部13と、上記測光評価部7から出力される測光情報と上記合焦点検出部8から出力される合焦情報とに基づいて後で詳しく説明するように撮影状況を推定する撮影状況推定手段たる撮影状況推定部18と、この撮影状況推定部18による推定結果を参照して特徴量であるエッジのヒストグラムを算出するときの重み付けを行い変換特性を算出して上記適正露光抽出部13から出力される適正露光域の階調変換を行う階調補正手段たる変換特性算出部14と、上記適正露光抽出部13から出力される領域情報を参照しながら上記変換特性算出部14から出力される階調変換後の長時間露光に係る画像および短時間露光に係る画像を合成して一の広ダイナミックレンジ画像を生成する合成手段たる画像合成部15と、この画像合成部15により合成された広ダイナミックレンジ画像を例えば記録媒体や表示装置などに出力する出力部16と、上記測光評価部7や合焦点検出部8の検出結果を受け取るとともに、上記補間部10、適正露光抽出部13、撮影状況推定部18、変換特性算出部14、画像合成部15、出力部16を含むこの電子カメラ全体の制御を行う制御部17と、を有して構成されている。   This electronic camera is composed of a single-plate color CCD having an electronic shutter function, a CCD 4 for photoelectrically converting a subject image and outputting it as an image signal, and a lens system for forming a subject image on the CCD 4 1, a diaphragm 2 for controlling the passage range of the light beam that has passed through the lens system 1, a low-pass filter 3 that is an optical filter for removing unnecessary high-frequency components from the light beam that has passed through the diaphragm 2, and An A / D converter 5 for converting an analog image signal which has been output from the CCD 4 and then subjected to removal of noise components by a correlated double sampling circuit (not shown) and then amplified to a digital signal, and this The image data for one screen digitized by the A / D converter 5 is accumulated, and an image by long exposure and an image by short exposure are stored. The image data is read out from the first image buffer 6a and the second image buffer 6b to be stored and the first image buffer 6a used for accumulating the photometry and focus detection data. Image data is read from the first image buffer 6a and the photometric evaluation section 7 for controlling the aperture diameter of the diaphragm 2 and the electronic shutter of the CCD 4 so as to obtain a brightness distribution and obtain an appropriate exposure at the time of imaging. An in-focus detection unit 8 that performs detection and controls an AF motor 9 to be described later based on the detection result, and an AF lens of the lens system 1 is driven by the in-focus detection unit 8 to drive an object on the CCD 4 A single plate image data read out from the AF motor 9 for forming an image and the first and second image buffers 6a and 6b is interpolated to be converted into three plate image data. Interpolating unit 10, working buffer 11 for accumulating the interpolated image data, and luminance / chrominance separation for separating the three-plate image data read from the working buffer 11 into luminance signal Y and color difference signals Cb and Cr. First, the luminance signal Y is read from the Y / C separation unit 12 and the Y / C separation unit 12 to determine whether or not each pixel constituting the entire screen has an appropriate exposure according to the signal level. The appropriate exposure extraction unit 13 serving as an extraction unit that discriminates and outputs divided image information based on the result, the photometric information output from the photometric evaluation unit 7 and the focus output from the in-focus detection unit 8. As will be described in detail later based on the information, a shooting situation estimation unit 18 serving as a shooting situation estimation unit that estimates a shooting situation, and an estimation result obtained by the shooting situation estimation unit 18 is referred to as a feature amount. A conversion characteristic calculation unit 14 which is a gradation correction unit that performs weight conversion when calculating the histogram of the image, calculates conversion characteristics, and performs gradation conversion of the appropriate exposure area output from the appropriate exposure extraction unit 13; A wide dynamic image obtained by synthesizing the image related to the long-time exposure and the image related to the short-time exposure after the gradation conversion output from the conversion characteristic calculation unit 14 while referring to the area information output from the exposure extraction unit 13. An image synthesis unit 15 that is a synthesis means for generating a range image, an output unit 16 that outputs a wide dynamic range image synthesized by the image synthesis unit 15 to, for example, a recording medium or a display device, and the photometric evaluation unit 7 While receiving the detection result of the focus detection part 8, the said interpolation part 10, the appropriate exposure extraction part 13, the imaging | photography condition estimation part 18, the conversion characteristic calculation part 14, the image composition part 15, and an output part It is configured to include a control unit 17 for controlling the entire electronic camera containing 6.

次に、図2は、上記撮影状況推定部18の詳細な構成を示すブロック図である。   Next, FIG. 2 is a block diagram showing a detailed configuration of the photographing situation estimation unit 18.

上記合焦点検出部8から出力され制御部17を介して入力される合焦(AF)情報は、合焦位置推定手段たる合焦位置推定部20に入力されて、その被写体距離に応じて例えば風景撮影(5m〜∞)、人物撮影(1m〜5m)、接写撮影(1m以下)の3種類(図5参照)の何れかに分類される。   Focus (AF) information output from the focus detection unit 8 and input via the control unit 17 is input to a focus position estimation unit 20 serving as a focus position estimation unit. It is classified into one of three types (see FIG. 5): landscape photography (5 m to ∞), person photography (1 m to 5 m), and close-up photography (1 m or less).

また、上記測光評価部7から出力されて制御部17を介して入力される測光(AE)情報は、被写体分布推定手段たる被写体分布推定部21に入力されて、その輝度分布が幾つかに分類される。   Photometric (AE) information output from the photometric evaluation unit 7 and input via the control unit 17 is input to the subject distribution estimation unit 21 serving as subject distribution estimation means, and the luminance distribution is classified into several categories. Is done.

具体的には、まず、上記測光評価部7は、CCD4上の領域を例えば図4に示すように13個に分類して、分割測光を行うようになっている。この図4は、評価測光用の分割パターンの一例を示す図である。   Specifically, first, the photometric evaluation section 7 classifies the area on the CCD 4 into 13 as shown in FIG. 4, for example, and performs divided photometry. FIG. 4 is a diagram showing an example of a division pattern for evaluation photometry.

すなわち、最中央部の真ん中の領域をa1 、その左隣をa2 、右隣をa3 とする。   That is, the middle region at the center is a1, the left neighbor is a2, and the right neighbor is a3.

さらに、この最中央部を取り巻く内周部の内の上記領域a1 の上下を各a4 、a5 とし、該領域a4 の左右を各a6 、a7とし、上記領域a5 の左右を各a8 、a9 とする。   Further, the upper and lower sides of the region a1 in the inner peripheral portion surrounding the central portion are a4 and a5, the left and right of the region a4 are a6 and a7, and the left and right of the region a5 are a8 and a9. .

そして、該内周部を取り巻く外周部の内の左上をa10、右上をa11、左下をa12、右下をa13とする。   The upper left of the outer periphery surrounding the inner periphery is a10, the upper right is a11, the lower left is a12, and the lower right is a13.

このような領域による分割測光において、上記被写体分布推定部21は、次の各評価用パラメータを計算する。
[数1]
S1 =|a2 −a3 |
[数2]
S2 =max(|a4 −a6 |,|a4 −a7 |)
[数3]
S3 =max(a10,a11)−Av
Av=(Σai )/13
In the divided photometry in such a region, the subject distribution estimation unit 21 calculates the following evaluation parameters.
[Equation 1]
S1 = | a2 -a3 |
[Equation 2]
S2 = max (| a4 -a6 |, | a4 -a7 |)
[Equation 3]
S3 = max (a10, a11) -Av
Av = (Σai) / 13

すなわち、評価用パラメータS1 は、最中央部の左右の輝度差を示すもの、評価用パラメータS2 は、内周部の上側中央と上側左右の何れかとの輝度差の大きい方を示すもの、評価用パラメータS3は、外周部の上側左右何れか大きい方と画面全体の平均輝度との差を示すものとなっている。   That is, the evaluation parameter S1 indicates the difference in luminance between the left and right of the centermost part, and the evaluation parameter S2 indicates the larger of the difference in luminance between the upper center of the inner peripheral part and the upper and left and right. The parameter S3 indicates the difference between the larger one of the upper left and right sides of the outer peripheral portion and the average luminance of the entire screen.

このような評価用パラメータを被写体分布推定部21から得るとともに、合焦位置の分類を上記合焦位置推定部20から得て、統合手段たる統合部22において図5に示すような統合的な分類を行う。この図5は、AF情報とAE情報からのシーンの分類パターンを示す図表である。   Such an evaluation parameter is obtained from the subject distribution estimation unit 21, and the classification of the focus position is obtained from the focus position estimation unit 20, and the integration unit 22 as the integration means performs the integrated classification as shown in FIG. I do. FIG. 5 is a chart showing scene classification patterns from AF information and AE information.

図示のように、AF情報が5m〜∞のときには、風景撮影であるとして、さらに上記評価用パラメータS3 を所定値Th1 と比較する。このとき、評価用パラメータS3 が所定値Th1 よりも大きければa10またはa11の何れか少なくとも一方は画面全体の平均輝度よりもある程度以上輝度が高いことになるために、上部に空のある風景であると判断する(Type1)。一方、評価用パラメータS3 が所定値Th1 よりも小さい場合には、これとは逆に上部に空がないかまたはあっても少ない風景であると判断する(Type2)。   As shown in the figure, when the AF information is 5 m to ∞, it is determined that the scene photography is performed, and the evaluation parameter S3 is further compared with a predetermined value Th1. At this time, if the evaluation parameter S3 is larger than the predetermined value Th1, at least one of a10 and a11 has a brightness higher than the average brightness of the entire screen to some extent, so that the scenery is empty at the top. (Type 1). On the other hand, if the evaluation parameter S3 is smaller than the predetermined value Th1, on the contrary, it is determined that the scenery is small even if there is no sky in the upper part (Type 2).

次に、AF情報が1m〜5mのときには、人物撮影であるとして、さらに上記評価用パラメータS2 を所定値Th2 と比較する。このとき、評価用パラメータS2 が所定値Th2 よりも大きければ一人のポートレートであると判断し(Type3)、一方、所定値Th2 よりも小さければ複数人のポートレートであると判断する(Type4)。   Next, when the AF information is 1 m to 5 m, it is determined that the image is a person image, and the evaluation parameter S2 is further compared with a predetermined value Th2. At this time, if the evaluation parameter S2 is larger than the predetermined value Th2, it is determined that the portrait is a single person (Type 3), whereas if it is smaller than the predetermined value Th2, it is determined that the portrait is a plurality of persons (Type 4). .

さらに、AF情報が1m以下のときには、接写撮影であるとして、さらに上記評価用パラメータS1 を所定値Th3 と比較する。このとき、評価用パラメータS1 が所定値Th3 よりも大きければ単一の物体のクローズアップであると判断し(Type5)、一方、所定値Th3 よりも小さければ複数の物体のクローズアップであると判断する(Type6)。   Further, when the AF information is 1 m or less, it is determined that close-up photography is performed, and the evaluation parameter S1 is further compared with a predetermined value Th3. At this time, if the evaluation parameter S1 is larger than the predetermined value Th3, it is determined that the single object is close-up (Type 5), whereas if it is smaller than the predetermined value Th3, it is determined that the plurality of objects are close-up. (Type 6).

このようなタイプに分類した結果が、上記統合部22から変換特性算出部14に出力される。   The result of classification into these types is output from the integration unit 22 to the conversion characteristic calculation unit 14.

続いて、図3は上記変換特性算出部の詳細な構成を示すブロック図である。   FIG. 3 is a block diagram showing a detailed configuration of the conversion characteristic calculation unit.

上記適正露光抽出部13は、上述したように、まず長時間露光画像の輝度信号Yを読み出して、画面全体を構成する各画素の信号レベルを所定値と比較することにより、その画素が、適切な露出であるか否かを判別するものであり、適正露光と判断された画素の集合が長時間露光に係る適正露光域となり、この長時間露光に係る適正露光域以外の部分を短時間露光に係る適正露光域とするようになっている。   As described above, the appropriate exposure extraction unit 13 first reads the luminance signal Y of the long-time exposure image and compares the signal level of each pixel constituting the entire screen with a predetermined value, so that the pixel is determined appropriately. The set of pixels determined to be proper exposure becomes the proper exposure area for long exposure, and the part other than the proper exposure area for this long exposure is exposed for a short time. The appropriate exposure area is set.

上記適正露光抽出部13から出力される長時間露光の適正露光域の輝度信号Yが、特徴量算出手段たるエッジ抽出部26に入力されると、このエッジ抽出部26では上記制御部17の制御に基づきエッジ検出を行う。具体的には、このエッジ抽出部26は、例えばラプラシアンやSobel等の一般的なエッジ検出オペレータでなり、該エッジ検出オペレータによる強度が所定の閾値以上であれば、参照位置にはエッジが存在するとし、そうでない場合にはエッジではないとする2値情報を出力するものである。   When the luminance signal Y of the appropriate exposure area for the long time exposure output from the appropriate exposure extraction unit 13 is input to the edge extraction unit 26 serving as a feature amount calculation unit, the edge extraction unit 26 controls the control unit 17. Edge detection is performed based on the above. Specifically, the edge extraction unit 26 is a general edge detection operator such as Laplacian or Sobel. If the strength by the edge detection operator is equal to or greater than a predetermined threshold, an edge exists at the reference position. If not, binary information indicating that it is not an edge is output.

一方、上記撮影状況推定部18によりタイプ分類された結果が選択手段たる重みパターン選択部24に入力されると、この重みパターン選択部24では上記制御部17の制御に基づき、図6に示すような複数の重みパターンが予め記憶されている重みパターン用ROM25からそのタイプに応じた重みパターンを選択する。この図6は、上記図5に示したような分類パターンに基づくヒストグラム算出時の重み係数を示す図であり、図6(A)は上記Type1に、図6(B)は上記Type2に、図6(C)は上記Type3に、図6(D)は上記Type4に、図6(E)は上記Type5に、図6(F)は上記Type6にそれぞれ対応した重みパターンとなっている。   On the other hand, when the result of the type classification by the photographing situation estimation unit 18 is input to the weight pattern selection unit 24 as selection means, the weight pattern selection unit 24 is based on the control of the control unit 17 as shown in FIG. A weight pattern corresponding to the type is selected from the weight pattern ROM 25 in which a plurality of weight patterns are stored in advance. FIGS. 6A and 6B are diagrams showing weighting coefficients at the time of calculating a histogram based on the classification pattern as shown in FIG. 5. FIG. 6A shows the Type 1, FIG. 6B shows the Type 2, and FIG. 6 (C) shows the type 3 pattern, FIG. 6 (D) shows the type 4 type, FIG. 6 (E) shows the type 5 type, and FIG. 6 (F) shows the type 6 type pattern.

こうして、ヒストグラム作成手段たるヒストグラム作成部27は、上記エッジ抽出部26から出力された結果に基づき、エッジを構成する画素やその近傍画素について、輝度レベルに対する出現頻度を示すエッジヒストグラムを算出するが、このヒストグラムを作成する際に、上記図6に示したように画像中の画素位置に応じた重み付けを行って算出するようになっている。さらに、このヒストグラム作成部27では、算出されたエッジヒストグラムを積分するなどにより、累積エッジヒストグラムに変換する。   Thus, the histogram creation unit 27 as a histogram creation unit calculates an edge histogram indicating the appearance frequency with respect to the luminance level for the pixels constituting the edge and its neighboring pixels based on the result output from the edge extraction unit 26. When creating this histogram, as shown in FIG. 6, the weighting is performed according to the pixel position in the image. Further, the histogram creation unit 27 converts the calculated edge histogram into a cumulative edge histogram by, for example, integrating it.

階調変換曲線算出手段たる変換曲線算出部28では、エッジヒストグラムをガウシアンカーネル等を用いてコンボリューションすることにより目標ヒストグラムを生成し、この目標ヒストグラムと上記ヒストグラム作成部27から出力された累積エッジヒストグラムとを用いて階調補正特性となるトーンカーブを算出する。   The conversion curve calculation unit 28 serving as a gradation conversion curve calculation unit generates a target histogram by convolving the edge histogram using a Gaussian kernel or the like, and the target edge and the cumulative edge histogram output from the histogram creation unit 27. Are used to calculate the tone curve that is the tone correction characteristic.

変換手段たる変換部29は、上記適正露光抽出部13から入力される画像データに、この変換曲線算出部28から得られるトーンカーブに基づいた階調補正を行い、階調補正後の画像データを上記画像合成部15に出力する。この変換部29では、まず長時間露光に係る輝度信号Yの階調補正を行い、次に該長時間露光に係る色差信号Cb,Crの階調補正を順次行って画像合成部15に出力し、その後に、短時間露光に係る輝度信号Yと色差信号Cb,Crの階調補正を同様に行って画像合成部15に出力する。   The conversion unit 29 serving as a conversion unit performs gradation correction on the image data input from the appropriate exposure extraction unit 13 based on the tone curve obtained from the conversion curve calculation unit 28, and the image data after the gradation correction is obtained. The image is output to the image composition unit 15. The conversion unit 29 first performs tone correction of the luminance signal Y related to the long exposure, and then sequentially performs tone correction of the color difference signals Cb and Cr related to the long exposure and outputs them to the image composition unit 15. Thereafter, the luminance signal Y and the color difference signals Cb and Cr relating to the short-time exposure are similarly subjected to gradation correction and output to the image composition unit 15.

画像合成部15では、まず、長時間露光に係る階調補正後の輝度信号Yおよび色差信号Cb,Crを受け取って、該長時間露光に係る例えばRGB信号を生成し、次に、短時間露光に係る階調補正後の輝度信号Yおよび色差信号Cb,Crを受け取って、該短時間露光に係る同RGB信号を生成する。その後にこれらを合成することにより、一の広ダイナミックレンジ画像を生成して出力するようになっている。   The image composition unit 15 first receives the luminance signal Y and the color difference signals Cb and Cr after gradation correction related to long exposure, generates, for example, an RGB signal related to the long exposure, and then short exposure. The luminance signal Y and the color difference signals Cb and Cr after the gradation correction according to the above are received, and the same RGB signal related to the short-time exposure is generated. These are then combined to generate and output one wide dynamic range image.

次に、図7は、画像変換の処理を示すフローチャートである。   Next, FIG. 7 is a flowchart showing image conversion processing.

単板でなる上記CCD4に結像された被写体像は、異なる露光条件で複数回撮像されるようになっており、上述したように、例えば長時間露光による撮像と短時間露光による撮像とがこの順に行われて、順次画像信号として出力される。   A subject image formed on the CCD 4 made of a single plate is captured a plurality of times under different exposure conditions. As described above, for example, imaging by long exposure and imaging by short exposure are performed in this manner. It is performed in order and is sequentially output as an image signal.

これらの画像信号は、A/D変換器5によってデジタル信号に変換された後に、第1画像用バッファ6aと第2画像用バッファ6bにそれぞれ記憶される。   These image signals are converted into digital signals by the A / D converter 5 and then stored in the first image buffer 6a and the second image buffer 6b, respectively.

上記測光評価部7と合焦点検出部8は、これらの内の一方の第1画像用バッファ6aに蓄積された長時間露光の画像データに基づいて、上述したように、AE情報とAF情報を制御部17に出力する(ステップS1)。   The photometry evaluation unit 7 and the in-focus detection unit 8 perform the AE information and the AF information as described above based on the long-exposure image data stored in the first image buffer 6a. It outputs to the control part 17 (step S1).

一方、上記第1画像用バッファ6aおよび第2画像用バッファ6bに記憶されている画像データは、補間部10に順次送られて、R画像データ、G画像データ、B画像データのそれぞれについて補間を行うことにより、3板の画像データに変換されて(ステップS2)、作業用バッファ11に記憶される。   On the other hand, the image data stored in the first image buffer 6a and the second image buffer 6b are sequentially sent to the interpolation unit 10 to perform interpolation for each of the R image data, G image data, and B image data. By doing so, it is converted into image data of three plates (step S2) and stored in the work buffer 11.

Y/C分離部12では、この作業用バッファ11からRGB画像データを読み出して、輝度信号Yと色差信号Cb,Crとを、次の数式4に示すように算出する(ステップS3)。
[数4]
Y = 0.29900R+0.58700G+0.14400B
Cb=−0.16874R−0.33126G+0.50000B
Cr= 0.50000R−0.41869G−0.08131B
The Y / C separation unit 12 reads the RGB image data from the work buffer 11 and calculates the luminance signal Y and the color difference signals Cb and Cr as shown in the following Equation 4 (step S3).
[Equation 4]
Y = 0.29900R + 0.58700G + 0.14400B
Cb = −0.16874R−0.33126G + 0.50000B
Cr = 0.50000R-0.41869G-0.0811B

適正露光抽出部13は、これらの内の輝度信号Yの信号レベルを、各画素毎に所定の閾値と比較することにより、適正露光域に属するか否かを判断することにより分割画像情報を抽出して出力する(ステップS4)。   The proper exposure extraction unit 13 compares the signal level of the luminance signal Y among these with a predetermined threshold value for each pixel, and determines whether or not it belongs to the proper exposure area, thereby extracting divided image information. And output (step S4).

その後、変換特性算出部14内のエッジ抽出部26において、輝度信号Yにラプラシアン等の公知の2 次微分フィルタをかけてエッジ成分を抽出し(ステップS5)、抽出したエッジ成分に標準偏差の例えば2倍程度の閾値を設けることで2値化処理を行う(ステップS6)。   Thereafter, the edge extraction unit 26 in the conversion characteristic calculation unit 14 applies a known second-order differential filter such as Laplacian to the luminance signal Y to extract an edge component (step S5), and the extracted edge component has, for example, a standard deviation. Binarization processing is performed by setting a threshold value of about twice (step S6).

一方で、上記撮影状況推定部18において、AF情報とAE情報とに基づいて上述したように撮影状況を推定し(ステップS7)、重みパターンがType1からType6の何れであるかを選択する(ステップS8)。そして、選択した重みパターンに対応する図6に示すような重み係数を重みパターン用ROM25から読み込む(ステップS9)。   On the other hand, the shooting situation estimation unit 18 estimates the shooting situation based on the AF information and the AE information as described above (step S7), and selects whether the weight pattern is Type 1 to Type 6 (step S7). S8). Then, the weighting coefficient as shown in FIG. 6 corresponding to the selected weighting pattern is read from the weighting pattern ROM 25 (step S9).

こうして、上記ステップS6で2値化されたエッジ成分とステップS9で読み込まれた重みパターンとに基づいて上記ヒストグラム作成部27が重み付けしたエッジヒストグラムを作成して(ステップS10)、このエッジヒストグラムからさらに累積エッジヒストグラムを生成する(ステップS11)。
こうして得た累積エッジヒストグラムに基づいて、上記変換曲線算出部28が階調変換曲線を算出する(ステップS12)。
Thus, an edge histogram weighted by the histogram creating unit 27 is created based on the edge component binarized in step S6 and the weight pattern read in step S9 (step S10), and further from this edge histogram. A cumulative edge histogram is generated (step S11).
Based on the cumulative edge histogram thus obtained, the conversion curve calculation unit 28 calculates a gradation conversion curve (step S12).

続く変換部29では、上記適正露光抽出部13から出力される輝度信号Yおよび色差信号Cb,Crを、上記変換曲線算出部28から得られた階調変換曲線によって変換処理し(ステップS13)、変換した画像データを出力するようになっている(ステップS14)。   In the subsequent conversion unit 29, the luminance signal Y and the color difference signals Cb and Cr output from the appropriate exposure extraction unit 13 are converted by the gradation conversion curve obtained from the conversion curve calculation unit 28 (step S13). The converted image data is output (step S14).

なお、上述では撮影状況を推定するのに測光情報と合焦情報の両方を用いているが、これらの内の一方のみを用いて推定し重み付けを変えることも可能である。また、測光情報と合焦情報に限らず、ズーム位置情報やマルチスポット測光情報、視線入力情報、ストロボの発光情報、電子カメラの縦横位置を検出する検出センサの情報、ホワイトバランス情報などの内の一以上を参照すれば、より詳細に撮影状況を推定することが可能となる。   In the above description, both the photometric information and the focusing information are used to estimate the shooting situation. However, it is possible to estimate and change the weight using only one of them. Not only photometric information and focusing information, but also zoom position information, multi-spot photometric information, line-of-sight input information, flash emission information, information on detection sensors for detecting the vertical and horizontal positions of electronic cameras, white balance information, etc. By referring to one or more, it is possible to estimate the shooting situation in more detail.

さらに、上述したような撮影状況に応じた階調補正の技術は、カラー画像にのみ適用されるものではなく、白黒画像にも適用することが可能である。   Furthermore, the gradation correction technique according to the shooting situation as described above is not only applied to a color image, but can also be applied to a monochrome image.

そして、この第1の実施形態においては、電子カメラ内の回路として構成した画像処理装置により撮影状況に応じた階調補正を行っているが、このような処理を、コンピュータの処理プログラムにより行うことも可能である。この場合には、画像ファイルの例えばヘッダ部分に測光情報や合焦情報などの撮影情報を記録しておき、コンピュータにおいてこれらの撮影情報を基に撮影状況を推定して、その撮影状況に適した階調補正を行うようにすればよい。   In the first embodiment, gradation correction is performed according to the shooting situation by an image processing device configured as a circuit in the electronic camera. Such processing is performed by a computer processing program. Is also possible. In this case, shooting information such as photometry information and focus information is recorded in the header portion of the image file, for example, and the shooting situation is estimated on the basis of the shooting information in the computer. Tone correction may be performed.

また、この画像処理装置は、電子カメラに適用するに限るものではなく、例えばプリンタ装置などの画像を扱う機器にも広く適用することが可能である。   The image processing apparatus is not limited to application to an electronic camera, and can be widely applied to devices that handle images, such as a printer apparatus.

このような第1の実施形態によれば、合焦情報や測光情報などの撮影情報に基づいて撮影状況を判断し、エッジヒストグラムを作成する際にこの撮影状況に応じた重み付けを行うようにしたために、主要被写体を考慮し撮影シーンに最も適した階調補正を行うことが可能となる。   According to the first embodiment, the shooting situation is determined based on shooting information such as focusing information and photometry information, and weighting according to the shooting situation is performed when an edge histogram is created. In addition, it is possible to perform gradation correction most suitable for the shooting scene in consideration of the main subject.

図8から図12は本発明の第2の実施形態を示したものであり、図8は電子カメラの基本的な構成を示すブロック図、図9は輝度補正部の詳細な構成を示すブロック図、図10は色差補正部の詳細な構成を示すブロック図、図11は色再現の理論限界特性を考慮して色差補正を行う様子を示す線図、図12は画像変換の処理を示すフローチャートである。   8 to 12 show a second embodiment of the present invention. FIG. 8 is a block diagram showing a basic configuration of the electronic camera, and FIG. 9 is a block diagram showing a detailed configuration of a luminance correction unit. FIG. 10 is a block diagram showing the detailed configuration of the color difference correction unit, FIG. 11 is a diagram showing how color difference correction is performed in consideration of the theoretical limit characteristics of color reproduction, and FIG. 12 is a flowchart showing image conversion processing. is there.

この第2の実施形態において、上述の第1の実施形態と同様である部分については同一の符号を付して説明を省略し、主として異なる点についてのみ説明する。   In the second embodiment, the same parts as those in the first embodiment described above are denoted by the same reference numerals, description thereof is omitted, and only different points will be mainly described.

この第2の実施形態では、Y/C分離部12により分離された輝度信号Yと色差信号Cb,Crは、適正露光抽出部13を経て、階調補正手段たる輝度補正部32と色差補正手段たる色差補正部33とにそれぞれ入力されるようになっている。   In the second embodiment, the luminance signal Y and the color difference signals Cb and Cr separated by the Y / C separation unit 12 pass through the appropriate exposure extraction unit 13 and the luminance correction unit 32 and the color difference correction unit as gradation correction units. The color difference correction unit 33 is input to each.

上記輝度補正部32は、図9に示すように、上記適正露光抽出部13から出力される適正露光域の輝度信号Yを受け取り、輝度についての階調補正を行うものであり、特徴量算出手段たるエッジ抽出部40と、ヒストグラム作成手段たるヒストグラム作成部41と、階調変換曲線算出手段たる変換曲線算出部42と、輝度変換手段たる輝度変換部43と、を有して構成されている。   As shown in FIG. 9, the luminance correction unit 32 receives the luminance signal Y of the appropriate exposure area output from the appropriate exposure extraction unit 13, and performs gradation correction for luminance, and features amount calculation means The edge extracting unit 40, a histogram creating unit 41 as a histogram creating unit, a conversion curve calculating unit 42 as a gradation conversion curve calculating unit, and a luminance converting unit 43 as a luminance converting unit are configured.

この輝度補正部32における処理を、図12も参照して説明する。   The processing in the luminance correction unit 32 will be described with reference to FIG.

輝度補正部32は、上記適正露光抽出部13から出力される適正露光域の輝度信号Yを読み込み(ステップS21)、上記エッジ抽出部40がラプラシアン等のフィルタをかけてエッジ成分を抽出し(ステップS22)、画素毎に所定の閾値と比較してエッジであるか否かを決定する2値化処理を行う(ステップS23)。   The luminance correction unit 32 reads the luminance signal Y of the appropriate exposure area output from the appropriate exposure extraction unit 13 (step S21), and the edge extraction unit 40 applies a filter such as Laplacian to extract the edge component (step S21). S22) A binarization process is performed for determining whether each pixel is an edge by comparing with a predetermined threshold value (step S23).

このエッジ抽出部40から出力された情報に基づき、ヒストグラム作成部41が、輝度に対するエッジの出現頻度を示すエッジヒストグラムを生成し(ステップS24)、さらにこれを積分するなどにより累積エッジヒストグラムを作成する(ステップS25)。   Based on the information output from the edge extraction unit 40, the histogram generation unit 41 generates an edge histogram indicating the appearance frequency of the edge with respect to the luminance (step S24), and further generates an accumulated edge histogram by integrating it. (Step S25).

変換曲線算出部42は、このヒストグラム作成部41から出力された累積エッジヒストグラムなどを用いて上述したように階調補正特性となるトーンカーブを算出する(ステップS26)。   The conversion curve calculation unit 42 uses the accumulated edge histogram output from the histogram creation unit 41 and the like to calculate a tone curve that serves as a gradation correction characteristic as described above (step S26).

輝度変換部43は、この変換曲線に基づいて、上記制御部17の制御により輝度信号Yを階調変換して(ステップS27)、色差補正部33に出力するとともに、輝度色差合成手段たるY/C合成部34に出力する(ステップS28)。   Based on this conversion curve, the luminance conversion unit 43 performs gradation conversion of the luminance signal Y under the control of the control unit 17 (step S27), and outputs it to the color difference correction unit 33, and at the same time, Y / The data is output to the C composition unit 34 (step S28).

このように、適正露光抽出部13から出力される階調補正前の輝度信号をYorg とし、上記輝度変換部43により階調補正された後の輝度信号をYtra とすると、これらの輝度信号Yorg およびYtra は、次に説明するように、色差補正部33において色差の階調を補正する際に用いられる。   Thus, if the luminance signal before gradation correction output from the appropriate exposure extraction unit 13 is Yorg, and the luminance signal after gradation correction by the luminance conversion unit 43 is Ytra, these luminance signals Yorg and Ytra is used when the color difference correction unit 33 corrects the gradation of the color difference as described below.

上記色差補正部33は、図10に示すように、上記適正露光抽出部13から出力される適正露光域の色差信号Cb,Crを受け取り、色差についての階調補正を行うものであり、第1の算出手段たる第1補正係数算出部47と、第2の算出手段たる第2補正係数算出部45と、色再現限界特性用ROM46と、色差変換手段たる色差変換部48とを有して構成されている。   As shown in FIG. 10, the color difference correction unit 33 receives the color difference signals Cb and Cr of the appropriate exposure area output from the appropriate exposure extraction unit 13, and performs gradation correction for the color difference. A first correction coefficient calculation unit 47 as a calculation means, a second correction coefficient calculation unit 45 as a second calculation means, a color reproduction limit characteristic ROM 46, and a color difference conversion unit 48 as a color difference conversion means. Has been.

この色差補正部33においては、上記第1補正係数算出部47が、上記適正露光抽出部13から階調補正前の輝度信号Yorg を受け取って、この輝度信号Yorg に対応する色再現範囲borg を次の数式5に示すように計算する(ステップS31)。
[数5]
borg =B(Yorg )
In the color difference correction unit 33, the first correction coefficient calculation unit 47 receives the luminance signal Yorg before gradation correction from the appropriate exposure extraction unit 13, and then sets the color reproduction range borg corresponding to the luminance signal Yorg. Calculation is performed as shown in Equation 5 (step S31).
[Equation 5]
borg = B (Yorg)

ここに、関数B(Y)は、色空間(Y,Cb,Cr空間)内における色再現の理論限界特性を示す関数であり、例えば図11に模式的に示すように、輝度Yを増加させて行くに従い色再現可能な色差範囲が広がり、ある輝度Yを越えたところで今度は色再現可能な色差範囲が狭まるという特性を持ったものである。   Here, the function B (Y) is a function indicating the theoretical limit characteristics of color reproduction in the color space (Y, Cb, Cr space). For example, as schematically shown in FIG. As a result, the color difference range capable of color reproduction is widened, and when a certain luminance Y is exceeded, the color difference range capable of color reproduction is narrowed.

この数式5に示すような計算は、例えば、上記色再現限界特性用ROM46に記憶されているテーブルデータ等を参照して(ステップS30)、輝度Yorg に対応する色再現範囲borg を求めることにより行う。   The calculation shown in Equation 5 is performed by, for example, referring to the table data stored in the color reproduction limit characteristic ROM 46 (step S30) and obtaining the color reproduction range borg corresponding to the luminance Yorg. .

上記色再現限界特性用ROM46は、色再現の理論限界特性を示す上記関数B(Y)をテーブルデータとして予め記憶しているものであり、ここでは演算による負荷や処理速度等を考慮してROM化したテーブルデータを用いるようにしているが、もちろん、実際に計算を行うようにしても構わない。   The color reproduction limit characteristic ROM 46 stores in advance the function B (Y) indicating the theoretical limit characteristic of color reproduction as table data. Here, the ROM 46 takes into consideration the load and processing speed due to the calculation. However, of course, the calculation may be actually performed.

次に、上記第2補正係数算出部45が、上記輝度補正部32から階調補正後の輝度信号Ytra を受け取って、この輝度信号Ytra に対応する色再現範囲btra を、上述した数式5と同様の次の数式6に示すように計算する(ステップS32)。
[数6]
btra =B(Ytra )
Next, the second correction coefficient calculation unit 45 receives the luminance signal Ytra after gradation correction from the luminance correction unit 32, and the color reproduction range btra corresponding to the luminance signal Ytra is the same as that in the above-described equation 5. The calculation is performed as shown in the following equation 6 (step S32).
[Equation 6]
btra = B (Ytra)

この数式6に示すような計算も、同様に、上記色再現限界特性用ROM46に記憶されているテーブルデータ等を参照して(ステップS30)、輝度Ytra に対応する色再現範囲btra を求めることにより行う。   Similarly, the calculation shown in Equation 6 is performed by referring to the table data stored in the color reproduction limit characteristic ROM 46 (step S30) to obtain the color reproduction range btra corresponding to the luminance Ytra. Do.

上記色差変換部48は、第1の補正係数である上記borg と、第2の補正係数である上記btra に基づいて、色差信号に対する変換係数gainc を次の数式7に示すように計算する。
[数7]
gainc =btra /borg
The color difference conversion unit 48 calculates the conversion coefficient gainc for the color difference signal as shown in the following Expression 7, based on the borg that is the first correction coefficient and the btra that is the second correction coefficient.
[Equation 7]
gainc = btra / borg

こうして、色差信号に対する変換係数gainc を、階調補正前の輝度信号Yorg での色再現の理論限界特性borg と、階調補正後の輝度信号Ytra での色再現の理論限界特性btra と、の比となるように定義することで、輝度と同じ変換係数を使った場合のような白とび等を発生させることなく、彩度を保った忠実な色再現を行うことができるようにしている。   Thus, the conversion coefficient gainc for the color difference signal is a ratio between the theoretical limit characteristic borg of color reproduction with the luminance signal Yorg before gradation correction and the theoretical limit characteristic btra of color reproduction with the luminance signal Ytra after gradation correction. In this way, faithful color reproduction can be performed while maintaining saturation without causing overexposure, such as when using the same conversion coefficient as luminance.

この変換係数gainc が求められたところで、上記適正露光抽出部13から補正前の色差信号Cborg とCrorg を順次受け取って(ステップS29)、補正後の色差信号Cbtra とCrtra を次の数式8に示すように計算する(ステップS33)。
[数8]
Cbtra =gainc ・Cborg
Crtra =gainc ・Crorg
When the conversion coefficient gain is obtained, the uncorrected color difference signals Cborg and Crorg are sequentially received from the appropriate exposure extraction unit 13 (step S29), and the corrected color difference signals Cbtra and Crtra are expressed by the following equation (8). (Step S33).
[Equation 8]
Cbtra = gainc ・ Cborg
Crtra = gainc ・ Crorg

このように変換された色差信号Cbtra ,Crtra は、Y/C合成部34に出力される(ステップS34)。   The color difference signals Cbtra and Crtra thus converted are output to the Y / C synthesis unit 34 (step S34).

Y/C合成部34では、階調変換後の輝度信号Ytra と変換後の色差信号Cbtra ,Crtra とをY/C合成して例えばRGB信号に変換し、上記画像合成部15に出力する。   The Y / C synthesis unit 34 Y / C-combines the luminance signal Ytra after gradation conversion and the color-difference signals Cbtra and Crtra after conversion to convert them into RGB signals, for example, and outputs them to the image synthesis unit 15.

この画像合成部15において、長時間露光に係る階調変換後の適正露光画像部分と短時間露光に係る階調変換後の適正露光画像部分とを合成して、一の広ダイナミックレンジ画像を生成した後に、上記出力部16から出力するようになっている。   In this image synthesizing unit 15, an appropriate exposure image portion after gradation conversion related to long-time exposure and an appropriate exposure image portion after gradation conversion related to short-time exposure are combined to generate one wide dynamic range image. After that, the data is output from the output unit 16.

なお、この第2の実施形態においては、電子カメラ内の回路として構成した画像処理装置により色再現の理論限界特性を考慮した階調補正を行っているが、このような処理をコンピュータの処理プログラムにより行うことも可能である。   In the second embodiment, tone correction is performed in consideration of the theoretical limit characteristics of color reproduction by an image processing apparatus configured as a circuit in an electronic camera. Such processing is performed by a computer processing program. It is also possible to do this.

また、この画像処理装置は、電子カメラに適用するに限るものではなく、例えばプリンタ装置などの画像を扱う機器に広く適用することが可能である。   The image processing apparatus is not limited to application to an electronic camera, and can be widely applied to devices that handle images, such as a printer apparatus.

このような第2の実施形態によれば、色差信号については色再現の理論限界特性を考慮した階調補正を行うようにしたために、画像の階調補正を行っても適切な彩度を維持することができる。   According to the second embodiment, since the tone correction is performed with respect to the color difference signal in consideration of the theoretical limit characteristic of color reproduction, an appropriate saturation is maintained even when the tone correction of the image is performed. can do.

図13は本発明の第3の実施形態を示したものであり、電子カメラの基本的な構成を示すブロック図である。   FIG. 13 shows a third embodiment of the present invention and is a block diagram showing a basic configuration of an electronic camera.

この第3の実施形態において、上述の第1,第2の実施形態と同様である部分については同一の符号を付して説明を省略し、主として異なる点についてのみ説明する。   In the third embodiment, portions that are the same as those in the first and second embodiments described above are denoted by the same reference numerals, description thereof is omitted, and only differences are mainly described.

この第3の実施形態は、上述した第1の実施形態と第2の実施形態の機能を兼ね合わせた機能を発現するものとして構成されていて、つまり、輝度信号の階調変換特性を算出する際に撮影状況に応じた重み付けを行うとともに、色差信号の変換特性を算出する際には色再現の理論限界特性を考慮するようにしたものである。   The third embodiment is configured to exhibit a function combining the functions of the first embodiment and the second embodiment described above, that is, to calculate the gradation conversion characteristic of the luminance signal. In this case, weighting is performed according to the shooting situation, and the theoretical limit characteristic of color reproduction is taken into consideration when calculating the conversion characteristic of the color difference signal.

すなわち、撮影状況推定部18により推定された上記図5に示すような撮影状況の分類結果が、上記輝度補正部32に入力されるようになっていて、該輝度補正部32において輝度信号のエッジヒストグラムを作成する際に、図6に示すような重み付けが行われる。   That is, the result of classification of the shooting situation as shown in FIG. 5 estimated by the shooting situation estimation unit 18 is input to the luminance correction unit 32, and the luminance correction unit 32 uses the edge of the luminance signal. When creating a histogram, weighting as shown in FIG. 6 is performed.

こうして得られた特性曲線に基づいて階調変換された輝度信号が色差補正部33に入力されると、上述した第2の実施形態と同様に、色再現の理論限界特性を示すテーブルを参照しながら第2の補正係数が算出され、同様に階調変換前の輝度信号に基づいて第1の補正係数が算出される。そして、これら第1の補正係数と第2の補正係数とに基づいて色差信号に係る変換係数が算出され、色差に適した変換が行われて上記Y/C合成部34に出力される。   When the luminance signal that has been tone-converted based on the characteristic curve thus obtained is input to the color difference correction unit 33, a table showing the theoretical limit characteristics of color reproduction is referred to, as in the second embodiment described above. Accordingly, the second correction coefficient is calculated, and similarly, the first correction coefficient is calculated based on the luminance signal before gradation conversion. A conversion coefficient related to the color difference signal is calculated based on the first correction coefficient and the second correction coefficient, and conversion suitable for the color difference is performed and output to the Y / C synthesis unit 34.

このY/C合成部34において、輝度補正部32から出力される階調変換後の輝度信号と色差補正部33から出力される変換後の色差信号とをY/C合成して画像合成部15に出力し、該画像合成部15において、長時間露光に係る階調変換後の適正露光画像部分と短時間露光に係る階調変換後の適正露光画像部分とを合成して、一の広ダイナミックレンジ画像を生成した後に、上記出力部16から出力するようになっている。   The Y / C synthesis unit 34 Y / C-combines the luminance signal after gradation conversion output from the luminance correction unit 32 and the color difference signal after conversion output from the color difference correction unit 33 to perform image synthesis unit 15. The image composition unit 15 synthesizes the appropriate exposure image portion after gradation conversion related to long-time exposure and the appropriate exposure image portion after gradation conversion related to short-time exposure to produce a wide dynamic image. After the range image is generated, it is output from the output unit 16.

なお、この第3の実施形態においても、電子カメラ内の回路として階調補正を行っているが、このような処理を、コンピュータの処理プログラムにより行うことも可能である。   In the third embodiment, tone correction is performed as a circuit in the electronic camera, but such processing can also be performed by a computer processing program.

また、この画像処理装置は、電子カメラに適用するに限るものではなく、例えばプリンタ装置などの画像を扱う機器に広く適用することが可能である。   The image processing apparatus is not limited to application to an electronic camera, and can be widely applied to devices that handle images, such as a printer apparatus.

このような第3の実施形態によれば、上述した第1の実施形態の効果と、第2の実施形態の効果との双方を奏することができる。   According to such 3rd Embodiment, both the effect of 1st Embodiment mentioned above and the effect of 2nd Embodiment can be show | played.

なお、本発明は上述した実施形態に限定されるものではなく、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。   It should be noted that the present invention is not limited to the above-described embodiments, and various modifications and applications can be made without departing from the spirit of the invention.

なおまた、請求項1による本発明の画像処理装置によれば、階調補正前後の輝度信号と色再現の理論限界特性とに基づき色差信号の補正を行っているために、階調補正後に最適な彩度の画像を得ることができる。   Further, according to the image processing apparatus of the present invention according to claim 1, since the color difference signal is corrected based on the luminance signal before and after the gradation correction and the theoretical limit characteristic of the color reproduction, it is optimal after the gradation correction. An image with high saturation can be obtained.

請求項2による本発明の画像処理装置によれば、撮影状況を推定してそれに応じて輝度信号の階調補正を行うようにしたために、主要被写体の階調幅を適応的に調整することが可能となり、さらに、階調補正前後の輝度信号と色再現の理論限界特性とに基づき色差信号の補正を行っているために、階調補正後に最適な彩度の画像を得ることができる。   According to the image processing apparatus of the present invention according to claim 2, since the photographing situation is estimated and the gradation correction of the luminance signal is performed accordingly, it is possible to adaptively adjust the gradation width of the main subject. In addition, since the color difference signal is corrected based on the luminance signal before and after the gradation correction and the theoretical limit characteristic of color reproduction, an image with optimum saturation can be obtained after the gradation correction.

請求項3による本発明の画像処理装置によれば、請求項2に記載の発明と同様の効果を奏するとともに、合焦情報と測光情報とに基づいて、撮影状況を適切に推定することが可能となる。   According to the image processing apparatus of the present invention according to claim 3, the same effect as that of the invention according to claim 2 can be obtained, and the photographing situation can be appropriately estimated based on the focus information and the photometric information. It becomes.

請求項4による本発明の画像処理装置によれば、請求項2に記載の発明と同様の効果を奏するとともに、階調補正手段が、適正露光域の特徴量に重み付けしてヒストグラムを作成し階調変換曲線を算出することにより、主要被写体を考慮した適切な階調変換を行うことができる。   According to the image processing apparatus of the present invention of claim 4, the same effect as that of the invention of claim 2 is achieved, and the gradation correction unit creates a histogram by weighting the feature quantity of the appropriate exposure area. By calculating the tone conversion curve, appropriate gradation conversion can be performed in consideration of the main subject.

請求項5による本発明の画像処理装置によれば、請求項1に記載の発明と同様の効果を奏するとともに、階調補正手段が、適正露光域の特徴量からヒストグラムを作成して階調変換曲線を算出することにより、適切な階調変換を行うことができる。   According to the image processing apparatus of the present invention of claim 5, the same effect as that of the invention of claim 1 is achieved, and the gradation correcting means creates a histogram from the feature amount of the appropriate exposure area and performs gradation conversion. By calculating the curve, appropriate gradation conversion can be performed.

請求項6による本発明の画像処理装置によれば、請求項1または請求項2に記載の発明と同様の効果を奏するとともに、色差補正手段が、階調補正前の輝度信号と色再現の理論限界特性とから算出した第1の補正係数と、階調補正後の輝度信号と色再現の理論限界特性とから算出した第2の補正係数と、を用いることにより、色差信号の変換を適切に行うことができる。   According to the image processing apparatus of the present invention according to claim 6, the same effect as the invention according to claim 1 or claim 2 is obtained, and the color difference correcting means is a luminance signal before gradation correction and the theory of color reproduction. By using the first correction coefficient calculated from the limit characteristic and the second correction coefficient calculated from the luminance signal after gradation correction and the theoretical limit characteristic of color reproduction, the conversion of the color difference signal is appropriately performed. It can be carried out.

請求項7による本発明の画像処理プログラムによれば、階調補正前後の輝度信号と色再現の理論限界特性とに基づき色差信号の補正を行っているために、階調補正後に最適な彩度の画像を得ることができる。   According to the image processing program of the present invention according to claim 7, since the color difference signal is corrected based on the luminance signal before and after the gradation correction and the theoretical limit characteristic of the color reproduction, the optimum saturation after the gradation correction. Images can be obtained.

本発明の第1の実施形態の電子カメラの基本的な構成を示すブロック図。1 is a block diagram showing a basic configuration of an electronic camera according to a first embodiment of the present invention. 上記第1の実施形態の撮影状況推定部の詳細な構成を示すブロック図。The block diagram which shows the detailed structure of the imaging | photography condition estimation part of the said 1st Embodiment. 上記第1の実施形態の変換特性算出部の詳細な構成を示すブロック図。The block diagram which shows the detailed structure of the conversion characteristic calculation part of the said 1st Embodiment. 上記第1の実施形態における評価測光用の分割パターンの一例を示す図。The figure which shows an example of the division | segmentation pattern for evaluation photometry in the said 1st Embodiment. 上記第1の実施形態において、AF情報とAE情報からのシーンの分類パターンを示す図表。The chart which shows the classification pattern of the scene from AF information and AE information in the said 1st Embodiment. 上記第1の実施形態において、上記図5に示したような分類パターンに基づくエッジヒストグラム算出時の重み係数を示す図。The figure which shows the weighting coefficient at the time of the edge histogram calculation based on a classification pattern as shown in the said FIG. 5 in the said 1st Embodiment. 上記第1の実施形態における画像変換の処理を示すフローチャート。5 is a flowchart showing image conversion processing in the first embodiment. 本発明の第2の実施形態の電子カメラの基本的な構成を示すブロック図。The block diagram which shows the basic composition of the electronic camera of the 2nd Embodiment of this invention. 上記第2の実施形態の輝度補正部の詳細な構成を示すブロック図。The block diagram which shows the detailed structure of the brightness | luminance correction | amendment part of the said 2nd Embodiment. 上記第2の実施形態の色差補正部の詳細な構成を示すブロック図。The block diagram which shows the detailed structure of the color difference correction | amendment part of the said 2nd Embodiment. 上記第2の実施形態において、色再現の理論限界特性を考慮して色差補正を行う様子を示す線図。FIG. 6 is a diagram showing how color difference correction is performed in consideration of the theoretical limit characteristics of color reproduction in the second embodiment. 上記第2の実施形態における画像変換の処理を示すフローチャート。7 is a flowchart showing image conversion processing in the second embodiment. 本発明の第3の実施形態の電子カメラの基本的な構成を示すブロック図。The block diagram which shows the basic composition of the electronic camera of the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

7…測光評価部
8…合焦点検出部
12…Y/C分離部(輝度色差分離手段)
13…適正露光抽出部(抽出手段)
14…変換特性算出部(階調補正手段)
15…画像合成部(合成手段)
16…出力部
17…制御部
18…撮影状況推定部(撮影状況推定手段)
20…合焦位置推定部(合焦位置推定手段)
21…被写体分布推定部(被写体分布推定手段)
22…統合部(統合手段)
24…重みパターン選択部(選択手段)
25…重みパターン用ROM
26,40…エッジ抽出部(特徴量算出手段)
27,41…ヒストグラム作成部(ヒストグラム作成手段)
28,42…変換曲線算出部(階調変換曲線算出手段)
29…変換部(変換手段)
32…輝度補正部(階調補正手段)
33…色差補正部(色差補正手段)
34…Y/C合成部(輝度色差合成手段)
43…輝度変換部(輝度変換手段)
45…第2補正係数算出部(第2の算出手段)
46…色再現限界特性用ROM
47…第1補正係数算出部(第1の算出手段)
48…色差変換部(色差変換手段)
7: Photometric evaluation section 8: Focus detection section 12 ... Y / C separation section (luminance color difference separation means)
13 ... Proper exposure extraction unit (extraction means)
14 ... Conversion characteristic calculation section (tone correction means)
15: Image composition unit (composition means)
16 ... Output unit 17 ... Control unit 18 ... Shooting situation estimation unit (shooting situation estimation means)
20: Focus position estimation unit (focus position estimation means)
21 ... Subject distribution estimation unit (subject distribution estimation means)
22 ... Integration unit (integration means)
24 ... Weight pattern selection section (selection means)
25 ... ROM for weight pattern
26, 40... Edge extraction unit (feature amount calculation means)
27, 41 ... Histogram creation section (histogram creation means)
28, 42 ... conversion curve calculation unit (tone conversion curve calculation means)
29 ... Conversion unit (conversion means)
32. Brightness correction unit (gradation correction means)
33 ... Color difference correction unit (color difference correction means)
34... Y / C synthesis unit (luminance color difference synthesis means)
43 ... luminance conversion section (luminance conversion means)
45. Second correction coefficient calculation unit (second calculation means)
46 ... Color reproduction limit characteristic ROM
47. First correction coefficient calculation section (first calculation means)
48 .. Color difference conversion unit (color difference conversion means)

Claims (7)

同一被写体に対して異なる露光条件で撮像された複数の画像からなる画像群を処理して一の広ダイナミックレンジ画像を生成する画像処理装置であって、
上記画像群中の各画像毎に画像信号を輝度信号と色差信号に分離する輝度色差分離手段と、
上記輝度信号の信号レベルに基づき適正露光域を抽出する抽出手段と、
上記適正露光域の輝度信号に関して階調補正を行う階調補正手段と、
上記輝度色差分離手段から出力された階調補正前の輝度信号と、上記階調補正手段から出力された階調補正後の輝度信号と、色再現の理論限界特性と、に基づいて上記適正露光域の色差信号の補正を行う色差補正手段と、
上記階調補正後の輝度信号と上記補正後の色差信号とをもとの画像信号に合成する輝度色差合成手段と、
上記合成された適正露光域の画像信号を合成することにより一の広ダイナミックレンジ画像を生成する合成手段と、
を具備したことを特徴とする画像処理装置。
An image processing apparatus that generates a single wide dynamic range image by processing an image group consisting of a plurality of images captured under different exposure conditions for the same subject,
Luminance color difference separation means for separating an image signal into a luminance signal and a color difference signal for each image in the image group,
Extraction means for extracting an appropriate exposure area based on the signal level of the luminance signal;
Gradation correction means for performing gradation correction on the luminance signal in the appropriate exposure area;
The appropriate exposure based on the luminance signal before gradation correction output from the luminance / color difference separation means, the luminance signal after gradation correction output from the gradation correction means, and the theoretical limit characteristic of color reproduction. Color difference correction means for correcting the color difference signal of the area;
Luminance color difference synthesizing means for synthesizing the luminance signal after gradation correction and the color difference signal after correction into an original image signal;
A synthesizing means for generating one wide dynamic range image by synthesizing the synthesized image signals of the appropriate exposure area;
An image processing apparatus comprising:
撮影状況を推定する撮影状況推定手段をさらに具備し、
前記階調補正手段は、上記適正露光域の輝度信号に関して上記撮影状況に基づき階調補正を行うことを特徴とする請求項1に記載の画像処理装置。
It further comprises a shooting situation estimation means for estimating the shooting situation,
The image processing apparatus according to claim 1, wherein the gradation correction unit performs gradation correction on the luminance signal in the appropriate exposure area based on the shooting situation.
上記撮影状況推定手段は、
合焦情報から少なくとも風景撮影、人物撮影、接写撮影の3種類の合焦位置を推定する合焦位置推定手段と、
測光情報から少なくとも画面全体、中央重点、中心部の3種類の被写体分布を推定する被写体分布推定手段と、
上記合焦位置推定手段が推定した合焦位置と上記被写体分布推定手段が推定した被写体分布とを組み合わせて撮影状況を統合的に推定する統合手段と、
を有してなるものであることを特徴とする請求項2に記載の画像処理装置。
The shooting situation estimation means is
Focusing position estimation means for estimating at least three types of focusing positions of landscape shooting, person shooting, and close-up shooting from focusing information;
Subject distribution estimation means for estimating at least three types of subject distributions of the entire screen, center weight, and center from photometric information;
An integration unit that collectively estimates a shooting situation by combining the in-focus position estimated by the in-focus position estimation unit and the subject distribution estimated by the subject distribution estimation unit;
The image processing apparatus according to claim 2, further comprising:
上記階調補正手段は、
上記撮影状況に基づき重み係数の配置を選択する選択手段と、
上記適正露光域に関してエッジを算出する特徴量算出手段と、
上記エッジを構成する画素やその近傍画素の輝度信号のレベルと、その輝度信号のレベルを有する画素の出現頻度との対応関係を示すエッジヒストグラムにおいて表現された画素の出現頻度に対して、上記画素の画素位置に割り当てられた上記選択された重み係数を重み付けることによって上記エッジに関する重み付きヒストグラムを作成するヒストグラム作成手段と、
上記重み付きヒストグラムに基づき階調変換曲線を算出する階調変換曲線算出手段と、
上記階調変換曲線を用いて階調変換を行う変換手段と、
を有してなるものであることを特徴とする請求項2または3に記載の画像処理装置。
The gradation correction means is
A selection means for selecting an arrangement of weighting factors based on the shooting situation;
Feature amount calculating means for calculating an edge with respect to the appropriate exposure area;
The pixel with respect to the appearance frequency of the pixel represented in the edge histogram indicating the correspondence relationship between the level of the luminance signal of the pixel constituting the edge and its neighboring pixels and the appearance frequency of the pixel having the luminance signal level. Histogram creating means for creating a weighted histogram for the edge by weighting the selected weighting factor assigned to the pixel position;
Gradation conversion curve calculating means for calculating a gradation conversion curve based on the weighted histogram;
Conversion means for performing gradation conversion using the gradation conversion curve;
The image processing apparatus according to claim 2, wherein the image processing apparatus comprises:
上記階調補正手段は、
上記適正露光域に関してエッジを算出する特徴量算出手段と、
上記エッジを構成する画素やその近傍画素の輝度信号のレベルと、その輝度信号のレベルを有する画素の出現頻度との対応関係を示すヒストグラムを作成するヒストグラム作成手段と、
上記ヒストグラムに基づき階調変換曲線を算出する階調変換曲線算出手段と、
上記階調変換曲線を用いて輝度信号の変換を行う輝度変換手段と、
を有してなるものであることを特徴とする請求項1に記載の画像処理装置。
The gradation correction means is
Feature amount calculating means for calculating an edge with respect to the appropriate exposure area;
Histogram creation means for creating a histogram showing a correspondence relationship between the level of the luminance signal of the pixels constituting the edge and its neighboring pixels and the appearance frequency of the pixel having the level of the luminance signal;
A gradation conversion curve calculating means for calculating a gradation conversion curve based on the histogram;
Luminance conversion means for converting a luminance signal using the gradation conversion curve;
The image processing apparatus according to claim 1, further comprising:
上記色差補正手段は、
上記階調補正前の輝度信号と、上記色再現の理論限界特性と、に基づいて第1の補正係数を算出する第1の算出手段と、
上記階調補正後の輝度信号と、上記色再現の理論限界特性と、に基づいて第2の補正係数を算出する第2の算出手段と、
上記第1の補正係数と第2の補正係数とを用いて色差信号の変換を行う色差変換手段と、
を有してなるものであることを特徴とする請求項1から5のいずれかに記載の画像処理装置。
The color difference correcting means is
First calculating means for calculating a first correction coefficient based on the luminance signal before gradation correction and the theoretical limit characteristic of color reproduction;
Second calculating means for calculating a second correction coefficient based on the luminance signal after the gradation correction and the theoretical limit characteristic of the color reproduction;
Color difference conversion means for converting a color difference signal using the first correction coefficient and the second correction coefficient;
The image processing apparatus according to claim 1, wherein the image processing apparatus comprises:
同一被写体に対して異なる露光条件で撮像された複数の画像からなる画像群を処理して一の広ダイナミックレンジ画像を生成する画像処理プログラムであって、
上記画像群中の各画像毎に画像信号を輝度信号と色差信号に分離する輝度色差分離ステップと、
上記輝度信号の信号レベルに基づき適正露光域を抽出する抽出ステップと、
上記適正露光域の輝度信号に関して階調補正を行う階調補正ステップと、
上記輝度色差分離ステップにより出力された階調補正前の輝度信号と、上記階調補正ステップにより出力された階調補正後の輝度信号と、色再現の理論限界特性と、に基づいて上記適正露光域の色差信号の補正を行う色差補正ステップと、
上記階調補正後の輝度信号と上記補正後の色差信号とをもとの画像信号に合成する輝度色差合成ステップと、
上記合成された適正露光域の画像信号を合成することにより一の広ダイナミックレンジ画像を生成する合成ステップと、
をコンピュータに実行させることを特徴とする画像処理プログラム。
An image processing program for processing an image group consisting of a plurality of images taken under different exposure conditions for the same subject to generate one wide dynamic range image,
A luminance color difference separation step for separating the image signal into a luminance signal and a color difference signal for each image in the image group;
An extraction step for extracting an appropriate exposure area based on the signal level of the luminance signal;
A gradation correction step for performing gradation correction on the luminance signal in the appropriate exposure area;
The appropriate exposure based on the luminance signal before gradation correction output by the luminance / chrominance separation step, the luminance signal after gradation correction output by the gradation correction step, and the theoretical limit characteristic of color reproduction. A color difference correction step for correcting the color difference signal of the area;
Luminance color difference synthesis step for synthesizing the luminance signal after gradation correction and the color difference signal after correction to the original image signal;
A synthesizing step for generating one wide dynamic range image by synthesizing the synthesized image signals of the appropriate exposure area;
An image processing program for causing a computer to execute.
JP2008263114A 2008-10-09 2008-10-09 Image processing apparatus and image processing program Withdrawn JP2009022044A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008263114A JP2009022044A (en) 2008-10-09 2008-10-09 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008263114A JP2009022044A (en) 2008-10-09 2008-10-09 Image processing apparatus and image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000044903A Division JP2001238128A (en) 2000-02-22 2000-02-22 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2009022044A true JP2009022044A (en) 2009-01-29

Family

ID=40361195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008263114A Withdrawn JP2009022044A (en) 2008-10-09 2008-10-09 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP2009022044A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140054733A (en) * 2012-10-29 2014-05-09 삼성전자주식회사 Method and apparatus for processing the image
JP2017204819A (en) * 2016-05-13 2017-11-16 株式会社日立国際電気 Television camera
CN110326288A (en) * 2017-03-02 2019-10-11 索尼公司 Image processing equipment and imaging device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140054733A (en) * 2012-10-29 2014-05-09 삼성전자주식회사 Method and apparatus for processing the image
KR101711370B1 (en) 2012-10-29 2017-03-02 삼성전자주식회사 Method and apparatus for processing the image
JP2017204819A (en) * 2016-05-13 2017-11-16 株式会社日立国際電気 Television camera
CN110326288A (en) * 2017-03-02 2019-10-11 索尼公司 Image processing equipment and imaging device
CN110326288B (en) * 2017-03-02 2021-07-06 索尼公司 Image processing apparatus and imaging apparatus

Similar Documents

Publication Publication Date Title
US7574042B2 (en) Image processing apparatus
KR101263888B1 (en) Image processing apparatus and image processing method as well as computer program
JP4524717B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP3762725B2 (en) Imaging system and image processing program
JP4163353B2 (en) Image processing device
KR101388130B1 (en) Image processing apparatus and image processing method
EP2302903A1 (en) Image processing method, image processing apparatus, computer readable medium, and imaging apparatus
JP6312487B2 (en) Image processing apparatus, control method therefor, and program
JP2010239492A (en) Image pickup apparatus, and noise reduction method for video signal
JP2009027619A (en) Video processing device and video processing program
JP2013243639A (en) Image processing apparatus, image processing method, and program
JP2008263507A (en) Video processor and video processing program
JP2007329619A (en) Video signal processor, video signal processing method and video signal processing program
JP4182566B2 (en) Digital camera and computer-readable recording medium
JP2001238129A (en) Image processing apparatus and recording medium
JP2011171842A (en) Image processor and image processing program
JP5814610B2 (en) Image processing apparatus, control method therefor, and program
JP2009022044A (en) Image processing apparatus and image processing program
JP2003069821A (en) Imaging system
JP2009065691A (en) Image processing apparatus, recording medium and image processing program
JP2012134745A (en) Image signal processing device
JP4960597B2 (en) White balance correction apparatus and method, and imaging apparatus
JP2008219230A (en) Imaging apparatus, and image processing method
JP2015080157A (en) Image processing device, image processing method and program
JP2006135744A (en) Image processing apparatus, image processing method, and computer program

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090918