JP2001238128A - Image processing apparatus - Google Patents

Image processing apparatus

Info

Publication number
JP2001238128A
JP2001238128A JP2000044903A JP2000044903A JP2001238128A JP 2001238128 A JP2001238128 A JP 2001238128A JP 2000044903 A JP2000044903 A JP 2000044903A JP 2000044903 A JP2000044903 A JP 2000044903A JP 2001238128 A JP2001238128 A JP 2001238128A
Authority
JP
Japan
Prior art keywords
image
correction
unit
color difference
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000044903A
Other languages
Japanese (ja)
Inventor
Takeo Tsuruoka
建夫 鶴岡
Kazuhito Horiuchi
一仁 堀内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2000044903A priority Critical patent/JP2001238128A/en
Priority to US09/785,931 priority patent/US6738510B2/en
Priority to EP01103587A priority patent/EP1128660A3/en
Publication of JP2001238128A publication Critical patent/JP2001238128A/en
Priority to US10/807,479 priority patent/US7574042B2/en
Priority to US11/745,988 priority patent/US7738699B2/en
Priority to US12/768,279 priority patent/US8290263B2/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus which corrects gradation so that saturation becomes appropriate while seriously considering a main object and generates a wide dynamic range picture from a plurality of pictures. SOLUTION: An image processing apparatus is provided with a photographing situation estimation part 18 for estimating a photographing situation on the basis of the photometric information of a photometric evaluation part 7 and the focusing information of a focused point detection part 8, a Y/C separation part 12 for separating a long time exposure picture and a short time exposure picture into a luminance signal and a color different signal, an correct exposure extraction part 13 for extracting a correct exposure area on the basis of the luminance signal level of the long time exposure picture, a luminance correction part 32 for weighting the luminance signal of the correct exposure area in accordance with the photographing situation and correcting gradation, a color difference correction part 33 for correction color difference signal of the appropriate exposure area on the basis of the luminance signal before and after gradation correction and the theoretical limit characteristics of color reproduction, a Y/C synthesis part 34 for synthesizing the luminance signal and the color difference signal after correction and a picture synthesis part 15 for synthesizing the long time exposure picture and the short time exposure picture after Y/C synthesis to generate a wide dynamic range picture.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置、よ
り詳しくは、異なる露光条件で撮像された複数の画像か
ら一の広ダイナミックレンジ画像を生成する画像処理装
置に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus for generating one wide dynamic range image from a plurality of images captured under different exposure conditions.

【0002】[0002]

【従来の技術】従来より、異なる露光条件で撮像された
複数の画像を合成して一の広ダイナミックレンジ画像を
生成する画像処理装置が提案されている。
2. Description of the Related Art Conventionally, an image processing apparatus has been proposed which combines a plurality of images captured under different exposure conditions to generate one wide dynamic range image.

【0003】このようなものの一例として、特願平11
−338551号には、各画像を適正露光領域と不適正
露光領域に分割して、各適正露光領域毎に階調補正を行
い、階調補正された各画像毎の適正露光領域を合成して
一の広ダイナミックレンジ画像を生成する画像処理装置
が記載されており、さらに、この画像処理装置を適用し
た機器の例として、被写体をより広いダイナミックレン
ジで撮像することができるスーパーラチチュードデジタ
ルカメラが記載されている。
[0003] As an example of such a device, Japanese Patent Application No.
No. 338551 discloses that each image is divided into a proper exposure area and an improper exposure area, gradation correction is performed for each proper exposure area, and a proper exposure area for each gradation-corrected image is synthesized. An image processing device that generates one wide dynamic range image is described, and further, as an example of a device to which the image processing device is applied, a super latitude digital camera capable of imaging a subject with a wider dynamic range is described. Have been.

【0004】このスーパーラチチュードデジタルカメラ
における階調変換処理は、エッジ部のヒストグラム平坦
化に基づいて行っており、このヒストグラム平坦化は、
主要被写体はエッジが多く、背景などの非主要部はエッ
ジが少ないことを前提とした技術である。
[0004] The gradation conversion processing in this super latitude digital camera is performed based on histogram flattening of an edge portion.
This technique assumes that a main subject has many edges and a non-main part such as a background has few edges.

【0005】一方、従来のデジタルカメラでは、輝度信
号を階調変換するときの係数に基づいて色差信号も変換
するようになっている。すなわち、輝度Yorg が階調変
換特性FによりYtra =F(Yorg )のように変換され
るものとすると、従来においては、輝度信号の変換係数
gainを、 gain=Ytra /Yorg として求めて、この変換係数をそのまま用いて、 Cbtra =gain・Cborg Crtra =gain・Crorg のように色差信号の変換を行っていた。
On the other hand, in a conventional digital camera, a color difference signal is also converted based on a coefficient for converting a luminance signal into a gradation. That is, assuming that the luminance Yorg is converted by the gradation conversion characteristic F as Ytra = F (Yorg), conventionally, the conversion coefficient of the luminance signal is
The gain is calculated as gain = Ytra / Yorg, and the conversion coefficient is used as it is to convert the color difference signal as Cbtra = gain · Cborg Crtra = gain · Crorg.

【0006】[0006]

【発明が解決しようとする課題】上述したような主要被
写体にはエッジが多いという前提に基づくヒストグラム
平坦化の技術は、比較的広い範囲の被写体に対応するこ
とができるものではあるが、対応しきれない場合もあり
得る。こうした例外に該当する可能性のある例として
は、複雑な形状や輪郭を有する背景の下で人物が比較的
小さく写っている場合が挙げられる。このときには、背
景部からエッジが多く検出されるために該背景が主要被
写体であると判断されてしまい、人物に割り当てられる
階調幅が少なくなってしまうことになる。
The histogram flattening technique based on the premise that the main subject has many edges as described above can cope with a relatively wide range of subjects. It may not be possible. An example that may fall under such an exception is a case where a person is relatively small in a background having a complicated shape or contour. At this time, since many edges are detected from the background portion, the background is determined to be the main subject, and the gradation width assigned to the person is reduced.

【0007】また、上述したような色差信号を輝度信号
と同様の変換係数を用いて階調変換する技術では、高輝
度部で不自然な色が生成されることがある。すなわち、
色空間(例えばY,Cb,Cr空間)内における色再現
には理論限界特性(本発明の実施形態を示す図11参
照)があり、この色再現の理論限界特性は、大筋におい
て、輝度Yを増加させて行くに従い色再現可能な色差範
囲が広がり、ある輝度Yを越えたところで今度は色再現
可能な色差範囲が狭まるという特性となっている。つま
り、輝度が低ければ全体が黒っぽくなるために色再現範
囲が狭く、適宜の輝度では広い範囲の色を再現すること
ができ、さらに輝度が高くなると全体に白っぽくなるた
めに色再現範囲が再び狭くなるという特性である。
Further, in the above-described technique of performing gradation conversion of a color difference signal using a conversion coefficient similar to that of a luminance signal, an unnatural color may be generated in a high luminance portion. That is,
Color reproduction in a color space (for example, Y, Cb, Cr space) has a theoretical limit characteristic (see FIG. 11 showing an embodiment of the present invention). The color difference range in which color reproducibility can be expanded as the value is increased, and the color difference range in which color reproducibility can be reduced after a certain luminance Y is exceeded. In other words, if the luminance is low, the color reproduction range is narrow because the whole becomes blackish, and a wide range of colors can be reproduced with appropriate luminance, and the color reproduction range is narrowed again because the whole becomes whitish when the luminance is high This is the characteristic of becoming

【0008】こうした色再現範囲を考慮することなく輝
度と同様に階調変換をしてしまうと、色再現範囲の限界
に近づいたりあるいは越えてしまったりして、階調変換
後の色が白っぽくなることがあった。こうした課題に対
応するために、従来においても高輝度部の彩度を抑制す
る処理を付加してはいたが、充分なものとはいえず、色
再現性をより向上させる技術の実現が望まれている。
If gradation conversion is performed in the same way as luminance without considering such a color reproduction range, the color reproduction range approaches or exceeds the limit, and the color after gradation conversion becomes whitish. There was something. In order to cope with such a problem, processing for suppressing the saturation of the high-luminance part has been added in the past, but it is not sufficient, and it is desired to realize a technique for further improving color reproducibility. ing.

【0009】本発明は上記事情に鑑みてなされたもので
あり、撮影シーンに対応して主要被写体の階調幅を適応
的に調整することができる画像処理装置を提供すること
を目的としている。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and has as its object to provide an image processing apparatus capable of adaptively adjusting the gradation width of a main subject in accordance with a shooting scene.

【0010】また、本発明は、色再現の理論限界特性を
考慮したより最適な彩度の調整を行うことができる画像
処理装置を提供することを目的としている。
Another object of the present invention is to provide an image processing apparatus capable of adjusting the saturation more optimally in consideration of the theoretical limit characteristics of color reproduction.

【0011】[0011]

【課題を解決するための手段】上記の目的を達成するた
めに、第1の発明による画像処理装置は、同一被写体に
対して異なる露光条件で撮像された複数の画像からなる
画像群を処理して一の広ダイナミックレンジ画像を生成
する画像処理装置であって、撮影状況を推定する撮影状
況推定手段と、上記画像群中の各画像毎に画像信号レベ
ルに基づき適正露光域を抽出する抽出手段と、上記適正
露光域に関して上記撮影状況に基づき階調補正を行う階
調補正手段と、この階調補正手段により階調補正された
適正露光域を合成することにより一の広ダイナミックレ
ンジ画像を生成する合成手段と、を備えたものである。
In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention processes an image group consisting of a plurality of images of the same subject captured under different exposure conditions. An image processing apparatus for generating one wide dynamic range image, comprising: a photographing state estimating means for estimating a photographing state; and an extracting means for extracting a proper exposure area based on an image signal level for each image in the image group. Generating a wide dynamic range image by synthesizing a proper exposure area whose gradation has been corrected by the gradation correcting means for performing gradation correction based on the photographing situation with respect to the proper exposure area. And synthesizing means.

【0012】また、第2の発明による画像処理装置は、
同一被写体に対して異なる露光条件で撮像された複数の
画像からなる画像群を処理して一の広ダイナミックレン
ジ画像を生成する画像処理装置であって、上記画像群中
の各画像毎に画像信号を輝度信号と色差信号に分離する
輝度色差分離手段と、上記輝度信号の信号レベルに基づ
き適正露光域を抽出する抽出手段と、上記適正露光域の
輝度信号に関して階調補正を行う階調補正手段と、上記
輝度色差分離手段から出力された階調補正前の輝度信号
と上記階調補正手段から出力された階調補正後の輝度信
号と色再現の理論限界特性とに基づいて上記適正露光域
の色差信号の補正を行う色差補正手段と、上記階調補正
後の輝度信号と上記補正後の色差信号とをもとの画像信
号に合成する輝度色差合成手段と、上記合成された適正
露光域の画像信号を合成することにより一の広ダイナミ
ックレンジ画像を生成する合成手段と、を備えたもので
ある。
An image processing apparatus according to a second aspect of the present invention includes:
An image processing apparatus that processes an image group consisting of a plurality of images captured under different exposure conditions for the same subject to generate one wide dynamic range image, wherein an image signal is output for each image in the image group. Luminance and color difference signals, a luminance and color difference separation means, an extraction means for extracting a proper exposure area based on the signal level of the luminance signal, and a gradation correction means for performing gradation correction on the luminance signal of the proper exposure area The appropriate exposure area based on the luminance signal before gradation correction output from the luminance / color difference separation unit, the luminance signal after gradation correction output from the gradation correction unit, and the theoretical limit characteristic of color reproduction. Color difference correction means for correcting the color difference signal, luminance and color difference synthesis means for synthesizing the luminance signal after gradation correction and the color difference signal after correction with the original image signal, and the synthesized proper exposure area Image signal Synthesizing means for generating a one wide dynamic range image by combining, those having a.

【0013】さらに、第3の発明による画像処理装置
は、同一被写体に対して異なる露光条件で撮像された複
数の画像からなる画像群を処理して一の広ダイナミック
レンジ画像を生成する画像処理装置であって、撮影状況
を推定する撮影状況推定手段と、上記画像群中の各画像
毎に画像信号を輝度信号と色差信号に分離する輝度色差
分離手段と、上記輝度信号の信号レベルに基づき適正露
光域を抽出する抽出手段と、上記適正露光域の輝度信号
に関して上記撮影状況に基づき階調補正を行う階調補正
手段と、上記輝度色差分離手段から出力された階調補正
前の輝度信号と上記階調補正手段から出力された階調補
正後の輝度信号と色再現の理論限界特性とに基づいて上
記適正露光域の色差信号の補正を行う色差補正手段と、
上記階調補正後の輝度信号と上記補正後の色差信号とを
もとの画像信号に合成する輝度色差合成手段と、上記合
成された適正露光域の画像信号を合成することにより一
の広ダイナミックレンジ画像を生成する合成手段と、を
備えたものである。
Further, an image processing apparatus according to a third aspect of the present invention processes an image group consisting of a plurality of images of the same subject captured under different exposure conditions to generate one wide dynamic range image. A photographing state estimating means for estimating a photographing state; a luminance / color difference separating means for separating an image signal into a luminance signal and a color difference signal for each image in the image group; Extraction means for extracting an exposure area, gradation correction means for performing gradation correction on the luminance signal of the proper exposure area based on the shooting conditions, and a luminance signal before gradation correction output from the luminance / color difference separation means. Color difference correction means for correcting the color difference signal of the appropriate exposure area based on the luminance signal after the tone correction output from the tone correction means and the theoretical limit characteristics of color reproduction,
A luminance / color difference synthesizing means for synthesizing the luminance signal after the gradation correction and the color difference signal after the correction with an original image signal; and a wide dynamic range by synthesizing the synthesized image signal of the appropriate exposure area. Combining means for generating a range image.

【0014】第4の発明による画像処理装置は、上記第
1または第3の発明による画像処理装置において、上記
撮影状況推定手段が、合焦情報から少なくとも風景撮
影、人物撮影、接写撮影の3種類の合焦位置を推定する
合焦位置推定手段と、測光情報から少なくとも画面全
体、中央重点、中心部の3種類の被写体分布を推定する
被写体分布推定手段と、上記合焦位置推定手段が推定し
た合焦位置と上記被写体分布推定手段が推定した被写体
分布とを組み合わせて撮影状況を統合的に推定する統合
手段と、を有してなるものである。
The image processing apparatus according to a fourth aspect of the present invention is the image processing apparatus according to the first or third aspect, wherein the photographing state estimating means determines at least three types of landscape photographing, person photographing, and close-up photographing from the focus information. The in-focus position estimating means for estimating the in-focus position, the subject distribution estimating means for estimating at least three types of subject distributions of the entire screen, the center weight, and the central portion from the photometric information, and the in-focus position estimating means Integrating means for integrating and estimating a shooting situation by combining the in-focus position and the object distribution estimated by the object distribution estimating means.

【0015】第5の発明による画像処理装置は、上記第
1または第3の発明による画像処理装置において、上記
階調補正手段が、上記撮影状況に基づき重み係数の配置
を選択する選択手段と、上記適正露光域に関して特徴量
を算出する特徴量算出手段と、上記重み係数の配置に基
づき上記特徴量に関する重み付きヒストグラムを作成す
るヒストグラム作成手段と、上記ヒストグラムに基づき
階調変換曲線を算出する階調変換曲線算出手段と、上記
階調変換曲線を用いて階調変換を行う変換手段と、を有
してなるものである。
The image processing apparatus according to a fifth aspect of the present invention is the image processing apparatus according to the first or third aspect, wherein the gradation correction means selects an arrangement of weight coefficients based on the photographing situation; Feature value calculating means for calculating a feature value with respect to the proper exposure area; histogram creating means for creating a weighted histogram for the feature value based on the arrangement of the weighting coefficients; and a floor calculating section for calculating a gradation conversion curve based on the histogram. Tone conversion curve calculation means, and conversion means for performing tone conversion using the tone conversion curve.

【0016】第6の発明による画像処理装置は、上記第
2の発明による画像処理装置において、上記階調補正手
段が、上記適正露光域に関して特徴量を算出する特徴量
算出手段と、上記特徴量に関するヒストグラムを作成す
るヒストグラム作成手段と、上記ヒストグラムに基づき
階調変換曲線を算出する階調変換曲線算出手段と、上記
階調変換曲線を用いて輝度信号の変換を行う輝度変換手
段と、を有してなるものである。
The image processing apparatus according to a sixth aspect of the present invention is the image processing apparatus according to the second aspect, wherein the gradation correction means calculates a feature quantity for the proper exposure area; Histogram generation means for generating a histogram relating to the image, gradation conversion curve calculation means for calculating a gradation conversion curve based on the histogram, and luminance conversion means for converting a luminance signal using the gradation conversion curve. It is made.

【0017】第7の発明による画像処理装置は、上記第
2または第3の発明による画像処理装置において、上記
色差補正手段が、上記階調補正前の輝度信号と上記色再
現の理論限界特性とに基づいて第1の補正係数を算出す
る第1の算出手段と、上記階調補正後の輝度信号と上記
色再現の理論限界特性とに基づいて第2の補正係数を算
出する第2の算出手段と、上記第1の補正係数と第2の
補正係数とを用いて色差信号の変換を行う色差変換手段
と、を有してなるものである。
The image processing apparatus according to a seventh aspect of the present invention is the image processing apparatus according to the second or third aspect, wherein the color-difference correcting means includes a luminance signal before gradation correction and a theoretical limit characteristic of color reproduction. First calculating means for calculating a first correction coefficient based on the above-described formula, and a second calculating means for calculating a second correction coefficient based on the luminance signal after the gradation correction and the theoretical limit characteristic of color reproduction. Means for converting a color difference signal using the first correction coefficient and the second correction coefficient.

【0018】[0018]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。図1から図7は本発明の第1の実
施形態を示したものであり、図1は電子カメラの基本的
な構成を示すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings. 1 to 7 show a first embodiment of the present invention, and FIG. 1 is a block diagram showing a basic configuration of an electronic camera.

【0019】本実施形態は、本発明の画像処理装置を電
子カメラに適用したものであり、簡単のために短時間露
光による画像と長時間露光による画像との2画像を合成
して一の広ダイナミックレンジ画像を得る場合について
説明するが、もちろんより多数の画像を合成する場合に
適用することも可能である。
In the present embodiment, the image processing apparatus of the present invention is applied to an electronic camera. For simplicity, two images, that is, an image obtained by short-time exposure and an image obtained by long-time exposure, are combined to form one wide area. Although the case where a dynamic range image is obtained will be described, it is needless to say that the present invention can be applied to a case where a larger number of images are combined.

【0020】この電子カメラは、電子シャッタ機能を有
する単板式のカラーCCD等でなり、被写体像を光電変
換して画像信号として出力するためのCCD4と、この
CCD4上に被写体像を結像するためのレンズ系1と、
このレンズ系1を通過した光束の通過範囲を制御するた
めの絞り2と、この絞り2を通過した光束から不要な高
周波成分を除去するための光学フィルタでなるローパス
フィルタ3と、上記CCD4から出力された後に図示し
ない相関二重サンプリング回路等でノイズ成分の除去が
行われその後に増幅等がなされたアナログの画像信号を
デジタル信号に変換するためのA/D変換器5と、この
A/D変換器5によりデジタル化された一画面分の画像
データを各蓄積するものであり長時間露光による画像と
短時間露光による画像とをそれぞれ記憶する第1画像用
バッファ6aおよび第2画像用バッファ6bと、これら
の内の測光用および焦点検出用のデータを蓄積するのに
も用いられる第1画像用バッファ6aから画像データを
読み出して輝度分布を求め撮像時に適正露光となるよう
に上記絞り2の開口径や上記CCD4の電子シャッタを
制御する測光評価部7と、上記第1画像用バッファ6a
から画像データを読み出して合焦位置の検出を行いその
検出結果に基づいて後述するAFモータ9を制御する合
焦点検出部8と、この合焦点検出部8に制御されて上記
レンズ系1のAF用レンズを駆動し上記CCD4上に被
写体像を結像させるようにするAFモータ9と、上記第
1,第2画像用バッファ6a,6bから読み出された単
板の画像データを補間して3板の画像データに変換する
補間部10と、補間後の画像データを蓄積する作業用バ
ッファ11と、この作業用バッファ11から読み出した
3板の画像データを輝度信号Yと色差信号Cb,Crと
に分離する輝度色差分離手段たるY/C分離部12と、
このY/C分離部12からまず輝度信号Yを読み出し
て、画面全体を構成する各画素について、その画素が適
切な露出であるか否かを信号レベルにより判別し、その
結果に基づき分割画像情報を抽出して出力する抽出手段
たる適正露光抽出部13と、上記測光評価部7から出力
される測光情報と上記合焦点検出部8から出力される合
焦情報とに基づいて後で詳しく説明するように撮影状況
を推定する撮影状況推定手段たる撮影状況推定部18
と、この撮影状況推定部18による推定結果を参照して
特徴量であるエッジのヒストグラムを算出するときの重
み付けを行い変換特性を算出して上記適正露光抽出部1
3から出力される適正露光域の階調変換を行う階調補正
手段たる変換特性算出部14と、上記適正露光抽出部1
3から出力される領域情報を参照しながら上記変換特性
算出部14から出力される階調変換後の長時間露光に係
る画像および短時間露光に係る画像を合成して一の広ダ
イナミックレンジ画像を生成する合成手段たる画像合成
部15と、この画像合成部15により合成された広ダイ
ナミックレンジ画像を例えば記録媒体や表示装置などに
出力する出力部16と、上記測光評価部7や合焦点検出
部8の検出結果を受け取るとともに、上記補間部10、
適正露光抽出部13、撮影状況推定部18、変換特性算
出部14、画像合成部15、出力部16を含むこの電子
カメラ全体の制御を行う制御部17と、を有して構成さ
れている。
The electronic camera comprises a single-chip color CCD or the like having an electronic shutter function. The CCD 4 photoelectrically converts a subject image and outputs it as an image signal. The CCD 4 forms the subject image on the CCD 4. Lens system 1
A stop 2 for controlling a passing range of a light beam passing through the lens system 1, a low-pass filter 3 serving as an optical filter for removing unnecessary high-frequency components from the light beam passing through the stop 2, and an output from the CCD 4. After that, an A / D converter 5 for converting an analog image signal, which has been subjected to noise component removal by a correlated double sampling circuit (not shown) or the like and then amplified to a digital signal, into a digital signal, and the A / D converter A first image buffer 6a and a second image buffer 6b for storing image data of one screen digitized by the converter 5 and storing an image obtained by long-time exposure and an image obtained by short-time exposure, respectively. The image data is read out from the first image buffer 6a, which is also used to store the data for photometry and focus detection, and The exposure control unit 7 for controlling the electronic shutter of the opening diameter and the CCD4 of the diaphragm 2 so that the proper exposure when imaging seek, the first image buffer 6a
And a focusing point detecting unit 8 for detecting an in-focus position and controlling an AF motor 9 to be described later based on the detection result, and an AF of the lens system 1 controlled by the in-focus detecting unit 8. An AF motor 9 for driving an imaging lens to form a subject image on the CCD 4, and interpolating the single-plate image data read out from the first and second image buffers 6a and 6b by 3 An interpolating unit 10 for converting the image data of the plate, a working buffer 11 for storing the interpolated image data, and image data of the three plates read from the working buffer 11 for the luminance signal Y and the color difference signals Cb, Cr. A Y / C separation unit 12 serving as a luminance / color difference separation unit for separating into
First, the luminance signal Y is read from the Y / C separation unit 12, and for each pixel constituting the entire screen, it is determined whether or not the pixel has an appropriate exposure based on a signal level. This will be described in detail later on the basis of the appropriate exposure extracting unit 13 as extracting means for extracting and outputting the photometric information, the photometric information output from the photometric evaluation unit 7 and the focus information output from the focus detection unit 8. Condition estimating section 18 as a photographing condition estimating means for estimating the photographing condition
With reference to the estimation result by the photographing situation estimating unit 18, weighting is performed when calculating a histogram of an edge, which is a feature amount, a conversion characteristic is calculated, and the proper exposure extracting unit 1 is calculated.
A conversion characteristic calculation unit 14 as a gradation correction unit for performing gradation conversion of a proper exposure area output from the proper exposure region 3;
3 and the image related to the long-time exposure and the image related to the short-time exposure after gradation conversion output from the conversion characteristic calculating unit 14 with reference to the area information output from An image synthesizing unit 15 that is a synthesizing unit that generates, an output unit 16 that outputs a wide dynamic range image synthesized by the image synthesizing unit 15 to, for example, a recording medium or a display device, the photometric evaluation unit 7, and a focal point detection unit 8 and the interpolation unit 10,
The control unit 17 includes an appropriate exposure extracting unit 13, a photographing situation estimating unit 18, a conversion characteristic calculating unit 14, an image synthesizing unit 15, and an output unit 16 for controlling the entire electronic camera.

【0021】次に、図2は、上記撮影状況推定部18の
詳細な構成を示すブロック図である。
FIG. 2 is a block diagram showing a detailed configuration of the photographing situation estimating section 18. As shown in FIG.

【0022】上記合焦点検出部8から出力され制御部1
7を介して入力される合焦(AF)情報は、合焦位置推
定手段たる合焦位置推定部20に入力されて、その被写
体距離に応じて例えば風景撮影(5m〜∞)、人物撮影
(1m〜5m)、接写撮影(1m以下)の3種類(図5
参照)の何れかに分類される。
The control unit 1 output from the in-focus point detection unit 8
The focus (AF) information input via the control unit 7 is input to a focus position estimating unit 20 serving as a focus position estimating unit, and according to the subject distance, for example, landscape shooting (5 m to ∞), person shooting ( 1m to 5m) and close-up photography (1m or less) (Fig. 5
Reference).

【0023】また、上記測光評価部7から出力されて制
御部17を介して入力される測光(AE)情報は、被写
体分布推定手段たる被写体分布推定部21に入力され
て、その輝度分布が幾つかに分類される。
Also, photometric (AE) information output from the photometric evaluation unit 7 and input via the control unit 17 is input to a subject distribution estimating unit 21 serving as a subject distribution estimating unit, and the number of luminance distributions is determined. It is classified into crab.

【0024】具体的には、まず、上記測光評価部7は、
CCD4上の領域を例えば図4に示すように13個に分
類して、分割測光を行うようになっている。この図4
は、評価測光用の分割パターンの一例を示す図である。
Specifically, first, the photometric evaluation section 7
The area on the CCD 4 is classified into, for example, 13 as shown in FIG. 4, and divided photometry is performed. This figure 4
FIG. 4 is a diagram showing an example of a division pattern for evaluation photometry.

【0025】すなわち、最中央部の真ん中の領域をa1
、その左隣をa2 、右隣をa3 とする。
That is, the center area at the center is defined as a1
The left neighbor is a2 and the right neighbor is a3.

【0026】さらに、この最中央部を取り巻く内周部の
内の上記領域a1 の上下を各a4 、a5 とし、該領域a
4 の左右を各a6 、a7とし、上記領域a5 の左右を各
a8、a9 とする。
Further, upper and lower portions of the above-mentioned area a1 in the inner peripheral portion surrounding the centermost portion are defined as a4 and a5, respectively.
The left and right sides of 4 are a6 and a7, and the left and right sides of the area a5 are a8 and a9.

【0027】そして、該内周部を取り巻く外周部の内の
左上をa10、右上をa11、左下をa12、右下をa13とす
る。
The upper left part of the outer peripheral part surrounding the inner peripheral part is a10, the upper right part is a11, the lower left part is a12, and the lower right part is a13.

【0028】このような領域による分割測光において、
上記被写体分布推定部21は、次の各評価用パラメータ
を計算する。
In the photometry divided by such an area,
The subject distribution estimating unit 21 calculates the following evaluation parameters.

【数1】S1 =|a2 −a3 |S1 = | a2-a3 |

【数2】S2 =max(|a4 −a6 |,|a4 −a7 |)S2 = max (| a4-a6 |, | a4-a7 |)

【数3】S3 =max(a10,a11)−Av Av=(Σai )/13S3 = max (a10, a11) -Av Av = (Aai) / 13

【0029】すなわち、評価用パラメータS1 は、最中
央部の左右の輝度差を示すもの、評価用パラメータS2
は、内周部の上側中央と上側左右の何れかとの輝度差の
大きい方を示すもの、評価用パラメータS3は、外周部
の上側左右何れか大きい方と画面全体の平均輝度との差
を示すものとなっている。
That is, the evaluation parameter S1 indicates the difference between the left and right luminances at the center and the evaluation parameter S2.
Indicates the larger luminance difference between the upper center and the upper right and left sides of the inner peripheral portion, and the evaluation parameter S3 indicates the difference between the larger upper right and left sides of the outer peripheral portion and the average luminance of the entire screen. It has become something.

【0030】このような評価用パラメータを被写体分布
推定部21から得るとともに、合焦位置の分類を上記合
焦位置推定部20から得て、統合手段たる統合部22に
おいて図5に示すような統合的な分類を行う。この図5
は、AF情報とAE情報からのシーンの分類パターンを
示す図表である。
Such evaluation parameters are obtained from the subject distribution estimating unit 21 and the in-focus position is obtained from the in-focus position estimating unit 20. The integrating unit 22 as an integrating means as shown in FIG. Classification. This figure 5
9 is a chart showing a classification pattern of a scene from AF information and AE information.

【0031】図示のように、AF情報が5m〜∞のとき
には、風景撮影であるとして、さらに上記評価用パラメ
ータS3 を所定値Th1 と比較する。このとき、評価用
パラメータS3 が所定値Th1 よりも大きければa10ま
たはa11の何れか少なくとも一方は画面全体の平均輝度
よりもある程度以上輝度が高いことになるために、上部
に空のある風景であると判断する(Type1)。一
方、評価用パラメータS3 が所定値Th1 よりも小さい
場合には、これとは逆に上部に空がないかまたはあって
も少ない風景であると判断する(Type2)。
As shown in the figure, when the AF information is 5 m to と し て, it is determined that the image is landscape photography, and the evaluation parameter S3 is compared with a predetermined value Th1. At this time, if the evaluation parameter S3 is larger than the predetermined value Th1, at least one of a10 and a11 has a brightness higher than the average brightness of the entire screen to a certain extent or more, so that the scenery has an upper sky. (Type 1). On the other hand, when the evaluation parameter S3 is smaller than the predetermined value Th1, on the contrary, it is determined that there is no sky above the scenery or that there is little scenery (Type 2).

【0032】次に、AF情報が1m〜5mのときには、
人物撮影であるとして、さらに上記評価用パラメータS
2 を所定値Th2 と比較する。このとき、評価用パラメ
ータS2 が所定値Th2 よりも大きければ一人のポート
レートであると判断し(Type3)、一方、所定値T
h2 よりも小さければ複数人のポートレートであると判
断する(Type4)。
Next, when the AF information is 1 m to 5 m,
Assuming that a person is photographed, the evaluation parameter S
2 is compared with a predetermined value Th2. At this time, if the evaluation parameter S2 is larger than the predetermined value Th2, it is determined that the portrait is a portrait of one person (Type 3).
If it is smaller than h2, it is determined that the portrait is of a plurality of persons (Type 4).

【0033】さらに、AF情報が1m以下のときには、
接写撮影であるとして、さらに上記評価用パラメータS
1 を所定値Th3 と比較する。このとき、評価用パラメ
ータS1 が所定値Th3 よりも大きければ単一の物体の
クローズアップであると判断し(Type5)、一方、
所定値Th3 よりも小さければ複数の物体のクローズア
ップであると判断する(Type6)。
Further, when the AF information is 1 m or less,
Assuming that the shooting is a close-up shooting, the evaluation parameter S
1 is compared with a predetermined value Th3. At this time, if the evaluation parameter S1 is larger than the predetermined value Th3, it is determined that the object is a close-up of a single object (Type 5).
If it is smaller than the predetermined value Th3, it is determined that the object is a close-up of a plurality of objects (Type 6).

【0034】このようなタイプに分類した結果が、上記
統合部22から変換特性算出部14に出力される。
The results classified into such types are output from the integration unit 22 to the conversion characteristic calculation unit 14.

【0035】続いて、図3は上記変換特性算出部の詳細
な構成を示すブロック図である。
FIG. 3 is a block diagram showing a detailed configuration of the conversion characteristic calculator.

【0036】上記適正露光抽出部13は、上述したよう
に、まず長時間露光画像の輝度信号Yを読み出して、画
面全体を構成する各画素の信号レベルを所定値と比較す
ることにより、その画素が、適切な露出であるか否かを
判別するものであり、適正露光と判断された画素の集合
が長時間露光に係る適正露光域となり、この長時間露光
に係る適正露光域以外の部分を短時間露光に係る適正露
光域とするようになっている。
As described above, the appropriate exposure extracting unit 13 first reads out the luminance signal Y of the long-time exposure image, compares the signal level of each pixel constituting the entire screen with a predetermined value, and Is to determine whether or not the exposure is appropriate, the set of pixels determined to be appropriate exposure is the appropriate exposure area for long-time exposure, the portion other than the appropriate exposure area for this long-time exposure An appropriate exposure area for short-time exposure is set.

【0037】上記適正露光抽出部13から出力される長
時間露光の適正露光域の輝度信号Yが、特徴量算出手段
たるエッジ抽出部26に入力されると、このエッジ抽出
部26では上記制御部17の制御に基づきエッジ検出を
行う。具体的には、このエッジ抽出部26は、例えばラ
プラシアンやSobel等の一般的なエッジ検出オペレ
ータでなり、該エッジ検出オペレータによる強度が所定
の閾値以上であれば、参照位置にはエッジが存在すると
し、そうでない場合にはエッジではないとする2値情報
を出力するものである。
When a luminance signal Y in a proper exposure area for long-time exposure output from the proper exposure extracting unit 13 is input to an edge extracting unit 26 serving as a feature amount calculating means, the edge extracting unit 26 Edge detection is performed based on the control of S17. Specifically, the edge extraction unit 26 is a general edge detection operator such as Laplacian or Sobel. If the strength of the edge detection operator is equal to or greater than a predetermined threshold, it is determined that an edge exists at the reference position. Otherwise, it outputs binary information that is not an edge.

【0038】一方、上記撮影状況推定部18によりタイ
プ分類された結果が選択手段たる重みパターン選択部2
4に入力されると、この重みパターン選択部24では上
記制御部17の制御に基づき、図6に示すような複数の
重みパターンが予め記憶されている重みパターン用RO
M25からそのタイプに応じた重みパターンを選択す
る。この図6は、上記図5に示したような分類パターン
に基づくヒストグラム算出時の重み係数を示す図であ
り、図6(A)は上記Type1に、図6(B)は上記
Type2に、図6(C)は上記Type3に、図6
(D)は上記Type4に、図6(E)は上記Type
5に、図6(F)は上記Type6にそれぞれ対応した
重みパターンとなっている。
On the other hand, the result of the type classification by the photographing situation estimating section 18 is used as a weighting pattern selecting section 2 as selecting means.
4, the weight pattern selecting unit 24, based on the control of the control unit 17, stores a plurality of weight patterns as shown in FIG.
A weight pattern corresponding to the type is selected from M25. FIG. 6 is a diagram showing weighting factors at the time of calculating a histogram based on the classification pattern as shown in FIG. 5. FIG. 6 (A) is for Type 1, FIG. 6 (B) is for Type 2, 6 (C) corresponds to Type 3 shown in FIG.
(D) shows the Type 4 and FIG. 6 (E) shows the Type 4.
FIG. 6F shows a weight pattern corresponding to Type 6 described above.

【0039】こうして、ヒストグラム作成手段たるヒス
トグラム作成部27は、上記エッジ抽出部26から出力
された結果に基づき、エッジを構成する画素やその近傍
画素について、輝度レベルに対する出現頻度を示すエッ
ジヒストグラムを算出するが、このヒストグラムを作成
する際に、上記図6に示したように画像中の画素位置に
応じた重み付けを行って算出するようになっている。さ
らに、このヒストグラム作成部27では、算出されたエ
ッジヒストグラムを積分するなどにより、累積エッジヒ
ストグラムに変換する。
Thus, based on the result output from the edge extracting unit 26, the histogram creating unit 27, which is a histogram creating unit, calculates an edge histogram indicating the appearance frequency with respect to the luminance level for the pixels constituting the edge and the neighboring pixels. However, when the histogram is created, the histogram is calculated by performing weighting according to the pixel position in the image as shown in FIG. Further, the histogram creation unit 27 converts the calculated edge histogram into a cumulative edge histogram by integrating the calculated edge histogram.

【0040】階調変換曲線算出手段たる変換曲線算出部
28では、エッジヒストグラムをガウシアンカーネル等
を用いてコンボリューションすることにより目標ヒスト
グラムを生成し、この目標ヒストグラムと上記ヒストグ
ラム作成部27から出力された累積エッジヒストグラム
とを用いて階調補正特性となるトーンカーブを算出す
る。
The conversion curve calculation unit 28, which is a gradation conversion curve calculation means, generates a target histogram by convolving the edge histogram using a Gaussian kernel or the like, and outputs the target histogram and the target histogram. A tone curve serving as a gradation correction characteristic is calculated using the cumulative edge histogram.

【0041】変換手段たる変換部29は、上記適正露光
抽出部13から入力される画像データに、この変換曲線
算出部28から得られるトーンカーブに基づいた階調補
正を行い、階調補正後の画像データを上記画像合成部1
5に出力する。この変換部29では、まず長時間露光に
係る輝度信号Yの階調補正を行い、次に該長時間露光に
係る色差信号Cb,Crの階調補正を順次行って画像合
成部15に出力し、その後に、短時間露光に係る輝度信
号Yと色差信号Cb,Crの階調補正を同様に行って画
像合成部15に出力する。
The conversion unit 29, which is a conversion unit, performs gradation correction on the image data input from the appropriate exposure extraction unit 13 based on the tone curve obtained from the conversion curve calculation unit 28. Image data is stored in the image synthesizing unit 1
5 is output. The conversion unit 29 first performs gradation correction of the luminance signal Y related to long-time exposure, and then sequentially performs gradation correction of the color difference signals Cb and Cr related to the long-time exposure, and outputs the result to the image combining unit 15. After that, the gradation correction of the luminance signal Y and the color difference signals Cb and Cr related to the short-time exposure is performed in the same manner and output to the image synthesizing unit 15.

【0042】画像合成部15では、まず、長時間露光に
係る階調補正後の輝度信号Yおよび色差信号Cb,Cr
を受け取って、該長時間露光に係る例えばRGB信号を
生成し、次に、短時間露光に係る階調補正後の輝度信号
Yおよび色差信号Cb,Crを受け取って、該短時間露
光に係る同RGB信号を生成する。その後にこれらを合
成することにより、一の広ダイナミックレンジ画像を生
成して出力するようになっている。
In the image synthesizing unit 15, first, the luminance signal Y and the color difference signals Cb and Cr after gradation correction for long-time exposure are performed.
To generate, for example, RGB signals related to the long-time exposure, and then receive the luminance signal Y and color difference signals Cb, Cr after gradation correction related to the short-time exposure, and Generate RGB signals. Then, by combining these, one wide dynamic range image is generated and output.

【0043】次に、図7は、画像変換の処理を示すフロ
ーチャートである。
FIG. 7 is a flowchart showing the image conversion processing.

【0044】単板でなる上記CCD4に結像された被写
体像は、異なる露光条件で複数回撮像されるようになっ
ており、上述したように、例えば長時間露光による撮像
と短時間露光による撮像とがこの順に行われて、順次画
像信号として出力される。
The subject image formed on the CCD 4 made of a single plate is imaged a plurality of times under different exposure conditions. Are performed in this order, and are sequentially output as image signals.

【0045】これらの画像信号は、A/D変換器5によ
ってデジタル信号に変換された後に、第1画像用バッフ
ァ6aと第2画像用バッファ6bにそれぞれ記憶され
る。
After these image signals are converted into digital signals by the A / D converter 5, they are stored in the first image buffer 6a and the second image buffer 6b, respectively.

【0046】上記測光評価部7と合焦点検出部8は、こ
れらの内の一方の第1画像用バッファ6aに蓄積された
長時間露光の画像データに基づいて、上述したように、
AE情報とAF情報を制御部17に出力する(ステップ
S1)。
The photometric evaluation section 7 and the focal point detection section 8 perform the above-described operations based on the long-time exposure image data stored in one of the first image buffers 6a, as described above.
The AE information and the AF information are output to the control unit 17 (Step S1).

【0047】一方、上記第1画像用バッファ6aおよび
第2画像用バッファ6bに記憶されている画像データ
は、補間部10に順次送られて、R画像データ、G画像
データ、B画像データのそれぞれについて補間を行うこ
とにより、3板の画像データに変換されて(ステップS
2)、作業用バッファ11に記憶される。
On the other hand, the image data stored in the first image buffer 6a and the second image buffer 6b are sequentially sent to the interpolator 10, and each of the R image data, the G image data, and the B image data is Are converted into three-plate image data by performing interpolation (step S
2) It is stored in the work buffer 11.

【0048】Y/C分離部12では、この作業用バッフ
ァ11からRGB画像データを読み出して、輝度信号Y
と色差信号Cb,Crとを、次の数式4に示すように算
出する(ステップS3)。
The Y / C separation section 12 reads the RGB image data from the working buffer 11 and
And the color difference signals Cb and Cr are calculated as shown in the following Expression 4 (step S3).

【数4】 Y = 0.29900R+0.58700G+0.14400B Cb=−0.16874R−0.33126G+0.50000B Cr= 0.50000R−0.41869G−0.08131BY = 0.29900R + 0.58700G + 0.14400B Cb = −0.16874R−0.33126G + 0.50000B Cr = 0.50000R−0.41869G−0.08131B

【0049】適正露光抽出部13は、これらの内の輝度
信号Yの信号レベルを、各画素毎に所定の閾値と比較す
ることにより、適正露光域に属するか否かを判断するこ
とにより分割画像情報を抽出して出力する(ステップS
4)。
The appropriate exposure extracting section 13 compares the signal level of the luminance signal Y among these with a predetermined threshold value for each pixel to determine whether or not the pixel belongs to the appropriate exposure area, thereby obtaining a divided image. Extract and output information (Step S
4).

【0050】その後、変換特性算出部14内のエッジ抽
出部26において、輝度信号Yにラプラシアン等の公知
の2次微分フィルタをかけてエッジ成分を抽出し(ステ
ップS5)、抽出したエッジ成分に標準偏差の例えば2
倍程度の閾値を設けることで2値化処理を行う(ステッ
プS6)。
Thereafter, an edge component is extracted by applying a known secondary differential filter such as Laplacian to the luminance signal Y in an edge extraction unit 26 in the conversion characteristic calculation unit 14 (step S5). Deviation for example 2
The binarization process is performed by providing a threshold of about twice (step S6).

【0051】一方で、上記撮影状況推定部18におい
て、AF情報とAE情報とに基づいて上述したように撮
影状況を推定し(ステップS7)、重みパターンがTy
pe1からType6の何れであるかを選択する(ステ
ップS8)。そして、選択した重みパターンに対応する
図6に示すような重み係数を重みパターン用ROM25
から読み込む(ステップS9)。
On the other hand, the photographing state estimating section 18 estimates the photographing state based on the AF information and the AE information as described above (step S7), and the weighting pattern is set to Ty.
It selects any one of pe1 to Type6 (step S8). Then, the weighting factor corresponding to the selected weighting pattern as shown in FIG.
(Step S9).

【0052】こうして、上記ステップS6で2値化され
たエッジ成分とステップS9で読み込まれた重みパター
ンとに基づいて上記ヒストグラム作成部27が重み付け
したエッジヒストグラムを作成して(ステップS1
0)、このエッジヒストグラムからさらに累積エッジヒ
ストグラムを生成する(ステップS11)。こうして得
た累積エッジヒストグラムに基づいて、上記変換曲線算
出部28が階調変換曲線を算出する(ステップS1
2)。
In this way, the histogram creating section 27 creates an edge histogram weighted based on the edge components binarized in step S6 and the weight pattern read in step S9 (step S1).
0), a cumulative edge histogram is further generated from the edge histogram (step S11). The conversion curve calculation unit 28 calculates a gradation conversion curve based on the cumulative edge histogram thus obtained (step S1).
2).

【0053】続く変換部29では、上記適正露光抽出部
13から出力される輝度信号Yおよび色差信号Cb,C
rを、上記変換曲線算出部28から得られた階調変換曲
線によって変換処理し(ステップS13)、変換した画
像データを出力するようになっている(ステップS1
4)。
In the conversion section 29, the luminance signal Y and the color difference signals Cb and C output from the proper exposure extraction section 13 are output.
r is converted by the gradation conversion curve obtained from the conversion curve calculator 28 (step S13), and the converted image data is output (step S1).
4).

【0054】なお、上述では撮影状況を推定するのに測
光情報と合焦情報の両方を用いているが、これらの内の
一方のみを用いて推定し重み付けを変えることも可能で
ある。また、測光情報と合焦情報に限らず、ズーム位置
情報やマルチスポット測光情報、視線入力情報、ストロ
ボの発光情報、電子カメラの縦横位置を検出する検出セ
ンサの情報、ホワイトバランス情報などの内の一以上を
参照すれば、より詳細に撮影状況を推定することが可能
となる。
In the above description, both the photometric information and the focusing information are used for estimating the photographing situation, but it is also possible to use only one of them to estimate and change the weight. Not only the photometric information and focus information but also zoom position information, multi-spot photometric information, line-of-sight input information, flash emission information, information on the detection sensor that detects the vertical and horizontal position of the electronic camera, and white balance information. By referring to one or more, it is possible to estimate the shooting situation in more detail.

【0055】さらに、上述したような撮影状況に応じた
階調補正の技術は、カラー画像にのみ適用されるもので
はなく、白黒画像にも適用することが可能である。
Further, the above-described technique of gradation correction according to a shooting situation is not limited to a color image but can be applied to a black and white image.

【0056】そして、この第1の実施形態においては、
電子カメラ内の回路として構成した画像処理装置により
撮影状況に応じた階調補正を行っているが、このような
処理を、コンピュータの処理プログラムにより行うこと
も可能である。この場合には、画像ファイルの例えばヘ
ッダ部分に測光情報や合焦情報などの撮影情報を記録し
ておき、コンピュータにおいてこれらの撮影情報を基に
撮影状況を推定して、その撮影状況に適した階調補正を
行うようにすればよい。
Then, in the first embodiment,
Although the image processing apparatus configured as a circuit in the electronic camera performs gradation correction according to the shooting situation, such processing can be performed by a processing program of a computer. In this case, photographing information such as photometric information and focusing information is recorded in, for example, a header portion of the image file, and a computer estimates a photographing state based on the photographing information, and is suitable for the photographing state. Tone correction may be performed.

【0057】また、この画像処理装置は、電子カメラに
適用するに限るものではなく、例えばプリンタ装置など
の画像を扱う機器にも広く適用することが可能である。
The image processing apparatus is not limited to being applied to an electronic camera, but can be widely applied to, for example, an image processing apparatus such as a printer apparatus.

【0058】このような第1の実施形態によれば、合焦
情報や測光情報などの撮影情報に基づいて撮影状況を判
断し、エッジヒストグラムを作成する際にこの撮影状況
に応じた重み付けを行うようにしたために、主要被写体
を考慮し撮影シーンに最も適した階調補正を行うことが
可能となる。
According to the first embodiment, the photographing state is determined based on photographing information such as focusing information and photometric information, and weighting is performed according to the photographing state when creating an edge histogram. As a result, it is possible to perform gradation correction most suitable for the shooting scene in consideration of the main subject.

【0059】図8から図12は本発明の第2の実施形態
を示したものであり、図8は電子カメラの基本的な構成
を示すブロック図、図9は輝度補正部の詳細な構成を示
すブロック図、図10は色差補正部の詳細な構成を示す
ブロック図、図11は色再現の理論限界特性を考慮して
色差補正を行う様子を示す線図、図12は画像変換の処
理を示すフローチャートである。
FIGS. 8 to 12 show a second embodiment of the present invention. FIG. 8 is a block diagram showing a basic configuration of an electronic camera, and FIG. 9 shows a detailed configuration of a luminance correction unit. FIG. 10 is a block diagram showing a detailed configuration of a color difference correction unit, FIG. 11 is a diagram showing how color difference correction is performed in consideration of a theoretical limit characteristic of color reproduction, and FIG. 12 is a diagram showing image conversion processing. It is a flowchart shown.

【0060】この第2の実施形態において、上述の第1
の実施形態と同様である部分については同一の符号を付
して説明を省略し、主として異なる点についてのみ説明
する。
In the second embodiment, the first
The same components as those of the first embodiment are denoted by the same reference numerals, and description thereof will be omitted. Only different points will be mainly described.

【0061】この第2の実施形態では、Y/C分離部1
2により分離された輝度信号Yと色差信号Cb,Cr
は、適正露光抽出部13を経て、階調補正手段たる輝度
補正部32と色差補正手段たる色差補正部33とにそれ
ぞれ入力されるようになっている。
In the second embodiment, the Y / C separation unit 1
2, the luminance signal Y and the color difference signals Cb, Cr
Are input through a proper exposure extraction unit 13 to a luminance correction unit 32 as a gradation correction unit and a color difference correction unit 33 as a color difference correction unit.

【0062】上記輝度補正部32は、図9に示すよう
に、上記適正露光抽出部13から出力される適正露光域
の輝度信号Yを受け取り、輝度についての階調補正を行
うものであり、特徴量算出手段たるエッジ抽出部40
と、ヒストグラム作成手段たるヒストグラム作成部41
と、階調変換曲線算出手段たる変換曲線算出部42と、
輝度変換手段たる輝度変換部43と、を有して構成され
ている。
As shown in FIG. 9, the brightness correction section 32 receives the brightness signal Y in the proper exposure area output from the proper exposure extraction section 13 and performs gradation correction on the brightness. Edge extractor 40 serving as an amount calculator
And a histogram creating unit 41 as a histogram creating means
A conversion curve calculation unit 42 as a gradation conversion curve calculation unit;
And a brightness conversion unit 43 as a brightness conversion unit.

【0063】この輝度補正部32における処理を、図1
2も参照して説明する。
The processing in the brightness correction unit 32 is described in FIG.
This will be described with reference to FIG.

【0064】輝度補正部32は、上記適正露光抽出部1
3から出力される適正露光域の輝度信号Yを読み込み
(ステップS21)、上記エッジ抽出部40がラプラシ
アン等のフィルタをかけてエッジ成分を抽出し(ステッ
プS22)、画素毎に所定の閾値と比較してエッジであ
るか否かを決定する2値化処理を行う(ステップS2
3)。
The brightness correction section 32 is provided with the appropriate exposure extraction section 1
The luminance signal Y in the proper exposure area output from the pixel 3 is read (step S21), and the edge extraction unit 40 extracts an edge component by applying a filter such as Laplacian (step S22), and compares it with a predetermined threshold value for each pixel. (Step S2)
3).

【0065】このエッジ抽出部40から出力された情報
に基づき、ヒストグラム作成部41が、輝度に対するエ
ッジの出現頻度を示すエッジヒストグラムを生成し(ス
テップS24)、さらにこれを積分するなどにより累積
エッジヒストグラムを作成する(ステップS25)。
Based on the information output from the edge extracting section 40, the histogram creating section 41 generates an edge histogram indicating the frequency of appearance of the edge with respect to the luminance (step S24), and further integrates this to obtain a cumulative edge histogram. Is created (step S25).

【0066】変換曲線算出部42は、このヒストグラム
作成部41から出力された累積エッジヒストグラムなど
を用いて上述したように階調補正特性となるトーンカー
ブを算出する(ステップS26)。
The conversion curve calculation unit 42 calculates a tone curve serving as a gradation correction characteristic as described above using the cumulative edge histogram output from the histogram creation unit 41 (step S26).

【0067】輝度変換部43は、この変換曲線に基づい
て、上記制御部17の制御により輝度信号Yを階調変換
して(ステップS27)、色差補正部33に出力すると
ともに、輝度色差合成手段たるY/C合成部34に出力
する(ステップS28)。
The luminance conversion unit 43 performs gradation conversion of the luminance signal Y based on the conversion curve under the control of the control unit 17 (step S27), outputs the gradation to the color difference correction unit 33, and outputs the luminance / color difference combining means. The result is output to the Y / C combining section 34 (step S28).

【0068】このように、適正露光抽出部13から出力
される階調補正前の輝度信号をYorg とし、上記輝度変
換部43により階調補正された後の輝度信号をYtra と
すると、これらの輝度信号Yorg およびYtra は、次に
説明するように、色差補正部33において色差の階調を
補正する際に用いられる。
As described above, if the luminance signal before gradation correction output from the proper exposure extraction unit 13 is Yorg, and the luminance signal after gradation correction by the luminance conversion unit 43 is Ytra, The signals Yorg and Ytra are used when the color difference correction section 33 corrects the gradation of the color difference, as described below.

【0069】上記色差補正部33は、図10に示すよう
に、上記適正露光抽出部13から出力される適正露光域
の色差信号Cb,Crを受け取り、色差についての階調
補正を行うものであり、第1の算出手段たる第1補正係
数算出部47と、第2の算出手段たる第2補正係数算出
部45と、色再現限界特性用ROM46と、色差変換手
段たる色差変換部48とを有して構成されている。
As shown in FIG. 10, the color difference correction section 33 receives the color difference signals Cb and Cr in the proper exposure area output from the proper exposure extracting section 13 and performs gradation correction on the color difference. A first correction coefficient calculation unit 47 as a first calculation unit, a second correction coefficient calculation unit 45 as a second calculation unit, a ROM 46 for color reproduction limit characteristics, and a color difference conversion unit 48 as a color difference conversion unit. It is configured.

【0070】この色差補正部33においては、上記第1
補正係数算出部47が、上記適正露光抽出部13から階
調補正前の輝度信号Yorg を受け取って、この輝度信号
Yorg に対応する色再現範囲borg を次の数式5に示す
ように計算する(ステップS31)。
In the color difference correction section 33, the first
The correction coefficient calculating unit 47 receives the luminance signal Yorg before the gradation correction from the appropriate exposure extracting unit 13 and calculates a color reproduction range borg corresponding to the luminance signal Yorg as shown in the following Expression 5 (step) S31).

【数5】borg =B(Yorg )## EQU5 ## borg = B (Yorg)

【0071】ここに、関数B(Y)は、色空間(Y,C
b,Cr空間)内における色再現の理論限界特性を示す
関数であり、例えば図11に模式的に示すように、輝度
Yを増加させて行くに従い色再現可能な色差範囲が広が
り、ある輝度Yを越えたところで今度は色再現可能な色
差範囲が狭まるという特性を持ったものである。
Here, the function B (Y) is expressed in the color space (Y, C
(b, Cr space), which is a function indicating the theoretical limit characteristic of color reproduction. For example, as schematically shown in FIG. Is exceeded, the color difference range in which color reproduction is possible is narrowed.

【0072】この数式5に示すような計算は、例えば、
上記色再現限界特性用ROM46に記憶されているテー
ブルデータ等を参照して(ステップS30)、輝度Yor
g に対応する色再現範囲borg を求めることにより行
う。
The calculation as shown in Expression 5 is, for example,
Referring to the table data and the like stored in the color reproduction limit characteristic ROM 46 (step S30), the luminance Yor
This is performed by finding a color gamut borg corresponding to g.

【0073】上記色再現限界特性用ROM46は、色再
現の理論限界特性を示す上記関数B(Y)をテーブルデ
ータとして予め記憶しているものであり、ここでは演算
による負荷や処理速度等を考慮してROM化したテーブ
ルデータを用いるようにしているが、もちろん、実際に
計算を行うようにしても構わない。
The color reproduction limit characteristic ROM 46 stores the function B (Y) indicating the theoretical limit characteristic of color reproduction in advance as table data. Here, the load and the processing speed by calculation are taken into consideration. Then, the table data stored in the ROM is used, but of course, the calculation may be actually performed.

【0074】次に、上記第2補正係数算出部45が、上
記輝度補正部32から階調補正後の輝度信号Ytra を受
け取って、この輝度信号Ytra に対応する色再現範囲b
traを、上述した数式5と同様の次の数式6に示すよう
に計算する(ステップS32)。
Next, the second correction coefficient calculation section 45 receives the luminance signal Ytra after the gradation correction from the luminance correction section 32 and receives the color reproduction range b corresponding to the luminance signal Ytra.
tra is calculated as shown in the following Expression 6 similar to Expression 5 described above (Step S32).

【数6】btra =B(Ytra )## EQU6 ## btra = B (Ytra)

【0075】この数式6に示すような計算も、同様に、
上記色再現限界特性用ROM46に記憶されているテー
ブルデータ等を参照して(ステップS30)、輝度Ytr
a に対応する色再現範囲btra を求めることにより行
う。
The calculation as shown in Expression 6 is similarly performed
With reference to the table data and the like stored in the color reproduction limit characteristic ROM 46 (step S30), the luminance Ytr
This is performed by obtaining a color reproduction range btra corresponding to a.

【0076】上記色差変換部48は、第1の補正係数で
ある上記borg と、第2の補正係数である上記btra に
基づいて、色差信号に対する変換係数gainc を次の
数式7に示すように計算する。
The color difference conversion section 48 calculates a conversion coefficient gainc for the color difference signal based on the first correction coefficient borg and the second correction coefficient btra as shown in the following equation (7). I do.

【数7】gainc =btra /borg[Mathematical formula-see original document] gain = btra / borg

【0077】こうして、色差信号に対する変換係数ga
inc を、階調補正前の輝度信号Yorg での色再現の理
論限界特性borg と、階調補正後の輝度信号Ytra での
色再現の理論限界特性btra と、の比となるように定義
することで、輝度と同じ変換係数を使った場合のような
白とび等を発生させることなく、彩度を保った忠実な色
再現を行うことができるようにしている。
Thus, the conversion coefficient ga for the color difference signal
inc is defined to be the ratio of the theoretical limit characteristic borg of color reproduction with the luminance signal Yorg before gradation correction and the theoretical limit characteristic btra of color reproduction with the luminance signal Ytra after gradation correction. Thus, it is possible to perform faithful color reproduction while maintaining saturation without causing overexposure and the like as in the case where the same conversion coefficient as luminance is used.

【0078】この変換係数gainc が求められたとこ
ろで、上記適正露光抽出部13から補正前の色差信号C
borg とCrorg を順次受け取って(ステップS2
9)、補正後の色差信号Cbtra とCrtra を次の数式
8に示すように計算する(ステップS33)。
When the conversion coefficient gainc has been obtained, the uncorrected color difference signal C
borg and Crorg are sequentially received (step S2).
9) The corrected color difference signals Cbtra and Crtra are calculated as shown in the following Expression 8 (step S33).

【数8】Cbtra =gainc ・Cborg Crtra =gainc ・Crorg## EQU8 ## Cbtra = gainc Cborg Crtra = gaincCrorg

【0079】このように変換された色差信号Cbtra ,
Crtra は、Y/C合成部34に出力される(ステップ
S34)。
The color difference signals Cbtra,
Crtra is output to the Y / C synthesis unit 34 (step S34).

【0080】Y/C合成部34では、階調変換後の輝度
信号Ytra と変換後の色差信号Cbtra ,Crtra とを
Y/C合成して例えばRGB信号に変換し、上記画像合
成部15に出力する。
The Y / C synthesizing section 34 Y / C-combines the luminance signal Ytra after the gradation conversion and the color difference signals Cbtra and Crtra after the conversion, for example, converts them into RGB signals, and outputs the RGB signals to the image synthesizing section 15. I do.

【0081】この画像合成部15において、長時間露光
に係る階調変換後の適正露光画像部分と短時間露光に係
る階調変換後の適正露光画像部分とを合成して、一の広
ダイナミックレンジ画像を生成した後に、上記出力部1
6から出力するようになっている。
The image synthesizing section 15 synthesizes the properly exposed image portion after gradation conversion for long-time exposure and the properly exposed image portion after gradation conversion for short-time exposure, to form one wide dynamic range. After generating the image, the output unit 1
6 is output.

【0082】なお、この第2の実施形態においては、電
子カメラ内の回路として構成した画像処理装置により色
再現の理論限界特性を考慮した階調補正を行っている
が、このような処理をコンピュータの処理プログラムに
より行うことも可能である。
In the second embodiment, tone correction is performed in consideration of the theoretical limit characteristics of color reproduction by an image processing device configured as a circuit in an electronic camera. It is also possible to carry out by the processing program of the above.

【0083】また、この画像処理装置は、電子カメラに
適用するに限るものではなく、例えばプリンタ装置など
の画像を扱う機器に広く適用することが可能である。
The image processing apparatus is not limited to being applied to an electronic camera, but can be widely applied to, for example, an image processing apparatus such as a printer apparatus.

【0084】このような第2の実施形態によれば、色差
信号については色再現の理論限界特性を考慮した階調補
正を行うようにしたために、画像の階調補正を行っても
適切な彩度を維持することができる。
According to the second embodiment, the color difference signal is subjected to the gradation correction in consideration of the theoretical limit characteristics of the color reproduction. Degree can be maintained.

【0085】図13は本発明の第3の実施形態を示した
ものであり、電子カメラの基本的な構成を示すブロック
図である。
FIG. 13 shows a third embodiment of the present invention and is a block diagram showing a basic configuration of an electronic camera.

【0086】この第3の実施形態において、上述の第
1,第2の実施形態と同様である部分については同一の
符号を付して説明を省略し、主として異なる点について
のみ説明する。
In the third embodiment, the same parts as those in the first and second embodiments are denoted by the same reference numerals, and description thereof will be omitted. Only different points will be mainly described.

【0087】この第3の実施形態は、上述した第1の実
施形態と第2の実施形態の機能を兼ね合わせた機能を発
現するものとして構成されていて、つまり、輝度信号の
階調変換特性を算出する際に撮影状況に応じた重み付け
を行うとともに、色差信号の変換特性を算出する際には
色再現の理論限界特性を考慮するようにしたものであ
る。
The third embodiment is configured to exhibit a function that combines the functions of the first and second embodiments described above, that is, the gradation conversion characteristic of the luminance signal. Is calculated in accordance with the photographing situation, and the theoretical characteristics of color reproduction are considered when calculating the conversion characteristics of the color difference signal.

【0088】すなわち、撮影状況推定部18により推定
された上記図5に示すような撮影状況の分類結果が、上
記輝度補正部32に入力されるようになっていて、該輝
度補正部32において輝度信号のエッジヒストグラムを
作成する際に、図6に示すような重み付けが行われる。
That is, the classification result of the photographing situation as shown in FIG. 5 estimated by the photographing situation estimating section 18 is input to the luminance correcting section 32. When creating an edge histogram of a signal, weighting is performed as shown in FIG.

【0089】こうして得られた特性曲線に基づいて階調
変換された輝度信号が色差補正部33に入力されると、
上述した第2の実施形態と同様に、色再現の理論限界特
性を示すテーブルを参照しながら第2の補正係数が算出
され、同様に階調変換前の輝度信号に基づいて第1の補
正係数が算出される。そして、これら第1の補正係数と
第2の補正係数とに基づいて色差信号に係る変換係数が
算出され、色差に適した変換が行われて上記Y/C合成
部34に出力される。
When the luminance signal whose gradation has been converted based on the characteristic curve thus obtained is input to the color difference correction section 33,
Similarly to the above-described second embodiment, a second correction coefficient is calculated with reference to a table indicating a theoretical limit characteristic of color reproduction, and a first correction coefficient is similarly calculated based on a luminance signal before gradation conversion. Is calculated. Then, a conversion coefficient related to the color difference signal is calculated based on the first correction coefficient and the second correction coefficient, conversion suitable for the color difference is performed, and the result is output to the Y / C synthesis unit 34.

【0090】このY/C合成部34において、輝度補正
部32から出力される階調変換後の輝度信号と色差補正
部33から出力される変換後の色差信号とをY/C合成
して画像合成部15に出力し、該画像合成部15におい
て、長時間露光に係る階調変換後の適正露光画像部分と
短時間露光に係る階調変換後の適正露光画像部分とを合
成して、一の広ダイナミックレンジ画像を生成した後
に、上記出力部16から出力するようになっている。
The Y / C synthesizing section 34 Y / C synthesizes the luminance signal after the gradation conversion output from the luminance correction section 32 and the converted color difference signal output from the color difference correction section 33 to form an image. The image is output to the synthesizing unit 15, and the image synthesizing unit 15 synthesizes the properly exposed image portion after gradation conversion for long-time exposure and the properly exposed image portion after gradation conversion for short-time exposure. After generating a wide dynamic range image, the output unit 16 outputs the image.

【0091】なお、この第3の実施形態においても、電
子カメラ内の回路として階調補正を行っているが、この
ような処理を、コンピュータの処理プログラムにより行
うことも可能である。
In the third embodiment, tone correction is performed as a circuit in the electronic camera. However, such processing can be performed by a processing program of a computer.

【0092】また、この画像処理装置は、電子カメラに
適用するに限るものではなく、例えばプリンタ装置など
の画像を扱う機器に広く適用することが可能である。
Further, the image processing apparatus is not limited to application to an electronic camera, but can be widely applied to devices that handle images, such as a printer.

【0093】このような第3の実施形態によれば、上述
した第1の実施形態の効果と、第2の実施形態の効果と
の双方を奏することができる。
According to the third embodiment, both the effects of the above-described first embodiment and the effects of the second embodiment can be obtained.

【0094】なお、本発明は上述した実施形態に限定さ
れるものではなく、発明の主旨を逸脱しない範囲内にお
いて種々の変形や応用が可能であることは勿論である。
The present invention is not limited to the above-described embodiment, and it goes without saying that various modifications and applications are possible without departing from the gist of the invention.

【0095】[0095]

【発明の効果】以上説明したように請求項1による本発
明の画像処理装置によれば、撮影状況を推定してそれに
応じて階調補正を行うようにしたために、主要被写体の
階調幅を適応的に調整することが可能となる。
As described above, according to the image processing apparatus of the first aspect of the present invention, since the photographing state is estimated and the gradation correction is performed in accordance with it, the gradation width of the main subject is adapted. It becomes possible to adjust it.

【0096】また、請求項2による本発明の画像処理装
置によれば、階調補正前後の輝度信号と色再現の理論限
界特性とに基づき色差信号の補正を行っているために、
階調補正後に最適な彩度の画像を得ることができる。
Further, according to the image processing apparatus of the present invention, since the color difference signal is corrected based on the luminance signal before and after the gradation correction and the theoretical limit characteristic of color reproduction,
After the gradation correction, an image having an optimum saturation can be obtained.

【0097】さらに、請求項3による本発明の画像処理
装置によれば、撮影状況を推定してそれに応じて輝度信
号の階調補正を行うようにしたために、主要被写体の階
調幅を適応的に調整することが可能となり、さらに、階
調補正前後の輝度信号と色再現の理論限界特性とに基づ
き色差信号の補正を行っているために、階調補正後に最
適な彩度の画像を得ることができる。
Further, according to the image processing apparatus of the present invention, since the photographing state is estimated and the gradation correction of the luminance signal is performed in accordance with the estimation, the gradation width of the main object is adaptively adjusted. It is possible to adjust the color difference signal based on the luminance signal before and after gradation correction and the theoretical limit characteristics of color reproduction, so that an image with optimal saturation can be obtained after gradation correction. Can be.

【0098】請求項4による本発明の画像処理装置によ
れば、請求項1または請求項3に記載の発明と同様の効
果を奏するとともに、合焦情報と測光情報とに基づい
て、撮影状況を適切に推定することが可能となる。
According to the image processing apparatus of the fourth aspect of the present invention, the same effects as those of the first or third aspect of the present invention are obtained, and the photographing state is determined based on the focusing information and the photometric information. It is possible to make an appropriate estimation.

【0099】請求項5による本発明の画像処理装置によ
れば、請求項1または請求項3に記載の発明と同様の効
果を奏するとともに、階調補正手段が、適正露光域の特
徴量に重み付けしてヒストグラムを作成し階調変換曲線
を算出することにより、主要被写体を考慮した適切な階
調変換を行うことができる。
According to the image processing apparatus of the present invention, the same effect as that of the first or third aspect is obtained, and the gradation correction means weights the characteristic amount of the appropriate exposure area. By creating a histogram and calculating a gradation conversion curve, appropriate gradation conversion can be performed in consideration of the main subject.

【0100】請求項6による本発明の画像処理装置によ
れば、請求項2に記載の発明と同様の効果を奏するとと
もに、階調補正手段が、適正露光域の特徴量からヒスト
グラムを作成して階調変換曲線を算出することにより、
適切な階調変換を行うことができる。
According to the image processing apparatus of the sixth aspect of the present invention, the same effect as that of the second aspect of the present invention can be obtained, and the gradation correction means creates a histogram from the characteristic amount of the appropriate exposure area. By calculating the gradation conversion curve,
Appropriate gradation conversion can be performed.

【0101】請求項7による本発明の画像処理装置によ
れば、請求項2または請求項3に記載の発明と同様の効
果を奏するとともに、色差補正手段が、階調補正前の輝
度信号と色再現の理論限界特性とから算出した第1の補
正係数と、階調補正後の輝度信号と色再現の理論限界特
性とから算出した第2の補正係数と、を用いることによ
り、色差信号の変換を適切に行うことができる。
According to the image processing apparatus of the present invention, the same effects as those of the second or third aspect can be obtained, and the color difference correcting means can control the luminance signal and the color signal before gradation correction. By using a first correction coefficient calculated from a theoretical limit characteristic of reproduction and a second correction coefficient calculated from a luminance signal after gradation correction and a theoretical limit characteristic of color reproduction, conversion of a color difference signal is performed. Can be performed appropriately.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態の電子カメラの基本的
な構成を示すブロック図。
FIG. 1 is a block diagram showing a basic configuration of an electronic camera according to a first embodiment of the present invention.

【図2】上記第1の実施形態の撮影状況推定部の詳細な
構成を示すブロック図。
FIG. 2 is a block diagram showing a detailed configuration of a shooting situation estimating unit according to the first embodiment.

【図3】上記第1の実施形態の変換特性算出部の詳細な
構成を示すブロック図。
FIG. 3 is a block diagram illustrating a detailed configuration of a conversion characteristic calculation unit according to the first embodiment.

【図4】上記第1の実施形態における評価測光用の分割
パターンの一例を示す図。
FIG. 4 is a diagram showing an example of a division pattern for evaluation photometry in the first embodiment.

【図5】上記第1の実施形態において、AF情報とAE
情報からのシーンの分類パターンを示す図表。
FIG. 5 is a diagram showing AF information and AE in the first embodiment.
7 is a table showing a classification pattern of scenes from information.

【図6】上記第1の実施形態において、上記図5に示し
たような分類パターンに基づくエッジヒストグラム算出
時の重み係数を示す図。
FIG. 6 is a diagram showing weighting factors at the time of calculating an edge histogram based on the classification pattern as shown in FIG. 5 in the first embodiment.

【図7】上記第1の実施形態における画像変換の処理を
示すフローチャート。
FIG. 7 is a flowchart illustrating image conversion processing according to the first embodiment.

【図8】本発明の第2の実施形態の電子カメラの基本的
な構成を示すブロック図。
FIG. 8 is a block diagram showing a basic configuration of an electronic camera according to a second embodiment of the present invention.

【図9】上記第2の実施形態の輝度補正部の詳細な構成
を示すブロック図。
FIG. 9 is a block diagram illustrating a detailed configuration of a luminance correction unit according to the second embodiment.

【図10】上記第2の実施形態の色差補正部の詳細な構
成を示すブロック図。
FIG. 10 is a block diagram illustrating a detailed configuration of a color difference correction unit according to the second embodiment.

【図11】上記第2の実施形態において、色再現の理論
限界特性を考慮して色差補正を行う様子を示す線図。
FIG. 11 is a diagram showing a state in which color difference correction is performed in consideration of the theoretical limit characteristics of color reproduction in the second embodiment.

【図12】上記第2の実施形態における画像変換の処理
を示すフローチャート。
FIG. 12 is a flowchart illustrating image conversion processing according to the second embodiment.

【図13】本発明の第3の実施形態の電子カメラの基本
的な構成を示すブロック図。
FIG. 13 is a block diagram illustrating a basic configuration of an electronic camera according to a third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

7…測光評価部 8…合焦点検出部 12…Y/C分離部(輝度色差分離手段) 13…適正露光抽出部(抽出手段) 14…変換特性算出部(階調補正手段) 15…画像合成部(合成手段) 16…出力部 17…制御部 18…撮影状況推定部(撮影状況推定手段) 20…合焦位置推定部(合焦位置推定手段) 21…被写体分布推定部(被写体分布推定手段) 22…統合部(統合手段) 24…重みパターン選択部(選択手段) 25…重みパターン用ROM 26,40…エッジ抽出部(特徴量算出手段) 27,41…ヒストグラム作成部(ヒストグラム作成手
段) 28,42…変換曲線算出部(階調変換曲線算出手段) 29…変換部(変換手段) 32…輝度補正部(階調補正手段) 33…色差補正部(色差補正手段) 34…Y/C合成部(輝度色差合成手段) 43…輝度変換部(輝度変換手段) 45…第2補正係数算出部(第2の算出手段) 46…色再現限界特性用ROM 47…第1補正係数算出部(第1の算出手段) 48…色差変換部(色差変換手段)
7: Photometric evaluation unit 8: Focus point detection unit 12: Y / C separation unit (luminance / color difference separation unit) 13: Appropriate exposure extraction unit (extraction unit) 14: Conversion characteristic calculation unit (gradation correction unit) 15: Image synthesis Unit (synthesizing unit) 16 ... Output unit 17 ... Control unit 18 ... Shooting condition estimating unit (shooting condition estimating unit) 20 ... In-focus position estimating unit (in-focus position estimating unit) 21 ... Subject distribution estimating unit (subject distribution estimating unit) 22 ... integrating section (integrating means) 24 ... weight pattern selecting section (selecting means) 25 ... weight pattern ROM 26,40 ... edge extracting section (feature amount calculating means) 27,41 ... histogram creating section (histogram creating means) 28, 42: conversion curve calculation unit (gradation conversion curve calculation unit) 29: conversion unit (conversion unit) 32: luminance correction unit (gradation correction unit) 33: color difference correction unit (color difference correction unit) 34: Y / C Synthesizer ( 43: luminance conversion unit (luminance conversion unit) 45: second correction coefficient calculation unit (second calculation unit) 46: ROM for color reproduction limit characteristics 47: first correction coefficient calculation unit (first Calculation means) 48: color difference conversion unit (color difference conversion means)

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) // H04N 101:00 H04N 101:00 Fターム(参考) 5C022 AA13 AB06 AB12 AB17 AB19 AB22 AB68 AC42 AC51 AC69 5C065 AA03 BB01 BB48 CC02 CC03 DD01 GG13 GG18 GG42 5C066 AA01 CA07 DC01 DD07 EA05 EA07 EE01 FA02 GA02 GA05 KE03 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) // H04N 101: 00 H04N 101: 00 F term (Reference) 5C022 AA13 AB06 AB12 AB17 AB19 AB22 AB68 AC42 AC51 AC69 5C065 AA03 BB01 BB48 CC02 CC03 DD01 GG13 GG18 GG42 5C066 AA01 CA07 DC01 DD07 EA05 EA07 EE01 FA02 GA02 GA05 KE03

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 同一被写体に対して異なる露光条件で撮
像された複数の画像からなる画像群を処理して一の広ダ
イナミックレンジ画像を生成する画像処理装置であっ
て、 撮影状況を推定する撮影状況推定手段と、 上記画像群中の各画像毎に画像信号レベルに基づき適正
露光域を抽出する抽出手段と、 上記適正露光域に関して上記撮影状況に基づき階調補正
を行う階調補正手段と、 この階調補正手段により階調補正された適正露光域を合
成することにより一の広ダイナミックレンジ画像を生成
する合成手段と、 を具備したことを特徴とする画像処理装置。
1. An image processing apparatus for processing an image group consisting of a plurality of images of the same subject imaged under different exposure conditions to generate one wide dynamic range image, wherein an imaging state is estimated. Situation estimating means, extracting means for extracting a proper exposure area based on an image signal level for each image in the image group, and tone correcting means for performing tone correction based on the shooting conditions with respect to the proper exposure area, An image processing apparatus comprising: a synthesizing unit that generates one wide dynamic range image by synthesizing an appropriate exposure area whose gradation has been corrected by the gradation correcting unit.
【請求項2】 同一被写体に対して異なる露光条件で撮
像された複数の画像からなる画像群を処理して一の広ダ
イナミックレンジ画像を生成する画像処理装置であっ
て、 上記画像群中の各画像毎に画像信号を輝度信号と色差信
号に分離する輝度色差分離手段と、 上記輝度信号の信号レベルに基づき適正露光域を抽出す
る抽出手段と、 上記適正露光域の輝度信号に関して階調補正を行う階調
補正手段と、 上記輝度色差分離手段から出力された階調補正前の輝度
信号と、上記階調補正手段から出力された階調補正後の
輝度信号と、色再現の理論限界特性と、に基づいて上記
適正露光域の色差信号の補正を行う色差補正手段と、 上記階調補正後の輝度信号と上記補正後の色差信号とを
もとの画像信号に合成する輝度色差合成手段と、 上記合成された適正露光域の画像信号を合成することに
より一の広ダイナミックレンジ画像を生成する合成手段
と、 を具備したことを特徴とする画像処理装置。
2. An image processing apparatus for processing an image group consisting of a plurality of images of the same subject captured under different exposure conditions to generate one wide dynamic range image, comprising: A luminance / color difference separating unit that separates an image signal into a luminance signal and a color difference signal for each image; an extracting unit that extracts a proper exposure area based on a signal level of the luminance signal; and a gradation correction for the luminance signal in the proper exposure area. Gradation correction means for performing, a luminance signal before gradation correction output from the luminance / color difference separation means, a luminance signal after gradation correction output from the gradation correction means, and a theoretical limit characteristic of color reproduction. A color difference correction unit that corrects the color difference signal in the appropriate exposure area based on the above, and a luminance / color difference combination unit that combines the luminance signal after the gradation correction and the color difference signal after the correction with the original image signal. The above is synthesized And a synthesizing unit for generating one wide dynamic range image by synthesizing the image signals in the appropriate exposure area.
【請求項3】 同一被写体に対して異なる露光条件で撮
像された複数の画像からなる画像群を処理して一の広ダ
イナミックレンジ画像を生成する画像処理装置であっ
て、 撮影状況を推定する撮影状況推定手段と、 上記画像群中の各画像毎に画像信号を輝度信号と色差信
号に分離する輝度色差分離手段と、 上記輝度信号の信号レベルに基づき適正露光域を抽出す
る抽出手段と、 上記適正露光域の輝度信号に関して上記撮影状況に基づ
き階調補正を行う階調補正手段と、 上記輝度色差分離手段から出力された階調補正前の輝度
信号と、上記階調補正手段から出力された階調補正後の
輝度信号と、色再現の理論限界特性と、に基づいて上記
適正露光域の色差信号の補正を行う色差補正手段と、 上記階調補正後の輝度信号と上記補正後の色差信号とを
もとの画像信号に合成する輝度色差合成手段と、 上記合成された適正露光域の画像信号を合成することに
より一の広ダイナミックレンジ画像を生成する合成手段
と、 を具備したことを特徴とする画像処理装置。
3. An image processing apparatus for processing an image group consisting of a plurality of images of the same subject imaged under different exposure conditions to generate one wide dynamic range image, wherein the image capturing apparatus estimates a shooting state. A situation estimating unit, a luminance / chrominance separating unit that separates an image signal into a luminance signal and a color difference signal for each image in the image group, an extracting unit that extracts a proper exposure area based on a signal level of the luminance signal, A gradation correction means for performing gradation correction on the luminance signal in the appropriate exposure area based on the photographing condition; a luminance signal before gradation correction output from the luminance / color difference separation means; and a luminance signal output from the gradation correction means. Color difference correction means for correcting the color difference signal in the appropriate exposure area based on the luminance signal after the gradation correction and the theoretical limit characteristic of color reproduction; and the luminance signal after the gradation correction and the color difference after the correction. Signal and And a combining means for combining the combined image signals in the appropriate exposure range to generate one wide dynamic range image. Image processing device.
【請求項4】 上記撮影状況推定手段は、 合焦情報から少なくとも風景撮影、人物撮影、接写撮影
の3種類の合焦位置を推定する合焦位置推定手段と、 測光情報から少なくとも画面全体、中央重点、中心部の
3種類の被写体分布を推定する被写体分布推定手段と、 上記合焦位置推定手段が推定した合焦位置と上記被写体
分布推定手段が推定した被写体分布とを組み合わせて撮
影状況を統合的に推定する統合手段と、 を有してなるものであることを特徴とする請求項1また
は請求項3に記載の画像処理装置。
4. The photographing situation estimating means includes: a focus position estimating means for estimating at least three types of focus positions of landscape photographing, portrait photographing, and close-up photographing from the focus information; A subject distribution estimating means for estimating three types of subject distributions of a focus and a central portion; The image processing apparatus according to claim 1, further comprising: an integrating unit configured to estimate the position of the image processing apparatus.
【請求項5】 上記階調補正手段は、 上記撮影状況に基づき重み係数の配置を選択する選択手
段と、 上記適正露光域に関して特徴量を算出する特徴量算出手
段と、 上記重み係数の配置に基づき上記特徴量に関する重み付
きヒストグラムを作成するヒストグラム作成手段と、 上記ヒストグラムに基づき階調変換曲線を算出する階調
変換曲線算出手段と、 上記階調変換曲線を用いて階調変換を行う変換手段と、 を有してなるものであることを特徴とする請求項1また
は請求項3に記載の画像処理装置。
5. A gradation correction means, comprising: a selection means for selecting an arrangement of weighting factors based on the photographing situation; a feature amount calculation means for calculating a feature amount for the proper exposure area; Histogram creating means for creating a weighted histogram related to the feature amount, tone conversion curve calculating means for calculating a tone conversion curve based on the histogram, and conversion means for performing tone conversion using the tone conversion curve The image processing apparatus according to claim 1, wherein the image processing apparatus comprises:
【請求項6】 上記階調補正手段は、 上記適正露光域に関して特徴量を算出する特徴量算出手
段と、 上記特徴量に関するヒストグラムを作成するヒストグラ
ム作成手段と、 上記ヒストグラムに基づき階調変換曲線を算出する階調
変換曲線算出手段と、 上記階調変換曲線を用いて輝度信号の変換を行う輝度変
換手段と、 を有してなるものであることを特徴とする請求項2に記
載の画像処理装置。
6. The gradation correction means, wherein: a feature quantity calculation means for calculating a feature quantity with respect to the proper exposure area; a histogram creation means for creating a histogram related to the feature quantity; and a gradation conversion curve based on the histogram. 3. The image processing apparatus according to claim 2, comprising: a gradation conversion curve calculating unit for calculating; and a luminance conversion unit for converting a luminance signal using the gradation conversion curve. 4. apparatus.
【請求項7】 上記色差補正手段は、 上記階調補正前の輝度信号と、上記色再現の理論限界特
性と、に基づいて第1の補正係数を算出する第1の算出
手段と、 上記階調補正後の輝度信号と、上記色再現の理論限界特
性と、に基づいて第2の補正係数を算出する第2の算出
手段と、 上記第1の補正係数と第2の補正係数とを用いて色差信
号の変換を行う色差変換手段と、 を有してなるものであることを特徴とする請求項2また
は請求項3に記載の画像処理装置。
7. The color difference correction unit includes: a first calculation unit that calculates a first correction coefficient based on the luminance signal before the gradation correction and the theoretical limit characteristic of color reproduction; A second calculating means for calculating a second correction coefficient based on the luminance signal after the tone correction and the theoretical limit characteristic of the color reproduction, and using the first correction coefficient and the second correction coefficient. The image processing apparatus according to claim 2, further comprising: a color difference conversion unit that converts a color difference signal.
JP2000044903A 2000-02-22 2000-02-22 Image processing apparatus Pending JP2001238128A (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2000044903A JP2001238128A (en) 2000-02-22 2000-02-22 Image processing apparatus
US09/785,931 US6738510B2 (en) 2000-02-22 2001-02-16 Image processing apparatus
EP01103587A EP1128660A3 (en) 2000-02-22 2001-02-21 Image processing apparatus
US10/807,479 US7574042B2 (en) 2000-02-22 2004-03-23 Image processing apparatus
US11/745,988 US7738699B2 (en) 2000-02-22 2007-05-08 Image processing apparatus
US12/768,279 US8290263B2 (en) 2000-02-22 2010-04-27 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000044903A JP2001238128A (en) 2000-02-22 2000-02-22 Image processing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008263114A Division JP2009022044A (en) 2008-10-09 2008-10-09 Image processing apparatus and image processing program

Publications (1)

Publication Number Publication Date
JP2001238128A true JP2001238128A (en) 2001-08-31

Family

ID=18567593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000044903A Pending JP2001238128A (en) 2000-02-22 2000-02-22 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2001238128A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7583403B2 (en) 2002-09-12 2009-09-01 Panasonic Corporation Image processing device
KR100933556B1 (en) * 2007-11-09 2009-12-23 주식회사 쎄이미지 Color image processing apparatus and method for extending the dynamic range
US8150201B2 (en) * 2007-03-09 2012-04-03 Sony Corporation Image processing apparatus, method, and computer program with pixel brightness-change detection and value correction
WO2013065442A1 (en) * 2011-11-01 2013-05-10 クラリオン株式会社 Image processing device, image pickup apparatus, and storage medium storing image processing program
US8977073B2 (en) 2008-12-16 2015-03-10 Samsung Electronics Co., Ltd. Apparatus and method for blending multiple images

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7583403B2 (en) 2002-09-12 2009-09-01 Panasonic Corporation Image processing device
US8150201B2 (en) * 2007-03-09 2012-04-03 Sony Corporation Image processing apparatus, method, and computer program with pixel brightness-change detection and value correction
KR100933556B1 (en) * 2007-11-09 2009-12-23 주식회사 쎄이미지 Color image processing apparatus and method for extending the dynamic range
US8977073B2 (en) 2008-12-16 2015-03-10 Samsung Electronics Co., Ltd. Apparatus and method for blending multiple images
WO2013065442A1 (en) * 2011-11-01 2013-05-10 クラリオン株式会社 Image processing device, image pickup apparatus, and storage medium storing image processing program
US9294695B2 (en) 2011-11-01 2016-03-22 Clarion Co., Ltd. Image processing apparatus, image pickup apparatus, and storage medium for generating a color image

Similar Documents

Publication Publication Date Title
US7574042B2 (en) Image processing apparatus
JP4163353B2 (en) Image processing device
JP3762725B2 (en) Imaging system and image processing program
JP4524717B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
CN1992820B (en) Digital camera with face detection function for facilitating exposure compensation
KR101388130B1 (en) Image processing apparatus and image processing method
KR101521441B1 (en) Image pickup apparatus, control method for image pickup apparatus, and storage medium
KR101352440B1 (en) Image processing apparatus, image processing method, and recording medium
US20140125863A1 (en) Imaging apparatus and imaging method
CN107533756B (en) Image processing device, imaging device, image processing method, and storage medium storing image processing program for image processing device
JP6083974B2 (en) Image processing apparatus, image processing method, and program
JP2001238129A (en) Image processing apparatus and recording medium
JP2007329619A (en) Video signal processor, video signal processing method and video signal processing program
JP4182566B2 (en) Digital camera and computer-readable recording medium
JP2011171842A (en) Image processor and image processing program
JP5814610B2 (en) Image processing apparatus, control method therefor, and program
JP2003069821A (en) Imaging system
JP2001238128A (en) Image processing apparatus
JP2009022044A (en) Image processing apparatus and image processing program
JP2009065691A (en) Image processing apparatus, recording medium and image processing program
JP2015080157A (en) Image processing device, image processing method and program
JP4960597B2 (en) White balance correction apparatus and method, and imaging apparatus
JP4499317B2 (en) Image processing system
JP3865127B2 (en) Signal processing apparatus and method, recording medium, and program
JP2010239493A (en) Image pickup apparatus, and method of correcting video signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080812

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081216