JP2008085634A - Imaging apparatus and image processing method - Google Patents

Imaging apparatus and image processing method Download PDF

Info

Publication number
JP2008085634A
JP2008085634A JP2006263026A JP2006263026A JP2008085634A JP 2008085634 A JP2008085634 A JP 2008085634A JP 2006263026 A JP2006263026 A JP 2006263026A JP 2006263026 A JP2006263026 A JP 2006263026A JP 2008085634 A JP2008085634 A JP 2008085634A
Authority
JP
Japan
Prior art keywords
image
correction amount
partial region
pixel
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006263026A
Other languages
Japanese (ja)
Inventor
Tetsuya Katagiri
哲也 片桐
Koichi Kanbe
幸一 掃部
Kazumutsu Sato
一睦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2006263026A priority Critical patent/JP2008085634A/en
Publication of JP2008085634A publication Critical patent/JP2008085634A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain a high quality image, wherein the entire image is properly exposed without any bias in each part of the image while shortening an operation processing time and reducing costs without photographing a plurality of images of different exposures and without calculating image entropy. <P>SOLUTION: This imaging apparatus comprises: an image dividing means for dividing one basic image into a plurality of partial areas; a feature amount calculating means for calculating a feature amount of the partial area image of each partial area divided by the image dividing means; a partial area correction amount calculating means for calculating a partial area correction amount being a correction amount about lightness in each partial area image on the basis of the feature amount calculated by the feature amount calculating means; a pixel correction amount calculating means for calculating a pixel correction amount being a correction amount for each pixel value of the basic image on the basis of the partial area correction amount calculated by the partial area correction amount calculating means; and an image correcting means for correcting each pixel value of the basic image on the basis of the pixel correction amount calculated by the pixel correction amount calculating means. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮影画像の各部の露出を適正化することが可能な撮像装置及び画像処理方法に関するものである。   The present invention relates to an imaging apparatus and an image processing method capable of optimizing the exposure of each part of a captured image.

従来、デジタルカメラ等の撮像装置による撮影に際して、撮影シーンの明るさが大きく変化するような場合に、シャッタースピード等に拘わらず、撮影画像に露出の偏り、すなわち撮影画像中に露出オーバー或いは露出アンダーの部分が生じてしまうことがある。   Conventionally, when shooting with an imaging device such as a digital camera, the brightness of the shooting scene changes greatly, regardless of the shutter speed, etc., the exposure image is biased, that is, overexposed or underexposed in the captured image. May occur.

これに関し、例えば非特許文献1には、異なる露出(例えばシャッタースピード)で複数回撮影することで露出(露光量)の異なる複数枚の画像を取得し、これら複数枚の画像から、当該画像各部の露出が補正された1枚の画像を生成する方法が知られている(例えばGoshtasbyの手法;非特許文献1参照)。この方法においては、図11に示すように、露出の異なる複数枚例えば画像a〜dの4枚の撮影画像を所定数例えば16個のブロックに分割して各ブロックの画像(ブロック画像という)のエントロピーを求めておき、各撮影画像における同じ位置のブロック、例えばブロック801〜804における4つのブロック画像同士でこのエントロピーを比較して、最もエントロピー(情報量;平均情報量)が高いブロック画像を選択する。当該選択したものが後述の画像eにおけるブロック805の画像である。他のブロック領域についても同様に4つのブロック画像から最もエントロピーが高いブロック画像を選択する。このようにして選択した各位置のブロック画像(それぞれエントロピーが最大)を合体して1枚の画像eを作成する。しかしながら、このままでは画像eは各ブロック領域の明るさ(輝度)が異なる、換言すれば各ブロック画像の繋ぎ目が不自然である所謂モザイク状の画像となっているため、さらに画像eに対してLPF(Low Pass Filter)等を用いて当該不自然な継ぎ目を無くすよう、所謂ぼかす処理(以降、ブレンド又はブレンド処理という)を施すことにより、自然な1枚の画像e’にする。
A.Goshtasby,”Fusion of Multi−Exposure Images”,Image and Vision Computing,vol.23,2005,pp.611−618
In this regard, for example, in Non-Patent Document 1, a plurality of images with different exposures (exposure amounts) are acquired by photographing a plurality of times with different exposures (for example, shutter speed), and each part of the image is obtained from the plurality of images. There is known a method for generating a single image in which the exposure of the image is corrected (for example, Gostasby's method; see Non-Patent Document 1). In this method, as shown in FIG. 11, a plurality of shot images having different exposures, for example, four shot images of images a to d are divided into a predetermined number, for example, 16 blocks, and an image of each block (referred to as a block image) Entropy is obtained, and the block at the same position in each photographed image, for example, the four block images in blocks 801 to 804 are compared with each other, and the block image having the highest entropy (information amount; average information amount) is selected. To do. The selected item is an image of a block 805 in an image e described later. Similarly, for the other block regions, the block image having the highest entropy is selected from the four block images. The block images (each having the maximum entropy) selected at each position are combined to create one image e. However, as it is, the image e has a different brightness (brightness) in each block area, in other words, a so-called mosaic image in which the connection between the block images is unnatural. A so-called blurring process (hereinafter referred to as blending or blending process) is performed so as to eliminate the unnatural joint using LPF (Low Pass Filter) or the like, thereby obtaining a natural image e ′.
A. Gostasby, “Fusion of Multi-Exposure Images”, Image and Vision Computing, vol. 23, 2005, pp. 611-618

しかしながら、上記従来の方法には以下(1)〜(3)の問題がある。
(1)露出の異なる複数枚の画像を撮影するのに時間がかかる。また、当該複数枚の画像間に被写体ブレが発生することがあり、これらから作成される画像の画質低下を招く。
(2)複数枚の画像を記憶する必要があるため、容量が大きなメモリが必要となり、コストアップとなる。
(3)画像のエントロピーを求めるために、ヒストグラム計算や対数演算が必要となるので、演算処理が複雑となり、プログラムや回路規模が大きくなりコストアップとなる。
However, the above conventional methods have the following problems (1) to (3).
(1) It takes time to capture a plurality of images with different exposures. In addition, subject blurring may occur between the plurality of images, resulting in a deterioration in image quality of images created from these.
(2) Since it is necessary to store a plurality of images, a memory having a large capacity is required, resulting in an increase in cost.
(3) Since histogram calculation and logarithmic calculation are required to obtain the entropy of the image, the calculation processing becomes complicated, the program and circuit scale increase, and the cost increases.

なお、一枚の画像から、模擬的な、露出の異なる複数枚の画像を生成し、上記Goshtasbyの手法と同様にエントロピー計算、ブレンド処理を行う技術が知られているが、この場合、上記(1)の問題は生じないものの、上記(2)、(3)の問題は依然として残る。   A technique is known in which a plurality of simulated images with different exposures are generated from a single image, and entropy calculation and blending are performed in the same manner as the Gostasby method. Although the problem 1) does not occur, the problems (2) and (3) still remain.

本発明は、上記事情に鑑みてなされたもので、露出の異なる複数枚の画像を撮影したり、画像のエントロピーを計算することなく、演算処理時間の短縮化、及びメモリやプログラム、回路規模の大型化を抑えることによる低コスト化を図りつつ、画像各部に露出の偏りがなく、全体が適正な露出状態(明度)とされた高画質な画像を得ることができる撮像装置及び画像処理方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and without taking a plurality of images with different exposures or calculating the entropy of the image, the calculation processing time is shortened, and the memory, program, and circuit scale are reduced. An image pickup apparatus and an image processing method capable of obtaining a high-quality image in which exposure is not biased in each part of the image and the whole is in an appropriate exposure state (brightness) while achieving cost reduction by suppressing an increase in size The purpose is to provide.

本発明に係る撮像装置は、1つの基画像を複数の部分領域に分割する画像分割手段と、前記画像分割手段により分割された部分領域毎に該部分領域画像の特徴量を算出する特徴量算出手段と、前記特徴量算出手段により算出された特徴量に基づいて、前記部分領域画像毎に明度に関する補正量である部分領域補正量を算出する部分領域補正量算出手段と、前記部分領域補正量算出手段により算出された部分領域補正量に基づいて、前記基画像の各画素値に対する補正量である画素補正量を算出する画素補正量算出手段と、前記画素補正量算出手段により算出された画素補正量に基づいて、前記基画像の各画素値を補正する画像補正手段とを備えることを特徴とする。   An imaging apparatus according to the present invention includes an image dividing unit that divides one base image into a plurality of partial regions, and a feature amount calculation that calculates a feature amount of the partial region image for each partial region divided by the image dividing unit. A partial region correction amount calculating unit that calculates a partial region correction amount that is a correction amount related to brightness for each partial region image based on the feature amount calculated by the feature amount calculating unit; and the partial region correction amount A pixel correction amount calculation unit that calculates a pixel correction amount that is a correction amount for each pixel value of the base image based on the partial region correction amount calculated by the calculation unit; and a pixel calculated by the pixel correction amount calculation unit And image correction means for correcting each pixel value of the base image based on a correction amount.

上記構成によれば、画像分割手段によって1つの基画像が複数の部分領域に分割され、特徴量算出手段によって、画像分割手段により分割された部分領域毎に該部分領域画像の特徴量が算出される。また、部分領域補正量算出手段によって、特徴量算出手段により算出された特徴量に基づいて、部分領域画像毎に、明度に関する補正量である部分領域補正量が算出される。そして、画素補正量算出手段によって、部分領域補正量算出手段により算出された部分領域補正量に基づいて、基画像の各画素値に対する補正量である画素補正量が算出され、画像補正手段によって、画素補正量算出手段により算出された画素補正量に基づいて、基画像の各画素値が補正される。   According to the above configuration, one base image is divided into a plurality of partial regions by the image dividing unit, and the feature amount of the partial region image is calculated for each partial region divided by the image dividing unit by the feature amount calculating unit. The In addition, the partial region correction amount calculation unit calculates a partial region correction amount that is a correction amount related to brightness for each partial region image based on the feature amount calculated by the feature amount calculation unit. Then, a pixel correction amount that is a correction amount for each pixel value of the base image is calculated by the pixel correction amount calculation unit based on the partial region correction amount calculated by the partial region correction amount calculation unit. Based on the pixel correction amount calculated by the pixel correction amount calculation means, each pixel value of the base image is corrected.

また、上記構成において、前記画素補正量算出手段は、前記各部分領域の部分領域補正量に対して、前記基画像の所定の画素位置から前記部分領域画像内の所定の基準位置までの距離に応じた重みを用いて重み付けしてなる値を、該基画像における少なくとも前記所定の画素近傍の部分領域について積算することにより前記画素補正量を算出することが好ましい。(請求項2)   Further, in the above configuration, the pixel correction amount calculation unit is configured to set a distance from a predetermined pixel position of the base image to a predetermined reference position in the partial region image with respect to the partial region correction amount of each partial region. It is preferable to calculate the pixel correction amount by integrating a value obtained by weighting using a corresponding weight for at least a partial region in the vicinity of the predetermined pixel in the base image. (Claim 2)

これによれば、画素補正量算出手段によって、各部分領域の部分領域補正量に対して、基画像の所定の画素位置から部分領域画像内の所定の基準位置までの距離に応じた重みを用いて重み付けしてなる値が、該基画像における少なくとも当該所定の画素近傍の部分領域について積算されることにより画素補正量が算出される。   According to this, the weight corresponding to the distance from the predetermined pixel position of the base image to the predetermined reference position in the partial area image is used for the partial area correction amount of each partial area by the pixel correction amount calculation means. The pixel correction amount is calculated by integrating the weighted values for at least the partial areas in the vicinity of the predetermined pixel in the base image.

また、上記構成において、前記特徴量算出手段は、前記部分領域画像における画素値の平均値、最小値、最大値、及び該部分領域画像の画素値分布の中央値のうちのいずれかを前記特徴量として算出することが好ましい。(請求項3)   Further, in the above configuration, the feature amount calculating unit calculates any one of an average value, a minimum value, and a maximum value of pixel values in the partial area image and a median value of the pixel value distribution of the partial area image. It is preferable to calculate as an amount. (Claim 3)

これによれば、特徴量算出手段によって、部分領域画像における画素値の平均値、最小値、最大値、及び該部分領域画像の画素値分布の中央値のうちのいずれかが特徴量として算出される。   According to this, any one of the average value, the minimum value, the maximum value, and the median value of the pixel value distribution of the partial region image is calculated as the feature amount by the feature amount calculation means. The

また、上記構成において、前記部分領域補正量算出手段は、前記各部分領域画像の明度に応じて補正するべく該各部分領域画像の特徴量を所定の目標値に変換するためのゲインを、前記部分領域補正量として算出することが好ましい。(請求項4)   Further, in the above configuration, the partial region correction amount calculation means has a gain for converting the feature amount of each partial region image into a predetermined target value so as to be corrected according to the brightness of each partial region image. It is preferable to calculate the partial area correction amount. (Claim 4)

これによれば、部分領域補正量算出手段によって、各部分領域画像の明度に応じて補正するべく該各部分領域画像の特徴量を所定の目標値に変換するためのゲインが、部分領域補正量として算出される。   According to this, the gain for converting the feature amount of each partial region image into a predetermined target value to be corrected according to the brightness of each partial region image by the partial region correction amount calculation means is the partial region correction amount. Is calculated as

また、上記構成において、前記部分領域補正量算出手段は、前記各部分領域画像の明度に応じて補正するべく該各部分領域画像の特徴量を所定の目標値に変換するためのオフセットを、前記部分領域補正量として算出することが好ましい。(請求項5)   Further, in the above configuration, the partial region correction amount calculating means includes an offset for converting the feature amount of each partial region image into a predetermined target value to be corrected according to the brightness of each partial region image. It is preferable to calculate the partial area correction amount. (Claim 5)

これによれば、部分領域補正量算出手段によって、各部分領域画像の明度に応じて補正するべく該各部分領域画像の特徴量を所定の目標値に変換するためのオフセットが、部分領域補正量として算出される。   According to this, the offset for converting the feature amount of each partial region image into the predetermined target value to be corrected according to the brightness of each partial region image by the partial region correction amount calculation means is the partial region correction amount. Is calculated as

また、上記構成において、前記特徴量を所定の目標値に変換するための変換特性は、前記基画像の暗部が明るくなるよう持ち上げられて且つ明部の変化が抑えられた変換であることが好ましい。(請求項6)   In the above configuration, it is preferable that the conversion characteristic for converting the feature amount into a predetermined target value is conversion in which a dark portion of the base image is lifted to be bright and a change in a bright portion is suppressed. . (Claim 6)

これによれば、特徴量を所定の目標値に変換するための変換特性が、基画像の暗部が明るくなるよう持ち上げられて(暗部の明度或いは輝度が高められて)且つ明部の変化が抑えられた(明部の明度や輝度の変化が抑えられた)変換とされる。   According to this, the conversion characteristic for converting the feature amount into the predetermined target value is raised so that the dark part of the base image becomes bright (the brightness or brightness of the dark part is increased), and the change of the bright part is suppressed. Conversion (in which the change in brightness and brightness of the bright part is suppressed).

また、上記構成において、入射光量に対して電気信号が線形的に変換されて出力される線形特性と、入射光量に対して電気信号が対数的に変換されて出力される対数特性とからなる光電変換特性を有し、撮影により線形/対数画像を得ることが可能に構成された撮像手段と、前記撮像手段により得られる線形/対数画像に対して、該線形/対数画像における対数画像を線形画像に変換して画像全体を線形特性に統一する処理を行う変換処理手段とをさらに備え、前記画像分割手段は、前記線形/対数画像が前記変換処理手段により線形特性に統一されてなる前記基画像としての統一線形画像を前記複数の部分領域に分割することが好ましい。(請求項7)   Further, in the above configuration, a photoelectric characteristic comprising a linear characteristic that is output by linearly converting an electrical signal with respect to the incident light amount, and a logarithmic characteristic that is output by logarithmically converting the electrical signal with respect to the incident light amount. An imaging unit having conversion characteristics and configured to be able to obtain a linear / logarithmic image by photographing, and for the linear / logarithmic image obtained by the imaging unit, a logarithmic image in the linear / logarithmic image is a linear image. Conversion processing means for performing processing for converting the entire image into linear characteristics by converting the image into linear characteristics, and the image dividing means includes the base image in which the linear / logarithmic image is unified with linear characteristics by the conversion processing means. The unified linear image is preferably divided into the plurality of partial regions. (Claim 7)

これによれば、撮像手段が、入射光量に対して電気信号が線形的に変換されて出力される線形特性と、入射光量に対して電気信号が対数的に変換されて出力される対数特性とからなる光電変換特性を有し、撮影により線形/対数画像を得ることが可能とされ、また、変換処理手段によって、撮像手段により得られる線形/対数画像に対して、該線形/対数画像における対数画像を線形画像に変換して画像全体を線形特性に統一する処理が行われる。そして、画像分割手段によって、線形/対数画像が変換処理手段により線形特性に統一されてなる基画像としての統一線形画像が複数の部分領域に分割される。   According to this, the imaging means has a linear characteristic in which the electric signal is linearly converted with respect to the incident light quantity and is output, and a logarithmic characteristic in which the electric signal is logarithmically converted with respect to the incident light quantity and output. It is possible to obtain a linear / logarithmic image by photographing, and a logarithm in the linear / logarithmic image with respect to the linear / logarithmic image obtained by the imaging means by the conversion processing means. Processing for converting the image into a linear image and unifying the entire image into linear characteristics is performed. Then, the unified linear image as the base image obtained by unifying the linear / logarithmic image with the linear characteristic by the conversion processing means is divided into a plurality of partial regions by the image dividing means.

また、上記構成において、前記部分領域補正量算出手段は、前記部分領域補正量を前記基画像の各画素値に乗算又は加算した値が所定の画素値を超えないように該部分領域補正量を算出することが好ましい。(請求項8)   Further, in the above configuration, the partial region correction amount calculation means calculates the partial region correction amount so that a value obtained by multiplying or adding the partial region correction amount to each pixel value of the base image does not exceed a predetermined pixel value. It is preferable to calculate. (Claim 8)

これによれば、部分領域補正量算出手段によって、部分領域補正量を基画像の各画素値に乗算又は加算した値が所定の画素値を超えないように該部分領域補正量が算出される。   According to this, the partial region correction amount calculation unit calculates the partial region correction amount so that a value obtained by multiplying or adding the partial region correction amount to each pixel value of the base image does not exceed the predetermined pixel value.

また、本発明に係る画像処理方法によれば、1つの基画像を画像分割手段により複数の部分領域に分割する第1の工程と、前記画像分割手段により分割された部分領域毎に該部分領域画像の特徴量を特徴量算出手段により算出する第2の工程と、前記特徴量算出手段により算出された特徴量に基づいて、前記部分領域画像毎に明度に関する補正量である部分領域補正量を部分領域補正量算出手段により算出する第3の工程と、前記部分領域補正量算出手段により算出された部分領域補正量に基づいて、前記基画像の各画素値に対する補正量である画素補正量を画素補正量算出手段により算出する第4の工程と、前記画素補正量算出手段により算出された画素補正量に基づいて、前記基画像の各画素値を画像補正手段により補正する第5の工程とを有することを特徴とする。(請求項9)   According to the image processing method of the present invention, the first step of dividing one base image into a plurality of partial areas by the image dividing means, and the partial areas for each partial area divided by the image dividing means Based on the second step of calculating the feature quantity of the image by the feature quantity calculation means and the feature quantity calculated by the feature quantity calculation means, a partial area correction amount that is a correction amount relating to the brightness for each partial area image is determined. Based on the third step calculated by the partial region correction amount calculating means and the partial region correction amount calculated by the partial region correction amount calculating means, a pixel correction amount that is a correction amount for each pixel value of the base image is determined. A fourth step of calculating by the pixel correction amount calculating means, and a fifth step of correcting each pixel value of the base image by the image correcting means based on the pixel correction amount calculated by the pixel correction amount calculating means. Characterized in that it has a. (Claim 9)

これによれば、第1の工程において、1つの基画像が画像分割手段により複数の部分領域に分割され、第2の工程において、画像分割手段により分割された部分領域毎に該部分領域画像の特徴量が特徴量算出手段により算出される。また、第3の工程において、特徴量算出手段により算出された特徴量に基づいて、部分領域画像毎に明度に関する補正量である部分領域補正量が部分領域補正量算出手段により算出される。そして、第4の工程において、部分領域補正量算出手段により算出された部分領域補正量に基づいて、基画像の各画素値に対する補正量である画素補正量が画素補正量算出手段により算出され、第5の工程において、画素補正量算出手段により算出された画素補正量に基づいて、基画像の各画素値が画像補正手段により補正される。   According to this, in the first step, one base image is divided into a plurality of partial regions by the image dividing unit, and in the second step, the partial region image is divided for each partial region divided by the image dividing unit. The feature amount is calculated by the feature amount calculation means. In the third step, the partial region correction amount calculating unit calculates a partial region correction amount that is a correction amount related to brightness for each partial region image based on the feature amount calculated by the feature amount calculating unit. In the fourth step, based on the partial region correction amount calculated by the partial region correction amount calculation unit, a pixel correction amount that is a correction amount for each pixel value of the base image is calculated by the pixel correction amount calculation unit. In the fifth step, each pixel value of the base image is corrected by the image correction unit based on the pixel correction amount calculated by the pixel correction amount calculation unit.

また、上記構成において、前記第4の工程は、前記画素補正量算出手段によって、前記各部分領域の部分領域補正量に対して、前記基画像の所定の画素位置から前記部分領域画像内の所定の基準位置までの距離に応じた重みを用いて重み付けしてなる値を、該基画像における少なくとも前記所定の画素近傍の部分領域について積算することにより前記画素補正量を算出する工程であることが好ましい。(請求項10)   In the above configuration, in the fourth step, the pixel correction amount calculation unit performs a predetermined region in the partial region image from a predetermined pixel position of the base image with respect to the partial region correction amount of each partial region. A step of calculating the pixel correction amount by accumulating a value obtained by weighting using a weight according to a distance to the reference position of at least a partial region in the base image near the predetermined pixel. preferable. (Claim 10)

これによれば、第4の工程において、画素補正量算出手段によって、各部分領域の部分領域補正量に対して、基画像の所定の画素位置から部分領域画像内の所定の基準位置までの距離に応じた重みを用いて重み付けされてなる値が、該基画像における少なくとも当該所定の画素近傍の部分領域について積算されることにより画素補正量が算出される。   According to this, in the fourth step, the distance from the predetermined pixel position of the base image to the predetermined reference position in the partial area image with respect to the partial area correction amount of each partial area by the pixel correction amount calculation means The pixel correction amount is calculated by integrating the weighted values using the weights corresponding to the values in at least the partial area near the predetermined pixel in the base image.

請求項1に係る撮像装置によれば、1つの基画像が複数の部分領域に分割され、この部分領域毎に特徴量が算出される。また、この特徴量に基づいて部分領域画像毎に明度に関する部分領域補正量が算出される。そして、この部分領域補正量に基づいて基画像の各画素値に対する画素補正量が算出され、この画素補正量に基づいて基画像の各画素値が補正されるすなわち基画像全体が補正されるので、露出の異なる複数枚の画像を撮影したり、画像のエントロピーを計算する必要がなく、演算処理時間の短縮化、及び、複数枚の画像を記憶するためのメモリ(メモリ使用量)やエントロピーを計算するためのプログラムや回路規模の大型化を抑えることによる低コスト化を図りつつ、画像各部に露出(明度)の偏りがなく、全体が適正な露出状態(明度)とされた高画質な画像を得ることができる。   According to the imaging apparatus of the first aspect, one base image is divided into a plurality of partial areas, and a feature amount is calculated for each partial area. Further, a partial area correction amount related to brightness is calculated for each partial area image based on the feature amount. Then, a pixel correction amount for each pixel value of the base image is calculated based on the partial region correction amount, and each pixel value of the base image is corrected based on the pixel correction amount, that is, the entire base image is corrected. There is no need to shoot multiple images with different exposures or calculate the entropy of the image, shortening the processing time, and memory (memory usage) and entropy for storing multiple images A high-quality image with no exposure bias (brightness) in each part of the image and proper exposure (brightness) as a whole, while reducing costs by reducing the size of the computer program and circuit scale Can be obtained.

請求項2に係る撮像装置によれば、基画像の所定の画素位置から部分領域画像内の所定の基準位置までの距離に応じた重みによって部分領域補正量に重み付けがなされ、この重み付けされた部分領域補正量が基画像における少なくとも当該所定の画素近傍の部分領域について積算されたものが画素補正量とされるので、各部分領域画像間の露出(明度)の差違をなくす所謂ブレンド処理に用いる画素補正量を、容易な方法で且つ精度良く求めることができる。   According to the imaging device according to claim 2, the partial region correction amount is weighted by a weight according to a distance from a predetermined pixel position of the base image to a predetermined reference position in the partial region image, and the weighted portion Pixels used for so-called blending processing that eliminates differences in exposure (brightness) between the partial area images because the area correction amount is obtained by integrating at least a partial area near the predetermined pixel in the base image. The correction amount can be obtained with an easy method and with high accuracy.

請求項3に係る撮像装置によれば、部分領域画像における画素値(すなわち輝度値)の平均値、最小値、最大値、及び部分領域画像の画素値分布の中央値のうちのいずれかが特徴量として算出される構成であるので、各部分領域画像の特徴量を容易に得ることができる。   According to the imaging apparatus according to claim 3, any one of an average value, a minimum value, and a maximum value of pixel values (that is, luminance values) in the partial region image and a median value of the pixel value distribution of the partial region image is characterized. Since the configuration is calculated as a quantity, the feature quantity of each partial area image can be easily obtained.

請求項4に係る撮像装置によれば、各部分領域画像の部分領域補正量としてゲインが算出されるので、部分領域補正量を容易に求めることができる。   According to the imaging device of the fourth aspect, since the gain is calculated as the partial region correction amount of each partial region image, the partial region correction amount can be easily obtained.

請求項5に係る撮像装置によれば、各部分領域画像の部分領域補正量としてオフセットが算出されるので、部分領域補正量を容易に求めることができる。   According to the imaging device of the fifth aspect, since the offset is calculated as the partial region correction amount of each partial region image, the partial region correction amount can be easily obtained.

請求項6に係る撮像装置によれば、特徴量を所定の目標値に変換するための変換特性が、基画像の暗部が明るくなるよう持ち上げられて且つ明部の変化が抑えられた変換とされるので、この変換特性を用いて、すなわちこの変換特性から得られる部分領域補正量を用いて、基画像の暗部が明るくなるよう持ち上げられて且つ明部の変化が抑えられた状態となるような基画像各部の露出の適正化を容易に行うことができる。なお、このように変換特性に基づいて露出の適正化が行える構成であるので、変換特性を任意に設定することによる、どのように露出の適正化を行うかといった露出適正化方法の自由度が高くなる。   According to the imaging device of the sixth aspect, the conversion characteristic for converting the feature value into the predetermined target value is a conversion in which the dark part of the base image is lifted so that the bright part is brightened and the change of the bright part is suppressed. Therefore, using this conversion characteristic, that is, using the partial region correction amount obtained from this conversion characteristic, the dark part of the base image is lifted to become bright and the change of the bright part is suppressed. It is possible to easily optimize the exposure of each part of the base image. Since the exposure can be optimized based on the conversion characteristics as described above, the degree of freedom of the exposure optimization method, such as how to optimize the exposure, can be set by arbitrarily setting the conversion characteristics. Get higher.

請求項7に係る撮像装置によれば、撮像手段により得られた線形/対数画像が変換処理手段によって統一線形画像に変換され、これが(画像分割手段により分割される)基画像として用いられる構成であるので、撮像手段が、撮影によって線形/対数画像が得られるようなもの(つまりここでの線形特性及び対数特性からなる光電変換特性を有する撮像手段;例えばリニアログセンサ)である場合でも、当該得られた線形/対数画像を統一線形画像に変換して、一般的な撮像手段により得られる線形画像の場合と同様に露出適正化を行うことが可能となる。   According to the imaging device of the seventh aspect, the linear / logarithmic image obtained by the imaging means is converted into a unified linear image by the conversion processing means, and this is used as a base image (divided by the image dividing means). Therefore, even when the imaging unit is such that a linear / logarithmic image can be obtained by imaging (that is, an imaging unit having a photoelectric conversion characteristic composed of a linear characteristic and a logarithmic characteristic here; for example, a linear log sensor), The obtained linear / logarithmic image is converted into a unified linear image, and exposure optimization can be performed as in the case of a linear image obtained by a general imaging means.

請求項8に係る撮像装置によれば、部分領域補正量が、該部分領域補正量を基画像の各画素値に乗算又は加算した値が所定の画素値を超えないような値とされるので、この所定の画素値を例えば画素値の最大値と設定するなどして、基画像の明部すなわち明度が特に高い領域において、露出適正化処理によって出力画素値(輝度値)がオーバーフロー(飽和)してしまうことを防止或いは緩和することができる。   According to the imaging device of the eighth aspect, the partial region correction amount is set to a value such that a value obtained by multiplying or adding the partial region correction amount to each pixel value of the base image does not exceed the predetermined pixel value. The output pixel value (luminance value) overflows (saturates) due to the exposure optimization processing in the bright portion of the base image, that is, the region where the lightness is particularly high by setting the predetermined pixel value as the maximum value of the pixel value, for example. This can be prevented or alleviated.

請求項9に係る画像処理方法によれば、1つの基画像が複数の部分領域に分割され、この部分領域毎に特徴量が算出される。また、この特徴量に基づいて部分領域画像毎に明度に関する部分領域補正量が算出される。そして、この部分領域補正量に基づいて基画像の各画素値に対する画素補正量が算出され、この画素補正量に基づいて基画像の各画素値が補正されるすなわち基画像全体が補正されるので、露出の異なる複数枚の画像を撮影したり、画像のエントロピーを計算する必要がなく、演算処理時間の短縮化、及び、複数枚の画像を記憶するためのメモリ(メモリ使用量)やエントロピーを計算するためのプログラムや回路規模の大型化を抑えることによる低コスト化を図りつつ、画像各部に露出(明度)の偏りがなく、全体が適正な露出状態(明度)とされた高画質な画像を得ることができる。   According to the image processing method of the ninth aspect, one base image is divided into a plurality of partial areas, and a feature amount is calculated for each partial area. Further, a partial area correction amount related to brightness is calculated for each partial area image based on the feature amount. Then, a pixel correction amount for each pixel value of the base image is calculated based on the partial region correction amount, and each pixel value of the base image is corrected based on the pixel correction amount, that is, the entire base image is corrected. There is no need to shoot multiple images with different exposures or calculate the entropy of the image, shortening the processing time, and memory (memory usage) and entropy for storing multiple images A high-quality image with no exposure bias (brightness) in each part of the image and proper exposure (brightness) as a whole, while reducing costs by reducing the size of the computer program and circuit scale Can be obtained.

請求項10に係る画像処理方法によれば、基画像の所定の画素位置から部分領域画像内の所定の基準位置までの距離に応じた重みによって部分領域補正量に重み付けがなされ、この重み付けされた部分領域補正量が基画像における少なくとも当該所定の画素近傍の部分領域について積算されたものが画素補正量とされるので、各部分領域画像間の露出(明度)の差違をなくす所謂ブレンド処理に用いる画素補正量を、容易な方法で且つ精度良く求めることができる。   According to the image processing method of the tenth aspect, the partial region correction amount is weighted by the weight according to the distance from the predetermined pixel position of the base image to the predetermined reference position in the partial region image. Since the partial area correction amount is integrated for at least the partial area in the vicinity of the predetermined pixel in the base image, the pixel correction amount is used, so that it is used for so-called blending processing that eliminates the difference in exposure (brightness) between the partial area images. The pixel correction amount can be obtained with an easy method and with high accuracy.

(実施形態1)
図1は、第1の実施形態に係る撮像装置の一例であるデジタルカメラの主に撮像処理に関する概略的なブロック構成図を示す。図1に示すようにデジタルカメラ1は、レンズ部2、撮像センサ3、アンプ4、A/D変換部5、画像処理部6、画像メモリ7、制御部8、モニタ部9及び操作部10を備えている。
(Embodiment 1)
FIG. 1 is a schematic block diagram illustrating mainly an imaging process of a digital camera which is an example of an imaging apparatus according to the first embodiment. As shown in FIG. 1, the digital camera 1 includes a lens unit 2, an image sensor 3, an amplifier 4, an A / D conversion unit 5, an image processing unit 6, an image memory 7, a control unit 8, a monitor unit 9, and an operation unit 10. I have.

レンズ部2は、被写体光(光像)を取り込むレンズ窓として機能するとともに、この被写体光をカメラ本体の内部に配置されている撮像センサ3へ導くための光学レンズ系(被写体光の光軸Lに沿って直列的に配置される例えばズームレンズやフォーカスレンズ、その他の固定レンズブロック)を構成するものである。レンズ部2は、当該レンズの透過光量を調節するための絞りやシャッタ(いずれも図示省略)を備えており、制御部8によりこの絞りやシャッタの駆動制御がなされる構成となっている。   The lens unit 2 functions as a lens window for capturing subject light (light image), and an optical lens system (optical axis L of the subject light) for guiding the subject light to the imaging sensor 3 disposed inside the camera body. For example, a zoom lens, a focus lens, and other fixed lens blocks) that are arranged in series. The lens unit 2 includes an aperture and a shutter (both not shown) for adjusting the amount of light transmitted through the lens, and the drive of the aperture and shutter is controlled by the control unit 8.

撮像センサ3は、レンズ部2において結像された被写体光像の光量に応じ、R、G、B各成分の画像信号に光電変換して後段のアンプ4へ出力するものである。本実施形態では、この撮像センサ3は、後述のリニアログセンサに対して、一般的なデジタルカメラが備えるリニアセンサ、すなわち1種類の線形特性からなる光電変換特性を有する撮像センサとなっている。なお、デジタルカメラ1は動画撮影が可能に構成されていてもよく、この場合、撮像センサ3により撮影された動画における1フレームの画像(静止画像)を使用すればよい。なお、この一般的なリニアセンサによる撮像により得られる画像のことを、後述のリニアログセンサの場合の「線形/対数画像」というのに対して、「線形画像」という。   The image sensor 3 performs photoelectric conversion into image signals of R, G, and B components according to the amount of light of the subject light image formed by the lens unit 2 and outputs the image signal to the subsequent amplifier 4. In the present embodiment, the imaging sensor 3 is a linear sensor included in a general digital camera, that is, an imaging sensor having a photoelectric conversion characteristic composed of one type of linear characteristic with respect to a linear log sensor described later. The digital camera 1 may be configured to be capable of moving image shooting. In this case, one frame image (still image) in the moving image shot by the imaging sensor 3 may be used. Note that an image obtained by imaging with this general linear sensor is referred to as a “linear image” in contrast to a “linear / logarithmic image” in the case of a linear log sensor described later.

アンプ4は、撮像センサ3から出力された画像(映像)信号を増幅するものであり、例えばAGC(オートゲインコントロール)回路を備え、当該出力信号のゲイン(増幅率)調整を行う。アンプ4は、AGC回路の他、アナログ値としての当該画像信号のサンプリングノイズの低減を行うCDS(相関二重サンプリング)回路を備えていてもよい。なお、AGC回路に対するゲイン値は制御部8によって設定される。   The amplifier 4 amplifies the image (video) signal output from the imaging sensor 3 and includes, for example, an AGC (auto gain control) circuit, and adjusts the gain (amplification factor) of the output signal. The amplifier 4 may include a CDS (correlated double sampling) circuit that reduces sampling noise of the image signal as an analog value in addition to the AGC circuit. The gain value for the AGC circuit is set by the control unit 8.

A/D変換部5は、アンプ4にて増幅されたアナログ値の画像信号(アナログ信号)をデジタル値の画像信号(デジタル信号)に変換するものであり、撮像センサ3の各画素で受光して得られる画素信号をそれぞれ例えば12ビットの画素データに変換する。   The A / D converter 5 converts the analog image signal (analog signal) amplified by the amplifier 4 into a digital image signal (digital signal), and receives light at each pixel of the image sensor 3. Each pixel signal obtained in this way is converted into, for example, 12-bit pixel data.

画像処理部6は、A/D変換部5によるA/D変換処理によって得られた画像信号に対する各種画像処理(デジタル信号処理)を行うものである。本実施形態では、画像処理部6におけるダイナミックレンジ圧縮(DR圧縮)処理或いは露出適正化処理に主たる特徴点がある。画像処理部6におけるこの特徴点に関する処理を含む各種画像処理については後に詳述する。   The image processing unit 6 performs various image processing (digital signal processing) on the image signal obtained by the A / D conversion processing by the A / D conversion unit 5. In this embodiment, there is a main feature point in the dynamic range compression (DR compression) process or the exposure optimization process in the image processing unit 6. Various image processing including processing relating to this feature point in the image processing unit 6 will be described in detail later.

画像メモリ7は、ROM(Read Only Memory)やRAM(Random Access Memory)等のメモリからなり、画像処理部6での画像処理を終えた画像データを保存するものである。画像メモリ7は、例えば撮影よる所定フレーム分の画像データを記憶し得る容量を有したものとなっている。   The image memory 7 includes a memory such as a ROM (Read Only Memory) or a RAM (Random Access Memory), and stores image data that has undergone image processing in the image processing unit 6. The image memory 7 has a capacity capable of storing image data for a predetermined frame by, for example, photographing.

制御部8は、各制御プログラム等を記憶するROM、一時的にデータを格納するRAM、及び制御プログラム等をROMから読み出して実行する(中央演算処理装置:CPU)等からなり、デジタルカメラ1全体の動作制御を司るものである。制御部8は、撮像センサ3や画像処理部6或いは操作部10等の装置各部からの各種信号に基づき、装置各部が必要とする各種制御パラメータ等を算出し、これを送信することで各部の動作を制御する。具体的には、制御部8は、撮像センサ3で撮影された画像信号から、自動露出制御(AE制御)、自動焦点制御(AF制御)或いはホワイトバランス(WB)処理等を行うに際してのベースとなる評価値(制御パラメータ)、すなわちAE評価値、AF評価値、WB評価値等を算出する。制御部8は、これら評価値を用いて、タイミング生成部(タイミングジェネレータ)や駆動部(いずれも図示省略)を介して、撮像センサ3やレンズ部2(絞りやシャッタ)に対する撮像動作制御やズーム・フォーカス駆動制御を行ったり、画像処理部6に対する画像処理制御を行う。なお、制御部8は、モニタ部9への表示制御や画像メモリ7に対する画像信号の入出力制御なども行う。   The control unit 8 includes a ROM that stores each control program, a RAM that temporarily stores data, and a control program that is read from the ROM and executed (central processing unit: CPU). It governs the operation control. The control unit 8 calculates various control parameters and the like required by each unit of the device based on various signals from each unit of the device such as the imaging sensor 3, the image processing unit 6, or the operation unit 10, and transmits the calculated control parameters. Control the behavior. Specifically, the control unit 8 is a base for performing automatic exposure control (AE control), automatic focus control (AF control), white balance (WB) processing, and the like from the image signal captured by the image sensor 3. Evaluation values (control parameters), that is, AE evaluation values, AF evaluation values, WB evaluation values, and the like are calculated. The control unit 8 uses these evaluation values to control imaging operation and zoom with respect to the imaging sensor 3 and the lens unit 2 (aperture and shutter) via a timing generation unit (timing generator) and a driving unit (both not shown). Perform focus drive control and perform image processing control on the image processing unit 6. The control unit 8 also performs display control on the monitor unit 9 and input / output control of image signals to the image memory 7.

モニタ部9は、撮像センサ3で撮影された画像(画像メモリ7に保存されていた画像)等のモニタ表示を行うものである。モニタ部9は、具体的には、例えばカメラ背面に配設されたカラー液晶表示素子からなる液晶表示器(LCD;Liquid Crystal Display)、或いは接眼部を構成する電子ビューファインダ(EVF;Electronic View Finder)等からなる。   The monitor unit 9 displays a monitor such as an image captured by the image sensor 3 (an image stored in the image memory 7). Specifically, the monitor unit 9 is, for example, a liquid crystal display (LCD) composed of a color liquid crystal display element disposed on the back of the camera, or an electronic viewfinder (EVF) that forms an eyepiece. Finder).

操作部10は、デジタルカメラ1に対するユーザによる操作指示(指示入力)を行うものであり、例えば電源スイッチ、レリーズスイッチ、或いは各種撮影モードを設定するモード設定スイッチ、ニュー選択スイッチ等の各種の操作スイッチ(ボタン)群からなる。例えばレリーズスイッチが押下(オン)されることで、撮影動作、すなわち撮像センサ3により被写体が撮像され、この撮像により得られた画像データに対して所定の画像処理が施された後、画像メモリ7等に記録されるといった一連の動作が実行される。   The operation unit 10 is used to give an operation instruction (instruction input) to the digital camera 1 by a user. For example, various operation switches such as a power switch, a release switch, a mode setting switch for setting various shooting modes, and a new selection switch. (Button) group. For example, when a release switch is pressed (turned on), a subject is imaged by an imaging operation, that is, the imaging sensor 3, and predetermined image processing is performed on the image data obtained by the imaging, and then the image memory 7. A series of operations such as recording in the above are executed.

ここで、画像処理部6の構成及び動作の詳細について説明する。図2は、画像処理部6の一回路構成例を示す機能ブロック図である。同図に示すように画像処理部6は、基本処理部61、WB補正部62、DR圧縮部63、色補間部64、色補正部65、γ補正部66、色空間変換部67及びノイズ処理部68を備えている。   Here, details of the configuration and operation of the image processing unit 6 will be described. FIG. 2 is a functional block diagram illustrating a circuit configuration example of the image processing unit 6. As shown in the figure, the image processing unit 6 includes a basic processing unit 61, a WB correction unit 62, a DR compression unit 63, a color interpolation unit 64, a color correction unit 65, a γ correction unit 66, a color space conversion unit 67, and noise processing. A portion 68 is provided.

基本処理部61は、後段の画像処理に対して基本となる画像処理、ここでは黒基準補正処理及びFPN補正処理を行うものである。黒基準補正処理は、A/D変換部5から入力されるデジタル画像信号の黒レベル(暗黒時の画像信号レベル)を基準の値に補正する処理である。すなわちA/D変換部5から入力される画像信号レベルをSD1とし、暗黒時の画像信号レベルをSD2とするときに、SD1−SD2の演算を行う。   The basic processing unit 61 performs basic image processing with respect to subsequent image processing, in this case, black reference correction processing and FPN correction processing. The black reference correction process is a process of correcting the black level (image signal level in darkness) of the digital image signal input from the A / D conversion unit 5 to a reference value. That is, when the image signal level input from the A / D converter 5 is SD1, and the image signal level in the dark is SD2, the calculation of SD1-SD2 is performed.

FPN補正処理は、黒基準補正処理により得られた信号の固定パターンノイズ(FPN;Fixed Pattern Noise)を除去する処理である。固定パターンノイズは、撮像センサ3の各画素回路の閾値バラツキ等が要因となって生じる、各画素が発生する画像信号の出力値のバラツキに起因するノイズである。   The FPN correction process is a process for removing fixed pattern noise (FPN) of the signal obtained by the black reference correction process. The fixed pattern noise is noise caused by variations in output values of image signals generated by the respective pixels, which are caused by variations in threshold values of the respective pixel circuits of the image sensor 3.

WB補正部62は、入力画像に対するWB補正、すなわち被写体光源の色温度変化によって生じる白色変化に伴う色バランス補正を行うものである。WB補正部62は、制御部8から与えられるWB評価値に基づいて、画像信号の色バランスが所定の色バランスになるよう各色成分R、G、Bの各画素データのレベルを変換する補正を行う。   The WB correction unit 62 performs WB correction on the input image, that is, color balance correction accompanying white change caused by the color temperature change of the subject light source. Based on the WB evaluation value given from the control unit 8, the WB correction unit 62 performs correction for converting the level of each pixel data of each color component R, G, B so that the color balance of the image signal becomes a predetermined color balance. Do.

DR圧縮部63は、例えば入力画像が表示系(モニタ等)のダイナミックレンジに収まるようにするべく、入力画像のダイナミックレンジ(DR)を圧縮する処理(DR圧縮処理)を行うものである。本実施形態では、このDR圧縮処理において画像各部の露出の適正化を行う。この画像各部の露出を適正化する処理のことを露出適正化処理という(本実施形態の露出適正化処理を行うことで実質的にDR圧縮処理も行っていることになる)。DR圧縮部63におけるこのDR圧縮処理(露出適正化処理)については後に詳述する。なお、このDR圧縮部63は後述するγ補正部66よりも前段に設けられているのであれば何れの位置でもよい。本実施形態では、メモリ容量が少なくて済むことから、色補間(ベイヤー補間)を行う前、すなわち色補間部64の前段にDR圧縮部63を設けている。   The DR compression unit 63 performs processing (DR compression processing) for compressing the dynamic range (DR) of the input image so that the input image falls within the dynamic range of the display system (monitor or the like), for example. In the present embodiment, the exposure of each part of the image is optimized in the DR compression process. The process for optimizing the exposure of each part of the image is called the exposure optimization process (the DR compression process is substantially performed by performing the exposure optimization process of this embodiment). This DR compression processing (exposure optimization processing) in the DR compression unit 63 will be described in detail later. The DR compression unit 63 may be located at any position as long as it is provided upstream of a later-described γ correction unit 66. In this embodiment, since the memory capacity is small, the DR compression unit 63 is provided before color interpolation (Bayer interpolation), that is, before the color interpolation unit 64.

色補間部(ベイヤー補間部)64は、入力される画像信号の各色成分R、G、B毎に、フレーム画像の不足する画素位置のデータを補間する色補間処理を行うものである。すなわち、撮像センサ3のカラーフィルタ構造は、例えばGが市松状でR、Bが線順次配列(以降、G市松RB線順次配列という)された所謂ベイヤー方式が採用されており、この関係上、色情報が不足していることから、色補間部64は実在する複数の画素データを用いて実在しない画素位置の画素データを補間する。   The color interpolation unit (Bayer interpolation unit) 64 performs color interpolation processing for interpolating data at pixel positions where the frame image is insufficient for each color component R, G, B of the input image signal. That is, the color filter structure of the image sensor 3 employs a so-called Bayer system in which, for example, G is checkered and R and B are line-sequentially arranged (hereinafter referred to as G-checkered RB line-sequentially arranged). Since the color information is insufficient, the color interpolation unit 64 interpolates pixel data at nonexistent pixel positions using a plurality of actual pixel data.

色補正部65は、色補間部64から入力される色成分R、G、Bの画像信号の色合い(色バランス;彩度)を補正する色補正処理を行うものである。色補正部65は、色成分RGBの各画像信号のレベル比を変換する3種類の変換係数を有し、撮影シーンに応じた変換係数で該レベル比を変換して画像データの色合いを補正する。   The color correction unit 65 performs color correction processing for correcting the hue (color balance; saturation) of the image signals of the color components R, G, and B input from the color interpolation unit 64. The color correction unit 65 has three types of conversion coefficients for converting the level ratio of each image signal of the color component RGB, and corrects the hue of the image data by converting the level ratio with the conversion coefficient according to the shooting scene. .

γ補正部66は、入力画像に対し、所定のガンマ特性を用いて非線形変換するガンマ補正処理を行うものである。具体的には、γ補正部66は、入力される色成分RGBの各画像信号が適切な出力レベルになるよう、画像信号のレベルを各色成分毎に、モニタ部9や外部出力されるモニターテレビ等の表示メディア(表示媒体)の表示特性(階調特性;非線形表示特性;γカーブ)に応じて、所定のガンマ補正テーブル(ガンマ補正用LUT)を用いて非線形補正を行う。ガンマ補正テーブルは、表示メディアの表示特性に応じたものが例えばγ補正部66内に予め記憶されている。   The γ correction unit 66 performs gamma correction processing that performs nonlinear conversion on the input image using a predetermined gamma characteristic. Specifically, the γ correction unit 66 sets the level of the image signal for each color component to the monitor unit 9 or an externally output monitor television so that the input image signals of the color components RGB have appropriate output levels. Nonlinear correction is performed using a predetermined gamma correction table (gamma correction LUT) according to the display characteristics (gradation characteristics; nonlinear display characteristics; γ curve) of the display medium (display medium). The gamma correction table corresponding to the display characteristics of the display medium is stored in advance in the γ correction unit 66, for example.

色空間変換部67は、入力画像データにおけるRGB、すなわち赤、緑、青の3色の階調により表現するRGB表示系から、輝度(Y)と青の色差(Cb)及び赤の色差(Cr)により表現するYCbCr表示系(YCC表示系)へ色空間変換する色空間変換処理を行うものである。   The color space conversion unit 67 converts the luminance (Y) and the blue color difference (Cb) and the red color difference (Cr) from the RGB display system represented by the RGB of the input image data, that is, the red, green, and blue gradations. ) To perform a color space conversion process for color space conversion to a YCbCr display system (YCC display system).

ノイズ処理部68は、入力される画像信号のノイズ成分を除去するノイズ除去処理を行うものである。ノイズ処理部68は、例えばコアリング係数を用いたコアリング処理を行うことで、適正なノイズ除去処理を行う。   The noise processing unit 68 performs noise removal processing for removing noise components of the input image signal. The noise processing unit 68 performs appropriate noise removal processing, for example, by performing coring processing using a coring coefficient.

ここで、DR圧縮部63の構成及び動作の詳細について説明する。図3は、DR圧縮部63の一回路構成例を示す機能ブロック図である。同図に示すようにDR圧縮部63は、ブロック値計算部631、ブロックゲイン計算部632、ブレンドゲイン計算部633及び乗算部634を備えている。ブロック平均計算部631は、DR圧縮部63に入力された画像(入力画像、元画像)Iを、m×nの複数のブロック(ブロック画像)に分割(区分)し、この分割した各ブロックの特徴を表す特徴量、すなわち各ブロックを代表する値(ブロック値という)を算出するものである。ブロック値計算部631は、このブロック値として、各ブロックにおける画素値(輝度値)の平均(ブロック平均)であるAjk(1≦j≦m、1≦k≦n)を算出する。ただし、ブロック値はこのブロック平均Ajk(平均値)に限らず、各ブロックにおける画素値の最小値や最大値、或いは各ブロックの画素値分布(輝度分布)の中央値(所謂メディアン)であってもよい。要は、Ajkの値は各ブロックを代表する値であればよい(実施形態2でも同様)。   Here, the details of the configuration and operation of the DR compression unit 63 will be described. FIG. 3 is a functional block diagram illustrating a circuit configuration example of the DR compression unit 63. As shown in the figure, the DR compression unit 63 includes a block value calculation unit 631, a block gain calculation unit 632, a blend gain calculation unit 633, and a multiplication unit 634. The block average calculation unit 631 divides (divides) the image (input image, original image) I input to the DR compression unit 63 into a plurality of m × n blocks (block images), and each of the divided blocks is divided. A feature amount representing a feature, that is, a value representing each block (referred to as a block value) is calculated. The block value calculation unit 631 calculates Ajk (1 ≦ j ≦ m, 1 ≦ k ≦ n), which is an average (block average) of pixel values (luminance values) in each block, as the block value. However, the block value is not limited to the block average Ajk (average value), and is the minimum value or maximum value of the pixel values in each block, or the median value (so-called median) of the pixel value distribution (luminance distribution) of each block. Also good. In short, the value of Ajk may be a value representing each block (the same applies to the second embodiment).

ブロックゲイン計算部632は、各ブロックにおける明度(露出、輝度)に関する補正量、具体的には、ブロック値計算部631により算出したブロック平均Ajkを所定の値に変換するようなゲインを算出するものである。この変換は、画像の暗部を明るく持ち上げ(明度或いは輝度を大きくして)、明部は明度或いは輝度の変化の少ないもの(明度或いは輝度の変化が抑えられたもの)とする変換であり、例えば図4における変換特性41(ゲイン特性)で示されるものである。この変換特性41は、以下の(1)式に示す変換式(変換関数)で表される。
y=exp(log(x)*c)*n ・・・(1)((1)式はすなわちy=x^c*n(記号「^」は階乗)である)
但し、記号「c」、「n」は係数を示す。また、記号「*」は乗算を示す(以降同じ)。
The block gain calculation unit 632 calculates a correction amount related to lightness (exposure, luminance) in each block, specifically, a gain that converts the block average Ajk calculated by the block value calculation unit 631 into a predetermined value. It is. This conversion is a conversion in which the dark part of the image is brightly raised (increased brightness or brightness), and the bright part has little change in brightness or brightness (a change in brightness or brightness is suppressed). This is indicated by the conversion characteristic 41 (gain characteristic) in FIG. This conversion characteristic 41 is represented by a conversion expression (conversion function) shown in the following expression (1).
y = exp (log (x) * c) * n (1) (Equation (1) is y = x ^ c * n (the symbol “^” is a factorial))
However, the symbols “c” and “n” indicate coefficients. The symbol “*” indicates multiplication (the same applies hereinafter).

変換特性41は、図4に示すように点S(Amin,t0)及び点T(Amax,t1)の2点を通過するため、これら点S及びTの座標値をそれぞれ代入して得られる連立方程式から、(1)式における2つの未知数c、nを算出することができる。点S及びTはこの変換特性41をすなわちゲインを制御する制御点である。これら制御点におけるx座標値、すなわちAmin及びAmaxは、それぞれブロック平均Ajkの最小値及び最大値である。ただし、この各制御点におけるx座標値は、当該ブロック平均の最小値、最大値でなくともよく、例えばブロック平均Ajkが最小、最大となるブロックにおける中央値(上記各ブロックの中央位置の画素値)であってもよい。   Since the conversion characteristic 41 passes through two points of a point S (Amin, t0) and a point T (Amax, t1) as shown in FIG. 4, the simultaneous values obtained by substituting the coordinate values of these points S and T, respectively. From the equation, two unknowns c and n in the equation (1) can be calculated. Points S and T are control points for controlling the conversion characteristic 41, that is, gain. The x coordinate values at these control points, that is, Amin and Amax, are the minimum value and the maximum value of the block average Ajk, respectively. However, the x-coordinate value at each control point may not be the minimum and maximum values of the block average. For example, the median value in the block where the block average Ajk is minimum and maximum (the pixel value at the central position of each block). ).

また、制御点Sにおけるy座標値であるt0は、変換特性41により上記Aminを変換した後の値であり、後段のγ補正部66によるガンマ補正後に適切な明るさ(例えば8bit画像では階調値128程度)となる値(当該変換における目標レベル)である。制御点Tにおけるy座標値であるt1は、変換特性41により上記Amaxを変換した後の値(目標レベル)であり、画素値の最大値(例えば8bit画像では階調値255)である。このt1は、該t1の値を下げると、画像の明部すなわち明度が特に高い領域において、ブレンド後に(露出適正化処理により)出力画素値(輝度値)がオーバーフロー(飽和)してしまうことが防止或いは緩和されるので、明部の多い画像ではこのt1の値を下げる、すなわち上記オーバーフローが防止又は緩和されるような所定値(閾値)より小さい値に設定することが望ましい。なお、ブロックゲイン計算部632は、ブロックゲインの算出に際してこの変換特性41を算出する(後述の変換特性51も同様)。また、変換特性もこの変換特性41に限らず、例えば上記制御点の位置を制御するなどして(上記制御点以外の点を制御してもよい)、任意なものを採用することが可能である。   Further, the y coordinate value t0 at the control point S is a value after the above Amin is converted by the conversion characteristic 41, and an appropriate brightness after the gamma correction by the γ correction unit 66 at the subsequent stage (for example, a gradation in an 8-bit image) Value (about 128) (a target level in the conversion). The y coordinate value t1 at the control point T is a value (target level) after the above Amax is converted by the conversion characteristic 41, and is the maximum pixel value (for example, a gradation value 255 in an 8-bit image). If the value of t1 is lowered, the output pixel value (luminance value) may overflow (saturate) after blending (due to the exposure optimization process) in a bright portion of the image, that is, a region where the brightness is particularly high. Since it is prevented or alleviated, it is desirable to lower the value of t1 in an image with many bright parts, that is, to set a value smaller than a predetermined value (threshold) that prevents or alleviates the overflow. The block gain calculation unit 632 calculates the conversion characteristic 41 when calculating the block gain (the same applies to the conversion characteristic 51 described later). Also, the conversion characteristic is not limited to this conversion characteristic 41. For example, an arbitrary one can be adopted by controlling the position of the control point (a point other than the control point may be controlled). is there.

ブロックゲイン計算部632は、このように設定される変換特性41と、ブロック平均Ajkとの情報に基づいて、ゲイン(ブロックゲイン)Bjk(1≦j≦m、1≦k≦n)を算出する。すなわち、ブロックゲインBjkは、変換特性41における入力と出力との比(入出力比)であり、以下の(2)式により算出される。
Bjk=exp(log(Ajk)*c)*n/Ajk ・・・(2)
但し、記号「/」は除算を示す(以降同じ)。
The block gain calculation unit 632 calculates the gain (block gain) Bjk (1 ≦ j ≦ m, 1 ≦ k ≦ n) based on the information of the conversion characteristic 41 set in this way and the block average Ajk. . That is, the block gain Bjk is the ratio (input / output ratio) between the input and the output in the conversion characteristic 41, and is calculated by the following equation (2).
Bjk = exp (log (Ajk) * c) * n / Ajk (2)
However, the symbol “/” indicates division (the same applies hereinafter).

<変形例>
なお、上述では、画像の暗部を明るく持ち上げ、明部は変化の少ないものとする変換として図4に示す変換特性41(対数的に変化する所謂カーブを描く特性)を用いたが、これに限らず、例えば図5に示すような変換特性51(低輝度部及び高輝度部それぞれの傾きが異なる2つの線形特性からなる特性)を用いてもよい。この場合、変換特性51は以下の(3・1)、(3・2)式で与えられる。
y=a0*x (0≦x≦Amin) ・・・(3・1)
y=a1*x+b1 (x>Amin) ・・・(3・2)
ただし、変換特性51も変換特性41と同様、制御点P及びQを通るものとし、Amin、Amax、t0及びt1の値も変換特性41と同様に設定されるものとする。
<Modification>
In the above description, the conversion characteristic 41 (characteristic that draws a logarithm that changes logarithmically) shown in FIG. 4 is used as the conversion that brightens the dark part of the image and the bright part has little change. Instead, for example, a conversion characteristic 51 (a characteristic composed of two linear characteristics having different slopes of the low luminance part and the high luminance part) as shown in FIG. 5 may be used. In this case, the conversion characteristic 51 is given by the following equations (3 · 1) and (3 · 2).
y = a0 * x (0 ≦ x ≦ Amin) (3.1)
y = a1 * x + b1 (x> Amin) (3.2)
However, similarly to the conversion characteristic 41, the conversion characteristic 51 passes through the control points P and Q, and the values of Amin, Amax, t0, and t1 are also set similarly to the conversion characteristic 41.

この場合、ブロックゲインBjkは、以下の(4・1)、(4・2)式により算出される。
Bjk=(a0*Ajk)/Ajk=a0 (0≦x≦Amin) ・・・(4・1)
Bjk=(a1*Ajk+b1)/Ajk=a1+b1/Ajk (x>Amin) ・・・(4・2)
なお、上記と同様、この変換特性51に限らず、任意な変換特性を採用することが可能である。
In this case, the block gain Bjk is calculated by the following equations (4 · 1) and (4 · 2).
Bjk = (a0 * Ajk) / Ajk = a0 (0 ≦ x ≦ Amin) (4.1)
Bjk = (a1 * Ajk + b1) / Ajk = a1 + b1 / Ajk (x> Amin) (4.2)
Note that, as described above, not only the conversion characteristic 51 but also any conversion characteristic can be adopted.

ブレンドゲイン計算部633は、ブロックゲイン計算部632により算出したブロックゲインBjkを用いて、入力画像Iの各画素(後述の入力画像I(x,y)の各画素値)に対するブレンド用のゲインであるブレンドゲインP(x,y)を算出するものである。このブレンドゲインP(x,y)は、以下の(5)式により算出される。   The blend gain calculation unit 633 uses the block gain Bjk calculated by the block gain calculation unit 632 to obtain a blend gain for each pixel of the input image I (each pixel value of the input image I (x, y) described later). A certain blend gain P (x, y) is calculated. The blend gain P (x, y) is calculated by the following equation (5).

Figure 2008085634
但し、Wjk(x,y)は、各ブロックにおける各画素に対するウエイト(重み、加重平均)を示しており、以下の(6)式で与えられる。
Figure 2008085634
However, Wjk (x, y) indicates the weight (weight, weighted average) for each pixel in each block, and is given by the following equation (6).

Figure 2008085634
但し、Gjk(x,y)はガウシアンを示しており、以下の(7)式で与えられる。
Figure 2008085634
However, Gjk (x, y) indicates Gaussian and is given by the following equation (7).

Figure 2008085634
但し、xjk、yjkは、各ブロック画像の中心座標或いは各ブロックの中心画素の座標(xjk,yjk)を示す。また、記号「σ」は標準偏差であって所定のブレンド半径を示している。
Figure 2008085634
Here, x jk and y jk indicate the center coordinates of each block image or the coordinates (x jk , y jk ) of the center pixel of each block. The symbol “σ” is a standard deviation and indicates a predetermined blend radius.

乗算部634は、ブレンドゲイン計算部633により算出したブレンドゲインP(x,y)を入力画像Iの各画素値I(x,y)に乗算する(入力画像の画素毎にブレンドゲインを掛ける)ものである。この乗算処理の結果、乗算部634から出力画像Oが出力される。乗算部634における当該乗算処理は、以下の(8)式で表される。
O(x,y)=P(x,y)*I(x,y) ・・・(8)
但し、画素値O(x,y)は、出力画像Oの各画素値を示す。
The multiplier 634 multiplies each pixel value I (x, y) of the input image I by the blend gain P (x, y) calculated by the blend gain calculator 633 (multiplies the blend gain for each pixel of the input image). Is. As a result of this multiplication processing, an output image O is output from the multiplication unit 634. The multiplication process in the multiplication unit 634 is expressed by the following equation (8).
O (x, y) = P (x, y) * I (x, y) (8)
However, the pixel value O (x, y) indicates each pixel value of the output image O.

上述の演算処理で行っていることは以下のように換言できる。すなわち、各ブロック画像は、変換特性41(51)に基づき算出されたブロックゲインBjkが掛けられることによって、上述したように暗部が明るく持ち上げられ且つ明部の変化が抑えられた好適な画素値(輝度値)となる。しかしながら、画像Iの各画素I(x,y)に対してこのBjk(固定値)をそのまま掛けたのでは、各ブロック画像に境界が生じて全体が所謂モザイク画像のようになってしまう。そこで、単にBjkを掛けるのではなく、このBjkに対して、ブロック中心までの距離を考慮した重み(ウエイト)を加えてなるもの(P(x,y))を求めておき、これを各画素I(x,y)に掛けるようにすることで、各ブロック画像間に境目の無い(モザイク画像でない)、すなわち各ブロック画像の画素値がブレンドされて全体の露出が適正化された画像(出力画像O)を得ることができる。   What is performed in the above arithmetic processing can be rephrased as follows. That is, each block image is multiplied by the block gain Bjk calculated based on the conversion characteristic 41 (51), so that a suitable pixel value (a dark portion is brightly raised and a change in the bright portion is suppressed as described above). Brightness value). However, if the Bjk (fixed value) is directly applied to each pixel I (x, y) of the image I, a boundary is generated in each block image, and the whole becomes a so-called mosaic image. Therefore, instead of simply multiplying Bjk, a value (P (x, y)) obtained by adding a weight (weight) considering the distance to the block center to this Bjk is obtained, and this is obtained for each pixel. By multiplying by I (x, y), there is no boundary between each block image (not a mosaic image), that is, an image in which pixel values of each block image are blended and the overall exposure is optimized (output) Image O) can be obtained.

上記ブロック中心までの距離を考慮した重みとは、或るブロック(ブロック画像)において或る注目画素を考えた場合の、この注目画素からブロックの中心画素までの距離に応じた重みであって、中心画素までの距離が近い注目画素ほど重みが大きなものとなる、すなわちブロックの中心に近い位置にある画素ほど、このブロックを代表するBjkの値を使用する割合(ウエイト)が大きくなり、一方、遠い位置にある画素つまりブロック境界に近い位置にある画素ほどこのブロックのBjkの値を使用する割合が小さくなる。   The weight in consideration of the distance to the block center is a weight according to the distance from the target pixel to the central pixel of the block when a target pixel is considered in a block (block image). A pixel of interest closer to the center pixel has a greater weight, that is, a pixel closer to the center of the block has a higher proportion (weight) of using the value of Bjk representing this block, The ratio of using the Bjk value of this block decreases as the pixel is farther away, that is, closer to the block boundary.

実際の計算においては、画像Iにおける或る画素I(x,y)(注目画素I(x,y)とするs)から各ブロック(j、k)の中心画素の座標(xjk,yjk)までの距離が上記(7)式に示すガウシアンGjk(x,y)によって求められ、この値が上記(6)式に示すように上記注目画素I(x,y)から全てのブロックの中心画素までの距離の積算値(合算値)で除算されたものが、画像Iの或る画素I(x,y)における、各ブロック(j、k)のBjkに対するウエイト(Wjk(x,y))となる。さらに、このBjkに対してウエイトWjk(x,y)を掛けてなるWjk(x,y)*Bjkが、全てのブロック(j=1〜m、k=1〜n)について(全ブロックに亘って)積算(合算)されたものがP(x,y)となる。このように画像Iの或る画素I(x,y)に対し、該画像Iの全てのブロックについて考慮しつつP(x,y)を求めることが謂わば上記モザイク画像をブレンドしていることになる。 In the actual calculation, the coordinates (x jk , y jk ) of the center pixel of each block (j, k) from a certain pixel I (x, y) (s assumed as the target pixel I (x, y)) in the image I are used. ) Is obtained by Gaussian G jk (x, y) shown in the above equation (7), and this value is calculated from the target pixel I (x, y) of all the blocks as shown in the above equation (6). What is divided by the integrated value (total value) of the distance to the center pixel is the weight (W jk (x, y)) for Bjk of each block (j, k) in a certain pixel I (x, y) of the image I. y)). Further, W jk (x, y) * Bjk obtained by multiplying this Bjk by the weight W jk (x, y) is set for all blocks (j = 1 to m, k = 1 to n) (all blocks P (x, y) is obtained by integrating (summing up). In this way, for a certain pixel I (x, y) of the image I, obtaining P (x, y) while considering all the blocks of the image I is so-called blending of the mosaic image. become.

なお、P(x,y)は、上述のようにWjk(x,y)*Bjkが“全ての”ブロック(j=1〜m、k=1〜n)について積算(合算)されたものでなくともよく、すなわちjが1からmまで、kが1からnまでの全範囲でなくともよく、例えば、当該注目画素近傍のブロック(近傍の所定ブロック)、或いはこの注目画素を有するブロックの近傍のブロックというように画像Iの部分的なブロックについて積算されたものであってもよい(j、kの値は任意でよい)。要は好適にブレンドすることが可能となるような所定数、所定位置のブロック(ブロック範囲)について積算される構成であればよい。 P (x, y) is obtained by integrating (summing) W jk (x, y) * Bjk for “all” blocks (j = 1 to m, k = 1 to n) as described above. In other words, j may not be the entire range from 1 to m and k may be from 1 to n. For example, a block in the vicinity of the target pixel (a predetermined block in the vicinity) or a block having the target pixel It may be accumulated for partial blocks of image I such as neighboring blocks (values of j and k may be arbitrary). In short, any configuration may be used as long as it is integrated with respect to a predetermined number of blocks (block range) at a predetermined position so that blending can be suitably performed.

また、或る注目画素からの距離を求めるときの画素は、必ずしもブロック中心の画素(中心座標)でなくともよく、ブレンドするに際して各ブロックにおいて基準となる位置(基準位置、基準点)であれば何れの位置(基準位置、基準座標)又は画素(基準画素)であってもよい。また、上記では各ブロックを矩形の領域に分割したが、当該領域の形状は矩形でなくともよく、例えば曲線によって分割されてなる形状(曲線領域)でもよい。要は1枚の画像が任意な形状(自由形状)の部分領域に分割されればよい。ただし、上記基準となる位置は、例えば空間的に或いは輝度的に基準となる位置である。また、上記部分領域の中心に相当する位置として“重心”或いは“図心”を求めてもよい。これらのことは後述の第2の実施形態においても同様である。   Further, the pixel for obtaining the distance from a certain pixel of interest does not necessarily have to be the pixel at the center of the block (center coordinate), and may be any position (reference position, reference point) that is a reference in each block when blending. Any position (reference position, reference coordinate) or pixel (reference pixel) may be used. In the above description, each block is divided into rectangular areas. However, the shape of the area may not be rectangular, and may be a shape (curved area) divided by a curve, for example. In short, a single image may be divided into partial regions having an arbitrary shape (free shape). However, the reference position is, for example, a spatial or luminance reference position. Further, “centroid” or “centroid” may be obtained as a position corresponding to the center of the partial area. The same applies to the second embodiment described later.

図6は、第1の実施形態に係るデジタルカメラ1のDR圧縮部63におけるDR圧縮処理(露出適正化処理)に関する動作の一例を示すフローチャートである。先ず撮像センサ3(リニアセンサ)による撮像によって撮影画像(線形画像)が取得される(ステップS1)。次に、ブロック値計算部631によって、この線形画像(入力画像I)が各ブロックに分割され、この分割された各ブロックにおけるブロック値すなわちブロック平均Ajkが算出される(ステップS2)。この算出されたブロック平均Ajkと変換特性41(51)(図4、5参照)とに基づいて、ブロックゲイン計算部632によって、各ブロックにおけるブロックゲインBjkが算出される(ステップS3)。この算出されたブロックゲインBjkに基づいて、ブレンドゲイン計算部633によって、入力画像Iの各画素に対するブレンドゲインP(x,y)が算出される(ステップS4)。そして、乗算部634によって、この算出されたブレンドゲインP(x,y)が入力画像Iの各画素値I(x,y)に乗算される。この乗算の結果、出力画像Oが乗算部634から出力される(ステップS5)。   FIG. 6 is a flowchart illustrating an example of an operation related to the DR compression processing (exposure optimization processing) in the DR compression unit 63 of the digital camera 1 according to the first embodiment. First, a captured image (linear image) is acquired by imaging with the imaging sensor 3 (linear sensor) (step S1). Next, the block value calculation unit 631 divides the linear image (input image I) into blocks, and calculates a block value in each of the divided blocks, that is, a block average Ajk (step S2). Based on the calculated block average Ajk and the conversion characteristic 41 (51) (see FIGS. 4 and 5), the block gain calculation unit 632 calculates the block gain Bjk in each block (step S3). Based on the calculated block gain Bjk, the blend gain calculator 633 calculates the blend gain P (x, y) for each pixel of the input image I (step S4). The multiplication unit 634 multiplies each pixel value I (x, y) of the input image I by the calculated blend gain P (x, y). As a result of this multiplication, the output image O is output from the multiplier 634 (step S5).

(実施形態2)
上記第1の実施形態では、撮像センサ3として一般的なリニアセンサを用いたが、第2の実施形態では、広いダイナミックレンジ(広DR)での撮影が可能な撮像センサ3として、例えば図7に示すような、センサ入射輝度が低い場合(暗時)に出力画素信号(光電変換により発生する出力電気信号)が線形的に変換されて出力される線形特性領域と、センサ入射輝度が高い場合(明時)に出力画素信号が対数的に変換されて出力される対数特性領域とからなる光電変換特性、すなわち低輝度側が線形、高輝度側が対数の光電変換特性(線形/対数特性という)を有するセンサ(リニアログセンサという)を用いる。
(Embodiment 2)
In the first embodiment, a general linear sensor is used as the image sensor 3. However, in the second embodiment, as the image sensor 3 capable of shooting in a wide dynamic range (wide DR), for example, FIG. When the sensor incident luminance is low (when dark), the output pixel signal (output electrical signal generated by photoelectric conversion) is linearly converted and output, and the sensor incident luminance is high A photoelectric conversion characteristic composed of a logarithmic characteristic region in which the output pixel signal is logarithmically converted (during light), that is, a photoelectric conversion characteristic (linear / logarithmic characteristic) in which the low luminance side is linear and the high luminance side is logarithmic. It has a sensor (called linear log sensor).

具体的には撮像センサ3は、例えば、フォトダイオード等の光電変換素子をマトリクス状に配置してなる固体撮像素子に、P型(又はN型)のMOSFET等を備えた対数変換回路を付加し、MOSFETのサブスレッショルド特性を利用することで、固体撮像素子の出力特性を入射光量に対して電気信号が対数的に変換されるようにした所謂CMOSイメージセンサが採用される。ただし、CMOSイメージセンサに限らず、VMISイメージセンサやCCDイメージセンサ等であってもよい。   Specifically, for example, the imaging sensor 3 adds a logarithmic conversion circuit including a P-type (or N-type) MOSFET to a solid-state imaging device in which photoelectric conversion elements such as photodiodes are arranged in a matrix. A so-called CMOS image sensor is used in which the output characteristics of the solid-state imaging device are logarithmically converted with respect to the amount of incident light by utilizing the sub-threshold characteristics of the MOSFET. However, it is not limited to a CMOS image sensor, and may be a VMIS image sensor, a CCD image sensor, or the like.

ところで、デジタルカメラ1では露出制御(AE制御)が行われるが、この概念に関する定義を説明しておく。いわゆる銀塩カメラと異なり、デジタルカメラやデジタルムービィ等の撮像装置においては、AE制御のための制御要素としては、撮像センサの光電変換特性に関連づけて(光電変換特性を作為的に変化させて)制御する方法と、撮像センサの撮像面に届く光の総量と光電変換後の光電変換電流の積分時間を調整する方法とがある。前者を「ダイナミックレンジ制御」と呼び、後者を「露光量制御」と呼ぶものとする。「ダイナミックレンジ制御」は、例えば撮像センサの光電変換特性の制御、すなわち線形特性領域と対数特性領域との切り替わり点(以下、変曲点という)を制御することで実行される。また、「露光量制御」は、例えば絞りの開口量調整や、或いはメカニカルシャッタのシャッタスピードの調整、又は撮像センサに対するリセット動作の制御による電荷の積分時間制御により実行される。   By the way, exposure control (AE control) is performed in the digital camera 1, and the definition regarding this concept will be described. Unlike so-called silver-salt cameras, in imaging devices such as digital cameras and digital movies, the control element for AE control is related to the photoelectric conversion characteristics of the image sensor (by changing the photoelectric conversion characteristics artificially). There is a method of controlling and a method of adjusting the total amount of light reaching the imaging surface of the imaging sensor and the integration time of the photoelectric conversion current after photoelectric conversion. The former is called “dynamic range control”, and the latter is called “exposure amount control”. “Dynamic range control” is executed, for example, by controlling photoelectric conversion characteristics of the image sensor, that is, by controlling a switching point (hereinafter referred to as an inflection point) between a linear characteristic region and a logarithmic characteristic region. The “exposure amount control” is executed, for example, by adjusting the aperture amount of the aperture, adjusting the shutter speed of the mechanical shutter, or controlling the integration time of charges by controlling the reset operation for the image sensor.

本実施形態では、撮像センサ3による撮影画像から得た被写体の輝度情報に基づいて、露出制御に関する所定の露出評価値を検出し、制御部8によって、この露出評価値を用いて、所要の露光量を確保するべく光電変換特性に基づき露光量の制御を行うと共に、この露出評価値を用いて、所要のダイナミックレンジを確保するべく光電変換特性に基づきダイナミックレンジの制御を行うことで、撮像にあたっての露出制御を行う。このように、撮像センサ3(リニアログセンサ)の光電変換特性(線形/対数特性)と関連付けて、露光量制御とダイナミックレンジ制御とを行うことによってデジタルカメラ1の露出制御を行うことができるため、被写体輝度に応じて、被写体を最適な露光状態で、しかも所定のダイナミックレンジを確保した状態で撮像することができる。   In the present embodiment, a predetermined exposure evaluation value related to exposure control is detected based on the luminance information of the subject obtained from the photographed image by the image sensor 3, and the controller 8 uses the exposure evaluation value to obtain a required exposure. In addition to controlling the amount of exposure based on the photoelectric conversion characteristics to ensure the amount, and using this exposure evaluation value to control the dynamic range based on the photoelectric conversion characteristics to ensure the required dynamic range, Control exposure. Thus, exposure control of the digital camera 1 can be performed by performing exposure amount control and dynamic range control in association with the photoelectric conversion characteristics (linear / logarithmic characteristics) of the image sensor 3 (linear log sensor). Depending on the subject brightness, the subject can be imaged in an optimal exposure state and with a predetermined dynamic range secured.

なお、上記ダイナミックレンジ制御は、線形/対数特性における上記変曲点の位置を制御することで行う。この変曲点は、制御部8による撮像センサ3の各画素回路に対する所定の制御信号によって制御される。また、上記露光量制御では、線形/対数特性の線形特性領域において、露光量設定用の或る被写体輝度に対する撮像センサの出力が、所定の目標出力レベルとなるような(このような光電変換特性が得られる)露光量設定値を用いて該露光量制御を行うことで、低輝度の被写体(暗部)でも高コントラストな画像信号を得ることができる適正な露光量(明るさ)が確保される。   The dynamic range control is performed by controlling the position of the inflection point in the linear / logarithmic characteristics. This inflection point is controlled by a predetermined control signal for each pixel circuit of the image sensor 3 by the control unit 8. In the above exposure amount control, the output of the image sensor for a certain subject luminance for exposure amount setting becomes a predetermined target output level in the linear / logarithmic linear characteristic region (such photoelectric conversion characteristics). By performing the exposure amount control using the exposure amount setting value, an appropriate exposure amount (brightness) that can obtain a high-contrast image signal even in a low-luminance subject (dark part) is ensured. .

かかる撮像センサ3を用いることに対応して、本実施形態では図2に示すDR圧縮部63を、図8に示すブロック構成としている。この図8に示すDR圧縮部をDR圧縮部63aとすると、DR圧縮部63aは、上記DR圧縮部63と同様、ブロック値計算部631a、ブロックゲイン計算部632a、ブレンドゲイン計算部633a及び乗算部634aを備えるとともに、これらに加えてログリニア変換部635を備えている。   Corresponding to the use of the image sensor 3, in the present embodiment, the DR compression unit 63 shown in FIG. 2 has the block configuration shown in FIG. If the DR compression unit shown in FIG. 8 is a DR compression unit 63a, the DR compression unit 63a is similar to the DR compression unit 63 in that it includes a block value calculation unit 631a, a block gain calculation unit 632a, a blend gain calculation unit 633a, and a multiplication unit. 634a and a log linear conversion unit 635 in addition to these.

ログリニア変換部635は、入力画像Iすなわち撮像センサ3(リニアログセンサ)による撮像により得られた画像(線形/対数画像という)に対して、該線形/対数画像における対数特性の画像を線形特性の画像に変換する(この変換を「ログリニア変換」という)ものである。これは、謂わば線形及び対数の2種類の特性からなる画像データを、線形特性1種類の画像データに統一して扱えるようにするものである。なお、線形特性(線形画像)に統一された画像のことを「統一線形画像」という。図8にこの統一線形画像Itを示す。   The log linear conversion unit 635 converts the logarithmic image of the linear / logarithmic image into a linear characteristic with respect to the input image I, that is, an image (referred to as a linear / logarithmic image) obtained by imaging by the imaging sensor 3 (linear log sensor). This is converted to an image (this conversion is called “log linear conversion”). This is so that image data consisting of two types of characteristics, so-called linear and logarithmic, can be handled in a unified manner with one type of image data of linear characteristics. An image unified with linear characteristics (linear image) is referred to as “unified linear image”. FIG. 8 shows this unified linear image It.

ブロック値計算部631aは、ログリニア変換部635による変換処理によって得られた統一線形画像Itを、ブロック値計算部631と同様、m×nの複数のブロックに分割し、各ブロックにおけるブロック平均Ajk(1≦j≦m、1≦k≦n)を算出する。ブロックゲイン計算部632aは、ブロックゲイン計算部632と同様、ブロック値計算部631aにより算出したブロック平均Ajkを所定の値に変換するようなゲインを算出する。ただし、本実施形態では、この変換における変換特性71は以下の(9・1)、(9・2)式で表される変換式を用いる。
y=x (0≦x≦t0) ・・・(9・1)
y=a*x+b (x>t0) ・・・(9・2)
The block value calculation unit 631a divides the unified linear image It obtained by the conversion processing by the log linear conversion unit 635 into a plurality of m × n blocks, like the block value calculation unit 631, and calculates the block average Ajk ( 1 ≦ j ≦ m, 1 ≦ k ≦ n) is calculated. Similar to the block gain calculation unit 632, the block gain calculation unit 632a calculates a gain that converts the block average Ajk calculated by the block value calculation unit 631a into a predetermined value. However, in the present embodiment, the conversion formula 71 in this conversion uses the conversion formulas represented by the following formulas (9.1) and (9.2).
y = x (0 ≦ x ≦ t0) (9.1)
y = a * x + b (x> t0) (9.2)

図9に変換特性71を示す。この変換特性71は、上記(9・1)式に示すように、0≦x≦t0の範囲でy=xとなっている。これは、上述したように、本実施形態ではリニアログセンサを用いることで、既にAE制御の段階で、画像の暗部すなわち低輝度側の線形特性領域が適正な明度(明るさ、明るさの度合い)となるようにされているので、この暗部を変化させない、すなわちゲイン=1(Ajk/Ajk=1)とすることによるものである。なお、変換特性71は図9に示すように制御点M及びNを通る。この制御点M及びNは上記制御点P及びQに相当するものである。ただし、制御点Mは、当該暗部を変化させないようにする(ゲイン=1)ため、x座標値がy座標値と同じt0に設定されている。このt0並びにt1及びAmaxは上述と同様に設定される。   FIG. 9 shows the conversion characteristic 71. The conversion characteristic 71 is y = x in the range of 0 ≦ x ≦ t0 as shown in the above equation (9.1). As described above, the linear log sensor is used in the present embodiment as described above, and the dark portion of the image, that is, the linear characteristic region on the low luminance side is already at the appropriate brightness (brightness, brightness level) at the stage of AE control. This is because the dark portion is not changed, that is, gain = 1 (Ajk / Ajk = 1). Note that the conversion characteristic 71 passes through the control points M and N as shown in FIG. The control points M and N correspond to the control points P and Q. However, for the control point M, the x coordinate value is set to t0 which is the same as the y coordinate value so as not to change the dark part (gain = 1). These t0, t1, and Amax are set in the same manner as described above.

この場合、ブロックゲインBjkは、以下の(10・1)、(10・2)式に示すものとなる。
Bjk=1 (0≦x≦t0) ・・・(10・1)
Bjk=a+b/Ajk (x>t0) ・・・(10・2)
なお、上記と同様、この変換特性71に限らず、任意な変換特性を採用することが可能である。
In this case, the block gain Bjk is represented by the following expressions (10 · 1) and (10 · 2).
Bjk = 1 (0 ≦ x ≦ t0) (10 · 1)
Bjk = a + b / Ajk (x> t0) (10 · 2)
As described above, any conversion characteristic can be adopted in addition to the conversion characteristic 71.

ブレンドゲイン計算部633aは、ブレンドゲイン計算部633と同様、ブレンドゲインP(x,y)を算出する。このブレンドゲインP(x,y)は、以下の(11)式により算出される。この(11)式におけるWjk(x,y)は上記(6)式と同じである。   The blend gain calculation unit 633a calculates the blend gain P (x, y) in the same manner as the blend gain calculation unit 633. The blend gain P (x, y) is calculated by the following equation (11). Wjk (x, y) in the equation (11) is the same as the equation (6).

Figure 2008085634
但し、Cjk(x,y)(単にCjkとも表記する)は、制限付きのブロックゲインであり、以下の(12)式(条件式)により定義されるものである。
Figure 2008085634
However, Cjk (x, y) (also simply referred to as Cjk) is a limited block gain, and is defined by the following expression (12) (conditional expression).

if(Bjk*It(x,y)>Vmax)
Cjk(x,y)=Vmax/It(x,y)
else
Cjk(x,y)=Bjk ・・・(12)
但し、Vmaxは最大画素値(例えば8bit画像では階調値255)である。
if (Bjk * It (x, y)> Vmax)
Cjk (x, y) = Vmax / It (x, y)
else
Cjk (x, y) = Bjk (12)
However, Vmax is a maximum pixel value (for example, a gradation value of 255 in an 8-bit image).

この(12)式は、統一線形画像Itの或る画素値It(x,y)に或るブロックのゲインBjkを積算してなる値が、閾値である最大画素値Vmaxを超えないように、すなわち、当該ブロックゲインを、画素値It(x,y)に乗算したとしてもその乗算値が最大画素値Vmax以下となるように(Vmaxでクリップされるように)制限するものである。本実施形態ではリニアログセンサによる線形/対数画像(広DR画像)を扱うことから、このような条件(制限)がないと、明度が特に高い領域(高輝度領域)でのゲイン値が小さくならないため、この領域周辺が飽和し、明るく飛んでしまう(白飛びする)可能性がある。ただし、上記閾値は、最大画素値Vmaxに限らず、任意の値を設定してよい。すなわち、画素値It(x,y)にゲインBjkを積算してなる値が、所定の画素値を超えないようにすればよい。   This equation (12) is such that the value obtained by adding the gain Bjk of a certain block to a certain pixel value It (x, y) of the unified linear image It does not exceed the maximum pixel value Vmax that is a threshold value. That is, even if the block gain is multiplied by the pixel value It (x, y), the multiplication value is limited to be equal to or less than the maximum pixel value Vmax (so that it is clipped at Vmax). In the present embodiment, linear / logarithmic images (wide DR images) are handled by a linear log sensor. Therefore, without such a condition (restriction), the gain value in a region with a particularly high brightness (high luminance region) does not become small. For this reason, there is a possibility that the area around this area is saturated, and the area is brightly lit (whiteout). However, the threshold value is not limited to the maximum pixel value Vmax, and an arbitrary value may be set. That is, a value obtained by adding the gain Bjk to the pixel value It (x, y) may be prevented from exceeding a predetermined pixel value.

乗算部634aは、乗算部634と同様、ブレンドゲイン計算部633aにより算出したブレンドゲインP(x,y)を統一線形画像Itの各画素値It(x,y)に乗算し、出力画像O(x,y)として出力する。乗算部634aにおける当該乗算処理は、以下の(8)’式で表される。
O(x,y)=P(x,y)*It(x,y) ・・・(8)’
Similarly to the multiplication unit 634, the multiplication unit 634a multiplies each pixel value It (x, y) of the unified linear image It by the blend gain P (x, y) calculated by the blend gain calculation unit 633a, and outputs the output image O ( x, y). The multiplication process in the multiplication unit 634a is expressed by the following equation (8) ′.
O (x, y) = P (x, y) * It (x, y) (8) ′

図10は、第2の実施形態に係るデジタルカメラ1のDR圧縮部63aにおけるDR圧縮処理(露出適正化処理)に関する動作の一例を示すフローチャートである。先ず撮像センサ3(リニアログセンサ)による撮像によって撮影画像(線形/対数画像)が取得される(ステップS11)。次に、ログリニア変換部635によって、この線形/対数画像に対するログリニア変換が行われて、統一線形画像Itが得られる(ステップS12)。そして、ブロック値計算部631aによって、この統一線形画像Itが各ブロックに分割され、この分割された各ブロックにおけるブロック値すなわちブロック平均Ajkが算出される(ステップS13)。この算出されたブロック平均Ajkと変換特性71(図9参照)とに基づいて、ブロックゲイン計算部632aによって、各ブロックにおけるブロックゲインBjkが算出される(ステップS14)。この算出されたブロックゲインBjkに基づいて、ブレンドゲイン計算部633aによって、統一線形画像Itの各画素に対するブレンドゲインP(x,y)が算出される(ステップS15)。そして、乗算部634aによって、この算出されたブレンドゲインP(x,y)が統一線形画像Itの各画素値It(x,y)に乗算される。この乗算の結果、出力画像Oが乗算部634aから出力される(ステップS16)。   FIG. 10 is a flowchart illustrating an example of an operation related to the DR compression process (exposure optimization process) in the DR compression unit 63a of the digital camera 1 according to the second embodiment. First, a captured image (linear / logarithmic image) is acquired by imaging with the imaging sensor 3 (linear log sensor) (step S11). Next, the log linear conversion unit 635 performs log linear conversion on the linear / logarithmic image to obtain a unified linear image It (step S12). Then, the unified linear image It is divided into blocks by the block value calculation unit 631a, and the block value, that is, the block average Ajk in each of the divided blocks is calculated (step S13). Based on the calculated block average Ajk and the conversion characteristic 71 (see FIG. 9), the block gain calculation unit 632a calculates the block gain Bjk in each block (step S14). Based on the calculated block gain Bjk, the blend gain calculation unit 633a calculates a blend gain P (x, y) for each pixel of the unified linear image It (step S15). The multiplication unit 634a multiplies each pixel value It (x, y) of the unified linear image It by the calculated blend gain P (x, y). As a result of this multiplication, the output image O is output from the multiplier 634a (step S16).

以上のように、上記各実施形態に係る撮像装置(デジタルカメラ1)によれば、ブロック値計算部631(631a)(画像分割手段)によって1つの基画像I(It)が複数の部分領域(ブロック)に分割され、ブロック値計算部631(631a)(特徴量算出手段)によって、上記画像分割手段により分割された部分領域毎に該部分領域画像の特徴量(Ajk)が算出される。また、ブロックゲイン計算部632(632a)(部分領域補正量算出手段)によって、上記特徴量算出手段により算出された特徴量に基づいて、部分領域画像毎に、明度に関する補正量である部分領域補正量(ブロックゲインBjk、Cjk又は後述のFjk)が算出される。そして、上記画素補正量算出手段によって、上記部分領域補正量算出手段により算出された部分領域補正量に基づいて、基画像の各画素値(I(x,y)、It(x,y))に対する補正量である画素補正量(ブレンドゲインP(x,y))が算出され、乗算部634(634a)(画像補正手段)によって、上記画素補正量算出手段により算出された画素補正量に基づいて、基画像の各画素値が補正される。   As described above, according to the imaging apparatus (digital camera 1) according to each of the embodiments described above, one base image I (It) is converted into a plurality of partial regions (by the block value calculation unit 631 (631a) (image dividing unit)). The feature value (Ajk) of the partial region image is calculated for each partial region divided by the image dividing unit by the block value calculation unit 631 (631a) (feature amount calculation unit). Further, the partial gain correction, which is a correction amount related to brightness, for each partial area image based on the feature quantity calculated by the feature quantity calculation means by the block gain calculation section 632 (632a) (partial area correction quantity calculation means). A quantity (block gain Bjk, Cjk or Fjk described later) is calculated. Then, each pixel value (I (x, y), It (x, y)) of the base image is calculated based on the partial area correction amount calculated by the partial area correction amount calculating means by the pixel correction amount calculating means. A pixel correction amount (blend gain P (x, y)) that is a correction amount for the pixel is calculated, and based on the pixel correction amount calculated by the pixel correction amount calculation unit by the multiplication unit 634 (634a) (image correction unit). Thus, each pixel value of the base image is corrected.

このように、1つの基画像が複数の部分領域に分割され、この部分領域毎に特徴量が算出される。また、この特徴量に基づいて部分領域画像毎に明度に関する部分領域補正量が算出される。そして、この部分領域補正量に基づいて基画像の各画素値に対する画素補正量が算出され、この画素補正量に基づいて基画像の各画素値が補正されるすなわち基画像全体が補正されるので、露出の異なる複数枚の画像を撮影したり、画像のエントロピーを計算する必要がなく、演算処理時間の短縮化、及び、複数枚の画像を記憶するためのメモリ(メモリ使用量)やエントロピーを計算するためのプログラムや回路規模の大型化を抑えることによる低コスト化を図りつつ、画像各部に露出(明度)の偏りがなく、全体が適正な露出状態(明度)とされた高画質な画像を得ることができる。   In this way, one base image is divided into a plurality of partial areas, and a feature amount is calculated for each partial area. Further, a partial area correction amount related to brightness is calculated for each partial area image based on the feature amount. Then, a pixel correction amount for each pixel value of the base image is calculated based on the partial region correction amount, and each pixel value of the base image is corrected based on the pixel correction amount, that is, the entire base image is corrected. There is no need to shoot multiple images with different exposures or calculate the entropy of the image, shortening the processing time, and memory (memory usage) and entropy for storing multiple images A high-quality image with no exposure bias (brightness) in each part of the image and proper exposure (brightness) as a whole, while reducing costs by reducing the size of the computer program and circuit scale Can be obtained.

また、上記画素補正量算出手段によって、各部分領域の部分領域補正量に対して、基画像の所定の画素位置(注目画素)から部分領域画像内の所定の基準位置までの距離に応じた重み(Wjk(x,y))を用いて重み付けしてなる値が、該基画像の全ての部分領域について積算されることにより画素補正量が算出される。このように、基画像の所定の画素位置から部分領域画像内の所定の基準位置までの距離に応じた重みによって部分領域補正量に重み付けがなされ、この重み付けされた部分領域補正量が基画像における少なくとも上記所定の画素の近傍(或いはこの所定画素を含む部分領域の近傍)の部分領域について積算された(全部分領域について積算されてもよい)ものが画素補正量(P(x,y))とされるので、各部分領域画像間の露出(明度)の差違をなくす所謂ブレンド処理に用いる画素補正量を、容易な方法で且つ精度良く求めることができる。   Further, the pixel correction amount calculating means weights the partial region correction amount of each partial region according to the distance from a predetermined pixel position (target pixel) of the base image to a predetermined reference position in the partial region image. The pixel correction amount is calculated by integrating the weighted values using (Wjk (x, y)) for all the partial areas of the base image. In this way, the partial region correction amount is weighted by the weight according to the distance from the predetermined pixel position of the base image to the predetermined reference position in the partial region image, and this weighted partial region correction amount is used in the base image. A pixel correction amount (P (x, y)) is accumulated at least for a partial area in the vicinity of the predetermined pixel (or in the vicinity of a partial area including the predetermined pixel) (may be integrated for all partial areas). Therefore, the pixel correction amount used for the so-called blending process for eliminating the difference in exposure (brightness) between the partial area images can be obtained with an easy method and with high accuracy.

また、上記特徴量算出手段によって、部分領域画像(ブロック画像)における画素値(すなわち輝度値)の平均値、最小値、最大値、及び部分領域画像の画素値分布の中央値のうちのいずれかが特徴量として算出される構成であるので、各部分領域画像の特徴量を容易に得ることができる。   Also, any one of an average value, a minimum value, a maximum value of pixel values (that is, luminance values) in the partial region image (block image), and a median value of the pixel value distribution of the partial region image by the feature amount calculation unit Is calculated as a feature value, the feature value of each partial region image can be easily obtained.

また、部分領域補正量算出手段によって、各部分領域画像の明度に応じて補正するべく該各部分領域画像の特徴量を所定の目標値に変換するためのゲインが部分領域補正量として算出される。すなわち各部分領域画像の部分領域補正量としてゲイン(ブロックゲイン)が算出されるので、部分領域補正量を容易に求めることができる。   Further, the partial region correction amount calculation means calculates a gain for converting the feature amount of each partial region image into a predetermined target value as a partial region correction amount so as to be corrected according to the brightness of each partial region image. . That is, since the gain (block gain) is calculated as the partial region correction amount of each partial region image, the partial region correction amount can be easily obtained.

また、特徴量を所定の目標値に変換するための変換特性(変換特性41、51又は71)が、基画像の暗部が明るくなるよう持ち上げられて且つ明部の変化が抑えられた変換とされるので、この変換特性を用いて、すなわちこの変換特性から得られる部分領域補正量を用いて、基画像の暗部が明るくなるよう持ち上げられて且つ明部の変化が抑えられた状態となるような基画像各部の露出の適正化を容易に行うことができる。なお、このように変換特性に基づいて露出の適正化が行える構成であるので、変換特性を任意に設定することによる、どのように露出の適正化を行うかといった露出適正化方法の自由度が高くなる。   In addition, the conversion characteristic (conversion characteristic 41, 51, or 71) for converting the feature amount into a predetermined target value is a conversion in which the dark part of the base image is raised so that the change in the bright part is suppressed. Therefore, using this conversion characteristic, that is, using the partial region correction amount obtained from this conversion characteristic, the dark part of the base image is lifted to become bright and the change of the bright part is suppressed. It is possible to easily optimize the exposure of each part of the base image. Since the exposure can be optimized based on the conversion characteristics as described above, the degree of freedom of the exposure optimization method, such as how to optimize the exposure, can be set by arbitrarily setting the conversion characteristics. Get higher.

また、撮像センサ3(撮像手段)が、入射光量に対して電気信号が線形的に変換されて出力される線形特性と、入射光量に対して電気信号が対数的に変換されて出力される対数特性とからなる光電変換特性(図7参照)を有し、撮影により線形/対数画像を得ることが可能とされ、また、ログリニア変換部635(変換処理手段)によって、上記撮像手段により得られる線形/対数画像に対して、該線形/対数画像における対数画像を線形画像に変換して画像全体を線形特性に統一する処理が行われる。そして、上記画像分割手段によって、線形/対数画像が変換処理手段により線形特性に統一されてなる基画像としての統一線形画像が複数の部分領域に分割される。このように、撮像手段により得られた線形/対数画像が変換処理手段によって統一線形画像に変換され、これが(画像分割手段により分割される)基画像として用いられる構成であるので、撮像手段が、撮影によって線形/対数画像が得られるようなもの(つまりここでの線形特性及び対数特性からなる光電変換特性を有する撮像手段;例えばリニアログセンサ)である場合でも、当該得られた線形/対数画像を統一線形画像に変換して、一般的な撮像手段(リニアセンサ)により得られる線形画像の場合と同様に露出適正化を行うことが可能となる。   In addition, the imaging sensor 3 (imaging means) linearly outputs an electrical signal that is linearly converted with respect to the incident light amount, and a logarithm that is output after the electrical signal is converted logarithmically with respect to the incident light amount. And a linear / logarithmic image can be obtained by photographing, and the linearity obtained by the imaging means by the log-linear converter 635 (conversion processing means). The logarithmic image in the linear / logarithmic image is converted into a linear image to unify the entire image into linear characteristics. Then, the image dividing means divides the unified linear image as a base image obtained by unifying the linear / logarithmic image into linear characteristics by the conversion processing means into a plurality of partial regions. Thus, the linear / logarithmic image obtained by the imaging means is converted into a unified linear image by the conversion processing means, and this is used as a base image (divided by the image dividing means). Even when a linear / logarithmic image is obtained by photographing (that is, an imaging means having a photoelectric conversion characteristic composed of a linear characteristic and a logarithmic characteristic here; for example, a linear log sensor), the obtained linear / logarithmic image is obtained. Can be converted into a unified linear image, and exposure optimization can be performed as in the case of a linear image obtained by a general imaging means (linear sensor).

また、上記部分領域補正量算出手段によって、部分領域補正量を基画像の各画素値に乗算又は加算した値が所定の画素値を超えないように該部分領域補正量が算出される、すなわち、部分領域補正量が、該部分領域補正量を基画像の各画素値に乗算又は加算した値が所定の画素値を超えないような値とされるので、この所定の画素値を例えば画素値の最大値と設定するなどして、基画像の明部すなわち明度が特に高い領域において、露出適正化処理によって出力画素値(輝度値)がオーバーフロー(飽和)してしまうことを防止或いは緩和することができる。   Further, the partial region correction amount is calculated by the partial region correction amount calculation means so that a value obtained by multiplying or adding the partial region correction amount to each pixel value of the base image does not exceed a predetermined pixel value. The partial region correction amount is set to a value such that a value obtained by multiplying or adding the partial region correction amount to each pixel value of the base image does not exceed the predetermined pixel value. By setting the maximum value or the like, it is possible to prevent or alleviate the overflow (saturation) of the output pixel value (brightness value) due to the exposure optimization process in the bright portion of the base image, that is, the region where the lightness is particularly high. it can.

また、本実施形態に係る画像処理方法によれば、第1の工程において、1つの基画像が画像分割手段により複数の部分領域に分割され、第2の工程において、画像分割手段により分割された部分領域毎に該部分領域画像の特徴量が特徴量算出手段により算出される。また、第3の工程において、特徴量算出手段により算出された特徴量に基づいて、部分領域画像毎に明度に関する補正量である部分領域補正量が部分領域補正量算出手段により算出される。そして、第4の工程において、部分領域補正量算出手段により算出された部分領域補正量に基づいて、基画像の各画素値に対する補正量である画素補正量が画素補正量算出手段により算出され、第5の工程において、画素補正量算出手段により算出された画素補正量に基づいて、基画像の各画素値が画像補正手段により補正される。   Further, according to the image processing method according to the present embodiment, one basic image is divided into a plurality of partial areas by the image dividing unit in the first step, and divided by the image dividing unit in the second step. The feature amount of the partial region image is calculated for each partial region by the feature amount calculation means. In the third step, the partial region correction amount calculating unit calculates a partial region correction amount that is a correction amount related to brightness for each partial region image based on the feature amount calculated by the feature amount calculating unit. In the fourth step, based on the partial region correction amount calculated by the partial region correction amount calculation unit, a pixel correction amount that is a correction amount for each pixel value of the base image is calculated by the pixel correction amount calculation unit. In the fifth step, each pixel value of the base image is corrected by the image correction unit based on the pixel correction amount calculated by the pixel correction amount calculation unit.

このように、当該画像処理方法によれば、1つの基画像が複数の部分領域に分割され、この部分領域毎に特徴量が算出される。また、この特徴量に基づいて部分領域画像毎に明度に関する部分領域補正量が算出される。そして、この部分領域補正量に基づいて基画像の各画素値に対する画素補正量が算出され、この画素補正量に基づいて基画像の各画素値が補正されるすなわち基画像全体が補正されるので、露出の異なる複数枚の画像を撮影したり、画像のエントロピーを計算する必要がなく、演算処理時間の短縮化、及び、複数枚の画像を記憶するためのメモリ(メモリ使用量)やエントロピーを計算するためのプログラムや回路規模の大型化を抑えることによる低コスト化を図りつつ、画像各部に露出(明度)の偏りがなく、全体が適正な露出状態(明度)とされた高画質な画像を得ることができる。   Thus, according to the image processing method, one base image is divided into a plurality of partial areas, and a feature amount is calculated for each partial area. Further, a partial area correction amount related to brightness is calculated for each partial area image based on the feature amount. Then, a pixel correction amount for each pixel value of the base image is calculated based on the partial region correction amount, and each pixel value of the base image is corrected based on the pixel correction amount, that is, the entire base image is corrected. There is no need to shoot multiple images with different exposures or calculate the entropy of the image, shortening the processing time, and memory (memory usage) and entropy for storing multiple images A high-quality image with no exposure bias (brightness) in each part of the image and proper exposure (brightness) as a whole, while reducing costs by reducing the size of the computer program and circuit scale Can be obtained.

また、上記第4の工程において、画素補正量算出手段によって、各部分領域の部分領域補正量に対して、基画像の所定の画素位置から部分領域画像内の所定の基準位置までの距離に応じた重みを用いて重み付けされてなる値が、該基画像の全ての部分領域について積算されることにより画素補正量が算出される。すなわち、基画像の所定の画素位置から部分領域画像内の所定の基準位置までの距離に応じた重みによって部分領域補正量に重み付けがなされ、この重み付けされた部分領域補正量が基画像における少なくとも当該所定の画素近傍の部分領域について積算されたものが画素補正量とされるので、各部分領域画像間の露出(明度)の差違をなくす所謂ブレンド処理に用いる画素補正量を、容易な方法で且つ精度良く求めることができる。   Further, in the fourth step, the pixel correction amount calculation means determines the partial region correction amount of each partial region according to the distance from a predetermined pixel position of the base image to a predetermined reference position in the partial region image. The pixel correction amount is calculated by integrating the values weighted using the weights for all the partial areas of the base image. That is, the partial region correction amount is weighted by a weight according to the distance from a predetermined pixel position of the base image to a predetermined reference position in the partial region image, and the weighted partial region correction amount is at least the relevant value in the base image. Since the pixel correction amount is obtained by integrating the partial regions in the vicinity of the predetermined pixel, the pixel correction amount used for so-called blending processing that eliminates the difference in exposure (brightness) between the partial region images can be obtained in an easy method and It can be obtained with high accuracy.

なお、本発明は、以下の態様をとることができる。
(A)上記第2の実施形態における撮像センサ3は、リニアログセンサでなくともよく、広DR画像が得られる(広DR撮影が可能な)ものであれば、例えば異なるシャッタスピードや絞り値で撮影して得た露出の異なる複数枚の画像を合成して出力するタイプでもよいし、ニー処理(明るい画像分部(高輝度領域)にだけ所定のゲインをかけて圧縮するような処理)して出力するタイプでもよい。ただし、撮像センサ3は、当該広DR画像が得られるものに限らず、第1の実施形態のように通常の線形画像が得られるものも含め、任意のタイプの撮像センサが採用可能である。
In addition, this invention can take the following aspects.
(A) The imaging sensor 3 in the second embodiment may not be a linear log sensor. For example, the imaging sensor 3 may have different shutter speeds or aperture values as long as a wide DR image can be obtained (wide DR shooting is possible). It may be a type that synthesizes and outputs multiple images with different exposures obtained by shooting, or knee processing (processing that compresses by applying a predetermined gain only to a bright image portion (high luminance area)) May be the output type. However, the image sensor 3 is not limited to the one that obtains the wide DR image, and any type of image sensor can be used including one that obtains a normal linear image as in the first embodiment.

(B)上記第1の実施形態においては、ブロックゲイン計算部632により、ブロック平均Ajkを所定の値に変換するゲイン(Bjk)を算出したが、当該“ゲイン”の代わりに、“オフセット(ブロックオフセット)”を算出するようにしてもよい。このオフセットは、ゲインと同様、各ブロック画像の特徴量(ブロック平均Ajk)を所定の目標値に変換するための値であると言える。この場合、上記(2)式は、以下の(2)’式で表されることになる。
Fjk=exp(log(Ajk)*c)*n−Ajk ・・・(2)’
但し、Fjkはブロックオフセットを示す(以降同じ)。
(B) In the first embodiment, the block gain calculation unit 632 calculates the gain (Bjk) for converting the block average Ajk into a predetermined value. Instead of the “gain”, the “offset (block Offset) ”may be calculated. This offset, like the gain, can be said to be a value for converting the feature amount (block average Ajk) of each block image into a predetermined target value. In this case, the above equation (2) is expressed by the following equation (2) ′.
Fjk = exp (log (Ajk) * c) * n−Ajk (2) ′
However, Fjk indicates a block offset (the same applies hereinafter).

また、上記(4・1)、(4・2)式は、以下の(4・1)’、(4・2)’式で表されることになる。
Fjk=a0*Ajk−Ajk=(a0−1)*Ajk ・・・(4・1)’
Fjk=(a1*Ajk+b1)−Ajk=(a1−1)*Ajk+b1 ・・・(4・2)’
なお、この場合、ブレンドゲイン計算部633により、ブロックオフセットFjkからブレンドオフセット(これをブレンドオフセットQ(x,y)とする)が算出される。すなわち、上記(5)式の右辺におけるBjkをブロックオフセットFjkで置き換えたものがQ(x,y)として算出される。そして、乗算部634により、入力画像Iの各画素値I(x,y)にこのブレンドオフセットQ(x,y)が乗算されて、出力画像Oが出力される。
In addition, the above expressions (4-1) and (4-2) are represented by the following expressions (4-1) 'and (4-2)'.
Fjk = a0 * Ajk-Ajk = (a0-1) * Ajk (4.1) '
Fjk = (a1 * Ajk + b1) −Ajk = (a1-1) * Ajk + b1 (4.2) ′
In this case, the blend gain calculation unit 633 calculates a blend offset (this is referred to as a blend offset Q (x, y)) from the block offset Fjk. That is, the value obtained by replacing Bjk on the right side of the above equation (5) with the block offset Fjk is calculated as Q (x, y). Then, the multiplication unit 634 multiplies each pixel value I (x, y) of the input image I by this blend offset Q (x, y), and outputs an output image O.

(C)上記変形態様(B)と同様に、ゲインの代わりにオフセットを算出する場合、上記(10・1)、(10・2)式は、以下の(10・1)’、(10・2)’式で表されることになる。
Fjk=1 (0≦x≦t0) ・・・(10・1)’
Fjk=(a*Ajk+b)−Ajk=(a−1)*Ajk+b ・・・(10・2)’
(C) Similarly to the modification (B), when calculating an offset instead of a gain, the above expressions (10 · 1) and (10 · 2) are expressed by the following (10 · 1) ′, (10 · 2) It will be expressed by the formula.
Fjk = 1 (0 ≦ x ≦ t0) (10 · 1) ′
Fjk = (a * Ajk + b) −Ajk = (a−1) * Ajk + b (10 · 2) ′

また、上記(12)式は、以下の(12)’式で表されることになる。
if(Fjk+It(x,y)>Vmax)
Cjk(x,y)=Vmax−It(x,y)
else
Cjk(x,y)=Fjk ・・・(12)’
なお、この場合も上記変形態様(B)と同様、ブレンドゲイン計算部633aにより、ブロックオフセットFjkからブレンドオフセットQ(x,y)が算出され、乗算部634aにより、統一線形画像Itの各画素値It(x,y)にこのブレンドオフセットQ(x,y)が乗算されて、出力画像Oが出力される。
Further, the above expression (12) is represented by the following expression (12) ′.
if (Fjk + It (x, y)> Vmax)
Cjk (x, y) = Vmax−It (x, y)
else
Cjk (x, y) = Fjk (12) ′
In this case as well, as in the modification (B), the blend gain calculation unit 633a calculates the blend offset Q (x, y) from the block offset Fjk, and the multiplication unit 634a calculates each pixel value of the unified linear image It. It (x, y) is multiplied by this blend offset Q (x, y), and an output image O is output.

このように、ブレンドゲイン計算部633(633a)によって各ブロック画像のオフセットが算出されるので、各ブロック画像における露出(明度、輝度)に関する補正量を容易に求めることができる。   Thus, since the offset of each block image is calculated by the blend gain calculation unit 633 (633a), a correction amount relating to exposure (brightness, luminance) in each block image can be easily obtained.

(D)上記実施形態1、2においては、画像(I又はIt)に対するブレンド処理、すなわちブレンドゲイン或いは上記ブレンドオフセットを算出して画像(I又はIt)に乗算して画像Oとして出力する処理をデジタルカメラ1内(DR圧縮部63、63a)において実行する構成となっているが、これに限らず、デジタルカメラ1外の所定の処理部において実行する構成としてもよい。具体的には、例えばUSB等を用いたデジタルカメラ1との直接接続又は無線接続された(ネットワーク接続された)或いはメモリカードといったストレージメディア等を用いて情報伝達可能に構成された、ユーザーインターフェイスを備える所定のホスト例えばPC(Personal Computer)やPDA(Personal Digital Assistant;個人向け携帯情報端末)においてこのブレンド処理が実行されてもよい。   (D) In the first and second embodiments, the blend process for the image (I or It), that is, the process of calculating the blend gain or the blend offset, multiplying the image (I or It), and outputting as the image O is performed. Although it is configured to be executed in the digital camera 1 (DR compression units 63 and 63a), the configuration is not limited thereto, and may be configured to be executed in a predetermined processing unit outside the digital camera 1. Specifically, for example, a user interface configured to be able to transmit information using a storage medium such as a direct connection or wireless connection (network connection) with a digital camera 1 using a USB or the like or a memory card is provided. This blending process may be executed in a predetermined host such as a PC (Personal Computer) or a PDA (Personal Digital Assistant).

第1の実施形態に係る撮像装置の一例であるデジタルカメラの主に撮像処理に関する概略的なブロック構成図である。1 is a schematic block configuration diagram mainly relating to imaging processing of a digital camera which is an example of an imaging apparatus according to a first embodiment. FIG. 上記デジタルカメラにおける画像処理部の一回路構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 circuit structure of the image process part in the said digital camera. 上記画像処理部におけるDR圧縮部の一回路構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 circuit structure of DR compression part in the said image processing part. 上記DR圧縮部におけるブロックゲイン計算部でのブロックゲイン算出時に用いる変換特性の一例を示すグラフ図である。It is a graph which shows an example of the conversion characteristic used at the time of the block gain calculation in the block gain calculation part in the said DR compression part. 上記DR圧縮部におけるブロックゲイン計算部でのブロックゲイン算出時に用いる変換特性の一変形例を示すグラフ図である。It is a graph which shows one modification of the conversion characteristic used at the time of the block gain calculation in the block gain calculation part in the said DR compression part. 第1の実施形態に係るデジタルカメラのDR圧縮部におけるDR圧縮処理(露出適正化処理)に関する動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement regarding DR compression process (exposure optimization process) in DR compression part of the digital camera which concerns on 1st Embodiment. 第2の実施形態に係るデジタルカメラにおける撮像センサ(リニアログセンサ)の光電変換特性(線形/対数特性)を示すグラフ図である。It is a graph which shows the photoelectric conversion characteristic (linear / logarithmic characteristic) of the imaging sensor (linear log sensor) in the digital camera which concerns on 2nd Embodiment. 第2の実施形態に係るデジタルカメラにおけるDR圧縮部の一回路構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 circuit structure of DR compression part in the digital camera which concerns on 2nd Embodiment. 図8に示すDR圧縮部におけるブロックゲイン計算部でのブロックゲイン算出時に用いる変換特性の一例を示すグラフ図である。It is a graph which shows an example of the conversion characteristic used at the time of block gain calculation in the block gain calculation part in DR compression part shown in FIG. 第2の実施形態に係るデジタルカメラのDR圧縮部におけるDR圧縮処理(露出適正化処理)に関する動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement regarding DR compression process (exposure optimization process) in DR compression part of the digital camera which concerns on 2nd Embodiment. 従来における複数枚の画像から画像各部の露出が補正された1枚の画像を生成する方法を説明する模式図である。It is a schematic diagram explaining the method to produce | generate the one image by which the exposure of each part of the image was correct | amended from the conventional several image.

符号の説明Explanation of symbols

1 デジタルカメラ(撮像装置)
3 撮像センサ(撮像手段)
6 画像処理部
63、63a DR圧縮部
631、631a ブロック値計算部(画像分割手段、特徴量算出手段)
632、632a ブロックゲイン計算部(部分領域補正量算出手段)
633、633a ブレンドゲイン計算部(画素補正量算出手段)
634、634a 乗算部(画像補正手段)
635 ログリニア変換部(変換処理手段)
1 Digital camera (imaging device)
3 Imaging sensor (imaging means)
6 Image processing unit 63, 63a DR compression unit 631, 631a Block value calculation unit (image division unit, feature amount calculation unit)
632, 632a Block gain calculation unit (partial region correction amount calculation means)
633, 633a Blend gain calculation unit (pixel correction amount calculation means)
634, 634a Multiplier (image correction means)
635 log linear converter (conversion processing means)

Claims (10)

1つの基画像を複数の部分領域に分割する画像分割手段と、
前記画像分割手段により分割された部分領域毎に該部分領域画像の特徴量を算出する特徴量算出手段と、
前記特徴量算出手段により算出された特徴量に基づいて、前記部分領域画像毎に明度に関する補正量である部分領域補正量を算出する部分領域補正量算出手段と、
前記部分領域補正量算出手段により算出された部分領域補正量に基づいて、前記基画像の各画素値に対する補正量である画素補正量を算出する画素補正量算出手段と、
前記画素補正量算出手段により算出された画素補正量に基づいて、前記基画像の各画素値を補正する画像補正手段とを備えることを特徴とする撮像装置。
Image dividing means for dividing one base image into a plurality of partial areas;
Feature quantity calculating means for calculating the feature quantity of the partial area image for each partial area divided by the image dividing means;
A partial region correction amount calculating unit that calculates a partial region correction amount that is a correction amount relating to brightness for each partial region image based on the feature amount calculated by the feature amount calculating unit;
A pixel correction amount calculating unit that calculates a pixel correction amount that is a correction amount for each pixel value of the base image based on the partial region correction amount calculated by the partial region correction amount calculating unit;
An image pickup apparatus comprising: an image correction unit that corrects each pixel value of the base image based on the pixel correction amount calculated by the pixel correction amount calculation unit.
前記画素補正量算出手段は、前記各部分領域の部分領域補正量に対して、前記基画像の所定の画素位置から前記部分領域画像内の所定の基準位置までの距離に応じた重みを用いて重み付けしてなる値を、該基画像における少なくとも前記所定の画素近傍の部分領域について積算することにより前記画素補正量を算出することを特徴とする請求項1に記載の撮像装置。   The pixel correction amount calculation means uses a weight corresponding to a distance from a predetermined pixel position of the base image to a predetermined reference position in the partial region image for the partial region correction amount of each partial region. The imaging apparatus according to claim 1, wherein the pixel correction amount is calculated by integrating a weighted value for at least a partial region in the vicinity of the predetermined pixel in the base image. 前記特徴量算出手段は、前記部分領域画像における画素値の平均値、最小値、最大値、及び該部分領域画像の画素値分布の中央値のうちのいずれかを前記特徴量として算出することを特徴とする請求項1又は2に記載の撮像装置。   The feature amount calculating means calculates, as the feature amount, one of an average value, a minimum value, and a maximum value of pixel values in the partial region image and a median value of pixel value distribution of the partial region image. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized. 前記部分領域補正量算出手段は、前記各部分領域画像の明度に応じて補正するべく該各部分領域画像の特徴量を所定の目標値に変換するためのゲインを、前記部分領域補正量として算出することを特徴とする請求項1〜3のいずれかに記載の撮像装置。   The partial region correction amount calculating means calculates, as the partial region correction amount, a gain for converting the feature amount of each partial region image into a predetermined target value to be corrected according to the brightness of each partial region image. The imaging apparatus according to claim 1, wherein 前記部分領域補正量算出手段は、前記各部分領域画像の明度に応じて補正するべく該各部分領域画像の特徴量を所定の目標値に変換するためのオフセットを、前記部分領域補正量として算出することを特徴とする請求項1〜3のいずれかに記載の撮像装置。   The partial region correction amount calculating means calculates, as the partial region correction amount, an offset for converting the feature amount of each partial region image into a predetermined target value to be corrected according to the brightness of each partial region image. The imaging apparatus according to claim 1, wherein 前記特徴量を所定の目標値に変換するための変換特性は、前記基画像の暗部が明るくなるよう持ち上げられて且つ明部の変化が抑えられた変換であることを特徴とする請求項4又は5に記載の撮像装置。   5. The conversion characteristic for converting the feature quantity into a predetermined target value is a conversion in which a dark part of the base image is lifted to be bright and a change in a bright part is suppressed. 5. The imaging device according to 5. 入射光量に対して電気信号が線形的に変換されて出力される線形特性と、入射光量に対して電気信号が対数的に変換されて出力される対数特性とからなる光電変換特性を有し、撮影により線形/対数画像を得ることが可能に構成された撮像手段と、
前記撮像手段により得られる線形/対数画像に対して、該線形/対数画像における対数画像を線形画像に変換して画像全体を線形特性に統一する処理を行う変換処理手段とをさらに備え、
前記画像分割手段は、前記線形/対数画像が前記変換処理手段により線形特性に統一されてなる前記基画像としての統一線形画像を前記複数の部分領域に分割することを特徴とする請求項1〜6のいずれかに記載の撮像装置。
It has a photoelectric conversion characteristic consisting of a linear characteristic in which an electric signal is linearly converted with respect to the incident light amount and output, and a logarithmic characteristic in which the electric signal is converted logarithmically with respect to the incident light amount, and output. Imaging means configured to be able to obtain a linear / logarithmic image by imaging;
Conversion processing means for performing processing for converting the logarithmic image in the linear / logarithmic image into a linear image and unifying the entire image into linear characteristics with respect to the linear / logarithmic image obtained by the imaging means,
The image dividing means divides the unified linear image as the base image, in which the linear / logarithmic image is unified into linear characteristics by the conversion processing means, into the plurality of partial regions. 6. The imaging device according to any one of 6.
前記部分領域補正量算出手段は、前記部分領域補正量を前記基画像の各画素値に乗算又は加算した値が所定の画素値を超えないように該部分領域補正量を算出することを特徴とする請求項7に記載の撮像装置。   The partial region correction amount calculation means calculates the partial region correction amount so that a value obtained by multiplying or adding the partial region correction amount to each pixel value of the base image does not exceed a predetermined pixel value. The imaging device according to claim 7. 1つの基画像を画像分割手段により複数の部分領域に分割する第1の工程と、
前記画像分割手段により分割された部分領域毎に該部分領域画像の特徴量を特徴量算出手段により算出する第2の工程と、
前記特徴量算出手段により算出された特徴量に基づいて、前記部分領域画像毎に明度に関する補正量である部分領域補正量を部分領域補正量算出手段により算出する第3の工程と、
前記部分領域補正量算出手段により算出された部分領域補正量に基づいて、前記基画像の各画素値に対する補正量である画素補正量を画素補正量算出手段により算出する第4の工程と、
前記画素補正量算出手段により算出された画素補正量に基づいて、前記基画像の各画素値を画像補正手段により補正する第5の工程とを有することを特徴とする画像処理方法。
A first step of dividing one base image into a plurality of partial regions by an image dividing unit;
A second step of calculating a feature amount of the partial region image by the feature amount calculation unit for each partial region divided by the image dividing unit;
A third step of calculating, by the partial region correction amount calculating means, a partial region correction amount that is a correction amount relating to brightness for each of the partial region images based on the feature amount calculated by the feature amount calculating unit;
A fourth step of calculating a pixel correction amount, which is a correction amount for each pixel value of the base image, by the pixel correction amount calculating unit based on the partial region correction amount calculated by the partial region correction amount calculating unit;
An image processing method comprising: a fifth step of correcting each pixel value of the base image by the image correction unit based on the pixel correction amount calculated by the pixel correction amount calculation unit.
前記第4の工程は、前記画素補正量算出手段によって、前記各部分領域の部分領域補正量に対して、前記基画像の所定の画素位置から前記部分領域画像内の所定の基準位置までの距離に応じた重みを用いて重み付けしてなる値を、該基画像における少なくとも前記所定の画素近傍の部分領域について積算することにより前記画素補正量を算出する工程であることを特徴とする請求項9に記載の画像処理方法。   In the fourth step, a distance from a predetermined pixel position of the base image to a predetermined reference position in the partial region image with respect to the partial region correction amount of each partial region by the pixel correction amount calculation unit 10. The step of calculating the pixel correction amount by accumulating a value obtained by weighting using a weight according to at least a partial region in the vicinity of the predetermined pixel in the base image. An image processing method described in 1.
JP2006263026A 2006-09-27 2006-09-27 Imaging apparatus and image processing method Pending JP2008085634A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006263026A JP2008085634A (en) 2006-09-27 2006-09-27 Imaging apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006263026A JP2008085634A (en) 2006-09-27 2006-09-27 Imaging apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2008085634A true JP2008085634A (en) 2008-04-10

Family

ID=39356035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006263026A Pending JP2008085634A (en) 2006-09-27 2006-09-27 Imaging apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2008085634A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009133946A1 (en) * 2008-05-02 2009-11-05 コニカミノルタホールディングス株式会社 Image processing method, image processing device, and image processing program
WO2009136437A1 (en) * 2008-05-08 2009-11-12 富士通株式会社 Method of processing image data, image data processing equipment, and image data processing program
KR20140133394A (en) * 2013-05-10 2014-11-19 삼성테크윈 주식회사 Apparatus and method for processing image
JP2015035796A (en) * 2013-08-08 2015-02-19 広達電脳股▲ふん▼有限公司 Method for controlling exposure duration of high dynamic range image
CN107592470A (en) * 2017-09-21 2018-01-16 陕西土豆数据科技有限公司 A kind of exposure algorithm applied to more lens sensors
JP2019087844A (en) * 2017-11-06 2019-06-06 株式会社ソニー・インタラクティブエンタテインメント Image processing apparatus, display apparatus, and image processing method
CN113572958A (en) * 2021-07-15 2021-10-29 杭州海康威视数字技术股份有限公司 Method and equipment for automatically triggering camera to focus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002237998A (en) * 2001-02-07 2002-08-23 Sony Corp Image pattern correction method and imaging device
JP2005341527A (en) * 2004-04-30 2005-12-08 Mitsubishi Electric Corp Gradation correcting apparatus, gradation correcting program, mobile terminal device and personal computer
JP2006173671A (en) * 2004-12-10 2006-06-29 Konica Minolta Holdings Inc Image pickup apparatus and image processing method
JP2006180065A (en) * 2004-12-21 2006-07-06 Konica Minolta Holdings Inc Imaging apparatus and imaging method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002237998A (en) * 2001-02-07 2002-08-23 Sony Corp Image pattern correction method and imaging device
JP2005341527A (en) * 2004-04-30 2005-12-08 Mitsubishi Electric Corp Gradation correcting apparatus, gradation correcting program, mobile terminal device and personal computer
JP2006173671A (en) * 2004-12-10 2006-06-29 Konica Minolta Holdings Inc Image pickup apparatus and image processing method
JP2006180065A (en) * 2004-12-21 2006-07-06 Konica Minolta Holdings Inc Imaging apparatus and imaging method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009133946A1 (en) * 2008-05-02 2009-11-05 コニカミノルタホールディングス株式会社 Image processing method, image processing device, and image processing program
WO2009136437A1 (en) * 2008-05-08 2009-11-12 富士通株式会社 Method of processing image data, image data processing equipment, and image data processing program
KR20140133394A (en) * 2013-05-10 2014-11-19 삼성테크윈 주식회사 Apparatus and method for processing image
JP2014220758A (en) * 2013-05-10 2014-11-20 三星テクウィン株式会社Samsung Techwin Co., Ltd Image processor and image processing method
KR102003777B1 (en) * 2013-05-10 2019-07-25 한화테크윈 주식회사 Apparatus and method for processing image
JP2015035796A (en) * 2013-08-08 2015-02-19 広達電脳股▲ふん▼有限公司 Method for controlling exposure duration of high dynamic range image
CN107592470A (en) * 2017-09-21 2018-01-16 陕西土豆数据科技有限公司 A kind of exposure algorithm applied to more lens sensors
JP2019087844A (en) * 2017-11-06 2019-06-06 株式会社ソニー・インタラクティブエンタテインメント Image processing apparatus, display apparatus, and image processing method
US10825153B2 (en) 2017-11-06 2020-11-03 Sony Interactive Entertainment Inc. Image processing apparatus, display apparatus, and image processing method
CN113572958A (en) * 2021-07-15 2021-10-29 杭州海康威视数字技术股份有限公司 Method and equipment for automatically triggering camera to focus
CN113572958B (en) * 2021-07-15 2022-12-23 杭州海康威视数字技术股份有限公司 Method and equipment for automatically triggering camera to focus

Similar Documents

Publication Publication Date Title
JP4678218B2 (en) Imaging apparatus and image processing method
US7548689B2 (en) Image processing method
JP4163353B2 (en) Image processing device
JP6020199B2 (en) Image processing apparatus, method, program, and imaging apparatus
KR101099401B1 (en) Image processing apparatus and computer-readable medium
JP4720537B2 (en) Imaging device
KR20080035981A (en) Image processing apparatus, imaging apparatus, image processing method, and computer program
JP2014153959A (en) Image processing device, image processing method, program, and storage medium
JP2007082181A (en) Imaging apparatus and image processing method
US9892497B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2009017229A (en) Imaging device and imaging control method
JP2008085634A (en) Imaging apparatus and image processing method
JP2007082180A (en) Imaging apparatus and image processing method
JP2007028088A (en) Imaging apparatus and image processing method
JP2007158941A (en) Object area detection apparatus and method, imaging device and program
JP2006352804A (en) Imaging apparatus
JP2006333113A (en) Imaging device
JP2008219230A (en) Imaging apparatus, and image processing method
KR101612853B1 (en) Photographing apparatus, controlling method of photographing apparatus, and recording medium storing program to implement the controlling method
Brown Color processing for digital cameras
JP2017102393A (en) Imaging apparatus
JP2004215063A (en) Photographing device and outline correction method
JP2009290795A (en) Image processor, image processing method, image processing program, recording medium, and electronic information device
JP6514577B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGING APPARATUS
JP2007060492A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110809