JP4661659B2 - Photo image processing apparatus and photo image processing method - Google Patents

Photo image processing apparatus and photo image processing method Download PDF

Info

Publication number
JP4661659B2
JP4661659B2 JP2006094867A JP2006094867A JP4661659B2 JP 4661659 B2 JP4661659 B2 JP 4661659B2 JP 2006094867 A JP2006094867 A JP 2006094867A JP 2006094867 A JP2006094867 A JP 2006094867A JP 4661659 B2 JP4661659 B2 JP 4661659B2
Authority
JP
Japan
Prior art keywords
correction amount
pixels
value
hue
radial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006094867A
Other languages
Japanese (ja)
Other versions
JP2007274140A (en
Inventor
耕次 北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Koki Co Ltd
Original Assignee
Noritsu Koki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Koki Co Ltd filed Critical Noritsu Koki Co Ltd
Priority to JP2006094867A priority Critical patent/JP4661659B2/en
Publication of JP2007274140A publication Critical patent/JP2007274140A/en
Application granted granted Critical
Publication of JP4661659B2 publication Critical patent/JP4661659B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Image Communication Systems (AREA)
  • Control Of Exposure In Printing And Copying (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、ネガフィルム等の写真フィルムを読み取り得られたカラー画像データやデジタルスチルカメラ等で撮影されたカラー画像データに対して、モニタや写真プリントを行なう際に、自然なカラーを再現できるようにR(赤)、G(緑)、B(青)(以下、「RGB」と記す。)のカラーバランスを調整する写真画像処理装置及び写真画像処理方法に関する。   The present invention is capable of reproducing natural colors when performing monitor or photographic printing on color image data obtained by reading a photographic film such as a negative film or color image data photographed with a digital still camera or the like. The present invention relates to a photographic image processing apparatus and a photographic image processing method for adjusting the color balance of R (red), G (green), and B (blue) (hereinafter referred to as “RGB”).

従来の写真プリンタでは、ネガフィルムに記録された画像を色合いよく感光材料である印画紙に焼き付けるための写真画像処理方法として、エバンスの定理に基づくLATD(Large Area Transmittance Density)露光方式が知られている。この露光方式は、平均的な戸外の被写体は、ネガ全体の色を混ぜ合わせると灰色に近くなるというエバンスの説に基づいて、色に偏りが見られる場合は、ネガフィルムを透過したRGBの積算光が印画紙上でグレーに再現されるようにRGBの各露光量を調節して露光を行う方式である。   In a conventional photographic printer, a LATD (Large Area Transmission Density) exposure method based on Evans's theorem is known as a photographic image processing method for printing an image recorded on a negative film on a photographic paper which is a photosensitive material with good hue. Yes. This exposure method is based on Evans's theory that an average outdoor subject will be close to gray when the colors of the negatives are mixed together. In this method, exposure is performed by adjusting each RGB exposure amount so that light is reproduced in gray on a photographic paper.

具体的には、ネガフィルムに光を照射して透過光を撮像素子で読取ってRGBのカラー画像データを生成し、全構成画素に対するRGB成分毎の平均画素値を演算導出し、RGB各平均画素値がそれぞれグレーに対応する所定の値となるように、アナログ方式の写真プリンタでは調光フィルタを調節して印画紙を露光し、デジタル方式の写真プリンタではRGB夫々の光源からの露光量を調節していた。   Specifically, the negative film is irradiated with light, the transmitted light is read by the image sensor to generate RGB color image data, and the average pixel value for each RGB component for all the constituent pixels is calculated and derived. The analog photo printer adjusts the dimming filter to expose the photographic paper so that each value is a predetermined value corresponding to gray, and the digital photo printer adjusts the exposure from each RGB light source. Was.

上述した従来の写真画像処理方法によれば、被写体(人物、背景)の色の偏りにより過補正され、却って見辛い写真プリントが出力されてしまうという問題があった。例えば、芝生を背景に人物を撮影したシーンの場合には、芝生の領域がグレーに仕上がる一方、人物の領域に芝生の補色であるマゼンダが強く現われる。このような状況をカラーフェリアといい、その対策としてLATD露光方式において高彩度画素を除去したり、彩度によって重み付けをした条件付平均値を求める方法などが提案されている。   According to the above-described conventional photographic image processing method, there is a problem that an overcorrected photographic print is output due to the color deviation of the subject (person, background). For example, in the case of a scene where a person is photographed against a lawn, the lawn area is finished in gray, while magenta, which is a complementary color of the lawn, appears strongly in the person area. Such a situation is called a color feria, and as a countermeasure therefor, a method of removing a high saturation pixel in the LATD exposure method or obtaining a conditional average value weighted by the saturation has been proposed.

特開2000−330221号公報JP 2000-330221 A

しかし、上述した方法によれば、色の偏りが大きいシーンの場合には、実際に演算に使用される画素数が少なくなることで安定性に欠ける傾向があり、小さい重み付けであってもそれに該当する画素数が多いと少なからず影響を受ける場合があった。   However, according to the above-described method, in the case of a scene with a large color deviation, the number of pixels actually used in the calculation tends to be less stable, and even a small weighting corresponds to this. When the number of pixels to be processed is large, there are cases where the influence is not small.

さらに、高彩度画素を除去するその閾値や、彩度による重み付けの条件は、光源種、季節、時間帯などの撮影時の様々な状況を考慮して経験に基づいて決定されるものであり、光学カメラによる写真画像ではフィルム種類や現像状態の相違による影響もあり、必ずしも万全なものではなかったため、更なる改良の余地があった。   Furthermore, the threshold for removing high-saturation pixels and the weighting condition based on saturation are determined based on experience in consideration of various situations at the time of shooting such as the light source type, season, and time zone. The photographic image taken by the camera is not always perfect because of the influence of the difference in film type and development state, so there is room for further improvement.

本発明の目的は、上述の従来欠点に鑑み、様々な条件を持った入力画像に対して、カラーフェリア度合いを正しく検出し、適切なカラー補正値を求めることのできる写真画像処理装置及び写真画像処理方法を提供する点にある。   In view of the above-described conventional drawbacks, an object of the present invention is to provide a photographic image processing apparatus and a photographic image capable of correctly detecting a color feria degree and obtaining an appropriate color correction value for an input image having various conditions. It is in providing a processing method.

上述の目的を達成するため、本発明による写真画像処理装置の第一の特徴構成は、特許請求の範囲の書類の請求項1に記載した通り、入力されたコマ画像単位に全構成画素に対するカラー成分毎の平均画素値を求める平均画素値演算手段と、前記コマ画像の各画素を、中心からの距離で彩度が規定され中心周りの角度で色相が規定される色相彩度座標系の画素に変換する座標変換手段と、前記色相彩度座標系に、前記カラー成分毎の平均画素値で表される画素を前記色相彩度座標系に変換した画素を中心とする同心円状の複数の円領域を画定し、各円領域に含まれる画素の分布特性を示す円領域特性値を領域毎に求める円領域特性値演算手段と、前記円領域特性値に基づいてカラー補正量を求める第一補正量演算手段とを備えて構成される点にある。 In order to achieve the above-described object, the first characteristic configuration of the photographic image processing apparatus according to the present invention is that, as described in claim 1 of the claims, the colors for all the constituent pixels in the input frame image unit. Mean pixel value calculating means for obtaining an average pixel value for each component, and pixels of the hue saturation coordinate system in which each pixel of the frame image has a saturation defined by a distance from the center and a hue defined by an angle around the center A plurality of concentric circles centered on a pixel obtained by converting a pixel represented by an average pixel value for each color component into the hue saturation coordinate system in the hue saturation coordinate system; A circular area characteristic value calculating means for defining a circular area characteristic value for each area, defining a circular area characteristic value indicating a distribution characteristic of pixels included in each circular area, and a first correction for determining a color correction amount based on the circular area characteristic value A point comprising a quantity calculation means A.

太陽光やタングステン光等の撮影光源を含む撮影条件の差異や、フィルム種の差異等があると、基本的にコマ画像全体にそれらの影響が及び、同一シーンを撮影しても、フィルム上に形成された画像は見た目にも異なる色合いを呈している。しかし、コマ画像に写っている物体間の相対的な色に注目すれば相違は無い。そこで、LATD補正を行なうと撮影条件やフィルム種等に基づくコマ画像全体の特徴が無彩色として全体として補正され、平均化が過剰に作用したカラーフェリア現象だけが不都合として残ることになる。   If there is a difference in shooting conditions including shooting light sources such as sunlight or tungsten light, or a difference in film type, the entire frame image will basically be affected, and even if the same scene is shot, The formed image has a different color appearance. However, there is no difference if attention is paid to the relative colors between objects in the frame image. Therefore, when LATD correction is performed, the characteristics of the entire frame image based on the shooting conditions, film type, and the like are corrected as an achromatic color as a whole, and only the color feria phenomenon in which the averaging is excessively applied remains as a disadvantage.

色相彩度座標系に前記平均画素値演算手段により求められた平均画素値を中心とする同心円上の複数の円領域を画定し、各領域におけるコマ画像の画素の分布特性を評価すると、カラーフェリアの起こらないコマ画像においては各円領域の分布特性がほぼ等しくなるが、カラーフェリアの傾向が強くなるコマ画像においては各円領域間の分布特性の差が大きくなり、カラーフェリアの状況が特徴的に反映される。つまり、中心側の円領域から外側の円領域に沿って構成画素数の累積ヒストグラムをとると、カラーフェリアの傾向が弱いコマ画像は比較的低彩度領域、つまり中心側の円領域で飽和する傾向があるのに対して、カラーフェリアの傾向が強いコマ画像は比較的高彩度領域、つまり外側の円領域まで飽和することが無いという顕著な相違が見られるのである。この傾向は、画素数の分布特性のみならず画素値も同様である。   By defining a plurality of concentric circle regions centered on the average pixel value obtained by the average pixel value calculation means in the hue saturation coordinate system and evaluating the distribution characteristics of the pixels of the frame image in each region, The distribution characteristics of each circular area are almost equal in a frame image where no image occurs, but the difference in distribution characteristics between each circular area is large in a frame image where the tendency of color feria is strong, and the situation of color feria is characteristic It is reflected in. In other words, when a cumulative histogram of the number of constituent pixels is taken from the center-side circular region to the outer circular region, a frame image with a weak tendency of color feria is saturated in a relatively low saturation region, that is, the central-side circular region. On the other hand, there is a significant difference that a frame image having a strong tendency of color feria does not saturate to a relatively high saturation region, that is, an outer circular region. This tendency applies not only to the distribution characteristic of the number of pixels but also to the pixel value.

そこで、各円領域に含まれる画素の分布特性を示す円領域特性値に基づいて所定の分布特性を示すようにカラー補正量を演算する第一補正量演算手段を設けて、前記平均画素値演算手段により求められた平均画素値を補正することにより、カラーフェリアの発生を回避した適切なカラー補正量を求めることができるようになるのである。   Therefore, a first correction amount calculation means for calculating a color correction amount so as to exhibit a predetermined distribution characteristic based on a circular area characteristic value indicating a distribution characteristic of pixels included in each circular area is provided, and the average pixel value calculation is performed. By correcting the average pixel value obtained by the means, an appropriate color correction amount that avoids the occurrence of color failure can be obtained.

同第二の特徴構成は、同請求項2に記載した通り、上述の第一特徴構成に加えて、前記円領域特性値は、各円領域に含まれる画素の画素数と、各円領域に含まれる画素のカラー成分毎の平均値である領域平均画素値、若しくは、当該領域平均画素値と前記カラー成分毎の平均画素値の平均値との差分値で構成される点にある。 In the second feature configuration, as described in claim 2, in addition to the first feature configuration described above, the circular region characteristic value includes the number of pixels included in each circular region and each circular region. The area average pixel value, which is the average value for each color component of the included pixels, or the difference value between the area average pixel value and the average value of the average pixel value for each color component .

各円領域に含まれる画素の画素数の分布特性と、各円領域に含まれる画素のカラー成分毎の平均値である領域平均画素値、若しくは、当該領域平均画素値と前記平均画素値との差分値の分布特性は、共にカラーフェリアの傾向を示す顕著なパラメータとなる。そこで、第一補正量演算手段によりこれらのパラメータに基づいてカラーフェリアの傾向がより少ない適切なカラー補正量を演算導出することができるようになるのである。   The distribution characteristics of the number of pixels included in each circular area and the area average pixel value that is an average value for each color component of the pixels included in each circular area, or the area average pixel value and the average pixel value Both of the distribution characteristics of the difference values are prominent parameters indicating the tendency of color feria. Accordingly, the first correction amount calculation means can calculate and derive an appropriate color correction amount with less tendency of color feria based on these parameters.

同第三の特徴構成は、同請求項3に記載した通り、上述の第一または第二特徴構成に加えて、前記第一補正量演算手段は、誤差逆伝搬学習法により学習されるニューラルネットワーク、または、重回帰分析手段で構成される点にある。   In the third feature configuration, as described in claim 3, in addition to the first or second feature configuration described above, the first correction amount calculation means is a neural network that is learned by an error back propagation learning method. Or a point constituted by multiple regression analysis means.

上述の第一補正量演算手段としては、撮影条件の異なる多数のサンプル画像をマニュアル補正処理により適切なカラー補正を施して適正なカラー補正量を求めた画像に対して、その原画像の円領域特性値と適正なカラー補正量を基準とするパターンマッチング或いは統計手法により任意の画像に対するカラー補正量を求める演算手段が好適に利用できる。   As the first correction amount calculation means, a circular region of the original image is obtained for an image obtained by performing an appropriate color correction on a large number of sample images with different shooting conditions by a manual correction process to obtain an appropriate color correction amount. Arithmetic means for obtaining a color correction amount for an arbitrary image by pattern matching based on a characteristic value and an appropriate color correction amount or a statistical method can be suitably used.

例えば、サンプル画像の円領域特性値と適正なカラー補正量を教師信号として誤差逆伝搬学習法により学習されたニューラルネットワークに対して対象画像の円領域特性値を入力することにより適正なカラー補正量を獲得することができ、サンプル画像の円領域特性値とそれに対する適正なカラー補正量との関係式を重回帰分析により求め、その関係式に対象画像の円領域特性値を入力することにより適正なカラー補正量を獲得することができるのである。   For example, the appropriate color correction amount can be obtained by inputting the circular region characteristic value of the target image to the neural network learned by the back propagation learning method using the circular region characteristic value of the sample image and the appropriate color correction amount as a teacher signal. It is possible to obtain a relational expression between the circular area characteristic value of the sample image and the appropriate color correction amount by multiple regression analysis and input the circular area characteristic value of the target image to the relational expression. A correct color correction amount can be obtained.

同第四の特徴構成は、同請求項4に記載した通り、上述の第一から第三の何れかの特徴構成に加えて、前記色相彩度座標系に、前記第一補正量演算手段で導出したカラー補正量をそれぞれ画素として前記色相彩度座標系に変換し、変換後の画素を中心として、所定角度間隔で周方向に複数の放射状領域を画定し、各放射状領域に含まれる画素の分布特性を示す放射状領域特性値を領域毎に求める放射状領域特性値演算手段と、前記放射状領域特性値に基づいてカラー補正量を求める第二補正量演算手段とを備えて構成される点にある。 In the fourth feature configuration, as described in claim 4, in addition to any of the first to third feature configurations described above, the hue correction coordinate system includes the first correction amount calculation unit . The derived color correction amount is converted into the hue / saturation coordinate system as a pixel , a plurality of radial regions are defined in the circumferential direction at predetermined angular intervals around the converted pixel, and the pixels included in each radial region are defined. A radial region characteristic value calculating unit that obtains a radial region characteristic value indicating a distribution characteristic for each region and a second correction amount calculating unit that obtains a color correction amount based on the radial region characteristic value are provided. .

上述の第一から第の何れかの特徴構成により求められたカラー補正量により対象コマ画像を補正して得られる写真プリントは、カラーフェリアが効果的に抑制されるのであるが、見栄えという観点でさらに適正な補正を要する場合がある。写真の見栄えとして、白い部分がより白く再現される必要があるのであるが、上述のカラー補正量で補正された画像には無彩色に近いが僅かに着色が認められる領域が生じる。このような領域を単純な閾値に基づいて抽出して補正すると、似たようなシーンで補正にばらつきが生じる可能性があり、また、無彩色になるように補正すべきか否かは色相により異なる。例えば、プリント結果がイエローやレッドに修正される場合は概ね問題が無いが、シアンやマゼンダに修正される場合は視覚的に支障を来たす可能性が高いのである。 The photographic print obtained by correcting the target frame image with the color correction amount obtained by any one of the first to third characteristic configurations described above is effective in suppressing color feria, but is in terms of appearance. In some cases, more appropriate correction may be required. In order to improve the appearance of a photograph, it is necessary to reproduce a white portion whiter. However, in an image corrected with the above-described color correction amount, an area close to an achromatic color but slightly colored is generated. If such a region is extracted and corrected based on a simple threshold value, there may be variations in correction in similar scenes, and whether or not correction should be made so that it becomes an achromatic color depends on the hue. . For example, when the print result is corrected to yellow or red, there is almost no problem, but when the print result is corrected to cyan or magenta, there is a high possibility of visually hindering.

そこで、色相彩度座標系で対象画像が無彩色として表される点、つまり、第一補正量演算手段により求められたカラー補正量で表される画素を中心として色相に基づいて放射状の領域に領域分割し、分割された各放射状領域に含まれる画素の分布特性を示す放射状領域特性値に基づいて色相毎に適正なカラー補正量を求めることにより、色相を考慮した見栄えのよい精度の高いカラー補正ができるようになるのである。   Therefore, the point where the target image is represented as an achromatic color in the hue saturation coordinate system, that is, the pixel represented by the color correction amount obtained by the first correction amount calculation means is centered on the radial region based on the hue. Color with good appearance and high quality in consideration of hue by dividing the area and obtaining an appropriate color correction amount for each hue based on the radial area characteristic value indicating the distribution characteristics of the pixels contained in each divided radial area Correction can be made.

同第五の特徴構成は、同請求項5に記載した通り、上述の第四特徴構成に加えて、前記放射状領域特性値は、各放射状領域に含まれる画素の画素数と、各放射状領域に含まれる画素に対して低彩度画素ほど大きな重み係数を掛けて求まるカラー成分毎の重み平均画素値で構成される点にある。   In the fifth feature configuration, as described in claim 5, in addition to the fourth feature configuration described above, the radial region characteristic value includes the number of pixels included in each radial region and each radial region. This is in that it is composed of weighted average pixel values for each color component obtained by multiplying the included pixels by a larger weighting factor for lower saturation pixels.

僅かに着色した領域を無彩色に補正するに際して、色相により分割された放射領域毎に補正の程度を加減する場合に、各領域に存在する画素を彩度により重み付けすることにより補正の程度を調整することができる。つまり、低彩度画素ほど大きな重みとなるように、高彩度画素ほど小さな重みとなるようにカラー成分毎の重み平均画素値を求めると、僅かに着色した領域の面積が大きいほど大きな値として得られるようになる。そこで、各放射状領域に含まれる画素の画素数と、カラー成分毎の重み平均画素値を放射状領域特性値としてカラー補正量を求めることにより、色相を考慮した見栄えのよい精度の高いカラー補正ができるようになるのである。   When correcting a slightly colored area to an achromatic color, when the degree of correction is adjusted for each radiation area divided by hue, the degree of correction is adjusted by weighting the pixels present in each area with saturation. can do. That is, when the weighted average pixel value for each color component is obtained so that the lower the saturation pixel, the higher the weight, and the higher the saturation pixel, the smaller the weight, the larger the area of the slightly colored region, the larger the value. It becomes like this. Therefore, by obtaining the color correction amount using the number of pixels included in each radial area and the weighted average pixel value for each color component as a radial area characteristic value, color correction with good appearance and high accuracy in consideration of hue can be performed. It becomes like this.

同第六の特徴構成は、同請求項6に記載した通り、上述の第四または第五特徴構成に加えて、前記第二補正量演算手段は、誤差逆伝搬学習法により学習されるニューラルネットワーク、または、重回帰分析手段で構成される点にある。   In the sixth feature configuration, as described in claim 6, in addition to the fourth or fifth feature configuration described above, the second correction amount calculation means is a neural network that is learned by an error back propagation learning method. Or a point constituted by multiple regression analysis means.

上述の第二補正量演算手段としては、撮影条件の異なる多数のサンプル画像をマニュアル補正処理により適切なカラー補正を施して適正なカラー補正量を求めた画像に対して、その原画像の放射状領域特性値と適正なカラー補正量を基準とするパターンマッチング或いは統計手法により任意の画像に対するカラー補正量を求める演算手段が好適に利用できる。   As the second correction amount calculation means, a radial region of the original image is obtained for an image obtained by performing an appropriate color correction on a large number of sample images with different shooting conditions by a manual correction process to obtain an appropriate color correction amount. Arithmetic means for obtaining a color correction amount for an arbitrary image by pattern matching based on a characteristic value and an appropriate color correction amount or a statistical method can be suitably used.

例えば、サンプル画像の放射状領域特性値と適正なカラー補正量を教師信号として誤差逆伝搬学習法により学習されたニューラルネットワークに対して対象画像の放射領域特性値を入力することにより適正なカラー補正量を獲得することができ、サンプル画像の放射領域特性値とそれに対する適正なカラー補正量との関係式を重回帰分析により求め、その関係式に対象画像の円領域特性値を入力することにより適正なカラー補正量を獲得することができるのである。   For example, the appropriate color correction amount can be obtained by inputting the radial region characteristic value of the target image to the neural network learned by the error back propagation learning method using the radial region characteristic value of the sample image and the appropriate color correction amount as a teacher signal. It is possible to obtain a relational expression between the radiation area characteristic value of the sample image and the appropriate color correction amount by multiple regression analysis and input the circular area characteristic value of the target image to the relational expression. A correct color correction amount can be obtained.

上述の目的を達成するため、本発明による写真画像処理方法の第一の特徴構成は、同請求項7に記載した通り、入力されたコマ画像単位に全構成画素に対するカラー成分毎の平均画素値を求める平均画素値演算ステップと、前記コマ画像の各画素を、中心からの距離で彩度が規定され中心周りの角度で色相が規定される色相彩度座標系の画素に変換する座標変換ステップと、前記色相彩度座標系に、前記カラー成分毎の平均画素値で表される画素を前記色相彩度座標系に変換した画素を中心とする同心円状の複数の円領域を画定し、各円領域に含まれる画素の分布特性を示す円領域特性値を領域毎に求める円領域特性値演算ステップと、前記円領域特性値に基づいてカラー補正量を求める第一補正量演算ステップと、を備えて構成される点にある。 In order to achieve the above object, the first characteristic configuration of the photographic image processing method according to the present invention is the average pixel value for each color component with respect to all the constituent pixels in the input frame image unit as described in claim 7. An average pixel value calculating step for calculating the pixel value, and a coordinate conversion step for converting each pixel of the frame image into a pixel of a hue saturation coordinate system in which saturation is defined by a distance from the center and hue is defined by an angle around the center And defining a plurality of concentric circular regions centered on a pixel obtained by converting a pixel represented by an average pixel value for each color component into the hue saturation coordinate system in the hue saturation coordinate system, A circular region characteristic value calculating step for obtaining a circular region characteristic value indicating a distribution characteristic of pixels included in the circular region for each region; and a first correction amount calculating step for determining a color correction amount based on the circular region characteristic value. To the point configured That.

同第二の特徴構成は、同請求項8に記載した通り、上述の第一特徴構成に加えて、前記色相彩度座標系に、前記第一補正量演算ステップで導出したカラー補正量をそれぞれ画素として前記色相彩度座標系に変換し、変換後の画素を中心として、所定角度間隔で周方向に複数の放射状領域を画定し、各放射状領域に含まれる画素の分布特性を示す放射状領域特性値を領域毎に求める放射状領域特性値演算ステップと、前記放射状領域特性値に基づいてカラー補正量を求める第二補正量演算ステップと、を備えて構成される点にある。 In the second feature configuration, in addition to the first feature configuration described above, the color correction amount derived in the first correction amount calculation step is added to the hue saturation coordinate system, respectively. Radial area characteristics indicating the distribution characteristics of the pixels included in each radial area by converting the hue saturation coordinate system as pixels , demarcating a plurality of radial areas in the circumferential direction at predetermined angular intervals around the converted pixels A radial region characteristic value calculating step for obtaining a value for each region, and a second correction amount calculating step for obtaining a color correction amount based on the radial region characteristic value.

以上説明した通り、本発明によれば、様々な条件を持った入力画像に対して、カラーフェリア度合いを正しく検出し、適切なカラー補正値を求めることのできる写真画像処理装置及び写真画像処理方法を提供することができるようになった。   As described above, according to the present invention, a photographic image processing apparatus and a photographic image processing method capable of correctly detecting the color feria degree and obtaining an appropriate color correction value for an input image having various conditions. Can now be provided.

以下に本発明による画像処理装置が組み込まれた写真画像処理装置の実施の形態を説明する。図2に示すように、写真画像処理装置1は、印画紙Pに対して出力画像データに基づいた露光処理を行ない露光された印画紙を現像処理する写真プリンタ2と、現像済みの写真フィルムFから画像を読み込むフィルムスキャナ31やデジタルスチルカメラ等で撮影された画像データが格納されたメモリカード等の画像データ記憶メディアMから画像データを読み取るメディアドライバ32や、コントローラ33としての汎用コンピュータ等を備え、入力された原画像としての写真画像に対するプリントオーダ情報を設定入力するとともに、各種の画像補正処理を行なう操作ステーション3を備えて構成され、前記操作ステーション3で原画像から編集処理されたプリントデータが前記写真プリンタ2に出力されて所望の写真プリントが生成される。   Embodiments of a photographic image processing apparatus incorporating an image processing apparatus according to the present invention will be described below. As shown in FIG. 2, the photographic image processing apparatus 1 includes a photographic printer 2 that performs an exposure process on the photographic paper P based on output image data and develops the exposed photographic paper, and a developed photographic film F. A media driver 32 that reads image data from an image data storage medium M such as a memory card that stores image data taken by a film scanner 31 or a digital still camera that reads an image from the camera, a general-purpose computer as a controller 33, and the like The print data is set and inputted with the print order information for the inputted photographic image as the original image, and is provided with the operation station 3 for performing various image correction processes, and the print data edited from the original image by the operation station 3 Is output to the photographic printer 2 to produce a desired photographic print. That.

前記写真プリンタ2は、図2及び図3に示すように、ロール状の印画紙Pを収容した二系統の印画紙マガジン21と、前記印画紙マガジン21から引き出された印画紙Pを所定のプリントサイズに切断するシートカッター22と、切断後の印画紙Pの背面にコマ番号等のプリント情報を印字するバックプリント部23と、前記プリントデータに基づいて印画紙Pを露光する露光部24と、露光後の印画紙Pを現像、漂白、定着するための各処理液が充填された複数の処理槽25a、25b、25cを備えた現像処理部25が印画紙Pの搬送経路に沿って配置され、現像処理後に乾燥処理された印画紙Pが排出される横送りコンベア26と、横送りコンベア26に集積された複数枚の印画紙(写真プリント)Pがオーダー単位で仕分けられるソータ27を備えて構成される。   As shown in FIGS. 2 and 3, the photographic printer 2 has two systems of photographic paper magazines 21 containing roll-shaped photographic paper P, and photographic paper P drawn from the photographic paper magazine 21 with a predetermined print. A sheet cutter 22 that cuts into a size; a back print unit 23 that prints print information such as a frame number on the back of the cut photographic paper P; an exposure unit 24 that exposes the photographic paper P based on the print data; A development processing unit 25 including a plurality of processing tanks 25a, 25b, and 25c filled with processing solutions for developing, bleaching, and fixing the exposed photographic paper P is disposed along the transport path of the photographic paper P. The laterally-feeding conveyor 26 that discharges the photographic paper P that has been dried after the development process, and the sheet-paper (photo print) P that is stacked on the laterally-feeding conveyor 26 is sorted in order units. Configured to include the data 27.

前記露光部24には、搬送機構28によって副走査方向に搬送される印画紙Pに対して、搬送方向に直交する主走査方向に前記プリントデータに基づき変調されたRGB三色のレーザ光線束を出力して露光する露光ヘッド24aが収容されている。   The exposure unit 24 receives a laser beam bundle of RGB three colors modulated based on the print data in the main scanning direction orthogonal to the conveyance direction with respect to the photographic paper P conveyed in the sub-scanning direction by the conveyance mechanism 28. An exposure head 24a for outputting and exposing is accommodated.

前記搬送経路に沿って配置された前記露光部24や現像処理部25に応じたプロセス速度で印画紙Pを搬送する複数のローラ対でなる搬送機構28が配置され、前記露光部24の前後には印画紙Pを複列に搬送可能なチャッカー式搬送機構28aが設けられている。   A transport mechanism 28 including a plurality of roller pairs that transport the photographic printing paper P at a process speed corresponding to the exposure unit 24 and the development processing unit 25 disposed along the transport path is disposed before and after the exposure unit 24. Is provided with a chucker-type transport mechanism 28a capable of transporting photographic paper P in multiple rows.

前記操作ステーション3に設けられたコントローラ33には、汎用のオペレーティングシステムの管理下で動作し、前記写真処理装置1の各種制御が実行されるアプリケーションプログラムがインストールされ、オペレータとの操作インターフェースとしてモニタ34、キーボード35、マウス36等が接続されている。   The controller 33 provided in the operation station 3 is installed with an application program that operates under the control of a general-purpose operating system and executes various controls of the photographic processing apparatus 1, and a monitor 34 as an operation interface with the operator. A keyboard 35, a mouse 36, and the like are connected.

前記コントローラ33のハードウェア及びソフトウェアの協働により実行される写真処理プロセスを機能ブロックで説明すると、図4に示すように、前記フィルムスキャナ31やメディアドライバ32によって読み取られた写真画像データを受け取り、所定の前処理を行なって後述のメモリ41に転送する画像入力部40と、前記モニタ34の画面にプリントオーダ情報や画像編集情報を表示するとともに、それらに対して必要なデータ入力のための操作用アイコンを表示するグラフィック操作画面を生成し、或いは表示されたグラフィック操作画面に対する前記キーボード35やマウス36からの入力操作に基づいて各種の制御コマンドを生成するグラフィックユーザーインターフェース部42と、前記画像入力部40から転送される写真画像データ及び後述の画像処理部47による補正処理後の写真画像データやそのときの補正パラメータ、更には設定されたプリントオーダ情報等が所定領域に区画されて格納されるメモリ41と、プリントオーダ情報を生成するオーダー処理部43と、前記メモリ41に格納された各写真画像データに対してコマ画像毎または所定枚数のコマ画像に濃度補正処理やコントラスト補正処理等を行なう画像処理部47と、前記グラフィックユーザーインターフェース部42からの表示コマンドに基づいて前記メモリ41に展開された画像データや各種の入出力用グラフィックデータ等を前記モニタ34に表示処理するビデオRAM等を備えた表示制御部46と、各種の補正処理が終了した最終の補正画像を前記写真プリンタ2に出力するためのプリントデータを生成するプリントデータ生成部44と、顧客のオーダーに応じて最終の補正画像をCD−R等の記憶媒体に書き込むためのファイル形式に変換するフォーマッタ部45等で構成される。   The photographic processing process executed by the cooperation of the hardware and software of the controller 33 will be described in functional blocks. As shown in FIG. 4, photographic image data read by the film scanner 31 and the media driver 32 is received. An image input unit 40 that performs predetermined preprocessing and transfers it to a memory 41, which will be described later, and print order information and image editing information are displayed on the screen of the monitor 34, and an operation for inputting necessary data for them. A graphic user interface unit 42 that generates a graphic operation screen for displaying an icon or generates various control commands based on an input operation from the keyboard 35 or mouse 36 to the displayed graphic operation screen, and the image input Photos transferred from the section 40 A memory 41 in which image data and photographic image data after correction processing by an image processing unit 47 (to be described later), correction parameters at that time, and set print order information are stored in a predetermined area, and print order information An order processing unit 43 for generating image data, an image processing unit 47 for performing density correction processing and contrast correction processing for each frame image or a predetermined number of frame images for each photographic image data stored in the memory 41, and A display control unit 46 including a video RAM for displaying the image data and various input / output graphic data developed in the memory 41 on the monitor 34 based on a display command from the graphic user interface unit 42; The final correction image after various correction processes is output to the photographic printer 2. A print data generating unit 44 for generating cement data, and a like formatter 45 which converts the final corrected image according to customer orders to a file format for writing in a storage medium such as a CD-R.

前記フィルムスキャナ31は、フィルムFに記録された画像を低解像度ではあるものの高速で読み取るプレスキャンモードと、低速ではあるものの高解像度で読み取る本スキャンモードの二モードで作動するように構成され、プレスキャンモードで読み込まれた低解像度の画像に対して各種の補正処理が行なわれ、その際に前記メモリ41に記憶された補正パラメータに基づいて本スキャンモードで読み込まれた高解像度の画像に対する最終の補正処理が実行されて前記プリンタ2に出力される。   The film scanner 31 is configured to operate in two modes: a pre-scan mode that reads an image recorded on the film F at a high speed although it is a low resolution, and a main scan mode that reads a high resolution at a low speed. Various correction processes are performed on the low-resolution image read in the can mode, and the final resolution for the high-resolution image read in the main scan mode based on the correction parameters stored in the memory 41 at that time. Correction processing is executed and output to the printer 2.

尚、前記フィルムスキャナ31は、フィルムFに記録された画像を読み取る際、各コマ画像の間の未露光部分の読み取りを行う。前記未露光部分のデータは、後述するカラー補正処理部471のベース濃度処理部10におけるベース濃度の除去処理に利用される。   When the film scanner 31 reads an image recorded on the film F, the film scanner 31 reads an unexposed portion between each frame image. The data of the unexposed portion is used for base density removal processing in the base density processing unit 10 of the color correction processing unit 471 described later.

同様に、前記メディアドライバ32から読み込まれた画像ファイルには高解像度の撮影画像とそのサムネイル画像が含まれ、サムネイル画像に対して後述の各種の補正処理が行なわれ、その際に前記メモリ41に記憶された補正パラメータに基づいて高解像度の撮影画像に対する最終の補正処理が実行される。尚、画像ファイルにサムネイル画像が含まれないときには、前記画像入力部40で高解像度の撮影画像からサムネイル画像が生成されて前記メモリ41に転送される。このように、低解像度の画像に対して頻繁に試行錯誤される各種の編集処理が実行されることによりコントローラ33の演算負荷が低減されるように構成されている。   Similarly, the image file read from the media driver 32 includes a high-resolution captured image and its thumbnail image, and various correction processes described later are performed on the thumbnail image. Based on the stored correction parameters, a final correction process is performed on the high-resolution captured image. When the image file does not include a thumbnail image, the image input unit 40 generates a thumbnail image from the high-resolution captured image and transfers it to the memory 41. In this way, the calculation load of the controller 33 is reduced by executing various editing processes that are frequently trial and error on low-resolution images.

前記画像処理部47は、前記メモリ41に格納された各写真画像データに対してコマ画像毎または一連のコマ画像に濃度補正処理やコントラスト補正処理等を行なうように構成されている。但し、本発明におけるカラー補正処理では、前記画像処理部47は、前記メモリ41に格納された各写真画像データに対してコマ画像毎に濃度補正処理やコントラスト補正処理等を行なうように構成されており、図1に示すように、前記原画像データに対してカラー補正処理を実施するカラー補正処理部471と、前記原画像データに対して濃度補正処理を実施する濃度補正処理部472と、前記濃度補正処理部472で濃度補正のために生成された濃度補正曲線に対してコントラスト補正を施すコントラスト補正部473と、撮影レンズに起因する歪を補正する歪補正部474と、画像のエッジを強調しノイズを低減する鮮鋭化処理部475と、写真プリントのサイズに適した画像サイズに変換する拡縮処理部476等を備えて構成されている。   The image processing unit 47 is configured to perform density correction processing, contrast correction processing, and the like for each frame image or a series of frame images for each photographic image data stored in the memory 41. However, in the color correction processing according to the present invention, the image processing unit 47 is configured to perform density correction processing, contrast correction processing, and the like for each frame image on each photographic image data stored in the memory 41. As shown in FIG. 1, a color correction processing unit 471 that performs color correction processing on the original image data, a density correction processing unit 472 that performs density correction processing on the original image data, A contrast correction unit 473 that performs contrast correction on the density correction curve generated for density correction by the density correction processing unit 472, a distortion correction unit 474 that corrects distortion caused by the photographing lens, and an edge of the image is enhanced. And a sharpening processing unit 475 for reducing noise and an enlargement / reduction processing unit 476 for converting the image size to a size suitable for a photographic print. That.

前記カラー補正処理部471は、前記原画像データに対してベース濃度の除去処理を行うベース濃度処理部10と、入力されたコマ画像単位に全構成画素に対するカラー成分毎の平均画素値を求める平均画素値演算手段11と、前記コマ画像の各画素を、中心からの距離で彩度が規定され中心周りの角度で色相が規定される色相彩度座標系の画素に変換する座標変換手段12と、前記色相彩度座標系に前記平均画素値を中心とする同心円状の複数の円領域を画定し、各円領域に含まれる画素の分布特性を示す円領域特性値を領域毎に求める円領域特性値演算手段13と、前記円領域特性値に基づいてカラー補正量を求める第一補正量演算手段14と、前記色相彩度座標系に、前記第一補正量演算手段14により求められたカラー補正量で表される画素を中心として、所定角度間隔で周方向に複数の放射状領域を画定し、各放射状領域に含まれる画素の分布特性を示す放射状領域特性値を領域毎に求める放射状領域特性値演算手段15と、前記放射状領域特性値に基づいてカラー補正量を求める第二補正量演算手段16と、前記第一補正量演算手段14により求められたカラー補正量または前記第二補正量演算手段16により求められたカラー補正量に基づいて前記コマ画像を補正するカラー補正手段17を備えて構成されている。   The color correction processing unit 471 includes a base density processing unit 10 that performs base density removal processing on the original image data, and an average for obtaining an average pixel value for each color component for all the constituent pixels for each input frame image unit. A pixel value calculation unit 11; a coordinate conversion unit 12 that converts each pixel of the frame image into a pixel in a hue saturation coordinate system in which saturation is defined by a distance from the center and hue is defined by an angle around the center; A circular region that defines a plurality of concentric circular regions centered on the average pixel value in the hue saturation coordinate system and obtains a circular region characteristic value indicating a distribution characteristic of pixels included in each circular region for each region A characteristic value calculating means 13; a first correction amount calculating means 14 for obtaining a color correction amount based on the circular area characteristic value; and a color obtained by the first correction amount calculating means 14 in the hue saturation coordinate system. Expressed in correction amount A radial area characteristic value calculating means 15 for defining a plurality of radial areas in the circumferential direction at a predetermined angular interval around a pixel to obtain a radial area characteristic value indicating a distribution characteristic of pixels included in each radial area; The second correction amount calculating means 16 for obtaining a color correction amount based on the radial area characteristic value, and the color correction amount obtained by the first correction amount calculating means 14 or the second correction amount calculating means 16. The color correction unit 17 corrects the frame image based on the color correction amount.

前記ベース濃度処理部10は、前記原画像データに対してベース濃度の除去処理を行うように構成されており、詳述すると、前記フィルムスキャナ31においてフィルムFに記録された画像より読み取られた各コマ画像の未露光部分の赤色成分(R)の濃度がr、緑色成分(G)の濃度がg、青色成分(B)の濃度がbである場合に、前記原画像データの各画素のR成分にg−rを加算し、B成分にg−bを加算する処理を行う。この処理によって、フィルム種により異なるベース濃度の影響が排除される。 The base density processing unit 10 is configured to perform a base density removal process on the original image data. Specifically, each of the base density processing units 10 read from an image recorded on the film F by the film scanner 31. When the density of the red component (R) in the unexposed portion of the frame image is r b , the density of the green component (G) is g b , and the density of the blue component (B) is b b , each of the original image data adds g b -r b to R component of the pixel, it performs the process of adding a g b -b b B components. This treatment eliminates the effect of base density, which varies with film type.

尚、前記フィルムスキャナ31において、フィルムFに記録された画像よりベース濃度を読み取ることができない場合、または前記メディアドライバ32から読み込まれた画像ファイルを使用する場合は、RGBの全成分においてベース濃度をゼロとして処理を行う。   When the film scanner 31 cannot read the base density from the image recorded on the film F, or when using the image file read from the media driver 32, the base density is set for all the RGB components. Process as zero.

前記平均画素値演算手段11は、入力されたコマ画像単位に全構成画素に対するカラー成分毎の平均画素値を求めるように構成されている。具体的には、前記コマ画像の画素数がi個であり、前記コマ画像のn番目の画素のRGB成分を夫々r、g、bとした場合に、前記コマ画像の各画素のRGB成分の平均値avg(r)、avg(g)、avg(b)は、〔数1〕のように表される。 The average pixel value calculation means 11 is configured to obtain an average pixel value for each color component for all the constituent pixels for each inputted frame image. Specifically, the number of pixels the frame images is that an i number, n th RGB components respectively r n of pixels of the frame image, when g n, and b n, of each pixel of the frame image Average values avg (r), avg (g), and avg (b) of the RGB components are expressed as [Equation 1].

Figure 0004661659

Figure 0004661659

Figure 0004661659
Figure 0004661659

Figure 0004661659

Figure 0004661659

前記座標変換手段12は、前記コマ画像の各画素を、中心からの距離で彩度が規定され中心周りの角度で色相が規定される色相彩度座標系の画素に変換するように構成されており、詳述すると、前記コマ画像の各画素r、g、bを〔数2〕に示す演算式に基づいてxy座標系に変換する。前記xy座標系は、中心からの距離で彩度が規定され中心周りの角度で色相が規定される色相彩度座標系として示されている。 The coordinate conversion means 12 is configured to convert each pixel of the frame image into a pixel of a hue saturation coordinate system in which saturation is defined by a distance from the center and hue is defined by an angle around the center. cage, More specifically, into a xy coordinate system on the basis of the calculation expression shown each pixel r n of the frame image, g n, the b n in expression (2). The xy coordinate system is shown as a hue saturation coordinate system in which saturation is defined by a distance from the center and hue is defined by an angle around the center.

Figure 0004661659
Figure 0004661659

尚、〔数2〕で示す演算式は、図5に示すように、xy座標系におけるxの正方向を0度の方向とした場合に、R成分を0度の方向、G成分を120度の方向、及びB成分を240度の方向として、並びに各成分の大きさを各成分方向への原点からの距離として、各成分の合成ベクトルCRGBのx成分とy成分の大きさへの変換を表している。 As shown in FIG. 5, when the positive direction of x in the xy coordinate system is set to 0 degree as shown in FIG. 5, the arithmetic expression shown in [Equation 2] is the direction of 0 degree and the G component is 120 degrees. And the B component as a direction of 240 degrees, and the size of each component as the distance from the origin in the direction of each component, conversion of the composite vector C RGB of each component into the sizes of the x component and the y component Represents.

前記円領域特性値演算手段13は、前記色相彩度座標系に前記平均画素値を中心とする同心円状の複数の円領域を画定し、各円領域に含まれる画素の分布特性を示す円領域特性値を領域毎に求めるように構成されている。   The circular area characteristic value calculation means 13 defines a plurality of concentric circular areas centered on the average pixel value in the hue saturation coordinate system, and indicates a distribution characteristic of pixels included in each circular area The characteristic value is obtained for each region.

詳述すると、図6に示すように、前記平均画素値をxy座標系に変換した値、つまり〔数1〕で導出したavg(r)、avg(g)、avg(b)を夫々〔数2〕における画素r、g、bに代入して算出したxとyを夫々中心座標avg(x)とavg(y)として前記色相彩度座標系にプロットし、前記中心座標を中心とした所定の間隔の同心円状の12個の円領域S1からS12を画定する。 More specifically, as shown in FIG. 6, values obtained by converting the average pixel value into the xy coordinate system, that is, avg (r), avg (g), and avg (b) derived by [Expression 1] pixel r n in 2], g n, plotted on the color saturation coordinate system b n x n and y n which is calculated by substituting the respective center coordinates avg (x) and as avg (y), the center coordinates Twelve concentric circular regions S1 to S12 are defined at a predetermined interval with respect to.

尚、前記円領域において、外側に位置する円領域は、当該円領域よりも内側に位置する円領域を包含している。例えば、円領域S2は円領域S1を包含しており、円領域S12は円領域S11を包含(つまり、円領域S1からS11の全てを包含)している。また、本例では、円領域の数は12個であるが、円領域の数は適宜設定されてもよい。また、本例では、円領域間の所定の間隔は等間隔であるが、前記所定の間隔も適宜設定されてもよく、等間隔で異なる大きさであっても各領域の間隔の大きさが互いに異なっていてもよい。   In the circular area, the circular area located outside includes a circular area located inside the circular area. For example, the circular region S2 includes the circular region S1, and the circular region S12 includes the circular region S11 (that is, includes all of the circular regions S1 to S11). In this example, the number of circular areas is twelve, but the number of circular areas may be set as appropriate. Further, in this example, the predetermined interval between the circular regions is an equal interval, but the predetermined interval may be set as appropriate, and the size of the interval between the regions may be different evenly. They may be different from each other.

前記円領域特性値は、各円領域に含まれる画素の画素数、及び各円領域に含まれる画素のカラー成分毎の平均値である領域平均画素値と前記平均画素値との差分値で構成される。前記円領域特性値の算出は4ステップで構成されており、以下に詳述する。   The circular area characteristic value includes the number of pixels included in each circular area, and a difference value between the average pixel value and the average pixel value that is an average value for each color component of the pixels included in each circular area. Is done. The calculation of the circular area characteristic value is composed of four steps, which will be described in detail below.

第一ステップでは、コマ画像の全構成画素を前記色相彩度座標系にプロットして、同心円上の複数の領域Sj(jは1から12の整数)毎にプロットされた画素数mSjをカウントする。 In the first step, all the constituent pixels of the frame image are plotted in the hue saturation coordinate system, and the number of pixels m Sj plotted for each of a plurality of regions Sj (j is an integer from 1 to 12) on the concentric circle is counted. To do.

第二ステップでは、前記領域Sjにおいてプロットされた画素のうちn番目の画素のRGB成分を夫々rSjn、gSjn、bSjnとした場合に、前記領域Sjを構成しているRGB各成分の平均画素値avg(rSjn)、avg(gSjn)、avg(bSjn)を〔数3〕に示す演算式に基づいて算出する。 In the second step, when the RGB components of the nth pixel among the pixels plotted in the region Sj are r Sjn , g Sjn , and b Sjn , the average of the RGB components constituting the region Sj Pixel values avg (r Sjn ), avg (g Sjn ), and avg (b Sjn ) are calculated based on the arithmetic expression shown in [Equation 3].

Figure 0004661659

Figure 0004661659

Figure 0004661659
Figure 0004661659

Figure 0004661659

Figure 0004661659

第三ステップでは、前記平均画素値演算手段11で算出した前記コマ画像の各画素のRGB成分の平均値である前記平均画素値と前記領域Sjを構成しているRGB各成分の平均画素値との差分値ΔrSj、ΔgSj、ΔbSjを〔数4〕に示す演算式に基づいて算出する。 In the third step, the average pixel value, which is the average value of the RGB components of each pixel of the frame image, calculated by the average pixel value calculation means 11, and the average pixel value of each RGB component constituting the region Sj, Difference values Δr Sj , Δg Sj , and Δb Sj are calculated based on the arithmetic expression shown in [Equation 4].

Figure 0004661659
Figure 0004661659

以上の3ステップより算出された特性値mSj、ΔrSj、ΔgSj、ΔbSjを0から1の範囲の値へと正規化することによって、円領域特性値m、Δr、Δg、Δbを算出する。具体的には、前記円領域特性値mは、前記特性値mSjを前記コマ画像に含まれる画素の総数で割ることによって算出され、前記円領域特性値Δr、Δg、Δbは、前記特性値ΔrSj、ΔgSj、ΔbSjを前記コマ画像における濃度設定値の最大値で夫々割ることによって算出される。 By normalizing the characteristic values m Sj , Δr Sj , Δg Sj , Δb Sj calculated from the above three steps to values in the range of 0 to 1, circular area characteristic values m j , Δr j , Δg j , Δb j is calculated. Specifically, the circular area characteristic value m j is calculated by dividing the characteristic value m Sj by the total number of pixels included in the frame image, and the circular area characteristic values Δr j , Δg j , Δb j are The characteristic values Δr Sj , Δg Sj , Δb Sj are respectively divided by the maximum density setting value in the frame image.

尚、前記特性値mSj、ΔrSj、ΔgSj、ΔbSjをそのまま前記円領域特性値とする構成であってもよい。 The characteristic values m Sj , Δr Sj , Δg Sj , Δb Sj may be used as the circular region characteristic values as they are.

尚、図7に示すように、前記領域Sjを横軸、各円領域に含まれる画素の画素数mSjを縦軸として画素数の累積ヒストグラムを示すと、カラーフェリアが発生しないコマ画像は、前記色相彩度座標系におけるデータの分布が小さくなるために、前記累積ヒストグラムは、内側の領域(図7ではS5)で飽和する傾向にあるが、カラーフェリアが発生するコマ画像や異種光源のコマ画像は、前記色相彩度座標系におけるデータの分布が大きくなるために、前記累積ヒストグラムは、より外側の領域(図7では、異種光源はS7、フェリアはS10)で飽和する、つまりなかなか飽和しない傾向にある。 As shown in FIG. 7, when a cumulative histogram of the number of pixels is shown with the region Sj as the horizontal axis and the number of pixels m Sj of the pixels included in each circular region as the vertical axis, a frame image in which no color failure occurs is Since the distribution of data in the hue saturation coordinate system becomes small, the cumulative histogram tends to be saturated in the inner region (S5 in FIG. 7). Since the image has a large data distribution in the hue saturation coordinate system, the cumulative histogram saturates in an outer region (in FIG. 7, S7 is a different light source and S10 is a feria), that is, it is not easily saturated. There is a tendency.

前記第一補正量演算手段14は、前記円領域特性値m、Δr、Δg、Δb(または、mSj、ΔrSj、ΔgSj、ΔbSj)に基づいてカラー補正量R1、G1、B1を求める。前記カラー補正量R1、G1、B1は、元の画素値と新たな画素値との差分であり、前記第一補正量演算手段14は、例えば、誤差逆伝搬学習法により学習されるニューラルネットワーク、または、重回帰分析手段で構成される。 The first correction amount calculation means 14 performs color correction amounts R1, G1 based on the circular area characteristic values m j , Δr j , Δg j , Δb j (or m Sj , Δr Sj , Δg Sj , Δb Sj ). , B1 is obtained. The color correction amounts R1, G1, and B1 are the differences between the original pixel values and the new pixel values, and the first correction amount calculation means 14 is, for example, a neural network that is learned by an error back propagation learning method, Alternatively, it is composed of multiple regression analysis means.

誤差逆伝搬学習法により学習されるニューラルネットワークで構成される場合は、例えば、図8に示すように、入力層、中間層、出力層の三層で構成されたパーセプトロン形で構成されており、前記コマ画像の各領域Sjの円領域特性値m、Δr、Δg、Δbが入力される入力層と、入力データが所定の結合加重で重み演算された結果が入力される中間層と、中間層の出力が所定の結合加重で重み演算されてカラー補正量R1、G1、B1として出力される出力層の三層から構成され、各結合加重が誤差逆伝搬学習法により予め設定される。 In the case of a neural network that is learned by the error back-propagation learning method, for example, as shown in FIG. 8, it is composed of a perceptron type composed of three layers: an input layer, an intermediate layer, and an output layer. An input layer to which circular region characteristic values m j , Δr j , Δg j , Δb j of each region Sj of the frame image are input, and an intermediate layer to which the result of weight calculation of input data with a predetermined connection weight is input The output of the intermediate layer is weighted with a predetermined coupling weight and is output as color correction amounts R1, G1, and B1, and is composed of three layers. Each coupling weight is preset by an error back propagation learning method. The

ニューラルネットワークは、具体的には撮影条件の異なる9000枚のサンプル画像に対してなされたマニュアル補正によるカラー補正量及びサンプル画像に対する円領域特性値を教師データとして、サンプル画像毎に各々一億回の繰り返し学習を行なって最もばらつきが少なかった結果を得たものを設定している。   Specifically, the neural network uses a color correction amount by manual correction performed on 9000 sample images with different shooting conditions and a circular area characteristic value for the sample images as teacher data, and each 100 million times for each sample image. The results are set so that repeated learning is performed and the result with the least variation is obtained.

重回帰分析手段で構成される場合は、例えば、〔数5〕に示すような重回帰式に、従属変数として前記円領域特性値m、Δr、Δg、Δbを夫々適用することによって、独立変数としてのRGB成分毎のカラー補正量R1、G1、B1を導出する構成が挙げられる。 When configured by multiple regression analysis means, for example, the circular region characteristic values m j , Δr j , Δg j , Δb j are respectively applied as dependent variables to the multiple regression equation as shown in [Equation 5]. Therefore, a configuration for deriving the color correction amounts R1, G1, and B1 for each of the RGB components as independent variables can be given.

Figure 0004661659
Figure 0004661659

上述の〔数5〕において、A11からA34は係数、CからCは定数項で、多数のサンプル画像に対するマニュアル補正で適正と評価されたときの前記サンプル画像と補正量との関係から算出される値である。 In the above [Equation 5], A 11 to A 34 are coefficients, C 1 to C 3 are constant terms, and the relationship between the sample image and the correction amount when it is evaluated as appropriate by manual correction for a large number of sample images. It is a value calculated from

前記放射状領域特性値演算手段15は、前記色相彩度座標系に、前記第一補正量演算手段14により求められたカラー補正量R1、G1、B1を、夫々画素r 、g 、b として前記色相彩度座標系に変換した画素を中心として、所定角度間隔で周方向に複数の放射状領域を画定し、各放射状領域に含まれる画素の分布特性を示す放射状領域特性値を領域毎に求めるように構成されている。 The radial area characteristic value calculation means 15 adds the color correction amounts R1, G1, and B1 obtained by the first correction amount calculation means 14 to the hue saturation coordinate system and the pixels r n , g n , and b n , respectively. A plurality of radial regions are defined in the circumferential direction at predetermined angular intervals with the pixel converted into the hue saturation coordinate system as a center, and a radial region characteristic value indicating a distribution characteristic of the pixels included in each radial region is defined for each region. It is configured to ask for.

詳述すると、図9に示すように、前記第一補正量演算手段14で導出したカラー補正量R1、G1、B1を、夫々画素r、g、bとして〔数2〕に適用して算出したxとyを夫々中心座標X、Yとして前記色相彩度座標系にプロットし、前記中心座標を中心として、所定角度間隔で周方向に複数の放射状領域を画定する。尚、放射状領域の数は適宜設定される。例えば、図9では、30度毎に12の放射状領域を設定されており、この設定に基づいて以下の説明を行う。 More specifically, as shown in FIG. 9, by applying the color correction amount R1, G1, B1 derived in the first correction amount computing means 14, respectively pixel r n, g n, the b n in expression (2) the plotted in hue saturation coordinate system x n and y n calculated Te respectively center coordinates X, as Y, about said center coordinates, defining a plurality of radial regions in a circumferential direction at predetermined angular intervals. The number of radial regions is set as appropriate. For example, in FIG. 9, 12 radial regions are set every 30 degrees, and the following description will be made based on this setting.

前記放射状領域特性値は、各放射状領域に含まれる画素の画素数と、各放射状領域に含まれる画素に対して低彩度画素ほど大きな重み係数を掛けて求まるカラー成分毎の重み平均画素値で構成される。前記放射状領域特性値の算出は2ステップで構成されており、以下に詳述する。   The radial region characteristic value is a weighted average pixel value for each color component obtained by multiplying the number of pixels included in each radial region by a larger weighting factor as the low saturation pixel is applied to the pixels included in each radial region. Composed. The calculation of the radial region characteristic value is composed of two steps, which will be described in detail below.

第一ステップでは、コマ画像の全構成画素を前記色相彩度座標系にプロットして、放射状の複数の領域Hj(jは1から12の整数)毎にプロットされた画素数lHjをカウントする。 In the first step, all the constituent pixels of the frame image are plotted in the hue saturation coordinate system, and the number of pixels l Hj plotted for each of a plurality of radial regions Hj (j is an integer from 1 to 12) is counted. .

第二ステップでは、前記領域Hjにおいてプロットされた画素のうちn番目の画素のRGB成分を夫々rHjn、gHjn、bHjnとして、各画素の中心からの距離(彩度)に基づいて算出した重み係数を夫々zrHjn、zgHjn、zbHjnとして前記放射状領域特性値ΔrHj、ΔgHj、ΔbHjを〔数6〕に示す演算式に基づいて算出する。尚、〔数6〕において、分母に加算されている1と分子に加算されているカラー補正量R1、G1、B1については後述する。 In the second step, the RGB components of the nth pixel among the pixels plotted in the region Hj are calculated as r Hjn , g Hjn , and b Hjn based on the distance (saturation) from the center of each pixel. The radial region characteristic values Δr Hj , Δg Hj , Δb Hj are calculated based on the arithmetic expression shown in [Equation 6], with the weighting factors as zr Hjn , zg Hjn , zb Hjn , respectively. In [Equation 6], 1 added to the denominator and color correction amounts R1, G1, and B1 added to the numerator will be described later.

Figure 0004661659

Figure 0004661659

Figure 0004661659
Figure 0004661659

Figure 0004661659

Figure 0004661659

つまり、前記領域Hjに存在する各画素に対して、前記各画素に対応する重み係数を乗じた値を算出し、算出した値を合計してから前記領域Hjに存在する画素数lHjで割ることで、前記放射状領域特性値ΔrHj、ΔgHj、ΔbHjは算出される。さらに前記領域Hjに占める画素数lHjも前記放射状領域特性値とする。つまり、前記放射状領域特性値は、lHj、ΔrHj、ΔgHj、ΔbHjの4値である。 That is, a value obtained by multiplying each pixel existing in the region Hj by a weighting factor corresponding to each pixel is calculated, and the calculated values are summed and divided by the number of pixels existing in the region Hj, lHj . Thus, the radial region characteristic values Δr Hj , Δg Hj , Δb Hj are calculated. Further, the number of pixels l Hj occupying the region Hj is also set as the radial region characteristic value. That is, the radial region characteristic values are four values of l Hj , Δr Hj , Δg Hj , and Δb Hj .

尚、各画素(例えば画素値をrHjn、gHjn、bHjnとする)についての前記重み係数zrHjn、zgHjn、zbHjnの算出は、各画素の濃度値を以下に説明する方法で正規化した値である。正規化の方法は、前記原画像データにおける濃度設定値の範囲(例えば、原画像データが8ビットで構成される場合には、0から255の範囲)を0から4の範囲へと正規化して、正規化した値を1から減じることで正規化する。尚、正規化した値を1から減じた際に負の値となった場合には、重み係数は0とする。このように算出した重み係数は、彩度の低い画素の重みが大きくなり、全濃度範囲の高彩度側75%に相当する領域では0となる。 The weighting factors zr Hjn , zg Hjn , and zb Hjn for each pixel (for example, the pixel values are r Hjn , g Hjn , and b Hjn ) are normalized by the method described below for the density value of each pixel. It is a converted value. The normalization method normalizes the range of density setting values in the original image data (for example, the range of 0 to 255 when the original image data is composed of 8 bits) to the range of 0 to 4. Normalize by subtracting the normalized value from 1. If the normalized value becomes a negative value when subtracted from 1, the weight coefficient is set to 0. The weighting coefficient calculated in this way is increased in the weight of pixels with low saturation, and becomes 0 in the region corresponding to 75% on the high saturation side of the entire density range.

また、〔数6〕の演算において、前記領域Hjに存在する画素に追加して、前記カラー補正量R1、G1、B1を、前記重み係数を1として加算している。その結果、画素数が1個増えることから、〔数6〕においては、画素数はlHjではなくlHj+1で除している。これは、前記領域Hjに画素が存在しているが、当該画素の全てについて重み係数が0であるために前記放射状領域特性値が0となることと、前記領域Hjに画素が全く存在しないために前記放射状領域特性値が0となることを区別するためである。 Further, in the calculation of [Equation 6], in addition to the pixels existing in the region Hj, the color correction amounts R1, G1, and B1 are added with the weighting factor being 1. As a result, the number of pixels increases by one, so in [ Equation 6], the number of pixels is divided by l Hj +1 instead of l Hj . This is because there are pixels in the region Hj, but the weighting factor is 0 for all of the pixels, so the radial region characteristic value is 0, and there are no pixels in the region Hj. This is to distinguish that the radial region characteristic value is zero.

前記第二補正量演算手段16は、前記放射状領域特性値lHj、ΔrHj、ΔgHj、ΔbHjに基づいてカラー補正量R2、G2、B2を求める。前記カラー補正量R2、G2、B2は、元の画素値と新たな画素値との差分であり、前記第二補正量演算手段16は、例えば、前記第一補正量演算手段14と同様に、誤差逆伝搬学習法により学習されるニューラルネットワーク、または、重回帰分析手段で構成される。 The second correction amount calculation means 16 obtains color correction amounts R2, G2, and B2 based on the radial region characteristic values l Hj , Δr Hj , Δg Hj , Δb Hj . The color correction amounts R2, G2, and B2 are the difference between the original pixel value and the new pixel value, and the second correction amount calculation unit 16 is, for example, similar to the first correction amount calculation unit 14, It consists of a neural network or multiple regression analysis means that is learned by the error back propagation learning method.

誤差逆伝搬学習法により学習されるニューラルネットワークで構成される場合は、図8に示す入力層には、前記放射状領域特性値lHj、ΔrHj、ΔgHj、ΔbHjが入力され、出力層からRGB各成分に対するカラー補正量R2、G2、B2が出力される。当該ニューラルネットワークも先と同様に、撮影条件の異なる9000枚のサンプル画像に対してなされたマニュアル補正によるカラー補正量を及びサンプル画像に対する円領域特性値を教師データとして、サンプル画像毎に各々一億回の繰り返し学習を行なって最もばらつきが少なかった結果を得たものを設定している。 When the neural network is learned by the back propagation learning method, the radial region characteristic values l Hj , Δr Hj , Δg Hj , Δb Hj are input to the input layer shown in FIG. Color correction amounts R2, G2, and B2 for RGB components are output. Similarly to the above, the neural network also has a color correction amount by manual correction performed on 9000 sample images with different shooting conditions and a circular area characteristic value for each sample image as teacher data, and each 100 million each sample image. The result obtained by repeating the learning once and obtaining the result with the least variation is set.

重回帰分析手段で構成される場合は、例えば、〔数5〕に示すような重回帰式に、従属変数として前記放射状領域特性値lHj、ΔrHj、ΔgHj、ΔbHjを夫々適用することによって、独立変数としてのRGB成分毎のカラー補正量R2、G2、B2を導出する構成が挙げられる。 When configured by multiple regression analysis means, for example, the radial region characteristic values l Hj , Δr Hj , Δg Hj , Δb Hj are applied as dependent variables to the multiple regression equation as shown in [Equation 5], respectively. Therefore, a configuration for deriving the color correction amounts R2, G2, and B2 for each of the RGB components as independent variables can be given.

前記カラー補正手段17は、前記第二補正量演算手段16により求められたカラー補正量に基づいて前記コマ画像を補正するように構成されており、詳述すると、コマ画像の全ての画素について、前記第二補正量演算手段16で求められたカラー補正量R2、G2、B2を加算することによって前記コマ画像を補正する。   The color correction unit 17 is configured to correct the frame image based on the color correction amount obtained by the second correction amount calculation unit 16, and more specifically, for all pixels of the frame image, The frame image is corrected by adding the color correction amounts R2, G2, and B2 obtained by the second correction amount calculator 16.

以上説明した本発明によるコマ画像の補正に際して、マニュアル補正で適正と評価された画素値を正解画素値とした場合の、キー補正の程度による前記正解画素値を得る確率および不正解であった場合の誤差の標準偏差を、図10に示すように、従来のLATD補正を用いた方法、前記第一補正量演算手段14を用いて前記第二補正量演算手段16を用いなかった方法、及び前記第一補正量演算手段14に加えて前記第二補正量演算手段16を用いた方法について示す。   When correcting the frame image according to the present invention described above, when the correct pixel value is a pixel value evaluated as appropriate by manual correction, the probability of obtaining the correct pixel value depending on the degree of key correction and an incorrect answer As shown in FIG. 10, the standard deviation of the error is a method using conventional LATD correction, a method using the first correction amount calculating unit 14 and not using the second correction amount calculating unit 16, and A method using the second correction amount calculation means 16 in addition to the first correction amount calculation means 14 will be described.

図10において、前記第一補正量演算手段14を用いた方法は、従来のLATD補正を用いた方法よりも向上しており、前記第二補正量演算手段16を用いた方法は、前記第一補正量演算手段14を用いた方法よりも向上している。   In FIG. 10, the method using the first correction amount calculating means 14 is improved over the conventional method using LATD correction, and the method using the second correction amount calculating means 16 is the first correction amount calculating means. This is an improvement over the method using the correction amount calculation means 14.

以上説明した本発明による写真画像処理装置は、入力されたコマ画像単位に全構成画素に対するカラー成分毎の平均画素値を求める平均画素値演算手段11と、前記コマ画像の各画素を、中心からの距離で彩度が規定され中心周りの角度で色相が規定される色相彩度座標系の画素に変換する座標変換手段12と、前記色相彩度座標系に前記平均画素値を中心とする同心円状の複数の円領域を画定し、各円領域に含まれる画素の分布特性を示す円領域特性値を領域毎に求める円領域特性値演算手段13と、前記円領域特性値に基づいてカラー補正量を求める第一補正量演算手段14としてコンピュータを機能させるための画像処理プログラム、及び、前記色相彩度座標系に、前記第一補正量演算手段14により求められたカラー補正量で表される画素を中心として、所定角度間隔で周方向に複数の放射状領域を画定し、各放射状領域に含まれる画素の分布特性を示す放射状領域特性値を領域毎に求める放射状領域特性値演算手段15と、前記放射状領域特性値に基づいてカラー補正量を求める第二補正量演算手段16としてコンピュータを機能させるための画像処理プログラムがインストールされることにより容易に実現される。   In the photographic image processing apparatus according to the present invention described above, the average pixel value calculation means 11 for obtaining the average pixel value for each color component for all the constituent pixels for each inputted frame image unit, and each pixel of the frame image from the center. A coordinate conversion means 12 for converting into pixels of a hue saturation coordinate system in which saturation is defined by a distance and a hue is defined by an angle around the center, and a concentric circle centered on the average pixel value in the hue saturation coordinate system A circular area characteristic value calculating means 13 for defining a circular area characteristic value indicating a distribution characteristic of a pixel included in each circular area, and color correction based on the circular area characteristic value An image processing program for causing a computer to function as the first correction amount calculation unit 14 for determining the amount, and the hue saturation coordinate system are represented by the color correction amount obtained by the first correction amount calculation unit 14. A plurality of radial regions in the circumferential direction at a predetermined angular interval around the pixel, and a radial region characteristic value calculating means 15 for obtaining a radial region characteristic value indicating a distribution characteristic of pixels included in each radial region for each region; This is easily realized by installing an image processing program for causing the computer to function as the second correction amount calculation means 16 for obtaining the color correction amount based on the radial region characteristic value.

以下、別実施形態について説明する。上述の実施形態では、放射状領域特性値演算手段15は、第一補正量演算手段14で導出したカラー補正量R1、G1、B1を、夫々画素r、g、bとして〔数2〕に適用して算出したxとyを夫々中心座標X、Yとして前記色相彩度座標系にプロットする構成について説明したが、前記中心座標が図6に示すavg(x)とavg(y)であってもよい。 Hereinafter, another embodiment will be described. In the above-described embodiment, the radial region characteristic value calculation unit 15 uses the color correction amounts R1, G1, and B1 derived by the first correction amount calculation unit 14 as pixels r n , g n , and b n , respectively , [Equation 2]. In the above description, x n and y n calculated by applying to the hue saturation coordinate system are plotted as center coordinates X and Y, respectively. However, the center coordinates are avg (x) and avg (y) shown in FIG. ).

即ち、前記中心座標は、平均画素値演算手段11で算出された平均画素値をxy座標系に変換した値、つまり〔数1〕で導出したavg(r)、avg(g)、avg(b)を夫々〔数2〕における画素r、g、bに代入して算出したxとyを夫々中心座標avg(x)とavg(y)として前記色相彩度座標系にプロットするのである。 That is, the central coordinates are values obtained by converting the average pixel value calculated by the average pixel value calculating means 11 into the xy coordinate system, that is, avg (r), avg (g), avg (b ) And x n and y n calculated by substituting the pixels r n , g n and b n in [Equation 2], respectively , as center coordinates avg (x) and avg (y) are plotted in the hue saturation coordinate system. To do.

上述の実施形態では、前記第一補正量演算手段14と前記第二補正量演算手段16が、誤差逆伝搬学習法により学習されるニューラルネットワーク、または、重回帰分析手段で構成される構成について説明したが、前記ニューラルネットワークや前記重回帰分析手段以外、例えば、ルックアップテーブルを用いた構成であってもよい。   In the above-described embodiment, the first correction amount calculation unit 14 and the second correction amount calculation unit 16 are configured by a neural network or a multiple regression analysis unit that is learned by an error back propagation learning method. However, other than the neural network and the multiple regression analysis means, for example, a configuration using a lookup table may be used.

詳述すると、ルックアップテーブルで構成される場合は、前記第一補正量演算手段14においては、予め記憶されている所定の関数に従って、円領域特性値m、Δr、Δg、Δbをカラー補正量R1、G1、B1に変換する構成が挙げられ、前記第二補正量演算手段16においては、予め記憶されている所定の関数に従って、放射状領域特性値lHj、ΔrHj、ΔgHj、ΔbHjをカラー補正量R2、G2、B2に変換する構成が挙げられる。 More specifically, in the case of a look-up table, the first correction amount calculation means 14 uses circular region characteristic values m j , Δr j , Δg j , Δb j according to a predetermined function stored in advance. Is converted into color correction amounts R1, G1, and B1. In the second correction amount calculation means 16, the radial area characteristic values l Hj , Δr Hj , Δg Hj according to a predetermined function stored in advance. , Δb Hj are converted into color correction amounts R2, G2, and B2.

上述の実施形態では、色相彩度座標系への変換は、コマ画像の各画素を〔数2〕に示す演算式に基づいてxy座標系に変換する構成について説明したが、色相彩度座標系への変換は、〔数2〕に示す演算式に基づく変換に限られるものではない。例えば、コマ画像の各画素r、g、bを〔数7〕に示す行列演算式に基づいて横軸がP、縦軸がQで示される色相彩度座標系に変換する構成であってもよい。 In the above-described embodiment, the conversion to the hue saturation coordinate system has been described for the configuration in which each pixel of the frame image is converted to the xy coordinate system based on the arithmetic expression shown in [Expression 2]. The conversion to is not limited to the conversion based on the arithmetic expression shown in [Expression 2]. For example, each pixel r n of the frame image, g n, a configuration in which the horizontal axis based on the matrix equation shown in the b n [Math 7] is P, the vertical axis is converted to the hue saturation coordinate system represented by Q There may be.

Figure 0004661659
Figure 0004661659

上述の実施形態では、放射状領域特性値の算出において、各放射状領域に含まれる画素に対して低彩度画素ほど大きな重み係数を掛ける構成について説明したが、低彩度画素の基準は適宜設定されるものであり、本実施形態に限定されるものではない。   In the above-described embodiment, a description has been given of a configuration in which a greater weighting factor is applied to a pixel included in each radial region in a calculation of the radial region characteristic value. However, a criterion for the low saturation pixel is appropriately set. However, the present invention is not limited to this embodiment.

上述の実施形態では、円領域特性値は、各円領域に含まれる画素の画素数と、各円領域に含まれる画素のカラー成分毎の平均値である領域平均画素値と前記平均画素値との差分値である構成について説明したが、前記円領域特性値は、前記領域平均画素値であってもよい。   In the above-described embodiment, the circular region characteristic value includes the number of pixels included in each circular region, the region average pixel value that is an average value for each color component of the pixels included in each circular region, and the average pixel value. However, the circular area characteristic value may be the area average pixel value.

上述した実施形態では、前記円領域特性値が、各円領域に含まれる画素の画素数と、各円領域に含まれる画素のカラー成分毎の平均値である領域平均画素値と前記平均画素値との差分値で構成されるものを説明したが、前記円領域特性値としては、各円領域に含まれる画素の画素数と、各円領域に含まれる画素のカラー成分毎の平均値である領域平均画素値を採用することもできる。   In the above-described embodiment, the circular region characteristic value includes the number of pixels included in each circular region, the region average pixel value that is an average value for each color component of the pixels included in each circular region, and the average pixel value. The circular region characteristic value is the number of pixels included in each circular region and the average value for each color component of the pixels included in each circular region. An area average pixel value can also be adopted.

この場合、第一補正量演算手段14において、誤差逆伝搬学習法により学習されるニューラルネットワークで構成される場合は、例えば、図11に示すように、入力層、中間層、出力層の三層で構成されたパーセプトロン形で構成されており、平均画素値演算手段により求められた各画素のRGB成分の平均値avg(r)、avg(g)、avg(b)を正規化した値avgn(r)、avgn(g)、avgn(b)と、各領域Sjの円領域特性値m、avg(rjn)、avg(gjn)、avg(bjn)(これらは〔数3〕による平均画素値avg(rSjn)、avg(gSjn)、avg(bSjn)を夫々正規化した値である)が入力される入力層と、入力データが所定の結合加重で重み演算された結果が入力される中間層と、中間層の出力が所定の結合加重で重み演算されてカラー補正量R1、G1、B1として出力される出力層の三層から構成され、各結合加重が誤差逆伝搬学習法により予め設定される。 In this case, when the first correction amount calculation means 14 is constituted by a neural network learned by the error back propagation learning method, for example, as shown in FIG. 11, three layers of an input layer, an intermediate layer, and an output layer The average value avg (r), avg (g), avg (b) of the RGB components of each pixel obtained by the average pixel value calculation means is a value avgn (normalized). r), avgn (g), avgn (b), and the circular region characteristic values m j , avg (r jn ), avg (g jn ), avg (b jn ) of each region Sj (these are expressed by [ Equation 3] An input layer to which average pixel values avg (r Sjn ), avg (g Sjn ), and avg (b Sjn ) are respectively input), and a result of weight calculation of the input data with a predetermined connection weight Enter And the output of the intermediate layer is output as color correction amounts R1, G1, and B1 by weight calculation with a predetermined connection weight, and each connection weight is determined by an error back propagation learning method. It is set in advance.

上述の実施形態では、第一補正量演算手段14や第二補正量演算手段16がニューラルネットワークで構成される場合に、前記ニューラルネットワークの中間層が一層で構成されるものを説明したが、前記中間層が複数層で構成されるものであってもよい。   In the above-described embodiment, when the first correction amount calculation unit 14 and the second correction amount calculation unit 16 are configured by a neural network, the intermediate layer of the neural network is configured by one layer. The intermediate layer may be composed of a plurality of layers.

上述の実施形態では、前記カラー補正手段17は、前記第二補正量演算手段16により求められたカラー補正量に基づいて前記コマ画像を補正するものを説明したが、前記第二補正量演算手段16を設けることなく、前記第一補正量演算手段14により求められたカラー補正量に基づいて前記コマ画像を補正するように構成するものであっても所定の効果は得られる。   In the above-described embodiment, the color correction unit 17 corrects the frame image based on the color correction amount obtained by the second correction amount calculation unit 16, but the second correction amount calculation unit has been described. Even if the frame image is corrected based on the color correction amount obtained by the first correction amount calculation means 14 without providing 16, the predetermined effect can be obtained.

尚、上述した何れの実施形態も、本発明の一例に過ぎず、本発明の作用効果を奏する範囲において複数の実施形態を組み合わせることも可能であり、また、各ブロックの具体的構成等を適宜変更設計できることも可能である。   Note that each of the above-described embodiments is merely an example of the present invention, and a plurality of embodiments can be combined within the scope of the effects of the present invention, and the specific configuration of each block is appropriately set. It is also possible to design changes.

画像処理部の機能ブロック構成図Functional block diagram of the image processing unit 写真画像処理装置の外観構成の説明図Explanatory drawing of the external configuration of the photographic image processing apparatus 写真プリンタの説明図Illustration of photo printer 写真画像処理装置の機能ブロック構成の説明図Explanatory drawing of functional block configuration of photographic image processing apparatus 色相彩度座標系の説明図Illustration of hue saturation coordinate system 色相彩度座標系における複数の同心円上領域の説明図Illustration of multiple concentric regions in the hue saturation coordinate system 各同心円上領域における画素数の累積ヒストグラムの説明図Explanatory drawing of the cumulative histogram of the number of pixels in each concentric area ニューラルネットワークで構成される第一補正量演算手段の説明図Explanatory drawing of the first correction amount calculation means composed of a neural network 色相彩度座標系における複数の放射状領域の説明図Illustration of multiple radial regions in the hue saturation coordinate system 本発明によるカラー補正の正解率の説明表Explanation table of accuracy rate of color correction according to the present invention 別実施形態を示すニューラルネットワークで構成される第一補正量演算手段の説明図Explanatory drawing of the 1st correction amount calculating means comprised with the neural network which shows another embodiment

10:ベース濃度処理部
11:平均画素値演算手段
12:座標変換手段
13:円領域特性値演算手段
14:第一補正量演算手段
15:放射状領域特性値演算手段
16:第二補正量演算手段
17:カラー補正手段
10: Base density processing unit 11: Average pixel value calculation means 12: Coordinate conversion means 13: Circle area characteristic value calculation means 14: First correction amount calculation means 15: Radial area characteristic value calculation means 16: Second correction amount calculation means 17: Color correction means

Claims (8)

入力されたコマ画像単位に全構成画素に対するカラー成分毎の平均画素値を求める平均画素値演算手段と、前記コマ画像の各画素を、中心からの距離で彩度が規定され中心周りの角度で色相が規定される色相彩度座標系の画素に変換する座標変換手段と、前記色相彩度座標系に、前記カラー成分毎の平均画素値で表される画素を前記色相彩度座標系に変換した画素を中心とする同心円状の複数の円領域を画定し、各円領域に含まれる画素の分布特性を示す円領域特性値を領域毎に求める円領域特性値演算手段と、前記円領域特性値に基づいてカラー補正量を求める第一補正量演算手段とを備えて構成される写真画像処理装置。 Mean pixel value calculation means for obtaining an average pixel value for each color component for all constituent pixels for each inputted frame image, and saturation of each pixel of the frame image is defined by a distance from the center at an angle around the center Coordinate conversion means for converting into pixels in a hue saturation coordinate system in which hue is defined, and in the hue saturation coordinate system, pixels represented by average pixel values for each color component are converted into the hue saturation coordinate system A circular region characteristic value calculating means for defining a plurality of concentric circular regions centered on the selected pixel and obtaining a circular region characteristic value indicating a distribution characteristic of the pixels included in each circular region for each region; and the circular region characteristic A photographic image processing apparatus comprising first correction amount calculation means for obtaining a color correction amount based on a value. 前記円領域特性値は、各円領域に含まれる画素の画素数と、各円領域に含まれる画素のカラー成分毎の平均値である領域平均画素値、若しくは、当該領域平均画素値と前記カラー成分毎の平均画素値の平均値との差分値で構成される請求項1記載の写真画像処理装置。 The circular area characteristic value includes the number of pixels included in each circular area and the average value of each pixel color component included in each circular area, or the area average pixel value and the color The photographic image processing apparatus according to claim 1, wherein the photographic image processing apparatus includes a difference value from an average value of average pixel values for each component . 前記第一補正量演算手段は、誤差逆伝搬学習法により学習されるニューラルネットワーク、または、重回帰分析手段で構成される請求項1または2記載の写真画像処理装置。   3. The photographic image processing apparatus according to claim 1, wherein the first correction amount calculation means is configured by a neural network learned by an error back propagation learning method or multiple regression analysis means. 前記色相彩度座標系に、前記第一補正量演算手段で導出したカラー補正量をそれぞれ画素として前記色相彩度座標系に変換し、変換後の画素を中心として、所定角度間隔で周方向に複数の放射状領域を画定し、各放射状領域に含まれる画素の分布特性を示す放射状領域特性値を領域毎に求める放射状領域特性値演算手段と、前記放射状領域特性値に基づいてカラー補正量を求める第二補正量演算手段とを備えて構成される請求項1から3の何れかに記載の写真画像処理装置。 In the hue / saturation coordinate system, the color correction amount derived by the first correction amount calculation unit is converted into the hue / saturation coordinate system as pixels, and the converted pixels are centered in the circumferential direction at predetermined angular intervals. A plurality of radial areas are defined, a radial area characteristic value calculating means for obtaining a radial area characteristic value indicating the distribution characteristic of the pixels included in each radial area for each area, and a color correction amount is obtained based on the radial area characteristic value. The photographic image processing apparatus according to claim 1, further comprising second correction amount calculation means. 前記放射状領域特性値は、各放射状領域に含まれる画素の画素数と、各放射状領域に含まれる画素に対して低彩度画素ほど大きな重み係数を掛けて求まるカラー成分毎の重み平均画素値で構成される請求項4記載の写真画像処理装置。   The radial region characteristic value is a weighted average pixel value for each color component obtained by multiplying the number of pixels included in each radial region by a larger weighting factor as the low saturation pixel is applied to the pixels included in each radial region. The photographic image processing apparatus according to claim 4 configured. 前記第二補正量演算手段は、誤差逆伝搬学習法により学習されるニューラルネットワーク、または、重回帰分析手段で構成される請求項4または5記載の写真画像処理装置。   6. The photographic image processing apparatus according to claim 4, wherein the second correction amount calculation means is configured by a neural network learned by an error back propagation learning method or multiple regression analysis means. 入力されたコマ画像単位に全構成画素に対するカラー成分毎の平均画素値を求める平均画素値演算ステップと、前記コマ画像の各画素を、中心からの距離で彩度が規定され中心周りの角度で色相が規定される色相彩度座標系の画素に変換する座標変換ステップと、前記色相彩度座標系に、前記カラー成分毎の平均画素値で表される画素を前記色相彩度座標系に変換した画素を中心とする同心円状の複数の円領域を画定し、各円領域に含まれる画素の分布特性を示す円領域特性値を領域毎に求める円領域特性値演算ステップと、前記円領域特性値に基づいてカラー補正量を求める第一補正量演算ステップと、を備えて構成される写真画像処理方法。 An average pixel value calculation step for obtaining an average pixel value for each color component with respect to all constituent pixels for each inputted frame image, and for each pixel of the frame image, saturation is defined by a distance from the center and an angle around the center. A coordinate conversion step for converting into pixels in a hue saturation coordinate system in which hue is defined, and a pixel represented by an average pixel value for each color component is converted into the hue saturation coordinate system in the hue saturation coordinate system A circular region characteristic value calculating step for defining a plurality of concentric circular regions centered on the selected pixel and obtaining a circular region characteristic value indicating a distribution characteristic of the pixels included in each circular region for each region; and the circular region characteristic And a first correction amount calculation step for obtaining a color correction amount based on the value. 前記色相彩度座標系に、前記第一補正量演算ステップで導出したカラー補正量をそれぞれ画素として前記色相彩度座標系に変換し、変換後の画素を中心として、所定角度間隔で周方向に複数の放射状領域を画定し、各放射状領域に含まれる画素の分布特性を示す放射状領域特性値を領域毎に求める放射状領域特性値演算ステップと、前記放射状領域特性値に基づいてカラー補正量を求める第二補正量演算ステップと、を備えて構成される請求項7記載の写真画像処理方法。 In the hue / saturation coordinate system, the color correction amount derived in the first correction amount calculation step is converted into the hue / saturation coordinate system as pixels, and the converted pixels are centered in the circumferential direction at predetermined angular intervals. A plurality of radial areas are defined, a radial area characteristic value calculation step for obtaining a radial area characteristic value indicating the distribution characteristics of pixels included in each radial area for each area, and a color correction amount is obtained based on the radial area characteristic value. The photographic image processing method according to claim 7, comprising a second correction amount calculation step.
JP2006094867A 2006-03-30 2006-03-30 Photo image processing apparatus and photo image processing method Expired - Fee Related JP4661659B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006094867A JP4661659B2 (en) 2006-03-30 2006-03-30 Photo image processing apparatus and photo image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006094867A JP4661659B2 (en) 2006-03-30 2006-03-30 Photo image processing apparatus and photo image processing method

Publications (2)

Publication Number Publication Date
JP2007274140A JP2007274140A (en) 2007-10-18
JP4661659B2 true JP4661659B2 (en) 2011-03-30

Family

ID=38676513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006094867A Expired - Fee Related JP4661659B2 (en) 2006-03-30 2006-03-30 Photo image processing apparatus and photo image processing method

Country Status (1)

Country Link
JP (1) JP4661659B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10192473B2 (en) 2016-07-20 2019-01-29 Samsung Electronics Co., Ltd. Display apparatus and method for image processing

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114365471A (en) * 2019-09-20 2022-04-15 惠普发展公司,有限责任合伙企业 Color matching for printing on colored substrates
CN110751686B (en) * 2019-11-06 2024-03-22 哈工大机器人(岳阳)军民融合研究院 Method and device for measuring eccentric angle of ion beam current of Hall ion source

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000013625A (en) * 1998-06-24 2000-01-14 Canon Inc Image processing method, device and recording medium
JP2001218078A (en) * 1999-11-25 2001-08-10 Fuji Photo Film Co Ltd Device and method for correcting saturation
JP2002049108A (en) * 2000-08-04 2002-02-15 Noritsu Koki Co Ltd Color correction method, recording medium recording color correction program, image processing device and photographic printing device
JP2004509486A (en) * 2000-07-18 2004-03-25 ソニー エレクトロニクス インク Color cast detection and removal method
JP2005142890A (en) * 2003-11-07 2005-06-02 Fuji Photo Film Co Ltd White balance adjusting method and image processing apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000013625A (en) * 1998-06-24 2000-01-14 Canon Inc Image processing method, device and recording medium
JP2001218078A (en) * 1999-11-25 2001-08-10 Fuji Photo Film Co Ltd Device and method for correcting saturation
JP2004509486A (en) * 2000-07-18 2004-03-25 ソニー エレクトロニクス インク Color cast detection and removal method
JP2002049108A (en) * 2000-08-04 2002-02-15 Noritsu Koki Co Ltd Color correction method, recording medium recording color correction program, image processing device and photographic printing device
JP2005142890A (en) * 2003-11-07 2005-06-02 Fuji Photo Film Co Ltd White balance adjusting method and image processing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10192473B2 (en) 2016-07-20 2019-01-29 Samsung Electronics Co., Ltd. Display apparatus and method for image processing

Also Published As

Publication number Publication date
JP2007274140A (en) 2007-10-18

Similar Documents

Publication Publication Date Title
US7006252B2 (en) Image processing system and method that maintains black level
US7333242B2 (en) Test print producing method and photograph image printing method using the same
JP4385964B2 (en) Photo image processing method and photo image processing apparatus
US6940546B2 (en) Method for compensating a digital image for light falloff while minimizing light balance change
JP4661659B2 (en) Photo image processing apparatus and photo image processing method
JP4655210B2 (en) Density correction curve generation method and density correction curve generation module
JP2007249802A (en) Image processor and image processing method
JPH02118642A (en) Color correction by dry dot etching using mask produced photographically
JP4591784B2 (en) Method for creating conversion table for photographed image correction and photo printing apparatus for implementing this method
JP4830923B2 (en) Image processing apparatus and image processing method
US6560374B1 (en) Image processing apparatus
JP4798446B2 (en) Photographed image correction method and photographed image correction module
JP2009027254A (en) Image correcting method and image correcting device
US6710896B1 (en) Image processing apparatus
US6690487B1 (en) Method and apparatus for image processing
JP5168809B2 (en) Photo image processing apparatus and photo image processing method
JP2005159387A (en) Method of determining density characteristic curve and density correction management apparatus for executing this method
JP4793648B2 (en) Image correction unit and image correction program
US20030011790A1 (en) Correcting exposure and tone scale of digital images using a plurality of transforms
US7369273B2 (en) Grayscale mistracking correction for color-positive transparency film elements
JP2009004887A (en) Image correction method and image correction device
JP2005072850A (en) Adjusting method of three dimensional lut and color conversion system equipped with three dimensional lut
JP4775289B2 (en) Image processing apparatus and image processing method
JP4506498B2 (en) Photo image processing method and photo image processing apparatus
JP2009016940A (en) Uniformity correction processing apparatus and uniformity correction processing method of frame image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101220

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140114

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140114

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees