JPH1169182A - Color correction method and color correction device - Google Patents

Color correction method and color correction device

Info

Publication number
JPH1169182A
JPH1169182A JP9226859A JP22685997A JPH1169182A JP H1169182 A JPH1169182 A JP H1169182A JP 9226859 A JP9226859 A JP 9226859A JP 22685997 A JP22685997 A JP 22685997A JP H1169182 A JPH1169182 A JP H1169182A
Authority
JP
Japan
Prior art keywords
color
output
color correction
layer
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9226859A
Other languages
Japanese (ja)
Inventor
Makio Goto
牧生 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP9226859A priority Critical patent/JPH1169182A/en
Publication of JPH1169182A publication Critical patent/JPH1169182A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To perform color correction and color coordinate transformation with high accuracy by performing color coordinate transformation by a neural network that uses an error evaluation function which minimizes the mean value of errors in an output signal to perform color correction. SOLUTION: A neural network which uses an error evaluation function that minimizes a mean value of errors in an output signal performs color coordinate transformation and the color correction of an input image is performed. For instance, in a color image device, an input device 1 consists of a scanner or the like, and inputs the color data of an original image to a color correction device 2. The device 2 performs color correction processing of the color data that is inputted by a color correction means. An output device 3 comprises a printer or the like, records the original image which is undergone color correction processing on a recording medium paper or the like and outputs it. Here, the device 2 uses a neural network as a color correction means to perform color coordinate transformation.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、色修正機能を有す
るカラー複写機やカラープリンタなどの記録装置、ある
いはカラーディスプレイなどの表示装置において、色補
正・色座標変換を行うことにより色修正処理を行う色修
正方法、および該色修正方法を用いた色修正装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a color correction processing by performing color correction and color coordinate conversion in a recording device such as a color copying machine or a color printer having a color correction function or a display device such as a color display. The present invention relates to a color correction method to be performed and a color correction device using the color correction method.

【0002】[0002]

【従来の技術】従来より、カラー原画をカラースキャナ
などの読み取り手段によって読み取り、上記カラー原画
の複製画をカラープリンタなどの出力手段によって出力
する画像出力装置として、カラー複写機やカラープリン
タなどのカラー画像処理装置がある。このようなカラー
画像処理装置では、入力画像データをそのまま出力手段
に入力しても、ほとんどの場合、原画とは異なる色を呈
する複製画となって出力される。
2. Description of the Related Art Hitherto, as an image output apparatus for reading a color original image by a reading means such as a color scanner and outputting a reproduced image of the color original image by an output means such as a color printer, a color copying machine or a color printer has been known. There is an image processing device. In such a color image processing apparatus, even if the input image data is directly input to the output unit, in most cases, it is output as a duplicate image having a color different from the original image.

【0003】そこで、原画に忠実に色再現された複製画
を得るために、様々な色修正技術が提案されている。代
表的な色修正技術としては、1990年画像電子学会第
29巻第3号『忠実な色再現のための色修正技術』に、
多項回帰分析を用いた数値化による色修正処理、ルック
アップテーブルを用いる3次元補間を用いた非数式化に
よる色修正処理、または、ニューラルネットワークを用
いた非数式化による色修正処理が掲載されている。
Various color correction techniques have been proposed in order to obtain a reproduced image whose color is faithfully reproduced from the original image. Representative color correction techniques include the 1990 Image Electronics Society Vol. 29, No. 3, "Color Correction Techniques for Faithful Color Reproduction".
Color correction processing by digitization using polynomial regression analysis, color correction processing by non-formulaization using three-dimensional interpolation using a look-up table, or color correction processing by non-formulation using a neural network I have.

【0004】上記各色修正処理のなかで、特に、ニュー
ラルネットワークを用いた色修正処理は、原画に多数の
色が用いられても、単に色データを与えるだけで、目的
の色修正を行うことが可能となっている。これは、サン
プルとなる色データをニューラルネットワークに与え
て、目的とする色修正データが得られるように、ニュー
ラルネットワーク自身に自発的に学習させて、色修正の
処理手順をニューラルネットワーク自身に見出させるよ
うになっているためである。
[0004] Among the above-described color correction processes, in particular, a color correction process using a neural network can perform a desired color correction by simply providing color data even when a large number of colors are used in an original image. It is possible. In this method, the color data to be sampled is given to the neural network, and the neural network itself learns spontaneously so that the target color correction data can be obtained, and the neural network itself finds a processing procedure for color correction. This is due to the fact that

【0005】加えて、上記ニューラルネットワークは、
多量のデータを並列して処理することも可能であるた
め、原画の色数が多い場合の色修正処理に好適なものと
なっている。このように、ニューラルネットワークを用
いた色修正処理を行う装置としては、特開平2−241
271号公報に開示されている色修正装置がある。
[0005] In addition, the neural network is
Since a large amount of data can be processed in parallel, it is suitable for color correction processing when the number of colors of the original image is large. As described above, an apparatus for performing a color correction process using a neural network is disclosed in JP-A-2-241.
No. 271 discloses a color correction device.

【0006】この色修正装置は、バックプロパゲーショ
ン(誤差逆伝播学習則)のアルゴリズムによる最降下法
によって色修正のための最適解を求めている。このバッ
クプロパゲーションは、ニューラルネットワークの学習
方法のなかでも実用性に優れており、一般的にニューラ
ルネットワークに実装されているものである。
This color correction apparatus seeks an optimal solution for color correction by the lowest descent method based on the algorithm of back propagation (error propagation learning rule). This back propagation is excellent in practicality among neural network learning methods, and is generally implemented in a neural network.

【0007】上記の色修正装置は、バックプロパゲーシ
ョンを実装しているニューラルネットワークを用いてい
ることにより、最適な色修正ができるとともに、色見本
が少ないために生ずる階調再現のゆがみなどの現象を減
少することができる。
The above-mentioned color correction apparatus uses a neural network which implements backpropagation, so that optimal color correction can be performed, and phenomena such as distortion of gradation reproduction caused by a small number of color samples. Can be reduced.

【0008】上記バックプロパゲーションによるニュー
ラルネットワークの学習について詳しく説明すると、ま
ず、第1段階として、入力層と出力層との間の中間層の
層数と、各層それぞれにおけるユニットの個数とを設定
する。たとえば、以下の説明におけるニューラルネット
ワークは、n層からなっていると設定する。すなわち、
中間層の層数は、入力層および出力層を除いたn−2層
である。また、出力層のユニットの個数はN個とする。
The neural network learning by the back propagation will be described in detail. First, as a first step, the number of intermediate layers between the input layer and the output layer and the number of units in each layer are set. . For example, the neural network in the following description is set to have n layers. That is,
The number of intermediate layers is n-2 layers excluding the input layer and the output layer. The number of units in the output layer is N.

【0009】次に、第2段階として、学習データと、ニ
ューラルネットワーク内のユニット間の全ての結合荷重
wの初期値とを入力データとして、入力層(第1層)に
与える。そして、これら入力データを用いて、第2層
(1番目の中間層)の出力、第3層(2番目の中間層)
の出力…、第n−1層(n−2番目の中間層)の出力
と、各中間層の出力を求めていき、最終的に第n層であ
る出力層からの出力on を算出する。
Next, as a second step, learning data and initial values of all connection weights w between units in the neural network are given as input data to an input layer (first layer). Then, by using these input data, the output of the second layer (first intermediate layer), the third layer (second intermediate layer)
The output of ..., calculates the output of the n-1 layer (n-2 th intermediate layer), it will determine the output of the intermediate layers, the output o n from the output layer finally a second n layer .

【0010】このとき、第k層のj番目のユニットへの
入力の総和Ik j を次式(1)によって算出する。な
お、下記wk-1,k i,j は、第k−1層のi番目のユニッ
トと第k層のj番目のユニットとの結合荷重であり、下
記ok-1 i は、第k−1層のi番目のユニットの出力信
号である。
At this time, a total sum I k j of inputs to the j-th unit of the k-th layer is calculated by the following equation (1). Here, w k−1, k i, j below is a coupling load between the i-th unit of the k−1th layer and the j th unit of the k-th layer, and the following o k−1 i is the k- th unit. -1 is the output signal of the ith unit in the first layer.

【0011】 Ik j =Σi=1 k-1,k i,j k-1 i …(1) これと同時に、第k層のj番目のユニットにおける出力
信号ok j を次式(2)によって算出する。なお、下記
j は、ユニットへの入出力特性を定める関数であり、
独立変数である上記入力の総和Ik j により微分可能
で、かつ入力の総和Ik j に対して非減少な関数であ
る。このfj としては、たとえば、シグモイド関数など
が用いられる。
I k j = Σ i = 1 w k−1, k i, j o k−1 i (1) At the same time, the output signal o k j in the j-th unit of the k-th layer is expressed by the following equation: It is calculated by (2). Note that f j below is a function that determines input / output characteristics to the unit.
Differentiable by an independent variable sum I k j of the input, and a non-decreasing function with respect to the sum I k j input. As this f j , for example, a sigmoid function or the like is used.

【0012】ok j =fj (Ik j ) …(2) このように、入力層から中間層を経由して出力層へと進
む情報処理をバックプロパゲーションにおける前進型処
理という。
[0012] o k j = f j (I k j) ... (2) Thus, as the forward-type process information processing via the intermediate layer from the input layer proceeds to the output layer in the back propagation.

【0013】続いて、第3段階として、求められた出力
信号ok j と、入力データとして与えられた第k層のj
番目のユニットにおける教師信号tk j とを比較する。
この教師信号tk j とは、入力される学習データの正解
となる信号である。換言すれば、教師信号tk j は、入
力された学習データから得られる計算値である出力信号
k j に対する理想値である。
[0013] Subsequently, as a third stage, the output signals obtained o k j and, the k-th layer, which is provided as input data j
Compare with the teacher signal t k j in the unit.
The teacher signal t k j is a signal that is a correct answer of the input learning data. In other words, the teacher signal t k j is an ideal value for the output signal o k j which is a calculated value obtained from the input learning data.

【0014】この教師信号tk j と出力信号ok j とが
一致している場合、第2段階に戻る。このときニューラ
ルネットワーク内の全ての結合荷重のデータは、入力デ
ータではなく、計算により求められ変更されたデータと
なっている。一方、教師信号tk j と出力信号ok j
が一致していない場合は、第4段階へ以降する。
[0014] In the case of this teacher signal t k j and the output signal o k j are the same, back to the second stage. At this time, the data of all connection weights in the neural network is not input data but data obtained by calculation and changed. On the other hand, if the teacher signal t k j and the output signal o k j do not coincide, to subsequent to the fourth step.

【0015】第4段階では、出力層の逆向き計算処理用
入力データである第k層のj番目のユニットの出力誤差
δk j を算出する。まず、第n層(k=n)である出力
層のj番目のユニットにおける出力誤差δn j は、誤差
評価関数ε(tn j ,on j )と、上述した式(2)とか
ら次式(3)により算出される。
In the fourth stage, the output error δ k j of the j-th unit of the k-th layer, which is the input data for the backward calculation processing of the output layer, is calculated. First, the output error [delta] n j in the j-th unit of the n-layer (k = n) in the form of the output layer, the error evaluation function epsilon (t n j, o n j) and, from the above equation (2) It is calculated by the following equation (3).

【0016】[0016]

【数2】 (Equation 2)

【0017】ここで、ニューラルネットワークにおける
各層のユニット間の結合荷重、たとえば、第k−1層の
i番目のユニットと第k層のj番目のユニットとの結合
荷重wk-1,k i,j の変化量Δwk-1,k i,j は、第k層の
第j番目のユニットにおける出力誤差δk j と、第k−
1層のi番目のユニットにおける出力信号ok-1 i とか
ら、次式(4)により算出される。
Here, the connection weight between the units of each layer in the neural network, for example, the connection weight w k−1, k i, of the i - th unit of the ( k−1) -th layer and the j-th unit of the k- th layer j of the change amount [Delta] w k-1, k i, j is the output error [delta] k j in the j-th unit of the k-th layer, the k-
It is calculated from the output signal ok -1 i of the i-th unit in the first layer by the following equation (4).

【0018】 Δwk-1,k i,j =ηδk j k-1 i …(4) η:比例定数 そして、上記出力層(第n層)以外の層である、第k層
のj番目のユニットにおける出力誤差δk j は、上記式
(2)と式(4)とから次式(5)により算出される。
なお、下記Nk+1 は、第k+1層におけるユニットの個
数を示し、下記δk+1 s は、第k+1層のs番目のユニ
ットにおける出力誤差を示す。同様に、下記wk,k+1
j,s は、第k層のj番目のユニットと第k+1層のs番
目のユニットとの結合荷重を示す。
Δw k−1, k i, j = ηδ k k o k−1 i (4) η: proportionality constant and j in the k- th layer other than the output layer (n-th layer) The output error δ k j in the unit is calculated by the following equation (5) from the above equations (2) and (4).
The following N k + 1 indicates the number of units in the k + 1-th layer, and the following δ k + 1 s indicates the output error in the s-th unit in the k + 1-th layer. Similarly, the following w k, k + 1
j, s indicates the coupling load between the j-th unit in the k-th layer and the s-th unit in the (k + 1) -th layer.

【0019】 δk j =fj (Ik j )(1−fj (Ik j ))ΣNk+1 s=1k+1 s k,k+1 j,s ) =ok j (1−ok j )ΣNk+1 s=1k+1 s k,k+1 j,s ) …(5) つまり、出力層である第n層において、上記式(3)に
て算出される第n層における出力誤差δn j と、上記式
(2)とから、出力層以外の層である中間層、第n−1
層における出力誤差δn-1 j が式(5)により算出され
る。さらに、この第n−1層における出力誤差δn-1 j
から式(4)により、第n−1層のユニットと第n−2
層のユニットとの結合荷重の変化量Δwn-2,n-1 i,j
算出される。そして、この結合荷重の変化量Δw
n-2,n-1 i,j と、第n層における出力誤差δn j と、上
記式(4)とから、第n−2層における出力誤差δn-2
j が算出される。
Δ k j = f j (I k j ) (1-f j (I k j )) Σ N k + 1 s = 1k + 1 s w k, k + 1 j, s ) = o k j (1-o k j ) Σ Nk + 1 s = 1 (δ k + 1 s w k, k + 1 j, s) ... (5) in other words, in the n-th layer is the output layer, the formula ( From the output error δ n j in the n-th layer calculated in 3) and the above equation (2), the intermediate layer other than the output layer, the (n−1) -th layer
The output error δ n-1 j in the layer is calculated by equation (5). Further, the output error δ n−1 j in the ( n−1) th layer
From the equation (4), the unit of the (n-1) th layer and the (n-2) th layer are
The amount of change Δw n−2, n−1 i, j of the coupling load between the layer and the unit is calculated. Then, the change amount Δw of the coupling load
n-2, n-1 i, j and the output error [delta] n j in the n layer, the equation (4) because the output in the n-2 layer error [delta] n-2
j is calculated.

【0020】上記のような結合荷重の変化量Δwk-1,k
i,j および出力誤差δk j を算出する操作を、入力層
(第1層)と第2層(1番目の中間層)とのユニットに
おける結合荷重の変化量Δw1,2 i,j が算出されるまで
繰り返す。
The change amount Δw k-1, k of the coupling load as described above
i, an operation of calculating a j and output error [delta] k j, the amount of change [Delta] w 1, 2 i of coupling weight in units of the input layer (first layer) and the second layer (first intermediate layer), j is Repeat until calculated.

【0021】このように、出力層から中間層を経由して
入力層へと進む情報処理をバックプロパゲーションにお
ける後進型処理という。
Such information processing that proceeds from the output layer to the input layer via the intermediate layer is called backward processing in back propagation.

【0022】最後に、第5段階として、この後進型処理
によって算出された各層のユニット間(具体的には、第
k−1層のi番目のユニットと第k層の第j番目のユニ
ットとの間)の結合荷重の変化量Δwk-1,k i,j を用い
て各結合荷重wk-1,k i,j の修正を行い、第2段階へ戻
る。上記ニューラルネットワークを用いた色修正処理を
行う装置では、このようにしてバックプロパゲーション
による学習が行われている。
Finally, as a fifth stage, between the units of each layer calculated by this backward type processing (specifically, the i-th unit of the (k-1) -th layer and the j-th unit of the k-th layer) the amount of change in coupling load between) the Δw k-1, k i, each connection weight with j w k-1, k i , performs a correction of j, returns to the second stage. In the device that performs the color correction process using the neural network, learning by back propagation is performed in this manner.

【0023】[0023]

【発明が解決しようとする課題】上記のようなバックプ
ロパゲーションによる学習方法では、入力データの入力
パターンpを提示したときにおいて、出力層からの誤差
評価関数ε(tn j ,on j )としては、教師信号tn j
と出力信号on j との差分を用いた関数である次式
(6)が用いられている。
In THE INVENTION to be solved INVENTION method learning by back propagation as described above, in the case presented input pattern p of the input data, the error evaluation function ε from the output layer (t n j, o n j ) As the teacher signal t n j
Equation (6) is used which is a function using a difference between the output signal o n j and.

【0024】 ε(tn j ,on j )=Ep =ΣN j=1 (tn pj−on pj)2…(6) tn pj:入力パターンpを提示したときの出力層のj番
目のユニットの教師信号 on pj:入力パターンpを提示したときの出力層のj番
目のユニットの出力信号 ここで、ニューラルネットワークを用いた色修正装置に
おいて、色補正および色座標変換を行う場合、教師信号
と出力信号との差分、すなわち出力信号の誤差における
平均値や標準偏差を小さくするような学習をニューラル
ネットワークに行わせる必要がある。これは、修正され
る色の誤差にばらつきがあると、得られる複製画におい
て、再現される各色に原画には見られない差異が生じる
ことになり、複製画全体としての色の再現性が低下する
ためである。
[0024] ε (t n j, o n j) = E p = Σ N j = 1 (t n pj -o n pj) 2 ... (6) t n pj: output layer when presenting the input pattern p J n unit teacher signal on pj : output signal of the j-th unit in the output layer when the input pattern p is presented Here, in the color correction device using the neural network, color correction and color coordinate conversion are performed. In this case, it is necessary to cause the neural network to perform learning so as to reduce the difference between the teacher signal and the output signal, that is, the average value and the standard deviation in the error of the output signal. This is because, if there is a variation in the color error to be corrected, in the obtained duplicate image, each reproduced color will have a difference that cannot be seen in the original image, and the color reproducibility of the entire duplicate image will decrease. To do that.

【0025】ところが、上記式(6)では、入力パター
ンpを提示したときに、出力層(第n層)のj番目のユ
ニットにおける教師信号tn j と出力信号on j との差
分(誤差)の2乗和を誤差評価関数ε(tn j ,on j
=Ep としている。このため、入力パターンpを提示し
たときの出力層の各ユニットにおける出力誤差δn j
平均値を小さくしたり、該出力誤差δn j の標準偏差を
小さくするには不適当となっている。
[0025] However, in the above formula (6), the input pattern when p was presented, j-th and the teacher signal t n j at unit output signal o n j and the difference (error in the output layer (the n-th layer) the sum of squares error evaluation function ε of) (t n j, o n j)
= E p . Therefore, it can reduce the average value of the output error [delta] n j of each unit in the output layer when presenting an input pattern p, has become unsuitable for reducing the standard deviation of the output error [delta] n j .

【0026】すなわち、上記式(6)の誤差評価関数ε
(tn j ,on j )=Ep は2乗和であるため、この式
(6)による誤差計算は、出力層から得られる出力信号
全体の誤差を最小とするものとなる。それゆえ、上記式
(6)を用いて、誤差評価を行った場合、上記各ユニッ
トから得られる出力信号on j の個々の出力誤差δn j
における平均値や標準偏差を評価することができないも
のとなっている。
That is, the error evaluation function ε of the above equation (6)
(t n j, o n j ) = for E p is sum of squares, the error calculation by the equation (6) is intended to minimize the error of the overall output signal obtained from the output layer. Therefore, by using equation (6), in the case of performing the error evaluation, each of the output error of the output signal o n j obtained from the respective units [delta] n j
Mean value and standard deviation cannot be evaluated.

【0027】本発明は上記問題点に鑑みてなされたもの
であって、その目的は、バックプロパゲーションにより
学習を行うニューラルネットワークを用いた色修正装置
において、誤差評価関数として、色補正または色座標変
換に最適な関数を用いることによって、従来よりも、さ
らに精度よく色補正および色座標変換できる色修正方法
および該色修正方法を用いる色修正装置を提供すること
にある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to provide a color correction apparatus using a neural network for learning by backpropagation. An object of the present invention is to provide a color correction method capable of performing color correction and color coordinate conversion with higher accuracy than ever before by using an optimal function for conversion, and a color correction apparatus using the color correction method.

【0028】[0028]

【課題を解決するための手段】本発明の請求項1記載の
色修正方法は、上記の課題を解決するために、出力信号
における誤差の平均値を最小にする誤差評価関数を用い
るニューラルネットワークによって色座標変換すること
により、入力画像の色修正を行うことを特徴としてい
る。
According to a first aspect of the present invention, there is provided a color correcting method, comprising: a neural network using an error evaluation function that minimizes an average value of an error in an output signal; It is characterized in that the color of the input image is corrected by color coordinate conversion.

【0029】上記の請求項1記載の方法によれば、誤差
を前層に伝播させるバックプロパゲーションにより学習
するニューラルネットワークにおいて、誤差評価関数と
して、上記の誤差評価関数を用いれば、ニューラルネッ
トワークの出力信号における誤差の平均値を最小にする
ことができる。そのため、上記ニューラルネットワーク
による色修正方法では、色座標変換する際の平均色差を
最小にすることが可能となり、従来よりも良好に色修正
処理を行うことができる。
According to the first aspect of the present invention, in a neural network learning by back propagation in which an error is propagated to a previous layer, if the error evaluation function is used as the error evaluation function, the output of the neural network is output. The average value of the errors in the signal can be minimized. Therefore, in the color correction method using the neural network, it is possible to minimize the average color difference at the time of color coordinate conversion, and it is possible to perform the color correction processing better than before.

【0030】本発明の請求項2記載の色修正方法は、上
記の課題を解決するために、上記請求項1記載の色修正
方法に加えて、上記ニューラルネットワークの出力層に
おけるN個のユニットのうちのj番目のユニットに対す
る教師信号をtn j とし、上記j番目のユニットからの
出力信号をon j とした場合、上記誤差評価関数は、次
式、 誤差評価関数ε(tn j ,on j )=√{ΣN j=1 (tn
j −on j )2} で表される関数であることを特徴としている。
According to a second aspect of the present invention, in order to solve the above-mentioned problem, in addition to the first aspect of the present invention, in addition to the color correcting method of the first aspect, the number of units of N units in the output layer of the neural network is increased. a teacher signal for the j-th unit of which a t n j, if the output signal from the j-th unit was o n j, the error evaluation function is expressed by the following equation, error evaluation function epsilon (t n j, o n j ) = √ {Σ N j = 1 (t n
is characterized by a function expressed by j -o n j) 2}.

【0031】上記の請求項2記載の方法によれば、ニュ
ーラルネットワークの第n層である出力層における第j
番目のユニットに対する逆向き計算処理用データである
出力誤差δn j は、上記誤差評価関数ε(tn j
n j )により算出される。この誤差評価関数ε
(tn j ,on j )は、N個の成分として得られる教師信
号tn j と出力信号on j との差分、すなわち平均色差
を最小にすることができる誤差評価関数である。
According to the above method, the j-th output layer of the neural network is the n-th output layer.
Th output error [delta] n j are opposite calculation processing data for the unit, the error evaluation function ε (t n j,
is calculated by the o n j). This error evaluation function ε
(t n j, o n j ) is the error evaluation function may be minimized difference between the N teacher signal obtained as a component t n j and the output signal o n j, i.e. the average color difference.

【0032】そのため、上記誤差評価関数ε(tn j ,o
n j )により算出される出力誤差δn j を用いてバック
プロパゲーションによるニューラルネットワークの学習
を行うことで、色座標変換における平均色差を効果的に
最小にして、より一層良好に色修正処理を行うことがで
きる。
Therefore, the error evaluation function ε (t n j , o
n j ), the neural network is learned by back propagation using the output error δ n j , thereby effectively minimizing the average color difference in the color coordinate conversion, and performing the color correction process more satisfactorily. It can be carried out.

【0033】本発明の請求項3記載の色修正方法は、上
記の課題を解決するために、出力信号における誤差の平
均値および標準偏差を最小にする誤差評価関数を用いる
ニューラルネットワークによって色補正することによ
り、入力画像の色修正を行うことを特徴としている。
According to a third aspect of the present invention, there is provided a color correcting method for correcting a color by a neural network using an error evaluation function for minimizing an average value and a standard deviation of errors in an output signal. Thus, the color of the input image is corrected.

【0034】上記の請求項3記載の方法によれば、誤差
を前層に伝播させるバックプロパゲーションにより学習
するニューラルネットワークにおいて、誤差評価関数と
して、上記の誤差評価関数を用いれば、ニューラルネッ
トワークの出力信号における誤差の平均値を最小にする
ことができるとともに、上記誤差のばらつきを小さくす
る、すなわち誤差の標準偏差を最小にすることができ
る。そのため、上記ニューラルネットワークによる色修
正方法では、色補正する際の平均色差を最小にし、かつ
色差の標準偏差も最小にできる。したがって、ある特定
の代表色のみに色差が集中することが抑制され、従来よ
りも良好に色修正処理を行うことができる。
According to the third aspect of the present invention, in a neural network learning by back propagation in which an error is propagated to a previous layer, if the above error evaluation function is used as the error evaluation function, the output of the neural network is output. The average value of the error in the signal can be minimized, and the variation of the error can be reduced, that is, the standard deviation of the error can be minimized. Therefore, in the color correction method using the neural network, the average color difference at the time of color correction can be minimized, and the standard deviation of the color difference can be minimized. Therefore, concentration of the color difference only on a certain specific representative color is suppressed, and the color correction process can be performed better than in the related art.

【0035】本発明の請求項4記載の色修正方法は、上
記の課題を解決するために、上記請求項3の色修正方法
に加えて、上記ニューラルネットワークの出力層におけ
るN個のユニットのうちのj番目のユニットに対する教
師信号をtn j とし、上記j番目のユニットからの出力
信号をon j とした場合、上記誤差評価関数は、次式、 誤差評価関数ε(tn j ,on j )={ΣN j=1 (tn j
n j )22 で表される関数であることを特徴としている。
According to a fourth aspect of the present invention, in order to solve the above-mentioned problem, in addition to the third aspect of the present invention, in addition to the color correcting method of the third aspect, of the N units in the output layer of the neural network, If the teacher signal for the j-th unit and t n j, and the output signal from the j-th unit and o n j, the error evaluation function is expressed by the following equation, error evaluation function epsilon (t n j, o n j ) = {Σ N j = 1 (t n j
o n j ) 22 .

【0036】上記の請求項4記載の方法によれば、ニュ
ーラルネットワークの第n層である出力層における第j
番目のユニットに対する逆向き計算処理用データである
出力誤差δn j は、上記誤差評価関数ε(tn j
n j )により算出される。この誤差評価関数ε
(tn j ,on j )は、N個の成分として得られる教師信
号tn j と出力信号on j との差分の2乗和のさらに2
乗であるため、誤差の平均値に加えて、誤差の標準偏差
も最小にすることができる誤差評価関数となっている。
According to the method of the fourth aspect, the j-th output layer of the neural network is the n-th output layer.
Th output error [delta] n j are opposite calculation processing data for the unit, the error evaluation function ε (t n j,
is calculated by the o n j). This error evaluation function ε
(t n j, o n j ) further sum of squares of the difference between the teacher signal t n j obtained as N components the output signal o n j 2
Since it is a power, the error evaluation function can minimize the standard deviation of the error in addition to the average value of the error.

【0037】そのため、上記誤差評価関数ε(tn j ,o
n j )により算出される出力誤差δn j を用いてバック
プロパゲーションによるニューラルネットワークの学習
を行うことで、色補正における平均色差および色差の標
準偏差を効果的に最小にして、より一層良好に色修正処
理を行うことができる。
Therefore, the error evaluation function ε (t n j , o
By learning the neural network by back propagation using the output error δ n j calculated by n j ), the average color difference and the standard deviation of the color difference in the color correction are effectively minimized, and further better. Color correction processing can be performed.

【0038】本発明の請求項5記載の色修正方法は、上
記の課題を解決するために、上記請求項3の色修正方法
に加えて、上記ニューラルネットワークの出力層におけ
るN個のユニットのうちのj番目のユニットに対する教
師信号をtn j とし、上記j番目のユニットからの出力
信号をon j とした場合、上記誤差評価関数は、次式、
According to a fifth aspect of the present invention, in order to solve the above-mentioned problem, in addition to the third aspect of the present invention, in addition to the color correcting method of the third aspect, among the N units in the output layer of the neural network, a teacher signal for the j-th unit and t n j of, if the output signal from the j-th unit was o n j, is the error evaluation function, the following equation,

【0039】[0039]

【数3】 (Equation 3)

【0040】で表される関数であることを特徴としてい
る。
This is characterized in that it is a function represented by

【0041】上記の請求項5記載の方法によれば、ニュ
ーラルネットワークの第n層である出力層における第j
番目のユニットに対する逆向き計算処理用データである
出力誤差δn j は、上記誤差評価関数ε(tn j
n j )により算出される。この誤差評価関数ε
(tn j ,on j )は、N個の成分として得られる教師信
号tn j と出力信号on j との差分の2乗和のさらにγ
乗であり、かつ1<γ<2であるため、誤差の平均値お
よび標準偏差を最小にすることに加えて、ニューラルネ
ットワークにおける出力パターンが局所解に陥ることを
抑制できる誤差評価関数となっている。
According to the method of the fifth aspect, the j-th output layer of the neural network is the n-th output layer.
Th output error [delta] n j are opposite calculation processing data for the unit, the error evaluation function ε (t n j,
is calculated by the o n j). This error evaluation function ε
(t n j, o n j ) further the difference between the sum of squares of the teacher signal t n j obtained as N components the output signal o n j gamma
Since it is a power and 1 <γ <2, it becomes an error evaluation function that can suppress the output pattern in the neural network from falling into a local solution in addition to minimizing the average value and the standard deviation of the errors. I have.

【0042】そのため、上記誤差評価関数ε(tn j ,o
n j )により算出される出力誤差δn j を用いてバック
プロパゲーションによるニューラルネットワークの学習
を行うことで、色補正における平均色差および色差の標
準偏差を最小にするとともに、得られる出力パターンが
局所解に陥ることを抑制し、より一層効果的な色修正処
理を行うことができる。
Therefore, the error evaluation function ε (t n j , o
n j ), the learning of the neural network by back propagation using the output error δ n j minimizes the average color difference and the standard deviation of the color difference in color correction, and the obtained output pattern is localized. A solution can be suppressed, and a more effective color correction process can be performed.

【0043】本発明の請求項6記載の色修正装置は、上
記の課題を解決するために、上記請求項1から5の何れ
か1項に記載の色修正方法を実行する色修正手段を備え
ていることを特徴としている。
According to a sixth aspect of the present invention, there is provided a color correcting apparatus including a color correcting means for executing the color correcting method according to any one of the first to fifth aspects. It is characterized by having.

【0044】上記の請求項6記載の構成によれば、バッ
クプロパゲーションによる学習を行うニューラルネット
ワークを用いて色修正を行うために、色修正の手法、す
なわち色座標変換や色補正などに応じた最適な誤差評価
を行うことができる誤差評価関数を用いている。そのた
め、上記色修正装置は、カラー画像処理装置において、
従来よりも良好な色修正処理を行うことができる。
According to the configuration of the sixth aspect, in order to perform color correction using a neural network that performs learning by back propagation, a method of color correction, that is, color coordinate conversion, color correction, or the like is used. An error evaluation function capable of performing an optimum error evaluation is used. Therefore, the color correction device is a color image processing device,
It is possible to perform better color correction processing than before.

【0045】[0045]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

〔実施の形態1〕本発明の実施の一形態を図1ないし図
3および図6に基づいて説明すれば以下の通りである。
なお、これによって、本発明が限定されるものではな
い。本実施の形態では、カラー画像処理装置において、
カラー原画を入力装置により、赤(R)・緑(G)・青
(B)の代表色としての入力信号(以下、RGB信号と
称する)として入力し、その原画像の入力データをCI
E(国際証明委員会)L* * * 表色系に変換するこ
とによって、入力画像の色修正を行う場合について説明
する。
[Embodiment 1] An embodiment of the present invention will be described below with reference to FIGS. 1 to 3 and FIG.
Note that the present invention is not limited by this. In the present embodiment, in the color image processing apparatus,
A color original image is input by an input device as an input signal (hereinafter, referred to as an RGB signal) as a representative color of red (R), green (G), and blue (B), and input data of the original image is CI.
A description will be given of a case where the color of an input image is corrected by converting into an E (International Certification Committee) L * a * b * color system.

【0046】本実施の形態にかかるカラー画像処理装置
は、図2に示すように、入力装置1、色修正装置2およ
び出力装置3を備えている。入力装置1はスキャナなど
からなっており、原画の色データを色修正装置2へ入力
する。色修正装置2は、色修正手段により入力された色
データに対して色修正処理を行う。出力装置3は、プリ
ンタなどからなっており、色修正処理された原画像を用
紙などの記録媒体に記録して出力する。
As shown in FIG. 2, the color image processing apparatus according to this embodiment includes an input device 1, a color correction device 2, and an output device 3. The input device 1 includes a scanner or the like, and inputs color data of an original image to the color correction device 2. The color correction device 2 performs a color correction process on the color data input by the color correction unit. The output device 3 is composed of a printer or the like, and records the color-corrected original image on a recording medium such as paper and outputs it.

【0047】上記色修正装置2では、色座標変換するた
めの色修正手段としてニューラルネットワーク2aが用
いられている。このニューラルネットワーク2aは、図
3に示すように、入力層21、中間層22、および出力
層23の3層を備えるネットワークである。
In the color correcting device 2, a neural network 2a is used as a color correcting means for performing color coordinate conversion. The neural network 2a is a network including three layers, an input layer 21, an intermediate layer 22, and an output layer 23, as shown in FIG.

【0048】入力層21および出力層23は、それぞ
れ、ネットワークを構成するユニット(ニューロンとも
いう)20を3個ずつ備えている。これは、RGB信号
の入力データをL* * * 表色系の出力データとして
色座標変換するためである。したがって、ニューラルネ
ットワーク2aは、3入力3出力となっている。また、
中間層22は、上記ユニット20を8個備えている。上
記各ユニット20は、互いに、ライン24で示すように
変化可能な結合荷重で結合されている。
Each of the input layer 21 and the output layer 23 includes three units (also called neurons) 20 constituting a network. This is because the input data of the RGB signal is subjected to the color coordinate conversion as the output data of the L * a * b * color system. Therefore, the neural network 2a has three inputs and three outputs. Also,
The intermediate layer 22 includes eight units 20 described above. The units 20 are coupled to each other with a variable coupling load as indicated by line 24.

【0049】上記ニューラルネットワーク2aの学習に
用いられる教師信号のデータは、所定のカラーチャート
を分光測色計により測定して得られるL* * * 表色
系のデータである。また、学習データは、上記所定のカ
ラーチャートを入力装置1で取り込んで得られるRGB
信号のデータである。さらに学習則としては、公知のバ
ックプロパゲーションによる最降下法を用いている。
The data of the teacher signal used for learning of the neural network 2a is data of the L * a * b * color system obtained by measuring a predetermined color chart with a spectrophotometer. Further, the learning data is obtained by inputting the predetermined color chart by the input device 1 and obtaining RGB data.
This is signal data. Further, as a learning rule, the lowest descent method based on a known back propagation is used.

【0050】上記ニューラルネットワーク2aの構築
は、次の手順によってなされる。まず、手順1として、
所定のカラーチャート(このカラーチャートには、M色
が用いられているとする)を分光測色計で測定し、得ら
れるL* * * 表色系データを教師信号のデータとす
る。次に、手順2として、同一のカラーチャートを入力
装置1でRGB信号のデータとして色修正装置2に入力
し、この入力データを学習データとする。最後に、手順
3として、上記教師信号のデータと学習データとを用い
て、ニューラルネットワーク2aをバックプロパゲーシ
ョンにより学習させる。
The construction of the neural network 2a is performed by the following procedure. First, as procedure 1,
A predetermined color chart (assuming that M colors are used in this color chart) is measured by a spectrophotometer, and the obtained L * a * b * color system data is used as teacher signal data. Next, as a procedure 2, the same color chart is input to the color correction device 2 as RGB signal data by the input device 1 and the input data is used as learning data. Finally, as a procedure 3, the neural network 2a is trained by back propagation using the teacher signal data and the learning data.

【0051】上記手順3についてさらに詳しく説明する
と、図1に示すように、上記バックプロパゲーションに
よる学習は、基本的には、6つのステップ(以下、ステ
ップをSと略す)にて行われる。まず、S1として、上
記手順1および手順2にて作成した教師信号のデータと
学習データとからなる入力データの入力パターンを提示
する。この入力パターンに基づいて、ニューラルネット
ワークの前進型処理が行われる。
The procedure 3 will be described in more detail. As shown in FIG. 1, the learning by the back propagation is basically performed in six steps (hereinafter, steps are abbreviated as S). First, as S1, an input pattern of input data composed of the data of the teacher signal and the learning data created in the above procedures 1 and 2 is presented. On the basis of this input pattern, the forward processing of the neural network is performed.

【0052】次に、S2として、ニューラルネットワー
ク2aにおける各層の各ユニット20の出力誤差を算出
する。この出力誤差の算出には、第k層のj番目のユニ
ット20への教師信号tk j とユニット20からの出力
信号ok j との差分の関数ε(tk j ,ok j ) が誤差評
価関数として用いられる。この誤差評価関数ε(tk j
k j ) は、ニューラルネットワーク2aの中間層22
または出力層23における第j番目のユニット20k j
からの出力信号ok j で微分可能となっている。
Next, as S2, the output error of each unit 20 of each layer in the neural network 2a is calculated. To calculate the output error, a function ε (t k j , o k j ) of a difference between the teacher signal t k j to the j-th unit 20 of the k-th layer and the output signal o k j from the unit 20 is obtained. Used as an error evaluation function. This error evaluation function ε (t k j ,
o k j), the intermediate layer of the neural network 2a 22
Or the j-th unit 20 k j in the output layer 23
It has become a possible differential in the output signal o k j from.

【0053】また、各ユニット20における入出力関係
を与える関数fj は、図6に示すようなシグモイド関数
であり、次式(11a)または(11b)で表される。
The function f j that gives the input / output relationship in each unit 20 is a sigmoid function as shown in FIG. 6, and is represented by the following equation (11a) or (11b).

【0054】 fj (x)=1/(1+exp(−x)) …(11a) または、 fj (x)=1/(1+exp(−0.5 * x))…(11b) ここで、上記出力信号ok j は、第k層のj番目のユニ
ットへの入力の総和Ik j と、上記シグモイド関数fj
とから、次式(12)により、S1におけるニューラルネ
ットワーク2aの前進型処理において算出されている。
なお、上記シグモイド関数fj は、独立変数である上記
入力の総和Ik j により微分可能で、かつ入力の総和I
k j に対して非減少な関数である。
F j (x) = 1 / (1 + exp (−x)) (11a) or f j (x) = 1 / (1 + exp (−0.5 * x)) (11b) signal o k j is the sum I k j input to the j-th unit of the k-th layer, the sigmoid function f j
From the following equation (12), it is calculated in the forward processing of the neural network 2a in S1.
Note that the sigmoid function f j can be differentiated by the sum I k j of the inputs, which are independent variables, and the sum I k of the inputs
It is a non-decreasing function for k j .

【0055】ok j =fj (Ik j ) …(12) 上記ニューラルネットワーク2aにおいて、出力層23
(第n層、上記ニューラルネットワーク2aでは、n=
3)のj番目のユニット20n j の誤差を評価する誤差
評価関数ε(tn j ,on j ) と、上記式(12)とから、
出力層23における第j番目のユニット20n j の出力
誤差δn j は、次式(13)となる。なお、In j は、出
力層23のj番目のユニット20n j における入力の総
和を示す。
[0055] o k j = f j (I k j) ... (12) In the above-described neural network 2a, the output layer 23
(In the n-th layer, the neural network 2a, n =
J-th unit 20 n j error evaluation function epsilon (t n j for evaluating the error of 3), and o n j), from the equation (12),
The output error δ n j of the j-th unit 20 n j in the output layer 23 is given by the following equation (13). Incidentally, I n j represents the sum of the input in the j-th unit 20 n j of the output layer 23.

【0056】[0056]

【数4】 (Equation 4)

【0057】また、上記出力誤差δn j に基づき、S3
として、ニューラルネットワーク2aにおける各層のユ
ニット20間の結合荷重を算出する。たとえば、第k−
1層のi番目のユニット20k-1 i と第k層のj番目の
ユニット20k j との結合荷重wk-1,k i,j の変化量Δ
k-1,k i,j は、第k層の第j番目のユニット20k j
における出力誤差δk j と、第k−1層のi番目のユニ
ット20k-1 i における出力信号ok-1 i とから、次式
(14)により算出される。
Further, based on the output error δ n j , S3
Then, the connection weight between the units 20 of each layer in the neural network 2a is calculated. For example, the k-th
The change amount Δ of the connection weight w k−1, k i, j between the i - th unit 20 k−1 i in the first layer and the j-th unit 20 k j in the k- th layer
w k−1, k i, j is the j-th unit 20 k j of the k- th layer
From the output error [delta] k j, and the output signal o k-1 i in i-th unit 20 k-1 i of the k-1 layer in, is calculated by the following equation (14).

【0058】 Δwk-1,k i,j =ηδk j k-1 i …(14) η:比例定数 そして、上記出力層23(第n層)以外の層における出
力誤差を算出する式は、第k層のj番目のユニット20
k j における出力誤差δk j を算出する一般式として表
すと上記式(12)と式(14)とから次式(15)により算
出される。なお、下記Nk+1 は、第k+1層におけるユ
ニットの個数を示し、下記δk+1 s は、第k+1層のs
番目のユニット20k+1 s における出力誤差を示す。同
様に、下記wk,k+1 j,s は、第k層のj番目のユニット
と第k+1層のs番目のユニットとの結合荷重を示す。
Δw k−1, k i, j = ηδ k j o k−1 i (14) η: proportionality constant and an expression for calculating an output error in a layer other than the output layer 23 (n-th layer) Is the j-th unit 20 of the k-th layer
Since it Expressed as a general expression for calculating the output error [delta] k j in k j the equation (12) and equation (14) is calculated by the following equation (15). The following N k + 1 indicates the number of units in the (k + 1) th layer, and the following δ k + 1 s indicates the s in the (k + 1) th layer.
The output error in the 20th unit 20 k + 1 s is shown. Similarly, the following w k, k + 1 j, s indicates the coupling load between the j-th unit in the k-th layer and the s-th unit in the k + 1-th layer.

【0059】 δk j =fj (Ik j )(1−fj (Ik j ))ΣNk+1 s=1k+1 s k,k+1 j,s ) =ok j (1−ok j )ΣNk+1 s=1k+1 s k,k+1 j,s ) …(15) たとえば、出力層23(第3層)において、上記式(1
3)にて出力誤差δ3 jが算出される。この出力誤差δ3
j と、上記式(12)とから、出力層23以外の層である
中間層22(第2層)における出力誤差δ2 j が式(1
5)により算出される。さらに、この中間層22におけ
る出力誤差δ2 j から式(14)により、入力層21(第
1層)のi番目のユニット201 i と中間層22のj番
目のユニット202 j との結合荷重の変化量Δw1,2
i,j が算出される。
Δ k j = f j (I k j ) (1−f j (I k j )) Σ N k + 1 s = 1k + 1 s w k, k + 1 j, s ) = o k j (1− ok j ) Σ N k + 1 s = 1k + 1 s w k, k + 1 j, s ) (15) For example, in the output layer 23 (third layer), (1
The output error δ 3 j is calculated in 3). This output error δ 3
j and the above equation (12), the output error δ 2 j in the intermediate layer 22 (second layer) other than the output layer 23 is expressed by the following equation (1).
It is calculated by 5). Further, from the output error δ 2 j in the intermediate layer 22, the connection between the i-th unit 20 1 i of the input layer 21 (first layer) and the j-th unit 20 2 j of the intermediate layer 22 is calculated by Expression (14). Load change amount Δw 1,2
i and j are calculated.

【0060】このように、バックプロパゲーションで
は、誤差評価関数ε(tn j ,on j )を最小にするよう
に、第k層の第j番目のユニット20k j における出力
誤差δk j が算出される。
[0060] Thus, in backpropagation, the error evaluation function ε (t n j, o n j) a so as to minimize the j-th unit of the k-th layer 20 k output error in j [delta] k j Is calculated.

【0061】このようにして得られた結合荷重の変化量
Δwk-1,k i,j に基づき、S4として、結合荷重w
k-1,k i,j の修正を行う。これが、バックプロパゲーシ
ョンにおける後進型処理である。
Based on the change amount Δw k−1, k i, j of the connection load obtained in this way, the connection load w
Modify k-1, k i, j . This is the backward processing in the back propagation.

【0062】次に、S5として、上記ニューラルネット
ワーク2aにおいて、出力パターンとして全てのパター
ンを提示したか判定する。このとき、全てのパターンが
提示されていないと判定された場合は、再びS1に戻っ
て新たなパターンを提示して前進型処理を行う。一方、
全てのパターンが提示されていると判定された場合は、
最後のS6に進む。
Next, in S5, it is determined whether all patterns have been presented as output patterns in the neural network 2a. At this time, if it is determined that all the patterns have not been presented, the process returns to S1 to present a new pattern and perform the forward processing. on the other hand,
If it is determined that all patterns are presented,
Proceed to the last S6.

【0063】このS6では、上記ニューラルネットワー
ク2aが学習を終了するか否かの判定を行う。もし、終
了条件を満たしていない場合には、S1に戻り学習を繰
り返す。一方、終了条件を満たしていれば、学習を終了
する。
In S6, it is determined whether or not the neural network 2a ends the learning. If the termination condition is not satisfied, the process returns to S1 to repeat the learning. On the other hand, if the termination condition is satisfied, the learning is terminated.

【0064】ところで、上記S2においては、色座標変
換の評価は、平均色差の大小により評価されることが一
般的である。そのため、上記平均色差を最小にすること
が、色座標変換を行うニューラルネットワーク2aの目
的となる。
Incidentally, in the above S2, it is general that the evaluation of the color coordinate conversion is evaluated based on the magnitude of the average color difference. Therefore, minimizing the average color difference is the purpose of the neural network 2a that performs color coordinate conversion.

【0065】ここで、通常、バックプロパゲーションに
よる学習方法では、上記の誤差評価関数ε(tn j ,on
j )として、入力パターンpを提示した場合、次式(1
6)に示す関数が用いられている。
[0065] In this case, usually, in the learning method by the back propagation, the above error evaluation function ε (t n j, o n
j ), when the input pattern p is presented, the following equation (1)
The function shown in 6) is used.

【0066】 ε(tn j ,on j ) =Ep =ΣN j=1 (tn pj−on pj2 …(16) tn pj:入力パターンpを提示したときの出力層のj番
目のユニットの教師信号 on pj:入力パターンpを提示したときの出力層のj番
目のユニットの出力信号 この式(16)は、入力パターンpを提示したときの出力
層23のユニット20 n j における教師信号tn pjと出
力信号on pjとの差分、すなわち教師信号tn j と出力
信号on j との誤差に基づく関数であり、この教師信号
n j と出力信号on j との差分の2乗和となってい
る。
Ε (tn j, On j) = Ep= ΣN j = 1(tn pj-On pj)Two… (16) tn pj: J number of the output layer when the input pattern p is presented
Eye unit teacher signal on pj: J number of the output layer when the input pattern p is presented
Output signal of the eye unit This equation (16) is the output when the input pattern p is presented.
Unit 20 of layer 23 n jTeacher signal t atn pjAnd out
Force signal on pj, Ie, the teacher signal tn jAnd output
Signal on jIs a function based on the error of
tn jAnd output signal on jAnd the sum of the squares of the differences
You.

【0067】しかしながら、この式(16)を用いた場
合、出力層23からの出力データにおける誤差の総和を
最小にすることはできても、誤差の平均値(本実施の形
態の場合では、平均色差)を最小にするような学習をニ
ューラルネットワークに行わせることができない。
However, when this equation (16) is used, the sum of the errors in the output data from the output layer 23 can be minimized, but the average value of the errors (in this embodiment, the average Learning that minimizes (color difference) cannot be performed by the neural network.

【0068】そのため、上記入力パターンpにおける上
記カラーチャートの測定値と計算値との平均色差を最小
にできる誤差評価関数ε(tn j ,on j ) を設定する必
要が生ずる。このために、まず、上記平均色差を次式
(17)にて表す。
[0068] Therefore, the input pattern error evaluation functions that can minimize the average color difference between the measured and calculated values of the color chart in p ε (t n j, o n j) is necessary to set the resulting. For this purpose, first, the average color difference is expressed by the following equation (17).

【0069】[0069]

【数5】 (Equation 5)

【0070】そこで、この式(17)にて表される平均色
差を最小とするような誤差評価関数ε(tn j ,on j )
、すなわち、出力層23からの出力信号on j の誤差
の平均値を最小とするような誤差評価関数ε(tn j ,o
n j ) =Ep2を新たに設定する。すなわち、上記式(1
6)で示される誤差評価関数ε(tn j ,on j ) を、上
記の式(17)に基づく関数である次式(18)に置き換え
る。なお、出力層23のユニット20の数はN=3であ
る。
[0070] Therefore, the error evaluation function that the average color difference represented by the formula (17) and the minimum ε (t n j, o n j)
, I.e., the output signal from the output layer 23 o n the error evaluation function that minimizes the mean value of the error of j ε (t n j, o
n j ) = E p2 is newly set. That is, the above equation (1
Error evaluation function epsilon (t n j represented by 6), the o n j), is replaced in the following equation (18) is a function based on the above equation (17). Note that the number of units 20 in the output layer 23 is N = 3.

【0071】[0071]

【数6】 (Equation 6)

【0072】それゆえ、この式(18)から、出力層23
の第1番目のユニット203 1 であるL* について考え
ると、次式(19)のようになる。
Therefore, from this equation (18), the output layer 23
Considering L * , which is the first unit 20 31 , the following expression (19) is obtained.

【0073】[0073]

【数7】 (Equation 7)

【0074】出力層23の第2番目のユニット203 2
であるa* および第3番目のユニット203 3 であるb
* についても、上記式(19)と同様である。その結果、
上記式(13)は、次式(20)で表すことができる。
[0074] The second unit of the output layer 23 20 3 2
In it a * and third unit 20 3 is 3 b
* Is the same as the above equation (19). as a result,
The above equation (13) can be expressed by the following equation (20).

【0075】[0075]

【数8】 (Equation 8)

【0076】このように、出力層23(第n層)におけ
る第j番目のユニット20n j に対する逆向き計算処理
用データである出力誤差δn j は、平均色差を最小とす
るような誤差評価関数ε(tn j ,on j ) =Ep2により
算出されるので、この出力誤差を用いてバックプロパゲ
ーションによる学習を行うことで、平均色差を最小にす
ることができる。
As described above, the output error δ n j , which is the data for the backward calculation processing for the j-th unit 20 n j in the output layer 23 (n-th layer), is an error evaluation that minimizes the average color difference. function ε (t n j, o n j) because it is calculated by = E p2, by performing learning by back propagation using the output error can be an average color difference to a minimum.

【0077】以上のように、本実施の形態における色修
正方法では、誤差を前層に伝播させるバックプロパゲー
ションにより学習を行うニューラルネットワークにおい
て、上記式(18)を用いていることにより、平均色差を
最小化することが可能となる。その結果、上記色修正方
法を用いた本実施の形態にかかる色修正装置は、カラー
画像処理装置において、良好な色座標変換を行うことが
できるものとなっている。
As described above, in the color correction method according to the present embodiment, the average color difference is obtained by using the above equation (18) in the neural network for learning by back propagation in which the error is propagated to the previous layer. Can be minimized. As a result, the color correction apparatus according to the present embodiment using the above-described color correction method can perform good color coordinate conversion in the color image processing apparatus.

【0078】なお、誤差評価関数ε(tn j ,on j )
は、上記式(18)で表されるEp2にのみ限定されるもの
ではなく、色座標変換において、誤差評価を最適に行え
る関数であればよい。また、上記色修正装置2は、誤差
評価関数ε(tn j ,on j ) としての関数が複数設定さ
れており、色座標変換される原画の種類などに応じて、
上記複数の関数から最適な関数を適宜選択するような構
成であってもよい。
[0078] It should be noted that the error evaluation function ε (t n j, o n j)
Is not limited to E p2 represented by the above equation (18), but may be any function that can optimally evaluate an error in color coordinate conversion. Further, the color correction device 2, the error evaluation function ε (t n j, o n j) function as are several sets, depending on the type of the original to be converted color coordinates,
The configuration may be such that an optimal function is appropriately selected from the plurality of functions.

【0079】〔実施の形態2〕本発明の実施の他の形態
について、図1および図4ないし図6に基づいて説明す
れば、以下の通りである。なお、説明の便宜上、前記実
施の形態1の図面に示した部材と同一の機能を有する部
材には、同一の符号を付記し、その説明を省略する。
Embodiment 2 Another embodiment of the present invention will be described below with reference to FIG. 1 and FIGS. 4 to 6. For the sake of convenience, members having the same functions as those shown in the drawings of the first embodiment are denoted by the same reference numerals, and description thereof will be omitted.

【0080】本実施の形態では、図4に示すように、前
記実施の形態1に示したカラー画像処理装置において、
色修正装置2に代えて色修正装置4を用いている点が異
なっている。この色修正装置4は、入力装置1から入力
されたRGB信号を色補正して、シアン(C)、マゼン
タ(M)、イエロー(Y)の濃度信号(以下、CMY信
号と称する)に変換することにより、入力画像の色修正
を行う構成である。
In this embodiment, as shown in FIG. 4, in the color image processing apparatus shown in the first embodiment,
The difference is that a color correction device 4 is used instead of the color correction device 2. The color correction device 4 color-corrects the RGB signals input from the input device 1 and converts them into cyan (C), magenta (M), and yellow (Y) density signals (hereinafter, referred to as CMY signals). Thus, the color of the input image is corrected.

【0081】本実施の形態にかかるカラー画像処理装置
では、前記実施の形態1と同様に、入力装置1はスキャ
ナなどからなっており、原画の色データを色修正装置2
へ取り込ませる。出力装置3はプリンタなどからなって
おり、色修正処理された原画像を用紙などの記録媒体に
記録して出力する。
In the color image processing apparatus according to the present embodiment, similarly to the first embodiment, the input device 1 comprises a scanner or the like, and the color data of the original image is
To be captured. The output device 3 is composed of a printer or the like, and records the color-corrected original image on a recording medium such as paper and outputs it.

【0082】上記色修正装置4では、色座標変換するた
めの色修正手段としてニューラルネットワーク4aが用
いられている。このニューラルネットワーク4aは、図
5に示すように、入力層41、中間層42・43、およ
び出力層44の4層を備えるネットワークである。
In the above-described color correction device 4, a neural network 4a is used as color correction means for performing color coordinate conversion. As shown in FIG. 5, the neural network 4a is a network including four layers: an input layer 41, intermediate layers 42 and 43, and an output layer 44.

【0083】入力層41および出力層44は、それぞ
れ、ネットワークを構成するユニット40を3個ずつ備
えている。これは、RGB信号の入力データをCMY信
号の出力データとして色補正するためである。したがっ
て、ニューラルネットワーク4aは3入力3出力となっ
ている。また、中間層42・43は、上記ユニット40
を6個備えている。上記各ユニット40は、互いに、ラ
イン45で示すように変化可能な結合荷重により結合さ
れている。
Each of the input layer 41 and the output layer 44 includes three units 40 constituting a network. This is for color correction of input data of the RGB signal as output data of the CMY signal. Therefore, the neural network 4a has three inputs and three outputs. Also, the intermediate layers 42 and 43 are
Are provided. The units 40 are connected to each other by a variable connection load as indicated by a line 45.

【0084】このニューラルネットワーク4aの学習に
使用される教師信号のデータは、CMY信号の最小値と
最大値との間をそれぞれ等間隔に区切った場合におい
て、区切られたCMY信号の全ての組み合わせである。
また、学習データは、教師信号として選択されたCMY
信号のデータをプリンタで出力し、出力された色サンプ
ルをスキャナなどの入力装置1で取り込んで得られるR
GB信号のデータである。さらに、ニューラルネットワ
ーク4aの学習則として、公知のバックプロパゲーショ
ン法による最降下法を使用する。
The data of the teacher signal used for learning of the neural network 4a is obtained by combining all the divided CMY signals when the minimum value and the maximum value of the CMY signal are divided at equal intervals. is there.
The learning data is CMY selected as a teacher signal.
The signal data is output by a printer, and the output color sample is captured by an input device 1 such as a scanner.
This is the data of the GB signal. Further, as the learning rule of the neural network 4a, the lowest descent method based on a known back propagation method is used.

【0085】上記ニューラルネットワーク4aの構築
は、次の手順によってなされる。まず、手順1として、
CMY信号における各9ステップの色である、729色
を教師信号のデータとする。次に、手順2として、選択
された729色のデータを出力装置3で出力する。続い
て、手順3として、出力された色サンプルを入力装置1
によってRGB信号のデータとして色修正装置4に入力
し、この729色のRGB信号の入力データを学習デー
タとする。最後に、手順4として、上記教師信号のデー
タと学習データとを用いて、ニューラルネットワーク4
aをバックプロパゲーションにより学習させる。
The construction of the neural network 4a is performed by the following procedure. First, as procedure 1,
729 colors, which are colors of each of the nine steps in the CMY signal, are used as teacher signal data. Next, as the procedure 2, the data of the selected 729 colors is output by the output device 3. Subsequently, as a procedure 3, the output color sample is input to the input device 1.
Thus, the input data of the RGB signals of 729 colors is set as learning data. Finally, as a procedure 4, the neural network 4 uses the data of the teacher signal and the learning data.
a is learned by back propagation.

【0086】上記手順4についてさらに詳しく説明する
と、前記実施の形態1と同様、図1に示すように、上記
バックプロパゲーションによる学習は、基本的には、6
つのSにて行われる。
The procedure 4 will be described in more detail. As in the first embodiment, as shown in FIG. 1, the learning by the back propagation basically consists of 6 steps.
Is performed in three S.

【0087】まず、S1として、上記手順1ないし手順
3にて作成した教師信号のデータと学習データとからな
る入力データの入力パターンを提示する。この入力パタ
ーンに基づいて、ニューラルネットワークの前進型処理
が行われる。
First, as S1, an input pattern of input data composed of the data of the teacher signal and the learning data created in the above procedures 1 to 3 is presented. On the basis of this input pattern, the forward processing of the neural network is performed.

【0088】次に、S2として、ニューラルネットワー
ク4aにおける各ユニット40の出力誤差を算出する。
この出力誤差の算出には、前記実施の形態1同様、関数
ε(tn j ,on j ) が誤差評価関数として用いられる。
また、各ユニット40における入出力関係を与える関数
についても、前記実施の形態1と同様に、図6に示すよ
うな上記シグモイド関数fj (11a)・(11b)となっ
ている。
Next, as S2, the output error of each unit 40 in the neural network 4a is calculated.
The calculation of the output error, the same first embodiment, the function ε (t n j, o n j) is used as the error evaluation function.
Also, the functions that give the input / output relation in each unit 40 are the sigmoid functions f j (11a) and (11b) as shown in FIG. 6, as in the first embodiment.

【0089】上記ニューラルネットワーク4aがn=4
層であるので、上記誤差評価関数ε(tn j ,on j ) と
上記関数fj とから、出力層44における第j番目のユ
ニット40n j の出力誤差δ4 j を前記式(13)により
算出する。また、同様に、出力層44以外の層である第
k層における第j番目のユニット40k j の出力誤差δ
k j も前記式(15)により算出する。このように、バッ
クプロパゲーションでは、誤差評価関数ε(tn j ,on
j ) を最小にするように、ユニット40の出力誤差が算
出される。
When the neural network 4a has n = 4
Since the layer, the error evaluation function ε (t n j, o n j) from the above function f j, the equation output error [delta] 4 j of the j-th unit 40 n j in the output layer 44 (13 ). Similarly, the output error δ of the j-th unit 40 kj in the k- th layer other than the output layer 44
k j is also calculated by the equation (15). Thus, in backpropagation, the error evaluation function ε (t n j, o n
The output error of the unit 40 is calculated so as to minimize j ).

【0090】続いて、S3として、上記出力誤差δk j
とユニット40k j からの出力信号ok j とを用いて、
各ユニット40同士(ユニット40k-1 i とユニット4
k j との間とする)の結合荷重wk-1,k i,j の修正量
である結合荷重の変化量Δwk-1,k i,j を前記式(15)
を用いて算出する。
Subsequently, as S3, the output error δ k j
By using the output signal o k j from unit 40 k j and,
Each unit 40 (unit 40 k-1 i and unit 4
0 k j ), the change Δw k−1, k i, j of the connection weight, which is the correction amount of the connection weight w k−1, k i, j , is calculated by the above equation (15).
Is calculated using

【0091】このようにして得られた結合荷重の変化量
に基づき、S4として、各結合荷重の修正を行うバック
プロパゲーションにおける後進型処理が行われる。
On the basis of the change amount of the coupling load obtained in this manner, as S4, a backward type process in back propagation for correcting each coupling load is performed.

【0092】次に、S5として、上記ニューラルネット
ワーク4aにおいて、出力パターンとして全てのパター
ンを提示したか判定する。このとき、全てのパターンが
提示されていないと判定された場合は、再びS1に戻っ
て新たなパターンを提示して前進型処理を行う。一方、
全てのパターンが提示されていると判定された場合は、
最後のS6に進む。
Next, in S5, it is determined whether all patterns have been presented as output patterns in the neural network 4a. At this time, if it is determined that all the patterns have not been presented, the process returns to S1 to present a new pattern and perform the forward processing. on the other hand,
If it is determined that all patterns are presented,
Proceed to the last S6.

【0093】このS6では、上記ニューラルネットワー
ク4aが学習を終了するか否かの判定を行う。もし、終
了条件を満たしていない場合には、S1に戻り学習を繰
り返す。一方、終了条件を満たしていれば、学習を終了
する。
At S6, it is determined whether or not the neural network 4a ends the learning. If the termination condition is not satisfied, the process returns to S1 to repeat the learning. On the other hand, if the termination condition is satisfied, the learning is terminated.

【0094】ところで、上記S2において、ニューラル
ネットワーク4aが通常のバックプロパゲーションにて
学習する際、誤差評価関数は前記式(16)である。その
ため、本実施の形態のニューラルネットワーク4aにお
ける誤差の総和は、次式(21)のようになる。
Incidentally, when the neural network 4a learns by the normal back propagation in the above S2, the error evaluation function is the above equation (16). Therefore, the sum of the errors in the neural network 4a according to the present embodiment is represented by the following equation (21).

【0095】 E=Σp √{(Ctp−Cop)2+(Mtp−Mop)2+(Ytp−Yop)2}…(21) ここで、本実施の形態のように、RGB信号をCMY信
号に変換する色補正を行う場合、平均色差が小さいこと
に加えて、色差も均一に分布していることが必要とな
る。すなわち、上記ニューラルネットワーク4aの出力
信号においては、誤差の平均値が小さく、かつ、誤差が
均一に分布している、すなわち誤差の標準偏差が小さく
なければならない。
E = { p } (C tp −C op ) 2 + (M tp −M op ) 2 + (Y tp −Y op ) 2 } (21) Here, as in the present embodiment, When color correction for converting RGB signals into CMY signals is performed, it is necessary that the average color difference is small and the color difference is also uniformly distributed. That is, in the output signal of the neural network 4a, the average value of the errors must be small and the errors must be uniformly distributed, that is, the standard deviation of the errors must be small.

【0096】反対に、上記誤差の平均値が小さい場合で
あっても、誤差が特定の色に集中しているような状態、
すなわち、特定の色について良好な色補正ができない状
態であれば、好ましい色補正とはいえない。たとえば、
本実施の形態において、各色成分の変換後の誤差(Δ
C,ΔM,ΔY)として、次のset1およびset2のような
2組の変換結果が得られたとする。
On the other hand, even when the average value of the above-mentioned errors is small, a state where the errors are concentrated in a specific color,
That is, if good color correction cannot be performed for a specific color, it is not preferable color correction. For example,
In the present embodiment, the error (Δ
C, ΔM, ΔY), two sets of conversion results such as the following set1 and set2 are obtained.

【0097】set1:(ΔC,ΔM,ΔY)={(3,3,
3),(0,0,0),(0,0,0)} set2:(ΔC,ΔM,ΔY)={(3,0,0),(0,3,0),(0,
0,3)} この場合、set1では、ΔCに誤差(色差)が集中してい
るが、set2では、誤差は、ΔC・ΔM・ΔYのそれぞれ
に見られている。それゆえ、set1よりもset2の方が、良
好に色補正されていると見なすことができる。ところ
が、これらset1およびset2について上記式(21)で誤差
評価を行うと、次のように、set1とset2とが同一のレベ
ルで誤差が生じていると評価されることになる。
Set1: (ΔC, ΔM, ΔY) = {(3,3,
3), (0,0,0), (0,0,0)} set2: (ΔC, ΔM, ΔY) = {(3,0,0), (0,3,0), (0,
0,3)} In this case, in set1, errors (color differences) are concentrated in ΔC, but in set2, errors are seen in ΔC, ΔM, and ΔY. Therefore, it can be considered that set2 is better corrected for color than set1. However, when error evaluation is performed on set1 and set2 using the above equation (21), it is evaluated that an error occurs in set1 and set2 at the same level as described below.

【0098】Eset1=Eset2=27 このように、式(21)を誤差評価関数ε(tn j
n j ) とした場合、ニューラルネットワーク4aが色
補正に適した学習を行うことは期待できない。そこで、
新たな誤差評価関数ε(tn j ,on j ) として、次式
(22)を設定する。なお、出力層44のユニット40の
数はN=3である。
E set1 = E set2 = 27 As described above, the equation (21) is converted to the error evaluation function ε (t n j ,
o n j ), it cannot be expected that the neural network 4a will perform learning suitable for color correction. Therefore,
New error evaluation function ε (t n j, o n j) as to set the following equation (22). Note that the number of units 40 in the output layer 44 is N = 3.

【0099】 Ep3={ΣN j=1 (tn j −on j )}2 ={Σ3 j=1 (tn j −on j )}2 ={(Ctp−Cop)2+(Mtp−Mop)2+(Ytp−Yop)22 …(22) この式(22)は、出力層44に備えられているN個のユ
ニットから、N個の成分として得られる教師信号tn j
と出力信号on j との差分の2乗和のさらに2乗となっ
ている。そのため、上記式(22)を用いれば、同じ程度
の大きさの誤差が発生する場合では、誤差が均一に分布
しているほど、誤差評価の結果Eは小さくなる。
[0099] E p3 = {Σ N j = 1 (t n j -o n j)} 2 = {Σ 3 j = 1 (t n j -o n j)} 2 = {(C tp -C op) 2 + (M tp −M op ) 2 + (Y tp −Y op ) 22 (22) This equation (22) is obtained by calculating N components from the N units provided in the output layer 44. Teacher signal t n j obtained as
It has a further square of the sum of squares of the difference between the output signal o n j. Therefore, when the above equation (22) is used, in the case where an error of approximately the same magnitude occurs, the more uniformly the error is distributed, the smaller the result E of the error evaluation becomes.

【0100】たとえば、この式(22)を用いて、上記se
t1およびset2について誤差評価を行うと、次のようにな
る。
For example, using this equation (22),
When the error evaluation is performed for t1 and set2, the result is as follows.

【0101】Eset1=729 >Eset2=243 このように、上記set1とset2とを比較した場合、set1の
方が誤差の発生のレベルが高くなっており、set2よりも
色修正には不適当であることが評価される。したがっ
て、式(22)は、上記式(21)よりも、色補正に適した
誤差評価関数ε(tn j ,on j ) であると見なすことが
できる。
E set1 = 729> E set2 = 243 As described above, when the above set 1 and set 2 are compared, the level of error generation is higher in set 1 and is more unsuitable for color correction than set 2 Is evaluated. Thus, equation (22), rather than the formula (21), the error evaluation function ε (t n j, o n j) which is suitable for color correction can be regarded as.

【0102】ここで、上記式(22)について、出力層4
4の第1番目のユニット404 1 (Cの濃度信号を出
力)について考えると、次式(23)のようになる。
Here, regarding the above equation (22), the output layer 4
Considering the first unit 40 4 1 (outputting the density signal of C), the following expression (23) is obtained.

【0103】[0103]

【数9】 (Equation 9)

【0104】出力層44の第2番目のユニット404 2
(Mの濃度信号を出力)および第3番目のユニット40
4 3 (Yの濃度信号を出力)についても、上記式(23)
と同様である。
The second unit 40 4 2 of the output layer 44
(Output the density signal of M) and the third unit 40
4 3 (output of Y density signal) is also calculated by the above equation (23).
Is the same as

【0105】その結果、前記式(13)は、次式(24)で
表すことができる。
As a result, the above equation (13) can be expressed by the following equation (24).

【0106】 δn j =4・√(Ep3)・(tn j −on j )・on j (1−on j )…(24) このように、出力層44(第n層)における第j番目の
ユニット40n j に対する逆向き計算処理用データであ
る出力誤差δn j は、色補正における誤差の平均値およ
び標準偏差を最小とするような誤差評価関数ε(tn j
n j ) =Ep3により算出される。そのため、この出力
誤差を用いてバックプロパゲーションによる学習を行う
ことで、色補正における誤差の平均値および標準偏差を
最小にすることができる。
[0106] δ n j = 4 · √ ( E p3) · (t n j -o n j) · o n j (1-o n j) ... (24) Thus, the output layer 44 (the n-th layer output error [delta] n j are opposite calculation processing data for the j-th unit 40 n j in), the error evaluation function that minimizes the mean and standard deviation of error in the color correction epsilon (t n j ,
o n j ) = E p3 . Therefore, by performing learning by back propagation using this output error, it is possible to minimize the average value and the standard deviation of the errors in color correction.

【0107】以上のように、本実施の形態における色修
正方法では、誤差を前層に伝播させるバックプロパゲー
ション法により学習するニューラルネットワークにおい
て、上記式(22)を誤差評価関数として用いることによ
り、誤差の平均値を最小にするとともに、誤差のばらつ
きを小さくする、すなわち誤差の標準偏差を小さくする
ことが可能となる。その結果、上記色修正方法を用いた
本実施の形態にかかる色修正装置は、カラー画像処理装
置において、良好な色補正を行うことができるものとな
っている。
As described above, in the color correction method according to the present embodiment, by using the above equation (22) as the error evaluation function in the neural network learning by the back propagation method for propagating the error to the previous layer, It is possible to minimize the average value of the errors and to reduce the variation of the errors, that is, to reduce the standard deviation of the errors. As a result, the color correction apparatus according to the present embodiment using the above-described color correction method can perform excellent color correction in the color image processing apparatus.

【0108】なお、誤差評価関数ε(tn j ,on j )
は、上記式(22)で表されるEp3にのみ限定されるもの
ではなく、色補正において、誤差評価を最適に行える関
数であればよい。また、上記色修正装置4は、誤差評価
関数ε(tn j ,on j ) としての関数が複数設定されて
おり、色補正される原画の種類などに応じて、上記複数
の関数から最適な関数を適宜選択するような構成であっ
てもよい。
[0108] It should be noted that the error evaluation function ε (t n j, o n j)
Is not limited to E p3 represented by the above equation (22), but may be any function that can optimally evaluate an error in color correction. Further, the color correction device 4, the error evaluation function ε (t n j, o n j) function as are several sets, depending on the type of the original to be color corrected, optimal from the plurality of functions It may be configured to appropriately select a suitable function.

【0109】〔実施の形態3〕本発明の実施の他の形態
について、図1、図4および図5に基づいて説明すれ
ば、以下の通りである。なお、説明の便宜上、前記実施
の形態1の図面に示した部材と同一の機能を有する部材
には、同一の符号を付記し、その説明を省略する。
[Embodiment 3] Another embodiment of the present invention will be described below with reference to FIGS. 1, 4 and 5. For the sake of convenience, members having the same functions as those shown in the drawings of the first embodiment are denoted by the same reference numerals, and description thereof will be omitted.

【0110】本実施の形態では、前記誤差評価関数ε(t
n j ,on j )として、得られる出力パターンが局所解
に陥りにくくなるような関数を用いる以外は、前記実施
の形態2と同一となっている。
In this embodiment, the error evaluation function ε (t
n j, as o n j), except that the resulting output pattern is used functions like hardly fall into a local solution, are the same as those the second embodiment.

【0111】前記実施の形態2における色修正方法で
は、図1に示すようなバックプロパゲーションによるニ
ューラルネットワークの学習において、S2における誤
差評価関数ε(tn j ,on j )として式(22)を用いた
が、この式(22)を用いる方法では、誤差評価関数ε(t
n j ,on j )の先鋭性が高くなる可能性がある。
[0111] In the above color correction method in the second embodiment, in the learning of the neural network by back propagation as shown in FIG. 1, the error evaluation function ε (t n j, o n j) in S2 as an expression (22) In the method using equation (22), the error evaluation function ε (t
n j, there is a possibility that the sharpness of the o n j) is high.

【0112】このような先鋭性の高い誤差評価関数ε(t
n j ,on j )を用いて、ニューラルネットワーク4a
を構築した場合、ニューラルネットワーク4aにより得
られる出力データ、すなわち色補正のための出力パター
ンが局所解に陥り易くなるおそれがある。上記のように
出力パターンが局所解に陥った場合、ニューラルネット
ワーク4aは、なかなかその局所解から脱出することが
できないことが多くなる。
The error evaluation function ε (t
n j, using o n j), neural network 4a
Is constructed, the output data obtained by the neural network 4a, that is, the output pattern for color correction may easily fall into a local solution. When the output pattern falls into a local solution as described above, the neural network 4a often cannot easily escape from the local solution.

【0113】そこで、本実施の形態では、誤差評価関数
ε(tn j ,on j )として前記式(22)に代えて次式
(31)を設定する。
[0113] Therefore, in this embodiment, the error evaluation function ε (t n j, o n j) instead of the equation as (22) to set the following equation (31).

【0114】[0114]

【数10】 (Equation 10)

【0115】この式(31)は、出力層44に備えられて
いるN個のユニットから、N個の成分として得られる教
師信号tn j と出力信号on j との差分の2乗和のさら
にγ乗となっており、かつ1<γ<2となっている。
[0115] The equation (31), from the N units provided in the output layer 44, the square sum of the difference between the teacher signal t n j obtained as N components the output signal o n j Further, it is γ-th power, and 1 <γ <2.

【0116】通常、ニューラルネットワークの学習にお
いては、近似する関数や誤差評価関数の非線形性が高く
なればなるほど局所解に陥り易くなるという性質を有し
ている。それゆえ、誤差評価関数の次数を上げると該誤
差評価関数の非線形性が高くなり、各要素の誤差の標準
偏差を小さくすることができなくなってしまう。
Normally, neural network learning has a property that the higher the nonlinearity of an approximate function or error evaluation function, the more likely it is to fall into a local solution. Therefore, when the order of the error evaluation function is increased, the non-linearity of the error evaluation function increases, and the standard deviation of the error of each element cannot be reduced.

【0117】そこで、この式(31) では、N個の成分と
して得られる教師信号tn j と出力信号on j との差分
の2乗和をさらに累乗する際に、1<γ<2の範囲内で
あるγを中間の値の次数として用いている。これによっ
て、教師信号tn j と出力信号on j との差分の2乗和
をさらに2乗する前記式(22)とは異なり、誤差評価関
数の非線形性が高くなることがない。それゆえ、ニュー
ラルネットワーク4aから得られる出力パターンが局所
解に陥り易くなることを抑制できる。
[0117] Therefore, in the equation (31), when the further power the square sum of the difference between the teacher signal t n j obtained as N components the output signal o n j, 1 <γ <2 Γ within the range is used as the order of the intermediate value. Thus, unlike the above formula which further squaring the square sum of the difference between the teacher signal t n j and the output signal o n j (22), never nonlinearity of the error evaluation function is high. Therefore, it is possible to prevent the output pattern obtained from the neural network 4a from easily falling into a local solution.

【0118】たとえば、γ=1.5 のとき、前記実施の形
態2におけるset1およびset2について、上記式(31)を
用いて誤差評価を行うと、次のようになる。
For example, when γ = 1.5, error evaluation is performed on set1 and set2 in the second embodiment using the above equation (31).

【0119】Eset1=140.3 >Eset2=81.0 このように、上記set1とset2とを比較した場合、set2と
よりもset1の方が、誤差の発生のレベルが高く、色修正
には不適当であることが評価されており、また、誤差評
価関数の非線形性も高くない。そのため、式(31)で
は、ニューラルネットワーク4aから得られる出力パタ
ーンが局所解に陥り易くなることを抑制できる。
E set1 = 140.3> E set2 = 81.0 Thus, when the above set 1 and set 2 are compared, set 1 has a higher level of error generation than set 2 and is not suitable for color correction. It has been evaluated that there is some error, and the nonlinearity of the error evaluation function is not high. Therefore, in the equation (31), it is possible to suppress the output pattern obtained from the neural network 4a from easily falling into a local solution.

【0120】したがって、式(31)は、色補正に適する
とともに、前記式(22)よりも、出力パターンが局所解
に陥ることを抑制できる誤差評価関数ε(tn j
n j )であると見なすことができる。
Therefore, the equation (31) is suitable for color correction, and the error evaluation function ε (t n j ,
o n j ).

【0121】ここで、上記式(31)について、前記実施
の形態2と同様に、第n層である出力層44の各ユニッ
ト40n j について考えると、前記式(13)を、次式
(32)で表すことができる。
Here, regarding the above equation (31), as in the second embodiment, considering each unit 40 n j of the output layer 44 as the n-th layer, the above equation (13) is obtained by the following equation (13). 32).

【0122】[0122]

【数11】 [Equation 11]

【0123】このように、出力層44(第n層)におけ
る第j番目のユニット40n j に対する逆向き計算処理
用データである出力誤差δn j は、色補正における誤差
の平均値および標準偏差を最小とするとともに、得られ
る出力パターンが局所解に陥ることを抑制した誤差評価
関数ε(tn j ,on j ) =Ep4により算出される。その
ため、この出力誤差を用いてバックプロパゲーションに
よる学習を行うことで、色補正における誤差の平均値お
よび標準偏差を最小にするとともに、得られる出力パタ
ーンが局所解に陥ることを抑制することができる。
As described above, the output error δ n j , which is the data for the backward calculation processing for the j-th unit 40 n j in the output layer 44 (n-th layer), is the average value and the standard deviation of the errors in the color correction. while minimizing the resulting output pattern is calculated by the error evaluation function ε (t n j, o n j) = E p4 which suppresses falling into a local solution. Therefore, by performing learning by back propagation using this output error, it is possible to minimize the average value and standard deviation of errors in color correction, and to suppress the obtained output pattern from falling into a local solution. .

【0124】以上のように、本実施の形態における色修
正方法では、誤差を前層に伝播させるバックプロパゲー
ション法により学習するニューラルネットワークにおい
て、上記式(31)を誤差評価関数として用いることによ
り、出力パターンが局所解に陥ることを抑制することが
可能となる。その結果、上記色修正方法を用いた本実施
の形態にかかる色修正装置は、カラー画像処理装置にお
いて、良好な色補正を行うことができるものとなってい
る。
As described above, in the color correction method according to the present embodiment, by using the above equation (31) as the error evaluation function in the neural network learning by the back propagation method for propagating the error to the previous layer, It is possible to suppress the output pattern from falling into a local solution. As a result, the color correction apparatus according to the present embodiment using the above-described color correction method can perform excellent color correction in the color image processing apparatus.

【0125】なお、誤差評価関数ε(tn j ,on j )
は、上記式(31)で表されるEp4にのみ限定されるもの
ではなく、色補正において、誤差評価を最適に行える関
数であればよい。また、上記色修正装置4は、誤差評価
関数ε(tn j ,on j ) として、前記実施の形態2にお
いて、式(22)で表されるEp3や上記Ep4など複数の関
数が設定されており、色補正される原画の種類などに応
じて、上記複数の関数から最適な関数を適宜選択するよ
うな構成であってもよい。
[0125] It should be noted that the error evaluation function ε (t n j, o n j)
Is not limited to E p4 represented by the above equation (31), but may be any function that can optimally perform error evaluation in color correction. Further, the color correction device 4, the error evaluation function ε (t n j, o n j) as in the second embodiment, a plurality of functions such as E p3 and the E p4 represented by formula (22) The function may be set so that an optimum function is appropriately selected from the plurality of functions according to the type of the original image to be color-corrected.

【0126】[0126]

【発明の効果】本発明の請求項1記載の色修正方法は、
以上のように、出力信号における誤差の平均値を最小に
する誤差評価関数を用いるニューラルネットワークによ
って色座標変換することにより、入力画像の色修正を行
う方法である。
According to the color correcting method of the present invention,
As described above, the color correction of the input image is performed by performing the color coordinate conversion by the neural network using the error evaluation function that minimizes the average value of the error in the output signal.

【0127】それゆえ、上記方法では、出力信号におけ
る誤差の平均値を最小にする誤差評価関数を用いている
ため、色座標変換する際の平均色差を最小にすることが
可能となり、従来よりも良好に色修正処理を行うことが
できるという効果を奏する。
Therefore, in the above method, since the error evaluation function that minimizes the average value of the error in the output signal is used, the average color difference at the time of color coordinate conversion can be minimized. There is an effect that the color correction process can be performed well.

【0128】本発明の請求項2記載の色修正方法は、以
上のように、上記請求項1記載の色修正方法に加えて、
上記ニューラルネットワークの出力層におけるN個のユ
ニットのうちのj番目のユニットに対する教師信号をt
n j とし、上記j番目のユニットからの出力信号をon
j とした場合、上記誤差評価関数は、次式、 誤差評価関数ε(tn j ,on j )=√{ΣN j=1 (tn
j −on j )2} で表される関数である方法である。
As described above, the color correcting method according to the second aspect of the present invention includes the following method in addition to the color correcting method according to the first aspect.
The teacher signal for the j-th unit of the N units in the output layer of the neural network is t
n j and the output signal from the j-th unit is o n
If the j, the error evaluation function is expressed by the following equation, error evaluation function ε (t n j, o n j) = √ {Σ N j = 1 (t n
a j -o n j) method is expressed as the 2}.

【0129】それゆえ、上記方法では、出力信号におけ
る誤差の平均値を最小にすることができる上記誤差評価
関数ε(tn j ,on j )により算出される出力誤差δn
j を用いてバックプロパゲーションによるニューラルネ
ットワークの学習が行われることになる。したがって、
色座標変換における平均色差を効果的に最小にして、よ
り一層良好に色修正処理を行うことができるという効果
を奏する。
[0129] Thus, in the above method, the error evaluation function ε (t n j, o n j) the average value of the error in the output signal can be minimized output error [delta] n calculated by
Learning of the neural network by back propagation is performed using j . Therefore,
There is an effect that the average color difference in the color coordinate conversion can be effectively minimized, and the color correction process can be performed more favorably.

【0130】本発明の請求項3記載の色修正方法は、以
上のように、出力信号における誤差の平均値および標準
偏差を最小にする誤差評価関数を用いるニューラルネッ
トワークによって色補正することにより、入力画像の色
修正を行う方法である。
According to the color correcting method of the third aspect of the present invention, as described above, the color correction is performed by the neural network using the error evaluation function that minimizes the average value and the standard deviation of the error in the output signal. This is a method for correcting the color of an image.

【0131】それゆえ、上記方法では、ニューラルネッ
トワークの出力信号における誤差の平均値と標準偏差を
最小にする誤差評価関数を用いているため、色補正する
際の平均色差を最小にし、かつ色差の標準偏差も最小に
できる。したがって、ある特定の代表色のみに色差が集
中することが抑制され、従来よりも良好に色修正処理を
行うことができるという効果を奏する。
Therefore, in the above method, the error evaluation function that minimizes the average value and the standard deviation of the error in the output signal of the neural network is used, so that the average color difference at the time of color correction is minimized, and Standard deviation can also be minimized. Therefore, it is possible to suppress the color difference from being concentrated only in a certain specific representative color, and it is possible to perform the color correction process better than before.

【0132】本発明の請求項4記載の色修正方法は、以
上のように、上記請求項3の色修正方法に加えて、上記
ニューラルネットワークの出力層におけるN個のユニッ
トのうちのj番目のユニットに対する教師信号をtn j
とし、上記j番目のユニットからの出力信号をon j
した場合、上記誤差評価関数は、次式、 誤差評価関数ε(tn j ,on j )={ΣN j=1 (tn j
n j )22 で表される関数である方法である。
According to the color correction method of the fourth aspect of the present invention, as described above, in addition to the color correction method of the third aspect, the j-th unit among the N units in the output layer of the neural network is provided. Let the teacher signal for the unit be t n j
And then, if the output signal from the j-th unit was o n j, the error evaluation function is expressed by the following equation, error evaluation function ε (t n j, o n j) = {Σ N j = 1 (t n j
o n j ) 22 .

【0133】上記の請求項4記載の方法によれば、出力
信号における誤差の平均値に加えて、誤差の標準偏差も
最小にすることができる上記誤差評価関数ε(tn j ,o
n j)により算出される出力誤差δn j を用いてバック
プロパゲーションによるニューラルネットワークの学習
が行われることになる。したがって、色補正における平
均色差および色差の標準偏差を効果的に最小にして、よ
り一層良好に色修正処理を行うことができるという効果
を奏する。
According to the method of the fourth aspect, the error evaluation function ε (t n j , o) can minimize the standard deviation of the error in addition to the average value of the error in the output signal.
Learning of the neural network by back propagation is performed using the output error δ n j calculated by n j ). Therefore, there is an effect that the average color difference and the standard deviation of the color difference in the color correction can be effectively minimized, and the color correction process can be performed more favorably.

【0134】本発明の請求項5記載の色修正方法は、以
上のように、上記請求項3の色修正方法に加えて、上記
ニューラルネットワークの出力層におけるN個のユニッ
トのうちのj番目のユニットに対する教師信号をtn j
とし、上記j番目のユニットからの出力信号をon j
した場合、上記誤差評価関数は、次式、
According to a fifth aspect of the present invention, as described above, in addition to the color correcting method of the third aspect, the j-th unit among the N units in the output layer of the neural network is provided. Let the teacher signal for the unit be t n j
And then, if the output signal from the j-th unit was o n j, is the error evaluation function, the following equation,

【0135】[0135]

【数12】 (Equation 12)

【0136】で表される関数である方法である。This is a method that is a function represented by

【0137】それゆえ、上記方法では、ニューラルネッ
トワークにおける出力パターンが局所解に陥ることを抑
制できる上記誤差評価関数ε(tn j ,on j )により算
出される出力誤差δn j を用いてバックプロパゲーショ
ンによるニューラルネットワークの学習が行われる。し
たがって、色補正における平均色差および色差の標準偏
差を最小にするとともに、得られる出力パターンが局所
解に陥ることを抑制し、より一層効果的な色修正処理を
行うことができるという効果を奏する。
[0137] Thus, in the above method, the output pattern in the neural network by using the output error [delta] n j calculated by the error evaluation function which can prevent the falling into local minimum ε (t n j, o n j) Learning of the neural network by back propagation is performed. Therefore, it is possible to minimize the average color difference and the standard deviation of the color difference in the color correction, suppress the obtained output pattern from falling into a local solution, and perform more effective color correction processing.

【0138】本発明の請求項6記載の色修正装置は、以
上のように、上記請求項1から5の何れか1項に記載の
色修正方法を実行する色修正手段を備えている構成であ
る。
A color correcting apparatus according to a sixth aspect of the present invention has a configuration provided with a color correcting means for executing the color correcting method according to any one of the first to fifth aspects as described above. is there.

【0139】それゆえ、上記構成では、バックプロパゲ
ーションによる学習を行うニューラルネットワークを用
いて色修正を行うために、色修正の手法、すなわち色座
標変換や色補正などに応じた最適な誤差評価を行うこと
ができる誤差評価関数を用いている。そのため、上記色
修正装置は、カラー画像処理装置において、従来よりも
良好な色修正処理を行うことができるという効果を奏す
る。
Therefore, in the above configuration, in order to perform color correction using a neural network that performs learning by back propagation, a method of color correction, that is, an optimal error evaluation according to color coordinate conversion, color correction, and the like is performed. An error evaluation function that can be used is used. Therefore, the color correction apparatus has an effect that the color image processing apparatus can perform better color correction processing than before.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の一形態にかかる色修正方法にお
いて、バックプロパゲーションによる色修正のためのニ
ューラルネットワークの学習の過程を示すフローチャー
トである。
FIG. 1 is a flowchart illustrating a process of learning a neural network for color correction by back propagation in a color correction method according to an embodiment of the present invention.

【図2】上記色修正方法を実行する色修正装置のブロッ
ク図である。
FIG. 2 is a block diagram of a color correction device that executes the color correction method.

【図3】図2の色修正装置に用いられるニューラルネッ
トワークの構成を示す模式図である。
FIG. 3 is a schematic diagram illustrating a configuration of a neural network used in the color correction device of FIG. 2;

【図4】本発明の実施の他の形態にかかる色修正方法を
実行する色修正装置のブロック図である。
FIG. 4 is a block diagram of a color correction device that executes a color correction method according to another embodiment of the present invention.

【図5】図4の色修正装置に用いられるニューラルネッ
トワークの構成を示す模式図である。
FIG. 5 is a schematic diagram showing a configuration of a neural network used in the color correction device of FIG.

【図6】上記ニューラルネットワークの各層のユニット
において、該ユニットに入出力状態を与えるシグモイド
関数を示すグラフである。
FIG. 6 is a graph showing a sigmoid function that gives an input / output state to a unit in each layer of the neural network.

【符号の説明】[Explanation of symbols]

2 色修正装置 2a ニューラルネットワーク(色修正手段) 4 色修正装置 4a ニューラルネットワーク(色修正手段) 20 ユニット 23 出力層 40 ユニット 44 出力層 2 color correction device 2a neural network (color correction means) 4 color correction device 4a neural network (color correction means) 20 units 23 output layers 40 units 44 output layers

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】出力信号における誤差の平均値を最小にす
る誤差評価関数を用いるニューラルネットワークによっ
て色座標変換することにより、入力画像の色修正を行う
ことを特徴とする色修正方法。
1. A color correction method for correcting a color of an input image by performing color coordinate conversion by a neural network using an error evaluation function that minimizes an average value of errors in an output signal.
【請求項2】上記ニューラルネットワークの出力層にお
けるN個のユニットのうちのj番目のユニットに対する
教師信号をtn j とし、上記j番目のユニットからの出
力信号をon j とした場合、上記誤差評価関数は、次
式、 誤差評価関数ε(tn j ,on j )=√{ΣN j=1 (tn j
−on j )2} で表される関数であることを特徴とする請求項1記載の
色修正方法。
Wherein a teacher signal for the j-th unit of the N units in the output layer of the neural network, and t n j, if the output signal from the j-th unit was o n j, the error evaluation function is expressed by the following equation, error evaluation function ε (t n j, o n j) = √ {Σ n j = 1 (t n j
Color correction method according to claim 1, characterized in that a function represented by -o n j) 2}.
【請求項3】出力信号における誤差の平均値および標準
偏差を最小にする誤差評価関数を用いるニューラルネッ
トワークによって色補正することにより、入力画像の色
修正を行うことを特徴とする色修正方法。
3. A color correction method for correcting a color of an input image by performing a color correction by a neural network using an error evaluation function that minimizes an average value and a standard deviation of errors in an output signal.
【請求項4】上記ニューラルネットワークの出力層にお
けるN個のユニットのうちのj番目のユニットに対する
教師信号をtn j とし、上記j番目のユニットからの出
力信号をon j とした場合、上記誤差評価関数は、次
式、 誤差評価関数ε(tn j ,on j )={ΣN j=1 (tn j
n j )22 で表される関数であることを特徴とする請求項3記載の
色修正方法。
Wherein a teacher signal for the j-th unit of the N units in the output layer of the neural network, and t n j, the output signal from the j-th unit case of the o n j, the error evaluation function is expressed by the following equation, error evaluation function ε (t n j, o n j) = {Σ n j = 1 (t n j -
o n j) 2} color correction method according to claim 3, characterized in that the function represented by 2.
【請求項5】上記ニューラルネットワークの出力層にお
けるN個のユニットのうちのj番目のユニットに対する
教師信号をtn j とし、上記j番目のユニットからの出
力信号をon j とした場合、上記誤差評価関数は、次
式、 【数1】 で表される関数であることを特徴とする請求項3記載の
色修正方法。
5. The teacher signal for the j-th unit of the N units in the output layer of the neural network, and t n j, the output signal from the j-th unit case of the o n j, the The error evaluation function is as follows: 4. The method according to claim 3, wherein the function is a function represented by:
【請求項6】上記請求項1から5の何れか1項に記載の
色修正方法を実行する色修正手段を備えていることを特
徴とする色修正装置。
6. A color correcting apparatus comprising a color correcting means for executing the color correcting method according to claim 1.
JP9226859A 1997-08-22 1997-08-22 Color correction method and color correction device Pending JPH1169182A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9226859A JPH1169182A (en) 1997-08-22 1997-08-22 Color correction method and color correction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9226859A JPH1169182A (en) 1997-08-22 1997-08-22 Color correction method and color correction device

Publications (1)

Publication Number Publication Date
JPH1169182A true JPH1169182A (en) 1999-03-09

Family

ID=16851696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9226859A Pending JPH1169182A (en) 1997-08-22 1997-08-22 Color correction method and color correction device

Country Status (1)

Country Link
JP (1) JPH1169182A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100407058C (en) * 2002-02-19 2008-07-30 佳能株式会社 Image forming method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100407058C (en) * 2002-02-19 2008-07-30 佳能株式会社 Image forming method

Similar Documents

Publication Publication Date Title
JP3488729B2 (en) Color image processing method and apparatus
JP3767657B2 (en) Color transfer characteristic prediction method
US6100999A (en) Method for predicting color transfer characteristics
JP4191832B2 (en) Color conversion correspondence table construction method and color conversion device
US5164837A (en) Method of correcting setup parameter decision characteristics and automatic setup apparatus using a neural network
US5978107A (en) Method and apparatus for determining color transformation coefficients
JP4858131B2 (en) Reading characteristic correction apparatus, image forming system, and calibration method
JPH1169182A (en) Color correction method and color correction device
WO2013099007A1 (en) Data generation method and data generation device
JPH05101028A (en) Integral decision method for plural feature quantity
US5299034A (en) Image processing apparatus and image processing method for reproducing a color image from color signals having different phases
Tominaga Color control of printers by neural networks
US6304863B1 (en) Data converting apparatus and coefficient determining apparatus for use therewith
JP3044915B2 (en) Color correction and color coordinate conversion method using neural network
KR100404857B1 (en) Method for deciding color sample for color compensation using genetic algorithm in color image input and output apparatus
JP7211215B2 (en) Color conversion information generation method, color conversion information generation program, and color conversion information generation device
JP3430673B2 (en) Color converter
JPH06217143A (en) Gamma correction curve selector and gamma correction curve generator
JPH10191087A (en) Color correction device
JP5700206B2 (en) Color processing apparatus and color processing program
JPH11266371A (en) Color image processor
Lee et al. Implementation of real time color gamut mapping using neural network
JPH0927917A (en) Method for deciding color prediction formula
JP2855938B2 (en) Color imaging equipment
JP2000341544A (en) Method and device for reproducing color and recording medium with program executing this method recorded therein