JPH10243247A - Color information conversion method and device to match observation results of colors with each other - Google Patents

Color information conversion method and device to match observation results of colors with each other

Info

Publication number
JPH10243247A
JPH10243247A JP9038670A JP3867097A JPH10243247A JP H10243247 A JPH10243247 A JP H10243247A JP 9038670 A JP9038670 A JP 9038670A JP 3867097 A JP3867097 A JP 3867097A JP H10243247 A JPH10243247 A JP H10243247A
Authority
JP
Japan
Prior art keywords
color
value
light source
values
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9038670A
Other languages
Japanese (ja)
Inventor
Yoshifumi Arai
佳文 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyo Ink Mfg Co Ltd
Original Assignee
Toyo Ink Mfg Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyo Ink Mfg Co Ltd filed Critical Toyo Ink Mfg Co Ltd
Priority to JP9038670A priority Critical patent/JPH10243247A/en
Publication of JPH10243247A publication Critical patent/JPH10243247A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize highly accurate conversion between a color separation value and a spectral reflectance by employing the spectral reflectance, independent of a light source and effectively utilizing a learning function of a neutral network. SOLUTION: A control section 21 uses a 5th control means to obtain a color- matched color separation value through optimization under the condition of minimizing a square error (square norm) or a mean color difference between a color under a prescribed light source that is calculated by applying a spectral reflectance to an output from a 2nd control means 23 and a color under a prescribed light source, that is outputted from a 4th control means. A memory 24 stores a combination coefficient of a neural network, whose learning is finished, spectral distribution of the light source possibly in use and a color- matching function or the like. The combination coefficient for a 3-layer neural network has been learned and corrected in advance, so that a square error between an output of each output unit and a spectral reflectance given as a teacher signal is minimized.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カラーDTP(De
skTop Publishing)におけるカラープリンタ、ディスプ
レー等の画像出力装置に表示される画像における、周辺
環境(照明条件、バックグラウンドの色等)の影響によ
って、同じ色彩値を持つ画像でも異なった色に見えてし
まうような場合の色合わせ方法及び装置に関し、特に色
の物理的(分光測色的)な特性を正確に表現する分光反
射率を色の中間的な表現として用い、さらに、色の見え
のモデルで表される周辺環境に依存しないように定めら
れた色彩値と分光反射率との変換を用いることによっ
て、異なる観察環境であっても常に色が同じに見えるよ
うに画像出力装置に表示する色を修正することができ、
また、その際に、どのような光源下での色情報であって
も正確に変換することのできる色の見えを合わせる色情
報変換方法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a color DTP
Due to the influence of the surrounding environment (illumination conditions, background color, etc.) on images displayed on image output devices such as color printers and displays in skTop Publishing), images with the same color value look different. Regarding the color matching method and apparatus in such a case, in particular, a spectral reflectance that accurately represents physical (spectral colorimetric) characteristics of a color is used as an intermediate expression of a color, and furthermore, a color appearance model is used. By using the conversion between the color value and the spectral reflectance determined so as not to depend on the surrounding environment represented, the colors displayed on the image output device can always be seen to be the same even in different viewing environments. Can be modified,
In addition, the present invention also relates to a color information conversion method and apparatus for matching the appearance of colors that can accurately convert color information under any light source.

【0002】[0002]

【従来の技術】通常、人間の目で物を見たる場合、人間
の目は周辺の照明や画像近傍の背景色など観察環境に順
応(眼球内にある光受容器の分光感度特性が変化する)
するため、観察環境が異なれば同じ画像を見た場合であ
っても、画像の色は異なって見える。従って、異なる観
察環境下で画像の色を同じに見せるためには、観察環境
に応じて画像出力装置に表示・出力する画像の色をうま
く調整する必要がある。一方、最近では、カラーDTP(De
sk-Top Publishing)が個人出版や社内印刷などの用途で
一般に用いられるようになり、デジタル画像をそのまま
コンピュータ上で編集・修正したり、カラードキュメン
トやコンピュータグラフィックスを作成したりすること
が可能となってきていることから、こうした観察環境に
よる色の見えの違いが非常に問題となってきている。
2. Description of the Related Art Normally, when an object is viewed by the human eye, the human eye adapts to an observation environment such as peripheral illumination or a background color near an image (the spectral sensitivity characteristics of a photoreceptor in an eyeball change). )
Therefore, if the viewing environment is different, the color of the image looks different even when the same image is viewed. Therefore, in order to make the colors of an image look the same under different viewing environments, it is necessary to appropriately adjust the colors of the images displayed / output to the image output device according to the viewing environment. On the other hand, recently, color DTP (De
sk-Top Publishing) will be commonly used for personal publishing and in-house printing, and it will be possible to edit and modify digital images as they are on a computer, create color documents and computer graphics. Therefore, the difference in color appearance depending on the observation environment has become a serious problem.

【0003】例えば、ディスプレーに表示した画像とプ
リンタで出力した画像を比較するような場合、ディスプ
レーの背景色と紙の色が異なり、更にディスプレーの明
るさと紙に印刷された画像を観察する部屋の明るさが異
なったりするために、それぞれを見比べる際の目の順応
状態が異なってしまうため、測色的に色を合わせても、
画像の色の見えは全く異なってしまう。このような、観
察環境の違いによる色の見えの違いを修正する技術とし
て最近、色の見えのモデル(Color Appearacne Model)
を用いて所定の観察環境での人間の目の順応状態を予測
し、その予測に基づいて画像出力装置に表示する色を調
整する方法がある(M.D. Fairchild :Considering the
Surround in Device-independent Color Imaging, Col
or research and application Vol.20, No.6(1995)を参
照)。
For example, when comparing an image displayed on a display with an image output by a printer, the background color of the display differs from the color of the paper, and the brightness of the display and the room in which the image printed on the paper is observed. Because the brightness is different, the adaptation of the eyes when comparing each other is different, so even if the colors are colorimetrically matched,
The color appearance of the image will be completely different. Recently, a color appearance model (Color Appearacne Model) has been developed as a technique for correcting differences in color appearance due to differences in viewing environments.
There is a method of predicting the state of adaptation of the human eye in a predetermined observation environment using an image, and adjusting the color displayed on the image output device based on the prediction (MD Fairchild: Considering the
Surround in Device-independent Color Imaging, Col
or research and application Vol.20, No.6 (1995)).

【0004】[0004]

【発明が解決しようとする課題】一方、画像出力装置に
表示する色をうまく調節するためには、色彩値から画像
出力装置固有の色分解値との間の変換が必要となる。変
換には、ルックアップテーブルを用いた方法や、ニュー
ラルネットワークを用いた方法など、これまで多数の方
法が提案されているが、色彩値が光源に依存する値であ
るために、従来の色彩値と色分解値間の変換を用いた変
換では、1つの光源に対し1つの変換系が必要となる。
従って、色の見えをの違いを修正する場合には、考えら
れる光源、および、画像出力装置全てについて膨大な数
の変換系を作成する必要があり、実際には不可能であ
り、任意の環境下(光源下)での色の見えの違いを修正
できるようなシステムを実際に構築することができない
という問題がある。
On the other hand, in order to properly adjust the colors displayed on the image output device, it is necessary to convert between the color values and the color separation values specific to the image output device. Many methods have been proposed for the conversion, such as a method using a lookup table and a method using a neural network.However, since the color value is a value that depends on the light source, the conventional color value In the conversion using the conversion between the color separation values, one conversion system is required for one light source.
Therefore, in order to correct the difference in color appearance, it is necessary to create an enormous number of conversion systems for all possible light sources and image output devices, which is practically impossible. There is a problem that it is not possible to actually construct a system that can correct the difference in color appearance under (light source).

【0005】以上、説明したように、従来の色の見えの
違いを修正する技術では、予め設定した少数の限られた
数の観察環境下での色の見えをの違いを修正するような
実験的なシステムしか作成できず、実際に求められてい
るような任意の観察環境下(光源下)での色の見えをの
違いを修正できるような実用的なシステムを作ることは
困難であった。本発明は、前記実情を鑑みてなされたも
のであり、観察環境(照明)の種類に関係なく、任意の
光源下における色情報値を色分解値に変換できるような
色の見えを合わせる色情報変換方法及び装置を提供する
ことを目的とする。
[0005] As described above, the conventional technique for correcting the difference in color appearance is based on an experiment for correcting the difference in color appearance under a limited number of observation environments set in advance. It is difficult to create a practical system that can correct the difference in color appearance under an arbitrary observation environment (under a light source) as actually required . The present invention has been made in view of the above-mentioned circumstances, and color information that matches the appearance of colors so that color information values under an arbitrary light source can be converted into color separation values regardless of the type of observation environment (illumination). It is an object to provide a conversion method and device.

【0006】[0006]

【課題を解決するための手段】本発明に係わる色の見え
を合わせる色情報変換方法及び装置は、異なる環境下で
観察される再現装置の色の見えを合わせる方法におい
て、分光反射率、または、分光透過率のいずれか一方を
色分解値に変換する方法であって、分光反射率、また
は、分光透過率のいずれか一方を色の中間表色系とし
て、色分解値から前記中間表色系への変換を学習させら
れたニューラルネットを用い、少なくとも3つの色分解
値を前記中間表色系へ変換する第1の変換ステップと、
前記中間表色系から所定の光源における色彩値をもとめ
る第1の算出ステップと、前記色彩値を観察する周囲の
環境に依存しない色彩値に変換する第2の算出ステップ
と、前記観察環境に依存しない色彩値から所定の環境で
の色彩値を算出する第3の算出ステップと、前記色彩値
と所定の色分解値からニューラルネットワークにより変
換される色彩値を最適化するステップとを具備すること
を特徴とする。
According to the present invention, there is provided a color information conversion method and apparatus for matching a color appearance, which comprises a method for matching a color appearance of a reproduction device observed under different environments, with a spectral reflectance or A method of converting one of the spectral transmittances into a color separation value, wherein one of the spectral reflectance or the spectral transmittance is set as an intermediate color system of a color, and the color separation value is used as the intermediate color system. A first conversion step of converting at least three color separation values into the intermediate color system using a neural network trained to convert to the intermediate color system;
A first calculation step of obtaining a color value at a predetermined light source from the intermediate color system, a second calculation step of converting the color value into a color value that does not depend on the surrounding environment to be observed, A third calculation step of calculating a color value in a predetermined environment from a color value not to be used, and a step of optimizing a color value converted by a neural network from the color value and a predetermined color separation value. Features.

【0007】即ち、光源に依存しない分光反射率、また
は、分光透過率のいずれか一方を中間表色系とし、色分
解値組から分光反射率、または、分光透過率のいずれか
一方への変換を学習させられたニューラルネットによる
非線形変換を用いて、色分解値組から分光反射率、また
は、分光透過率のいずれか一方への変換を行い、変換に
よって得られた分光反射率、または、分光透過率から計
算される指定された光源における色彩値を色の見えのモ
デルを用いて観察環境に依存しない色彩値へ変換し、さ
らに、所定の観察環境下での色彩値へ変換し、得られた
所定の観察環境下での色彩値と少なくとも3つの色分解
値からニューラルネットによって求められる分光反射
率、または、分光透過率のいずれか一方から計算される
色彩値の間の関係に関する拘束条件の下での最適化によ
って、所定の観察環境下で色の見えが一致するように画
像出力装置に表示する画像の色修正を実現するようにし
ている。
That is, any one of the spectral reflectance or the spectral transmittance independent of the light source is used as an intermediate color system, and conversion from a set of color separation values to either the spectral reflectance or the spectral transmittance is performed. Is converted from the color separation value set to either spectral reflectance or spectral transmittance using a nonlinear transformation by a neural network that has been trained, and the spectral reflectance or spectral obtained by the conversion is converted. The color value at the specified light source calculated from the transmittance is converted into a color value independent of the viewing environment using a color appearance model, and further converted into a color value under a predetermined viewing environment. The relationship between a color value under a predetermined observation environment and a color reflectance value calculated from one of a spectral reflectance or a spectral transmittance obtained by a neural network from at least three color separation values. Optimization under constraints that, so that to realize an image of a color correcting to be displayed on the image output device so see the color match under a given viewing environment.

【0008】ここで、前記色分解値はカラー画像を構成
するR、G、B値等の加法混色の三原色、または、カラ
ー画像を構成するC、M、Y、K値等の減法混色の三原
色としている。さらに、前記色彩値は、CIEが色彩値
として規定するX、Y、Z三刺激値、あるいは、R、
G、B値、及び、人間の目の錐体の応答量を表すL、
M、S値とするようにしている。又、前記2つのニュー
ラルネットワークは3から5層の多層フィードフォワー
ド型のニューラルネットワークであり、前記ニューラル
ネットワークは、学習機能を有するようにしている。
Here, the color separation values are three primary colors of additive color mixture such as R, G, and B values constituting a color image or three primary colors of subtractive color mixture such as C, M, Y, and K values constituting a color image. And Further, the color values are X, Y, and Z tristimulus values defined by the CIE as color values, or R,
G and B values, and L representing the amount of response of the cone of the human eye,
M and S values are set. Further, the two neural networks are multilayer feedforward type neural networks having three to five layers, and the neural network has a learning function.

【0009】又、前記拘束条件として、色の見えのモデ
ルで求められる所定の光源下での色彩値と前記ニューラ
ルネットによって求められた分光反射率から計算される
指定された光源における色彩値との間の二乗誤差(二乗
ノルム)、または、平均色差を最適化手法によって最小
化することを条件とするようにしている。又、前記最適
化手法に極値探索の一般的手法である非線形最適化手法
を用いるようにしている。又、前記所定の光源はCIE
が規定するA光源、B光源、C光源、任意の色温度のD
光源、F1からF12 光源、及び、分光測色器による計測に
よって得られる任意の光源の分光分布を持つ光源を用い
るようにしている。
Further, as the constraint condition, a color value under a predetermined light source obtained by a color appearance model and a color value at a specified light source calculated from a spectral reflectance obtained by the neural network are used. The condition is that the square error (square norm) between them or the average color difference is minimized by an optimization method. In addition, a non-linear optimization method, which is a general method of extremum search, is used as the optimization method. The predetermined light source is CIE
A light source, B light source, C light source, and D of any color temperature specified by
Light sources, F1 to F12 light sources, and light sources having an arbitrary light source spectral distribution obtained by measurement with a spectral colorimeter are used.

【0010】又、本発明に係わる色の見えを合わせる色
情報変換装置は、少なくとも3つの色分解値を入力する
入力手段と、色分解値から画像を出力する画像出力手段
と、少なくとも3つの色分解値組を、所定の画像出力特
性に従って学習された多層フィードフォワード型のニュ
ーラルネットによって分光反射率に変換する第1の変換
手段と、前記入力手段に入力された色分解値組を、前記
画像出力手段の特性に従って学習させられたニューラル
ネットワークによって分光反射率及び分光透過率のいず
れか一方に変換する第2の変換手段と、前記第1の変換
手段により求められる分光反射率及び分光透過率いずれ
か一方を用い計算される所定の環境下での色彩値から色
の見えのモデルにより計算される周辺の環境に無関係な
色彩値を計算する第3の変換手段と、色の見えのモデル
により求められた周辺の環境に無関係な色彩値から所定
の環境下での色彩値を計算する第4の変換手段と、前記
第4の変換手段から出力される所定の環境下での色彩値
と第2変換手段から出力される分光反射率から計算され
る所定の環境下での色彩値間の二乗誤差及び平均色差の
少なくとも一方を最小化するように前記入力された色分
解値を最適化する最適化手段とを具備することを特徴と
する。
Further, according to the present invention, there is provided a color information conversion apparatus for matching color appearance, comprising: input means for inputting at least three color separation values; image output means for outputting an image from the color separation values; First conversion means for converting the set of separation values into spectral reflectance by a multilayer feedforward type neural network learned according to a predetermined image output characteristic; and converting the set of color separation values input to the input means into the image A second conversion unit for converting into a spectral reflectance or a spectral transmittance by a neural network learned according to the characteristics of the output unit; and a spectral reflectance or a spectral transmittance determined by the first conversion unit. Calculate a color value independent of the surrounding environment calculated by a color appearance model from a color value in a predetermined environment calculated using one of the above. Third conversion means, fourth conversion means for calculating a color value under a predetermined environment from color values irrelevant to the surrounding environment obtained by the color appearance model, and output from the fourth conversion means. So as to minimize at least one of the square error and the average color difference between the color values under the predetermined environment calculated from the color values under the predetermined environment and the spectral reflectance output from the second conversion means. Optimizing means for optimizing the input color separation value.

【0011】即ち、少なくとも3つの色分解値を分光反
射率に変換し、さらに、色の見えのモデルを用いて計算
される色彩値を用いることによって任意の観察環境下で
の色の見えを合わせる色情報変換撮像装置では、前記少
なくと3つの色分解値を電気信号、あるいは光信号に変
換する入力手段と、少なくとも3つの色分解値を電気信
号に変換する入力手段と、前記入力手段からの電気信号
を予め学習させられたニューラルネットによって分光反
射率及び分光透過率のいずれか一方に変換し、電気信号
として出力する第1の変換手段と、適当な色分解値の初
期値に対応する電気信号を予め学習させられたニューラ
ルネットによって分光反射率及び分光透過率のいずれか
一方に変換し、電気信号として出力する第2変換手段
と、予め学習させられたニューラルネットの結合係数、
および、CIE等色関数、または、R、G、B等色関
数、人間の目の光受容器(錐体)の分光感度特性、さら
にまた、用いる可能性のある光源の分光分布を記憶して
おく記憶装置と、前記第1の変換手段の出力から所定の
光源下での色彩値を計算し、その色彩値を色の見えのモ
デルを用いて周辺の環境に依存しない色彩値に変換した
あと電気信号として出力する第3変換手段と、周辺の環
境に依存しない色彩値を所定の環境下での色彩値に変換
し、電気信号として出力する第4変換手段と、前記第4
変換手段と前記第2変換手段の出力である分光反射率及
び分光透過率のいずれか一方から計算される所定の環境
下での色彩値との間の関係に関する拘束条件のもとでの
最適化によって調節された色分解値に変換する最適化手
段と前記最適化手段から出力される電気信号を任意の出
力信号として出力する出力手段を含み、前記第1および
第2変換手段は、3から5層の多層フィードフフォワー
ド型ニューラルネットであり、前記のニューラルネット
ワークは学習機能を有し、少なくとも3つの色分解値組
をその色分解値組に対応する再現色の分光反射率、また
は、分光透過率分布に変換することをそれぞれ学習させ
られており、そしてまた、第4変換手段における色の見
えのモデルと記憶装置に記憶されている等色関数、また
は、錐体の分光感度特性を用いて計算される所定の環境
下での色彩値と第2変換手段から出力される分光反射率
と記憶装置に記憶されている等色関数、または、錐体の
分光感度特性を用いて計算される所定の環境下での色彩
値との間の2乗誤差(二乗ノルム)、または、平均色差
を最小化するという条件のもとで第2変換手段の入力を
最適化手法を用いて最適化ことによって、色の見えの違
いを修正する色情報変換を実現するようにしている。
That is, at least three color separation values are converted into spectral reflectances, and furthermore, the color appearance under an arbitrary observation environment is adjusted by using a color value calculated using a color appearance model. In the color information conversion imaging device, input means for converting the at least three color separation values into an electric signal or an optical signal; input means for converting at least three color separation values into an electric signal; First converting means for converting an electric signal into one of spectral reflectance and spectral transmittance by a neural network learned in advance and outputting the converted signal as an electric signal, and an electric signal corresponding to an initial value of an appropriate color separation value A second conversion means for converting the signal into one of spectral reflectance and spectral transmittance by a neural network trained in advance and outputting it as an electric signal; The coupling coefficient of the neural net,
And storing the CIE color-matching function or the R, G, B color-matching function, the spectral sensitivity characteristic of the photoreceptor (cone) of the human eye, and the spectral distribution of the light source that may be used. After calculating a color value under a predetermined light source from the output of the storage device and the first conversion means, and converting the color value into a color value independent of the surrounding environment using a color appearance model A third converter for outputting as an electric signal, a fourth converter for converting a color value independent of the surrounding environment into a color value under a predetermined environment, and outputting the converted signal as an electric signal;
Optimization under a constraint on the relationship between the conversion means and the color value under a predetermined environment calculated from one of the spectral reflectance and the spectral transmittance output from the second conversion means. Optimizing means for converting color separation values adjusted according to the above, and output means for outputting an electric signal output from the optimizing means as an arbitrary output signal, wherein the first and second converting means are 3 to 5 A neural network having a plurality of layers, said neural network having a learning function, and converting at least three color separation value sets into a spectral reflectance or a spectral transmittance of a reproduced color corresponding to the color separation value set. Each of them is trained to convert to a rate distribution, and also a color appearance model in a fourth conversion unit and a color matching function stored in a storage device, or a spectral sensitivity of a cone. Using the color value under a predetermined environment calculated using the characteristic, the spectral reflectance output from the second conversion unit and the color matching function stored in the storage device, or the spectral sensitivity characteristic of the cone Under the condition that the square error (square norm) between the calculated color value and the color value under the predetermined environment or the average color difference is minimized, the input of the second conversion unit is optimized using an optimization method. The optimization realizes color information conversion for correcting a difference in color appearance.

【0012】従って、本発明の色の見えを合わせる色情
報変換装置においては、ニューラルネットワークの学習
機能を有効に利用することにより、色がCMY値または
CMYK値で表現される場合にも、RGB値で表現され
る場合であっても、これらの色に関する色分解値と分光
反射率との間の変換を高精度に実現する事ができる。ま
た、CMY値、CMYK値、あるいは、RGB値等の色
分解値と分光反射率、または、分光透過率との間の変換
に学習機能を有するニューラルネットワークを用いるた
め、十分に学習させられたニューラルネットワークはそ
の汎化能力によって、入力に学習に用いなかった未知の
データが入力された場合であっても、入力データに対す
る適切な出力を得ることができる。
Therefore, in the color information conversion apparatus for matching colors according to the present invention, by effectively utilizing the learning function of the neural network, even when a color is expressed by a CMY value or a CMYK value, the RGB value can be obtained. Even when the expression is expressed by, the conversion between the color separation values and the spectral reflectance for these colors can be realized with high accuracy. Further, since a neural network having a learning function is used for conversion between a color separation value such as a CMY value, a CMYK value, or an RGB value and a spectral reflectance or a spectral transmittance, a sufficiently learned neural network is used. Due to its generalization ability, the network can obtain an appropriate output for the input data even when unknown data not used for learning is input.

【0013】更に、色の見えのモデルを用い、その出力
である所定の光源下での色彩値と、ニューラルネットに
よって求められた分光反射率から計算される指定された
光源下での色彩値間の2乗誤差(2乗ノルム)、また
は、平均色差を最小とすることを拘束条件とする非線形
最適化手法によって、装置にも光源にも依存しない非常
に信頼性の高い色の見えを合わせる色情報変換を実現で
きる。
Further, using a model of color appearance, a color value under a predetermined light source, which is an output, and a color value under a specified light source calculated from a spectral reflectance obtained by a neural network. By using a non-linear optimization method that restricts minimization of the square error (square norm) or the average color difference, a color that matches the appearance of highly reliable colors independent of the device and the light source. Information conversion can be realized.

【0014】[0014]

【発明の実施の形態】先ず、本発明に係わる色の見えを
合わせる色情報変換装置の基本的な考え方について説明
する。色は測色学的には、光源の分光分布、物体の分光
反射率、等色関数の積を全可視光領域で積分した値、即
ち、色彩値として定義される。この定義に従えば、異な
る観察環境下での色の見えを合わせるためには、一度、
観察環境とは無関係な物体が本来持っている色を求め、
その上で異なる観察環境で見た場合の色の見えを予測
し、その環境下で人間の視覚にその色の見えを引き起こ
させるような色を画像出力装置に出力する必要がある。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS First, a basic concept of a color information conversion apparatus according to the present invention for matching color appearance will be described. Color is colorimetrically defined as the value obtained by integrating the product of the spectral distribution of the light source, the spectral reflectance of the object, and the color matching function in the entire visible light region, that is, the color value. According to this definition, in order to match the color appearance under different viewing environments, once
Find the color that the object that is unrelated to the observation environment originally has,
Then, it is necessary to predict the color appearance when viewed in different viewing environments, and to output to the image output device a color that causes human vision to cause the color appearance under the environment.

【0015】本発明は、こうした色の見えを合わせるた
めの基本的な考え方に基づき、実際に色再現の分野にお
いて装置及び、観察環境に独立な色再現に応用し、異な
る観察環境下、異なる画像出力装置間での色の見えの一
致を実現する。本発明に係わる色の見えを合わせる色情
報変換装置では、画像出力部、及び、入力された色分解
値と分光反射率の間の変換を学習したニューラルネット
を用いて行う。更に観察環境に依存する色彩値と依存し
ない色彩値との間の変換、及び、観察環境に依存しない
色彩値から依存する色彩値への変換は色の見えのモデル
を用いて行う。また、所定条件を満足する最適化によっ
て所定環境下での色の見えが一致する色分解値に変換す
る。最適化には、色の見えのモデルで求めた色彩値と、
分光反射率から計算される色彩値の間の二乗誤差(二乗
ノルム)、あるいは、平均色差を最小にするという条件
が含まれるが詳細は後述する。
The present invention is based on such a basic idea for matching the appearance of colors, and is applied to color reproduction independent of devices and viewing environments in the field of color reproduction, and different images are obtained under different viewing environments. Achieving matching of color appearance between output devices. The color information conversion apparatus for adjusting the color appearance according to the present invention uses an image output unit and a neural network that has learned conversion between an input color separation value and spectral reflectance. Further, the conversion between the viewing environment-dependent color value and the viewing environment-independent color value, and the conversion from the viewing environment-independent color value to the dependent color value are performed using a color appearance model. In addition, the image is converted into a color separation value that matches the appearance of a color under a predetermined environment by optimization satisfying a predetermined condition. The optimization includes the color values obtained from the color appearance model,
This includes a square error (square norm) between the color values calculated from the spectral reflectance or a condition of minimizing the average color difference, which will be described in detail later.

【0016】以下、図面を参照して本発明の実施の形態
に係わる色の見えを合わせる色情報変換装置を説明す
る。本発明の実施の形態である色の見えを合わせる色情
報変換装置の機能構成を図1に示す。図1に示されるよ
うに色の見えを合わせる色情報変換装置は、入力部1
0、色情報変換部20、画像出力部30により構成され
る。入力部10は、CMY値等、色分解値を入力し、対
応する電気信号として色情報変換部20に出力する。画
像出力部30は、入力される色分解値に従ってディスプ
レーや紙に画像を出力するカラーDTP(DeskTopPublis
hing) における電子写真式プリンタ、ディスプレー等の
画像出力装置が適用される。色情報変換部20は、色の
見えを合わせる色情報変換処理全体の制御を司る制御部
21、ニューラルネットワークで構成される第1変換部
22、第2変換部23、所定の観察環境の色彩値と観察
環境に依存しない色彩値との間の変換を行う第3変換部
24、及び、第4変換部25、所定の条件の下で変換処
理を行う第5変換部26、第1から第5変換部26に係
わる各種パラメータを記憶するメモリ27により構成さ
れる。
Hereinafter, a color information conversion apparatus for matching the appearance of colors according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows a functional configuration of a color information conversion apparatus that matches the appearance of colors according to an embodiment of the present invention. As shown in FIG. 1, a color information conversion device that matches the appearance of a color includes an input unit 1.
0, a color information conversion unit 20, and an image output unit 30. The input unit 10 inputs a color separation value such as a CMY value and outputs the color separation value to the color information conversion unit 20 as a corresponding electric signal. The image output unit 30 outputs a color DTP (DeskTopPublis) that outputs an image on a display or paper according to the input color separation value.
hing), an image output device such as an electrophotographic printer or display is applied. The color information conversion unit 20 includes a control unit 21 that controls the entire color information conversion process for matching the appearance of colors, a first conversion unit 22 and a second conversion unit 23 that are configured by a neural network, and a color value of a predetermined observation environment. A third conversion unit 24 and a fourth conversion unit 25 that perform conversion between color values and color values that do not depend on the viewing environment; a fifth conversion unit 26 that performs conversion processing under predetermined conditions; The memory 27 stores various parameters related to the conversion unit 26.

【0017】尚第1変換部22、第2変換部23は、そ
れぞれ後述する変換機能を有していると同時に、この機
能を実現するように制御部21の下、学習処理が施され
る。また、第3変換部24は、後述するように第1変換
部22の出力である分光反射率から計算される指定光源
下での色彩値から観察環境に依存しない色彩値へ、色の
見えのモデルを用いて変換する。更に、第4変換部25
は、色の見えのモデルを用いて観察環境に依存しない色
彩値から所定の観察環境(照明)での色彩値へ変換す
る。また、第5変換部26は、制御部21の制御の下、
第2変換部23から出力される分光反射率から計算され
る所定光源下での色彩値と第4変換部25から出力され
る所定光源下での色彩値の二乗誤差(二乗ノルム)、あ
るいは、平均色差を最小にするという条件のもとでの最
適化が行われ、色合わせされた色分解値が求められる。
The first conversion unit 22 and the second conversion unit 23 each have a conversion function described later, and at the same time, a learning process is performed under the control unit 21 so as to realize this function. Further, the third conversion unit 24 converts the color appearance under the designated light source calculated from the spectral reflectance output from the first conversion unit 22 to a color value independent of the viewing environment, as described later. Convert using the model. Further, the fourth conversion unit 25
Converts a color value independent of the observation environment into a color value in a predetermined observation environment (illumination) using a color appearance model. In addition, the fifth conversion unit 26, under the control of the control unit 21,
The square error (square norm) between the color value under the predetermined light source calculated from the spectral reflectance output from the second conversion unit 23 and the color value under the predetermined light source output from the fourth conversion unit 25, or Optimization is performed under the condition of minimizing the average color difference, and color-matched color separation values are obtained.

【0018】また、第2変換部23には、適当な値を持
つ初期値の電気信号を分光反射率に変換する。第1変換
部22及び第2変換部23に用いられるニューラルネッ
トワークの一例を図2に示す。同図に示すように、中間
層は入出力関係がシグモイド関数によって表される神経
回路素子により構成され、入・出力層は線形の神経回路
素子であっても良い。出力層については中間層と同様に
シグモイド特性を持つ神経回路素子で構成されることが
望ましい。図2に示すニューラルネットは、離散化され
た分光反射率の点数に対応する出力ユニットU1、 U2 、
・・・・Unを有しており、入力層のユニット数は3、中
間層ユニット数は18、出力層ユニット数は31個で構
成される。ただし、中間ユニット数は、用いる画像出力
装置の特性に合わせて決定することが望ましい。
The second converter 23 converts an electric signal of an initial value having an appropriate value into a spectral reflectance. FIG. 2 shows an example of a neural network used in the first conversion unit 22 and the second conversion unit 23. As shown in the figure, the intermediate layer may be composed of neural circuit elements whose input / output relationship is represented by a sigmoid function, and the input / output layers may be linear neural circuit elements. The output layer is desirably formed of a neural circuit element having a sigmoid characteristic similarly to the intermediate layer. The neural network shown in FIG. 2 has output units U1, U2,
... Un, the number of units in the input layer is 3, the number of units in the intermediate layer is 18, and the number of units in the output layer is 31. However, it is desirable that the number of intermediate units be determined according to the characteristics of the image output device used.

【0019】制御部21は、第5変換部26を用い、第
2変換部23から出力される分光反射率から計算される
所定光源下での色彩値と第4変換部25から出力される
所定光源下での色彩値の二乗誤差(二乗ノルム)、ある
いは、平均色差を最小にするという条件のもとでの最適
化が行われる、色合わせされた色分解値を求める。メモ
リ27は、学習を終えたニューラルネットワークの結合
係数や、使用される可能性のある光源の分光分布、等色
関数等を記憶する。次に、ニューラルネットワークで構
成される第1変換部22と、第2変換部23について詳
細に説明する。
The control section 21 uses a fifth conversion section 26 to calculate a color value under a predetermined light source calculated from the spectral reflectance output from the second conversion section 23 and a predetermined color value output from the fourth conversion section 25. A color-matched color separation value that is optimized under the condition of minimizing the square error (square norm) of the color value under the light source or the average color difference is obtained. The memory 27 stores the coupling coefficient of the neural network for which learning has been completed, the spectral distribution of the light source that may be used, the color matching function, and the like. Next, the first conversion unit 22 and the second conversion unit 23 configured by a neural network will be described in detail.

【0020】図1に示される入力部10により、色に関
する少なくとも3つの色分解値組がそれに対応する電気
信号に変換される。即ち、色情報の変換を行うべき元の
色のR(レッド)、G(グリーン)、B(ブルー)、ま
たは、C(シアン)、M(マゼンタ)、Y(イエロー)
値、あるいは、C(シアン)、M(マゼンタ)、Y(イ
エロー)、K(ブラック)値のような色分解値を示す電
気信号として出力される。第1変換手段22、第2変換
手段23では、RGB値、CMY値、CMYK値等の色
分解値が適当な初期値として入力層に与えられると、図
2に示すような構造を持つニューラルネットワークの中
間層ユニットの出力 Hi は以下の式に従って出力され
る。
The input unit 10 shown in FIG. 1 converts at least three sets of color separation values for colors into corresponding electric signals. That is, R (red), G (green), B (blue), C (cyan), M (magenta), and Y (yellow) of the original colors to be subjected to color information conversion.
It is output as an electric signal indicating a value or a color separation value such as C (cyan), M (magenta), Y (yellow), and K (black) values. In the first conversion unit 22 and the second conversion unit 23, when color separation values such as RGB values, CMY values, and CMYK values are given to the input layer as appropriate initial values, a neural network having a structure as shown in FIG. Is output according to the following equation.

【0021】[0021]

【数1】 (Equation 1)

【0022】ここで、W(h)ijはj番目の入力ユニットと
i番目の中間ユニットの結合係数を表し、またIi は中
間ユニットの出力、bj はバイアス値を表す。また、出
力層ユニットの出力 Oi も同様に次式に従って出力され
る。
Here, W (h) ij represents the coupling coefficient between the j-th input unit and the i-th intermediate unit, Ii represents the output of the intermediate unit, and bj represents the bias value. The output Oi of the output layer unit is similarly output according to the following equation.

【0023】[0023]

【数2】 (Equation 2)

【0024】但し、W(o)ijはj番目の中間ユニットとi
番目の出力ユニットの結合係数を表し、またHiは前記
(1)式で定義される i 番目の中間ユニットの出力値
である。また、n、m、kはそれぞれ入力層、中間層、
出力層のユニット数である。この時、入力層のユニット
の特性は入力をそのまま出力するような特性であり、ま
た、中間層ユニットの関数 f(x) は次式で定義される
[0, 1]の間で単調増加なシグモイド関数で表される特性
である。
Where W (o) ij is the j-th intermediate unit and i
Represents the coupling coefficient of the ith output unit, and Hi is the output value of the ith intermediate unit defined by the above equation (1). Also, n, m, and k are an input layer, an intermediate layer,
This is the number of units in the output layer. At this time, the characteristics of the unit in the input layer are such that the input is output as it is, and the function f (x) of the hidden unit is defined by the following equation.
This is a characteristic represented by a sigmoid function that monotonically increases between [0, 1].

【0025】[0025]

【数3】 (Equation 3)

【0026】また、出力ユニットはシグモイド関数ある
いは線形関数で表される特性である。ただし、出力層は
バイアスユニットからの入力があってもよい。この3層
ニューラルネットワークの結合係数は、各出力ユニット
の出力と教師信号として与えられる分光反射率との2乗
誤差を最小にするように予め学習・修正される。学習に
は、Rumelhert が提案したバックプロパゲーション学習
則が用いられ、色分解値から分光反射率への変換を学習
する。そして学習を終えた3層ニューラルネットの結合
係数がメモリ27に記憶される。一方、第3変換部23
では、学習を終えたニューラルネットによって得られ
る、第1変換手段22の出力である、分光反射率R
(C、M、Y)、等色関数M、指定された光源の分光分
布Lから
The output unit has a characteristic represented by a sigmoid function or a linear function. However, the output layer may have an input from the bias unit. The coupling coefficient of the three-layer neural network is previously learned and corrected so as to minimize the square error between the output of each output unit and the spectral reflectance given as a teacher signal. The learning uses the back propagation learning rule proposed by Rumelhert, and learns the conversion from color separation values to spectral reflectance. Then, the coupling coefficient of the learned three-layer neural network is stored in the memory 27. On the other hand, the third conversion unit 23
Then, the spectral reflectance R, which is the output of the first conversion means 22 obtained by the neural network after learning,
(C, M, Y), color matching function M, spectral distribution L of specified light source

【0027】[0027]

【数4】 (Equation 4)

【0028】で計算される色彩値を計算し、さらに、色
の見えのモデルを用いて、前記(4)式で得られる照明
依存の色彩値を観察環境に依存しない色彩値に変換す
る。ここで、色の見えのモデルとしてフェアチャイルド
が提案したRLAB(Mark,D.Fairchild, Roy S. Berns:
Image Color-Appearance Specification ThroughExten
sion of CIELAB, Color research and Application Vol
ume 18, Number.3,June 1993を参照)を用いる。このモ
デルでは、観察環境として、観察照明の種類、バックグ
ランドの明るさ、色などが用いられる。第4変換部25
では、第3変換部24の出力値である、観察環境に依存
しない色彩値から、第3変換部24の変換の際に用いら
れた観察環境とは別の観察環境下での色彩値に、RLA
Bを用いて変換する。
The color values calculated in step (4) are calculated, and the color values dependent on illumination obtained by the above equation (4) are converted into color values independent of the viewing environment using a color appearance model. Here, the RLAB (Mark, D. Fairchild, Roy S. Berns:
Image Color-Appearance Specification ThroughExten
sion of CIELAB, Color research and Application Vol
ume 18, Number.3, June 1993). In this model, the type of observation illumination, background brightness, color, and the like are used as the observation environment. Fourth converter 25
Then, from the color value independent of the observation environment, which is the output value of the third conversion unit 24, to a color value under an observation environment different from the observation environment used in the conversion of the third conversion unit 24, RLA
Convert using B.

【0029】第5変換部では、第4変換部の出力値であ
る所定の観察環境下での色彩値と、第2変換部の出力値
である分光反射率から計算される所定光源下での色彩値
との間の二乗誤差(二乗ノルム)、または、平均色差を
最小にするという条件のもとで、第2変換部の入力の最
適化が行われ、所定環境下での色彩値を色の見え合わせ
のための処理が施された色分解値に変換する。この変換
された色分解値組は、画像出力部30に送られ、電気信
号や光信号等任意の信号に変換される。次に、この第1
の実施の形態における第1変換部22、および、第2変
換部23の学習処理について説明する。
In the fifth converter, a color value under a predetermined observation environment, which is an output value of the fourth converter, and a predetermined light source calculated from a spectral reflectance, which is an output value of the second converter, are used. The input of the second conversion unit is optimized under the condition of minimizing the square error (square norm) between the color value and the average color difference, and converts the color value under a predetermined environment into a color. Is converted to a color separation value that has been subjected to processing for visual matching. The converted color separation value set is sent to the image output unit 30 and is converted into an arbitrary signal such as an electric signal or an optical signal. Next, this first
The learning process of the first conversion unit 22 and the second conversion unit 23 in the embodiment will be described.

【0030】図4に、ニューラルネットワークで構成さ
れる第1変換部22、第2変換部23の学習処理を示
す。前述したようにこの学習処理は、制御部21の制御
の下で実施される。尚、ニューラルネットワークの学習
に用いる分光反射率データには、対象とする画像出力装
置、CMY値を0から100%まで10%間隔で変えて
印刷した1331色のカラーチップを分光測色器で測色
して得た400nmから700nmまでの可視光領域を10
nm間隔でサンプリングした31点のデータを、色分解値
にはカラーチップのCMY値を用いる。また、学習デー
タは、このデータのうち216色だけを用いる。
FIG. 4 shows a learning process of the first conversion unit 22 and the second conversion unit 23 constituted by a neural network. As described above, this learning process is performed under the control of the control unit 21. The spectral reflectance data used for learning of the neural network includes a target image output device and a color chip of 1331 colors printed by changing CMY values from 0 to 100% at intervals of 10% using a spectral colorimeter. Visible light region from 400nm to 700nm obtained by coloring is 10
Data of 31 points sampled at nm intervals are used, and CMY values of a color chip are used as color separation values. The learning data uses only 216 colors of the data.

【0031】先ず、第1変換部22の入力層に色分解値
を入力する(ステップS10)。ここでは、制御部21
で発生させられたCMY値が入力される。この後、出力
層に対し、分光測色器で測色された分光反射率が教師信
号として与えられる(ステップS11)。尚、前記CM
Y値は、それぞれ教師データに対応するように発生させ
られる。次にバックプロパゲーション学習則に基づいて
学習処理が施される(ステップS12)。即ち、出力層
より出力される値が教師信号である分光反射率に近づく
ようにニューラルネットワーク内のユニットの結合の強
さ(結合係数)が変更される。
First, a color separation value is input to the input layer of the first conversion unit 22 (step S10). Here, the control unit 21
Is input. Thereafter, the spectral reflectance measured by the spectral colorimeter is given to the output layer as a teacher signal (step S11). The CM
The Y values are generated so as to correspond to the teacher data, respectively. Next, a learning process is performed based on the back propagation learning rule (step S12). That is, the coupling strength (coupling coefficient) of the units in the neural network is changed so that the value output from the output layer approaches the spectral reflectance as the teacher signal.

【0032】この後、216枚の色票全てについて行わ
れたかが判断され、もし、達していなければステップS
10からの学習処理が再度実行される(ステップS1
3、NO)。もし、216枚全ておこなわれたならば、次
のステップに進む(ステップS13、YES )。この後、
出力層から出力される値と教師信号である分光反射率の
216枚のカラーチップの総和が所定の誤差内であるか
等が判断される(ステップ13)。所定の学習条件を満
たしている場合には、ニューラルネットの結合係数がメ
モリ27に保存され、学習が終了する(ステップ13、
YES )。又、学習条件が満たされていない場合、最初の
カラーチップから再びステップS10からの学習処理が
実行される(ステップS13、NO)。尚、第2変換部2
3の学習処理も同様な処理で行われる。
Thereafter, it is determined whether or not the processing has been performed for all of the 216 color patches.
10 is executed again (step S1).
3, NO). If all 216 sheets have been processed, the process proceeds to the next step (step S13, YES). After this,
It is determined whether the sum of the values output from the output layer and the 216 color chips of the spectral reflectance as the teacher signal is within a predetermined error (step 13). If the predetermined learning condition is satisfied, the coupling coefficient of the neural network is stored in the memory 27, and the learning is completed (step 13,
YES). If the learning condition is not satisfied, the learning process from step S10 is executed again from the first color chip (step S13, NO). The second conversion unit 2
The learning process of No. 3 is performed by the same process.

【0033】次に、この実施の形態における、色ずれ修
正処理を図4のフローチャートを参照して説明する。先
ず、入力部10から画像の各画素の色分解値が色情報変
換部20に送られる(ステップS20)。また、同時に
第2変換部23において初期値として乱数入力が行われ
る。ここでは、CMY値の各C、M、Yの値は0から1
00までの範囲である。この後、予めメモリ27に保存
されている指定された光源L1の分光分布、等色関数、
前記学習処理により定められたニューラルネットワーク
の結合係数が第1変換部22に設定される(ステップS
21)。同時に、指定された光源L2の分光分布、等色
関数、前記学習処理により定められたニューラルネット
ワークの結合係数が第2変換部23に設定される(ステ
ップS22)。第1変換部では、入力部10より入力さ
れたCMY値を分光反射率に変換し、所定の光源での色
彩値が出力として第3変換部に送られる(ステップS2
3)。更に、予めメモリ27に保存されている観察環境
(周辺の照明の分光分布、背景色の色度値等)が、第
3、第4変換部に読み込まれる(ステップS24)。第
3変換部では、第1変換部から送られてくる色彩値を色
の見えのモデル(RLAB)によって観察環境に依存し
ない色彩値に変換される(ステップS25)。第4変換
部では、第3変換部の出力値である観察環境に依存しな
い色彩値を第3変換部の入力とは別の観察環境に依存す
る色彩値に変換する(ステップS26)。その後、第2
変換部において、初期値として与えられたCMY値が分
光反射率に変換される(ステップS27)。
Next, the color misregistration correction processing in this embodiment will be described with reference to the flowchart of FIG. First, the color separation value of each pixel of the image is sent from the input unit 10 to the color information conversion unit 20 (Step S20). At the same time, a random number is input as an initial value in the second converter 23. Here, the values of C, M, and Y of the CMY values are from 0 to 1.
The range is up to 00. Thereafter, the spectral distribution of the specified light source L1, color matching function,
The coupling coefficient of the neural network determined by the learning process is set in the first conversion unit 22 (Step S
21). At the same time, the spectral distribution of the specified light source L2, the color matching function, and the coupling coefficient of the neural network determined by the learning process are set in the second conversion unit 23 (Step S22). In the first conversion unit, the CMY values input from the input unit 10 are converted into spectral reflectances, and the color values of a predetermined light source are sent to the third conversion unit as an output (step S2).
3). Further, the observation environment (spectral distribution of peripheral illumination, chromaticity value of background color, etc.) stored in the memory 27 in advance is read into the third and fourth conversion units (step S24). In the third conversion unit, the color values sent from the first conversion unit are converted into color values independent of the viewing environment by using a color appearance model (RLAB) (step S25). The fourth conversion unit converts a color value independent of the viewing environment, which is an output value of the third conversion unit, into a color value dependent on a different viewing environment from the input of the third conversion unit (step S26). Then the second
The conversion unit converts the CMY values given as the initial values into the spectral reflectances (Step S27).

【0034】更に、第5変換部において、第2変換部の
出力値である分光反射率、及び、メモリ27に予め記憶
されている等色関数、光源L2の分光分布から計算され
る色彩値と、第4変換部の出力値を用いて最適化処理が
行われる(ステップS28)。この最適化処理は、2つ
の応答量間の二乗誤差(二乗ノルム)、または、平均色
差を最小にするという条件を満足するように実施され、
第2変換部22に入力されるCMY値が更新される(ス
テップS29)。次に、更新されたCMY値が最適化の
条件、例えば、二乗誤差(二乗ノルム)または平均色差
が所定の値以下である条件を満足しているか否かが判断
される(ステップS30)。この最適化条件を満足して
いない場合には(ステップS30、NO)、再びステップ
S27からの処理が更新されたCMY値に従っておこな
われる。最適化条件を満足している場合(ステップS3
0、YES )、この処理によって得られるCMY値を画像
出力部に転送する(ステップS31)。図5に前記ステ
ップS27からS30の最適化処理の流れの略を示す。
尚、ここでは、2つの応答量の最適化に非線形最適化の
一般的な手法であるBFGS法を用いる。
Further, in the fifth converter, the spectral reflectance, which is the output value of the second converter, the color matching function previously stored in the memory 27, the color value calculated from the spectral distribution of the light source L2, and the like. The optimization process is performed using the output value of the fourth conversion unit (step S28). This optimization processing is performed so as to satisfy a condition of minimizing a square error (square norm) between two response amounts or an average color difference.
The CMY values input to the second conversion unit 22 are updated (Step S29). Next, it is determined whether or not the updated CMY values satisfy an optimization condition, for example, a condition that a square error (square norm) or an average color difference is equal to or less than a predetermined value (step S30). If the optimization condition is not satisfied (step S30, NO), the processing from step S27 is performed again according to the updated CMY values. When the optimization condition is satisfied (step S3
0, YES), and transfer the CMY values obtained by this processing to the image output unit (step S31). FIG. 5 schematically shows the flow of the optimization processing in steps S27 to S30.
Here, the BFGS method, which is a general method of nonlinear optimization, is used to optimize the two response amounts.

【0035】こうした処理によって、色の見えを合わせ
る色情報変換を行う。
Through such processing, color information conversion for matching the color appearance is performed.

【0036】[0036]

【発明の効果】以上詳記したように本発明によれば、光
源に依存しない分光反射率を用い、更に、ニューラルネ
ットワークの学習機能を有効に利用することにより、色
がCMY値、又は、CMYK値で表現される場合にも、
RGB値で表現される場合であっても、これらの色に関
する色分解値と分光反射率との間の変換を高精度に実現
することができる。また、CMY値、CMYK値、ある
いは、RGB値等の色分解値と分光反射率、または、分
光透過率との間の変換に学習機能を有するニューラルネ
ットワークを用いるため、十分学習させられたニューラ
ルネットワークはその汎化能力によって、入力に学習に
用いなかった未知のデータが入力された場合であって
も、入力データに対する適切な出力を得ることができ
る。さらに、色彩値として、色の見えを合わせるモデル
を用いることにより、ニューラルネットワークの変換に
よって求められた分光反射率を用いて計算された色彩値
を、一度、観察環境(周辺の照明の明るさ、色温度、背
景色の色度値等)に依存しない色彩値に変換し、再度別
の観察環境かでの色彩値に変換するため、観察環境がど
のような場合であっても、色の見えがが常に同じになる
ような色合わせが実現できる。観察環境にも、装置にも
依存せず、更に、光源に依存しない分光反射率とCMY
値の変換によってデバイスの測色学的特性を記述しする
ことによって、色彩値を計算する時に光源情報(分光分
布)を与えられるため、光源の種類ごとに変換系を作成
する必要がなく、任意の環境下(光源下)での色の見え
の違いを修正できるようなシステムを実際に構築するこ
とが可能となる。
As described above in detail, according to the present invention, by using the spectral reflectance independent of the light source and effectively using the learning function of the neural network, the color is changed to the CMY value or CMYK. When represented by a value,
Even in the case of being represented by RGB values, conversion between the color separation values and the spectral reflectance for these colors can be realized with high accuracy. In addition, since a neural network having a learning function is used for conversion between a color separation value such as a CMY value, a CMYK value, or an RGB value and a spectral reflectance or a spectral transmittance, a sufficiently trained neural network is used. Due to its generalization ability, it is possible to obtain an appropriate output for input data even when unknown data not used for learning is input. Furthermore, by using a model that matches the appearance of colors as the color values, the color values calculated using the spectral reflectance obtained by the conversion of the neural network are once converted into the observation environment (the brightness of the surrounding illumination, Color temperature, chromaticity value of the background color, etc.), and convert it again to a color value in another viewing environment. The color matching that always becomes the same can be realized. Spectral reflectance and CMY independent of the observation environment and device, and independent of the light source
By describing the colorimetric characteristics of the device by converting the values, the light source information (spectral distribution) can be given when calculating the color values, so there is no need to create a conversion system for each type of light source, and any It is possible to actually construct a system that can correct the difference in color appearance under the environment (under the light source).

【0037】[0037]

【図面の簡単な説明】[Brief description of the drawings]

【0038】[0038]

【図1】本発明に係わる実施の形態における色の見えを
合わせる色情報変換装置の概略構成を示すブロック図で
ある。
FIG. 1 is a block diagram illustrating a schematic configuration of a color information conversion apparatus that matches the appearance of colors according to an embodiment of the present invention.

【0039】[0039]

【図2】本発明に係わる実施の形態における第1変換
部、および、第2変換部に用いるフィードフォワード型
のニューラルネットの一構成例を示す概略図である。
FIG. 2 is a schematic diagram illustrating a configuration example of a feedforward neural network used in a first conversion unit and a second conversion unit according to an embodiment of the present invention.

【0040】[0040]

【図3】前記実施の形態におけるフィードフォワード型
ニューラルネットワークにCMY値から分光反射率への
変換を学習させる処理を示す図である。
FIG. 3 is a diagram illustrating a process of causing a feedforward neural network in the embodiment to learn conversion from CMY values to spectral reflectance.

【0041】[0041]

【図4】本発明に係わる実施の形態における色の見えを
合わせる色情報変換の処理を示すフローチャート。
FIG. 4 is a flowchart showing color information conversion processing for matching colors in the embodiment according to the present invention.

【0042】[0042]

【図5】本発明の実施の形態の色の見えを合わせる色情
報変換処理における最適化処理を示す模式図。
FIG. 5 is a schematic diagram showing an optimization process in a color information conversion process for matching the appearance of colors according to the embodiment of the present invention.

【0043】[0043]

【符号の簡単な説明】[Brief description of reference numerals]

10・・・入力部 20・・・色情報変換部 30・・・画像出力部 21・・・制御部 22・・・第1変換部 23・・・第2変換部 24・・・第3変換部 25・・・第4変換部 26・・・第5変換部 27・・・メモリ DESCRIPTION OF SYMBOLS 10 ... Input part 20 ... Color information conversion part 30 ... Image output part 21 ... Control part 22 ... First conversion part 23 ... Second conversion part 24 ... Third conversion Unit 25: Fourth conversion unit 26: Fifth conversion unit 27: Memory

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】異なる環境下で観察される再現装置の色の
見えを合わせる方法において、光源に依存しない分光反
射率及び分光透過率のいずれか一方を中間表色系とし
て、色分解値から前記中間表色系への変換を学習させら
れたニューラルネットを用い、少なくとも3つの色分解
値を前記中間表色系へ変換する第1の変換ステップと、
前記中間表色系から所定の光源における色彩値をもとめ
る第1の算出ステップと、前記色彩値を観察する周囲の
環境に依存しない色彩値に変換する第2の変換ステップ
と、前記観察環境に依存しない色彩値から所定の光源で
の色彩値を算出する第2の算出ステップと、前記色彩値
と所定の色彩値からニューラルネットワークにより変換
される色分解値を最適化するステップとを具備すること
を特徴とする色の見えを合わせる色情報変換方法。
In a method for adjusting the appearance of colors of a reproduction device observed under different environments, one of a spectral reflectance and a spectral transmittance independent of a light source is set as an intermediate color system, and the color separation value is calculated from the color separation value. A first conversion step of converting at least three color separation values to the intermediate color system using a neural network that has been trained to convert to the intermediate color system;
A first calculating step of obtaining a color value at a predetermined light source from the intermediate color system, a second converting step of converting the color value into a color value that does not depend on a surrounding environment for observation, A second calculation step of calculating a color value at a predetermined light source from a color value not to be used, and a step of optimizing a color separation value converted by a neural network from the color value and the predetermined color value. A color information conversion method that matches the appearance of characteristic colors.
【請求項2】前記最適化するステップには、前記第2の
算出ステップにより求められる色彩値と、前記所定の色
彩値との2乗誤差及び平均色差の少なくとも一方を最小
とするように、前記色分解値を最適化することを特徴と
する請求項1記載の色の見えを合わせる色情報変換方
法。
2. The optimizing step includes: minimizing at least one of a square error and an average color difference between the color value obtained in the second calculation step and the predetermined color value. 2. The color information conversion method according to claim 1, wherein the color separation value is optimized.
【請求項3】前記観察する周囲の環境に依存しない色彩
値は、色の見えのモデルによって表される色彩値を用い
ることを特徴とする請求項1記載の色情報変換方法。
3. The color information conversion method according to claim 1, wherein the color value independent of the surrounding environment to be observed uses a color value represented by a color appearance model.
【請求項4】前記色彩値は、CIE(Commission Inter
nationale de I'Eclairage )が色彩値として規定する
X、Y、Z三刺激値、あるいは、R、G、B値、及び、
人間の目の錐体の応答量を表すL、M、S値のいずれか
でことを特徴とする請求項1記載の色の見えを合わせる
色情報変換方法。
4. The method according to claim 1, wherein the color value is a CIE (Commission Inter).
nationale de I'Eclairage) defines X, Y, and Z tristimulus values, or R, G, and B values, as color values.
2. The color information conversion method according to claim 1, wherein the color information is one of L, M, and S values representing the response amount of the cone of the human eye.
【請求項5】前記色分解値には、カラー画像を構成する
C(シアン)、M(マゼンタ)、Y(イエロー)、およ
び、C、M、Y、K(ブラック)値のいずれかである減
法混色の原色であることを特徴とする請求項1記載の色
の見えを合わせる色情報変換方法。
5. The color separation value is one of C (cyan), M (magenta), Y (yellow), and C, M, Y, K (black) values forming a color image. 2. The color information conversion method according to claim 1, wherein the color information is a subtractive primary color.
【請求項6】前記色分解値は、カラー画像を構成するR
(レッド)、G(グリーン)、B(ブルー)値の加法混
色の三原色であることを特徴とする請求項1記載の色の
見えを合わせる色情報変換方法。
6. The color separation value is defined as R
2. The color information conversion method according to claim 1, wherein the three primary colors are additive primary colors of (red), G (green), and B (blue) values.
【請求項7】前記第1および第2の変換ステップにおけ
るニューラルネットワークは、多層フィードフォワード
型ニューラルネットであることを特徴とする、請求項1
記載の色の見えを合わせる色情報変換方法。
7. The neural network according to claim 1, wherein said neural network in said first and second transforming steps is a multilayer feedforward neural network.
A color information conversion method that matches the appearance of the described color.
【請求項8】前記最適化ステップは、非線形最適化を行
うことを特徴とする請求項1または7記載の色の見えを
合わせる色情報変換方法。
8. The color information conversion method according to claim 1, wherein said optimizing step performs nonlinear optimization.
【請求項9】前記所定の光源はCIEが規定するC光
源、及び、色温度が4000[K] から7500[K] を有
するD光源のいずれか一方であることを特徴とする請求
項1記載の色の見えを合わせる色情報変換方法。
9. The light source according to claim 1, wherein the predetermined light source is one of a C light source specified by CIE and a D light source having a color temperature of 4000 [K] to 7500 [K]. A color information conversion method that matches the appearance of colors.
【請求項10】前記所定の光源はCIE(Commission I
nternationale deI'Eclairage )が規定するA光源、B
光源、C光源、任意の色温度のD光源、F1からF12 光
源、及び、分光測色器による計測によって得られる任意
の光源ののいずれか一つであることを特徴とする請求項
1記載の色の見えを合わせる色情報変換方法。
10. The predetermined light source is CIE (Commission I).
A light source, B defined by nternationale deI'Eclairage)
2. The light source according to claim 1, wherein the light source is any one of a light source, a C light source, a D light source having an arbitrary color temperature, F1 to F12 light sources, and an arbitrary light source obtained by measurement using a spectrophotometer. A color information conversion method that matches the appearance of colors.
【請求項11】少なくとも3つの色分解値を入力する入
力手段と、色分解値から画像を出力する画像出力手段
と、少なくとも3つの色分解値組を、所定の画像出力特
性に従って学習された多層フィードフォワード型のニュ
ーラルネットによって分光反射率に変換する第1変換手
段と、前記入力手段に入力された色分解値組を、前記画
像出力手段の特性に従って学習された多層フィードフォ
ワード型のニューラルネットによって分光反射率に変換
する第2の変換手段と、第1変換手段により求められる
分光反射率及び分光透過率いずれか一方を用い計算され
る所定の環境下での色彩値から色の見えのモデルにより
計算される周辺の環境に無関係な色彩値を計算する第3
の変換手段と、第3の変換手段から出力される色彩値を
所定の環境下での色彩値に変換する第4の変換手段と、
第4の変換手段から出力される色彩値と第2の変換手段
から出力される分光反射率から計算される所定の環境下
での色彩値間の二乗誤差及び平均色差の少なくとも一方
を最小化するように前記入力された色分解値を最適化す
る最適化手段とを具備することを特徴とする色の見えを
合わせる色情報変換装置。
11. An input means for inputting at least three color separation values, an image output means for outputting an image from the color separation values, and at least three sets of color separation values which are learned according to predetermined image output characteristics. A first conversion unit that converts the spectral reflectance into a spectral reflectance by a feedforward type neural network, and a multi-layer feedforward type neural network that learns a set of color separation values input to the input unit according to characteristics of the image output unit. A second conversion unit for converting into a spectral reflectance, and a color appearance model from a color value under a predetermined environment calculated using one of the spectral reflectance and the spectral transmittance obtained by the first conversion unit. Third to calculate the color value independent of the surrounding environment to be calculated
Conversion means, and fourth conversion means for converting the color value output from the third conversion means into a color value under a predetermined environment,
Minimizing at least one of a square error and an average color difference between color values under a predetermined environment calculated from the color values output from the fourth conversion means and the spectral reflectances output from the second conversion means; Optimizing means for optimizing the input color separation values as described above.
JP9038670A 1997-02-24 1997-02-24 Color information conversion method and device to match observation results of colors with each other Pending JPH10243247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9038670A JPH10243247A (en) 1997-02-24 1997-02-24 Color information conversion method and device to match observation results of colors with each other

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9038670A JPH10243247A (en) 1997-02-24 1997-02-24 Color information conversion method and device to match observation results of colors with each other

Publications (1)

Publication Number Publication Date
JPH10243247A true JPH10243247A (en) 1998-09-11

Family

ID=12531716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9038670A Pending JPH10243247A (en) 1997-02-24 1997-02-24 Color information conversion method and device to match observation results of colors with each other

Country Status (1)

Country Link
JP (1) JPH10243247A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009219006A (en) * 2008-03-12 2009-09-24 Toppan Printing Co Ltd Apparatus, method and program for deriving spectral reflection factor
JP2009273159A (en) * 2009-08-19 2009-11-19 Seiko Epson Corp Simulation service for printed matter by way of network
US8018619B2 (en) 2005-02-16 2011-09-13 Seiko Epson Corporation Simulation of print via a network
WO2012060099A1 (en) * 2010-11-04 2012-05-10 株式会社ニコン Light source adjustment method, exposure method, device manufacturing method, illumination optical system, and exposure device
WO2019168280A1 (en) * 2018-02-28 2019-09-06 이화여자대학교 산학협력단 Method and device for deciphering lesion from capsule endoscope image by using neural network
JP2020118627A (en) * 2019-01-28 2020-08-06 株式会社Screenホールディングス Color prediction method and color prediction program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8018619B2 (en) 2005-02-16 2011-09-13 Seiko Epson Corporation Simulation of print via a network
JP2009219006A (en) * 2008-03-12 2009-09-24 Toppan Printing Co Ltd Apparatus, method and program for deriving spectral reflection factor
JP2009273159A (en) * 2009-08-19 2009-11-19 Seiko Epson Corp Simulation service for printed matter by way of network
JP4530101B2 (en) * 2009-08-19 2010-08-25 セイコーエプソン株式会社 Print simulation service via network
WO2012060099A1 (en) * 2010-11-04 2012-05-10 株式会社ニコン Light source adjustment method, exposure method, device manufacturing method, illumination optical system, and exposure device
WO2019168280A1 (en) * 2018-02-28 2019-09-06 이화여자대학교 산학협력단 Method and device for deciphering lesion from capsule endoscope image by using neural network
JP2020118627A (en) * 2019-01-28 2020-08-06 株式会社Screenホールディングス Color prediction method and color prediction program

Similar Documents

Publication Publication Date Title
US5929906A (en) Color correcting method and apparatus
US6088475A (en) Method and apparatus for forming and correcting color image
US6320668B1 (en) Color correction apparatus and method in an image system
US5771311A (en) Method and apparatus for correction of color shifts due to illuminant changes
JP3115508B2 (en) Color image processing equipment
US7586642B2 (en) Color-space transformation-matrix calculating system and calculating method
EP0637731B1 (en) Method of color reproduction
US5864834A (en) Method and apparatus for estimating a special reflectance distribution or a spectral transmittance distribution using illuminant-independent characteristic parameters
US5828781A (en) Color image reproducing system with image signal correction function
US5506696A (en) Color image reproduction system having color analysis function performed with a neural network system
US5386496A (en) Method and device for nonlinear transformation of colour information by neural network
US5559604A (en) Color matching apparatus for reproducing the same color under different illuminants
JPH10257295A (en) Color reproduction range compression method and its device
US20050046883A1 (en) Color-space transformation-matrix calculating system and calculating method
US7375851B2 (en) State-space based modeling of pixel elements of a dynamically varying color marking device
JPH10243247A (en) Color information conversion method and device to match observation results of colors with each other
JP3304740B2 (en) Color simulation device
JP2002247394A (en) Method of preparing color converting rule, method of converting color, and colored image forming device
Usui et al. Neural networks for device-independent digital color imaging
JP3420629B2 (en) Image evaluation method and color image input device
JPH10173941A (en) Method and device for correcting color smear of natural image
KR970009063B1 (en) Color correcting method and device
JPH08163387A (en) System and device for color picture recording
JPH09233352A (en) Color simulation device
Littlewood Printer color management using pareto-optimization and efficient calibration techniques