JPH10145619A - Color simulation method - Google Patents

Color simulation method

Info

Publication number
JPH10145619A
JPH10145619A JP8298480A JP29848096A JPH10145619A JP H10145619 A JPH10145619 A JP H10145619A JP 8298480 A JP8298480 A JP 8298480A JP 29848096 A JP29848096 A JP 29848096A JP H10145619 A JPH10145619 A JP H10145619A
Authority
JP
Japan
Prior art keywords
color
spectral reflectance
principal component
output
color information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8298480A
Other languages
Japanese (ja)
Inventor
Takayuki Sato
尊之 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyo Ink Mfg Co Ltd
Original Assignee
Toyo Ink Mfg Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyo Ink Mfg Co Ltd filed Critical Toyo Ink Mfg Co Ltd
Priority to JP8298480A priority Critical patent/JPH10145619A/en
Publication of JPH10145619A publication Critical patent/JPH10145619A/en
Pending legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To simulate a color in response to an environment when an original image whose color separation value is known is observed. SOLUTION: A color information value of an input image obtained by picking up an object is converted into at least three major component vector coefficients corresponding to the color information value with a neural network whose learning is finished. The major component vector coefficient is multiplied with the stored major component vector to convert the product into a spectral reflectance with a weight depending on a human color discrimination capability, and the weighted spectral reflectance is divided by a stored weight coefficient to exclude the weight and the result is converted into a spectral reflectance of the object.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明が属する技術分野】本発明は、色シミュレーショ
ン方法に係わり、撮影された被写体の色を、人間の視覚
特性を考慮して画像出力装置に再現する色シミュレーシ
ョン方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a color simulation method, and more particularly, to a color simulation method for reproducing the color of a photographed object on an image output device in consideration of human visual characteristics.

【0002】[0002]

【従来の技術】多数色の原稿や物体の複写物を作成する
ときや多数色の原稿や物体を表示させるときのために、
色を表現する方法の1つとして色分解値がある。この色
分解値は一般的には、印刷では減法混色のYMCK(シア
ン、マゼンタ、イエロー、ブラック)、表示部では加法
混色のRGB (レッド、グリーン、ブルー)が用いられ
る。この色分解値を用いれば、原稿や物体の各色を再現
できる。近年、実際に多数色の原稿や物体の複写物を作
成する以前に、作成されるべき色を検討する所謂カラー
デザインが行われている。このような作成されるべき色
を検討するために用いられるものとして、原稿や物体の
各色を再現して表示装置上に表示する色シミュレーショ
ン装置が知られている。この色シミュレーション装置で
は、多数色の原稿や物体の色分解値を表示装置のデバイ
ス値、例えばTV信号やデジタルRGB 出力値に変換して表
示する。これによって、多数色の原稿や物体の複写物を
再現した色で表示できる。
2. Description of the Related Art For making a copy of a multi-colored document or object, or for displaying a multi-colored document or object,
One of the methods for expressing colors is a color separation value. Generally, these color separation values are YMCK (cyan, magenta, yellow, black) of subtractive color mixture for printing, and RGB (red, green, blue) of additive color mixture for display. By using the color separation values, each color of the original and the object can be reproduced. In recent years, a so-called color design for examining colors to be created has been performed before actually creating a multi-colored original or a copy of an object. A color simulation apparatus that reproduces each color of a document or an object and displays it on a display device is known as a device used for examining colors to be created. In this color simulation device, the color separation values of a large number of originals or objects are converted into device values of a display device, for example, TV signals or digital RGB output values and displayed. As a result, it is possible to display a multi-color document or a copy of an object in a reproduced color.

【0003】ところが、上記の色分解値は、原稿や物体
の色を特定するための装置の特性や色分解値をデバイス
値に変換する装置の特性に依存する。例えば、色を特定
するために原稿や物体を照射するための光源や測色装置
が異なれば、原稿や物体の色は異なる色分解値となる。
また、デバイス値への変換特性が異なれば、原稿や物体
の色は異なる色で再現される。そこで、従来より、再現
すべき色が色を特定するための装置の特性に依存せず、
どのような装置であっても原稿などの色と同一の色を表
す値を表現するために、色を装置に依存しない色情報値
に一度変換(中間表現法)している。このような、色を
装置に依存しない色情報値として、CIE(Commission Int
ernationale deI'Eclairage) が規定した CIE XYZ値、
または均等知覚色空間、CIE L*a*b*値などの色彩値があ
る。
However, the above-mentioned color separation values depend on the characteristics of an apparatus for specifying the color of a document or an object and the characteristics of an apparatus for converting the color separation values into device values. For example, if a light source or a colorimeter for irradiating a document or an object to specify a color is different, the color of the document or the object has a different color separation value.
Further, if the conversion characteristic to the device value is different, the color of the document or the object is reproduced in a different color. Therefore, conventionally, the color to be reproduced does not depend on the characteristics of the device for specifying the color,
Regardless of the device, in order to express a value representing the same color as the color of a document or the like, the color is once converted to a device-independent color information value (intermediate expression method). Such a color as a device-independent color information value such as CIE (Commission Int.
ernationale deI'Eclairage)
Alternatively, there are color values such as a uniform perceived color space and CIE L * a * b * values.

【0004】これら色情報値としての CIE XYZ値、また
は、CIE L*a*b*値などの色彩値を用い、原稿や物体の色
を表すCMYK値などの色分解値を色彩値へ変換した後に、
色修正を行う、所謂デバイスインディペンデントで色を
再現していた。このように、装置に依存しない色彩値の
一致によって、多数色の原稿などについて異なる色シミ
ュレーションであっても安定した精度で色再現する(特
開平4-261267号公報)ことができる。
Using color values such as CIE XYZ values or CIE L * a * b * values as color information values, color separation values such as CMYK values representing the color of a document or an object are converted into color values. later,
Colors are reproduced by so-called device-independent color correction. As described above, by matching the color values independent of the device, it is possible to reproduce colors with stable accuracy even in different color simulations for a document of many colors (Japanese Patent Laid-Open No. 4-212267).

【0005】[0005]

【発明が解決しようとする課題】しかしながら、CIE L*
a*b*値や CIE XYZ値は、光源の分光分布と原稿や物体の
対象表面の分光反射率や分光透過率、及び等色関数によ
って定義されるため、従来の色シミュレーション装置で
は、原稿などの色を観察するときの照明光が CIEL*a*b*
値を導出する際に用いた所定照明光と同一の照明光で
なければ、再現した色は原稿などの色に一致しないとい
う問題がある。このように、従来のデバイスインディペ
ンデントな色シミュレーション装置では、再現した色が
原稿や物体の色と同一色に見える光源が、所定照明光の
光源のみによって制限されるので、非常に限られた環境
下(照明下)でしか、色を再現することができないとい
う問題があった。すなわち、原稿や物体の色を観察する
場合の照明は、一般に白熱照明電球下、蛍光灯照明下、
太陽光下などのように種々雑多である。従って、従来の
デバイスインディペンデントな色シミュレーション装置
では、このような種々雑多な光源下で常に再現すべき色
を一致させることは困難であった。このため、色シミュ
レーション装置に、例えば印刷するためのYMCKによる色
分解値が与えられた原稿を表示装置に表示させても、光
源が固定された色画像しか観察できず、異なる光源下で
の色画像についても各色をシミュレートすることはでき
なかった。
However, CIE L *
The a * b * and CIE XYZ values are defined by the spectral distribution of the light source, the spectral reflectance and spectral transmittance of the target surface of the document or object, and the color matching function. The illumination light when observing the color of is CIEL * a * b *
If the illumination light is not the same as the predetermined illumination light used for deriving the value, there is a problem that the reproduced color does not match the color of the document or the like. As described above, in the conventional device-independent color simulation apparatus, the light source whose reproduced color appears to be the same as the color of the document or the object is limited only by the light source of the predetermined illumination light. There is a problem that colors can be reproduced only under an environment (under illumination). That is, illumination for observing the color of a document or object is generally under an incandescent light bulb, under a fluorescent light,
It is various, such as under sunlight. Therefore, in the conventional device-independent color simulation apparatus, it is difficult to always match the colors to be reproduced under such various light sources. For this reason, even when the color simulation apparatus displays a document to which a color separation value by YMCK for printing is given on a display device, for example, only a color image with a fixed light source can be observed, and the color under a different light source can be observed. It was not possible to simulate each color of the image.

【0006】また、ビデオカメラやデジタルカメラ等の
撮影装置を用いて被写体を撮影する場合には、この撮影
装置から出力される原画像に対応する信号は、被写体を
撮影したときの照明光源の色特性に依存した色を帯びた
信号になる。従って、撮影装置からの信号を用いてテレ
ビ等のモニタ上へ原画像を表示させることにより被写体
を目視すると、表示された原画像は、被写体の色と異な
る色で表示されることになる。例えば、蛍光灯等の室内
の標準光でと、太陽光のもとで撮影した被写体とは同一
の被写体であっても、異なる色で再現される。本発明
は、上記事実を考慮して、撮影された被写体の原画像を
出力装置に出力して観察するときに、被写体の色を人間
の視覚特性を考慮して再現する色シミュレーション方法
である。
When a subject is photographed using a photographing device such as a video camera or a digital camera, a signal corresponding to an original image output from the photographing device is a color of an illumination light source at the time of photographing the subject. The signal becomes colored depending on the characteristics. Therefore, when the subject is visually observed by displaying the original image on a monitor such as a television using a signal from the photographing device, the displayed original image is displayed in a color different from the color of the subject. For example, even if the same subject is photographed under standard sunlight in a room such as a fluorescent lamp and under sunlight, the subject is reproduced in different colors. The present invention is a color simulation method for reproducing the color of a subject in consideration of human visual characteristics when outputting an original image of the photographed subject to an output device for observation in consideration of the above fact.

【0007】[0007]

【課題を解決するための手段】第1の発明は、被写体を
撮影し得られた入力画像の色情報値を、人間の色弁別能
に応じた重み付けをした分光反射率を多変量解析するこ
とによって得られる少なくとも3つの特徴パラメータ係
数に変換し、該特徴パラメータ係数を、前記多変量解析
により得られる少なくとも3つの特徴パラメータに基づ
いて前記重み付き分光反射率に変換し、該重み付き分光
反射率から前記重みを取り除き被写体の分光反射率に変
換する、ことを特徴としている。第2の発明は、第1発
明に記載の色シミュレーション方法において、多変量解
析として主成分分析を用い、該主成分分析することによ
って得られる前記重み付き分光反射率の主成分ベクトル
を特徴パラメータとし、該主成分ベクトルによる該重み
付き分光反射率の展開係数を前記特徴パラメータ係数と
する、ことを特徴としている。
According to a first aspect of the present invention, a color information value of an input image obtained by photographing a subject is subjected to multivariate analysis of spectral reflectance weighted according to human color discrimination ability. And converting the characteristic parameter coefficients into the weighted spectral reflectance based on the at least three characteristic parameters obtained by the multivariate analysis. , And the weights are removed from the image data and converted into the spectral reflectance of the subject. According to a second aspect, in the color simulation method according to the first aspect, principal component analysis is used as multivariate analysis, and a principal component vector of the weighted spectral reflectance obtained by performing the principal component analysis is used as a feature parameter. , A development coefficient of the weighted spectral reflectance based on the principal component vector is used as the feature parameter coefficient.

【0008】第3の発明は、第1発明に記載の色シミュ
レーション方法において、撮影により得られた入力画像
の色情報値を、該色情報値から該色情報値に対応する前
記少なくとも3つの特徴パラメータ係数に変換するよう
に学習された多層フィードフォワード型ニューラルネッ
トワークにより、該特徴パラメータ係数に変換する、こ
とを特徴としている。第4の発明は、第1発明に記載の
色シミュレーション方法において、撮影により得られた
入力画像の色情報値を、該色情報値と該色情報値に対応
する前記少なくとも3つの特徴パラメータ係数との対応
関係を記憶したルックアップテーブルにより、該特徴パ
ラメータ係数に変換する、ことを特徴としている。
According to a third aspect of the present invention, in the color simulation method according to the first aspect, the color information values of the input image obtained by the photographing are converted from the color information values to the at least three features corresponding to the color information values. The characteristic parameter coefficients are converted by a multi-layer feedforward neural network that has been learned to be converted into parameter coefficients. According to a fourth aspect, in the color simulation method according to the first aspect, the color information value of the input image obtained by photographing is obtained by combining the color information value and the at least three characteristic parameter coefficients corresponding to the color information value. Are converted into the characteristic parameter coefficients by a look-up table that stores the corresponding relations.

【0009】第5の発明は、第1発明に記載の色シミュ
レーション方法において、等色関数または色度座標、あ
るいは、視細胞特性を重み係数として分光反射率に乗じ
ることによって、前記人間の色弁別能に応じた分光反射
率への重み付けを行う、ことを特徴としている。本発明
の色シミュレーション方法は、まず、被写体を撮影し得
られた入力画像の色情報値を、該色情報値に対応する少
なくとも3つの特徴パラメータ係数に変換する。すなわ
ち、入力画像の各色は、予め、人間の色弁別能に応じた
重み付けをした分光反射率を多変量解析することによっ
て得られる、少なくとも3つの特徴パラメータ及び特徴
パラメータ係数により近似表現できる。このように、特
徴パラメータで表現することによって、撮影方法による
固有の色特性に依存せずに色表現できる。
According to a fifth aspect of the present invention, in the color simulation method according to the first aspect, the human color discrimination is performed by multiplying a spectral reflectance as a color matching function or chromaticity coordinates or a visual cell characteristic as a weighting factor. It is characterized in that the spectral reflectance is weighted according to the performance. According to the color simulation method of the present invention, first, color information values of an input image obtained by photographing a subject are converted into at least three characteristic parameter coefficients corresponding to the color information values. That is, each color of the input image can be approximated by at least three characteristic parameters and characteristic parameter coefficients obtained by performing a multivariate analysis of spectral reflectances weighted according to human color discrimination ability in advance. In this way, by expressing with the feature parameters, the color can be expressed without depending on the inherent color characteristics depending on the photographing method.

【0010】この多変量解析としては、請求項2にも記
載したように、主成分分析を用いることができ、主成分
分析することによって得られる前記重み付き分光反射率
の主成分ベクトルを特徴パラメータとし、該主成分ベク
トルによる該重み付き分光反射率の展開係数を特徴パラ
メータ係数とすることができる。ここで行う分光反射率
への人間の色弁別能に応じた重み付けとしては、請求項
5にも記載したように、等色関数または色度座標、ある
いは、視細胞特性を重み係数として分光反射率に乗じる
ことができる。すなわち、CIE が規定するCIE1931 測色
標準観測者またはCIE1964 測色補助標準観測者による等
色関数または色度座標、あるいは、視細胞の受光特性等
を、人間の色弁別能に応じた重み係数として分光反射率
に乗じることで、重み付けができる。
As the multivariate analysis, a principal component analysis can be used, and a principal component vector of the weighted spectral reflectance obtained by the principal component analysis is used as a feature parameter. The expansion coefficient of the weighted spectral reflectance based on the principal component vector can be used as a feature parameter coefficient. The weighting of the spectral reflectance according to the human color discrimination ability is performed as described in claim 5, wherein the color matching function or the chromaticity coordinate or the photoreceptor characteristics is used as a weighting factor. Can be multiplied by In other words, color matching functions or chromaticity coordinates by the CIE 1931 colorimetric standard observer or CIE 1964 colorimetric auxiliary standard observer specified by the CIE, or the light receiving characteristics of photoreceptors are used as weighting factors according to human color discrimination ability. Weighting can be performed by multiplying the spectral reflectance.

【0011】また、この第1の変換には、入力された画
像の色情報値を該色情報値に対応する少なくとも3つの
特徴パラメータ係数に変換するように学習された多層フ
ィードフォワード型ニューラルネットワークを用いるこ
とができる。周知のように、ニューラルネットワーク
は、多数の入出力関係の学習からどのような入力があっ
ても学習が反映された出力がなされるので、第1の変換
に色情報値が入力されれば、該色情報値に対応する少な
くとも3つの特徴パラメータ係数を出力する。この少な
くとも3つの特徴パラメータ係数を、多変量解析により
得られる少なくとも3つの特徴パラメータに基づいて、
次の変換で前記重み付き分光反射率に変換する。すなわ
ち、少なくとも3つの特徴パラメータの各々に特徴パラ
メータ係数を乗ずることによって重み付き分光反射率と
なる。
In the first conversion, a multi-layer feedforward neural network learned to convert the color information value of the input image into at least three characteristic parameter coefficients corresponding to the color information value is used. Can be used. As is well known, the neural network outputs an output reflecting the learning regardless of any input from learning of a large number of input / output relations. Therefore, if a color information value is input to the first conversion, Outputting at least three feature parameter coefficients corresponding to the color information value; The at least three feature parameter coefficients are calculated based on the at least three feature parameters obtained by the multivariate analysis.
In the following conversion, the weighted spectral reflectance is converted. That is, a weighted spectral reflectance is obtained by multiplying each of at least three characteristic parameters by a characteristic parameter coefficient.

【0012】この重み付き分光反射率から、第3の変換
によって前記重みを取り除き、被写体の分光反射率に変
換する。ここで変換された分光反射率は光源に依存して
いないので、入力画像の各色は特定できる。
From the weighted spectral reflectance, the weight is removed by a third conversion to convert the spectral reflectance into the spectral reflectance of the subject. Since the converted spectral reflectance does not depend on the light source, each color of the input image can be specified.

【0013】[0013]

【発明の実施の形態】まず、本発明の考え方について説
明する。人が物体の色を認識する過程は、所定色の光源
からの光を反射した物体からの反射光を眼球で採取し、
各種視覚フィルター及び眼球の視細胞を介して脳へ伝え
られることである。ここで、物体の分光反射率分布又は
分光透過率分布(以下、総称して、分光分布という)、
光源の分光分布及び人の視覚特性が、色を認識する際に
重要なポイントとなる。例えば、同じ物体を異なる光源
下で観察した場合、人間は違う色と判断する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS First, the concept of the present invention will be described. The process by which a person recognizes the color of an object is to collect the reflected light from the object reflecting light from a light source of a predetermined color with the eyeball,
It is transmitted to the brain via various visual filters and visual cells of the eyeball. Here, a spectral reflectance distribution or a spectral transmittance distribution of the object (hereinafter, collectively referred to as a spectral distribution),
The spectral distribution of the light source and the human visual characteristics are important points in recognizing colors. For example, when the same object is observed under different light sources, a human determines that the color is different.

【0014】一方、色の分光分布を主成分分析(KL展
開)を用いて近似する方法に関する研究が行われてお
り、少ない主成分ベクトルで分光分布が精度良く近似で
きることが知られている。この主成分分析を利用した色
を再現する方法を使用して、物体の分光分布を近似再現
することにより、光源の分光分布及び人間の視覚特性を
考慮した所望する光源下での色の見えをシミュレートす
ることができる。以下、図面を参照して本発明の実施の
形態の一例を詳細に説明する。本実施の形態は、デジタ
ル入力装置やビデオ等で被写体を撮影することにより得
られるRGB 等の色情報値により表現される被写体の原画
像を、種々の光源下で観察する場合を想定し、光源情報
と出力装置の特性を考慮して、撮影した被写体について
の色情報値を種々の光源下で観察する場合の色に変換し
てモニタあるいはプリンタでシミュレートし出力する色
シミュレーション装置に本発明を適用したものである。
On the other hand, research has been conducted on a method of approximating the spectral distribution of color using principal component analysis (KL expansion), and it is known that the spectral distribution can be accurately approximated with a small number of principal component vectors. By approximating and reproducing the spectral distribution of an object using this method of reproducing colors using principal component analysis, the color appearance under the desired light source considering the spectral distribution of the light source and human visual characteristics is considered. Can be simulated. Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. The present embodiment assumes that an original image of a subject represented by color information values such as RGB obtained by photographing the subject with a digital input device, video, or the like is observed under various light sources. The present invention is applied to a color simulation device that converts color information values of a photographed subject into colors for observation under various light sources, simulates them on a monitor or a printer, and outputs the color information values in consideration of information and characteristics of an output device. Applied.

【0015】図2に示すように、本実施の形態の色シミ
ュレーション装置は、マイクロコンピューターを含んで
構成されたシミュレーション本体10、撮影した被写体の
色データを入力する入力装置24、画像データ入出力装置
26、データやコマンドを入力するためのキーボード28、
及びモニタ30から構成されている。この入力装置24は、
原稿や物体等の被写体を撮影し、その撮影した被写体を
入力画像として色データを入力するものであり、デジタ
ルカメラやビデオ、及びスチルカメラがある。入力装置
24から入力するデータには、コンピュータ用の表示装置
に用いられる同期信号が独立または含まれるRGB 各色の
デジタルデータまたはアナログデータ、同期信号が分離
され同期信号と映像信号からなるTV信号、映像信号内に
同期信号が含まれているTV信号(例えば、信号規格とし
てNTSC、PAL 等)がある。
As shown in FIG. 2, a color simulation apparatus according to the present embodiment includes a simulation main body 10 including a microcomputer, an input device 24 for inputting color data of a photographed subject, and an image data input / output device.
26, keyboard 28 for inputting data and commands,
And a monitor 30. This input device 24
A digital camera, a video camera, and a still camera are used for photographing a subject such as a document or an object and inputting color data using the photographed subject as an input image. Input device
The data input from 24 includes digital data or analog data of each color of RGB independently or including the synchronization signal used for the display device for the computer, the synchronization signal is separated, and the TV signal and the video signal are There is a TV signal (for example, NTSC, PAL or the like as a signal standard) including a synchronization signal.

【0016】また、シミュレーション本体10は、CPU12
、ROM14 、RAM16 、光源の色情報等(詳細後述)を記
憶するためのメモリ18、シミュレーション本体と他の装
置との間でデータ等をやりとりするための入出力装置
(以下、I/O という)20及びこれらをデータやコマンド
が入出力可能なように接続されたバス22から構成されて
いる。なお、ROM14 には、後述する処理プログラムが記
憶されている。なお、以下に説明するシミュレーション
本体10の学習が終了した後のものでは、入力装置24のみ
を備えればよい。すなわち、画像データ入出力装置26
は、本シミュレーション装置を入力装置の色特性にかか
わらず再現表示するための変換学習時に用いるため、色
を数値で表現したデータとして直接入力するための装置
であり、数値表現された原画像の色分解値が例えば外部
記憶手段に記憶され、この外部記憶手段から読み込むた
めの装置である。
The simulation body 10 includes a CPU 12
, A ROM 14, a RAM 16, a memory 18 for storing color information of a light source and the like (details will be described later), and an input / output device (hereinafter referred to as I / O) for exchanging data and the like between the simulation main body and other devices. 20 and a bus 22 connected to these so that data and commands can be input and output. The ROM 14 stores a processing program described later. After the learning of the simulation body 10 described below is completed, only the input device 24 may be provided. That is, the image data input / output device 26
Is a device for directly inputting colors as numerical data, because the simulation device is used for conversion learning for reproducing and displaying irrespective of the color characteristics of the input device. This is a device in which the decomposition values are stored in, for example, external storage means and read from this external storage means.

【0017】図1は本実施の形態の色シミュレーション
装置50の機能別概略構成を示すブロック図である。本実
施の形態の色シミュレーション装置50では、入力装置24
から入力されたRGB 等の色分解値による原画像を、オペ
レータが指定した所望する光源下で観察する場合の画像
にシミュレートして出力装置30で再現する。この色シミ
ュレーション装置50における色分解値から出力デバイス
値までの変換は、機能別に、第1変換部32、第2変換部
34、第3変換部36、第4変換部38、第5変換部40に分類
される。第1変換部32は、入力装置24から入力した色分
解値を主成分ベクトル係数に変換するためのものであ
り、第2変換部34は、変換された主成分ベクトル係数を
用いて入力された色分解値に対応する、人間の色弁別能
に応じた重み付けをされた分光反射率を求めるものであ
り、第3変換部36は、予め記憶された重み係数44を用い
て前記重みを取り除くためのものであり、第4変換部38
は、求めた分光反射率及び予め記憶された光源情報42を
用いて指定された光源下の色彩値を求めるためのもので
あり、第5変換部40は、求めた色彩値を出力装置30のデ
バイス値に変換するためのものである。
FIG. 1 is a block diagram showing a schematic configuration of each function of the color simulation apparatus 50 according to the present embodiment. In the color simulation device 50 of the present embodiment, the input device 24
An original image based on color separation values such as RGB input from the computer is simulated into an image for observation under a desired light source designated by an operator and reproduced by the output device 30. The conversion from the color separation values to the output device values in the color simulation device 50 is performed by the first conversion unit 32 and the second conversion unit for each function.
34, a third converter 36, a fourth converter 38, and a fifth converter 40. The first conversion unit 32 is for converting the color separation values input from the input device 24 into principal component vector coefficients, and the second conversion unit 34 is input using the converted principal component vector coefficients. The third conversion unit 36 calculates the weighted spectral reflectance corresponding to the color separation value according to the human color discrimination ability, and removes the weight using a weight coefficient 44 stored in advance. And the fourth conversion unit 38
Is for obtaining a color value under the specified light source using the obtained spectral reflectance and the light source information 42 stored in advance, and the fifth conversion unit 40 outputs the obtained color value to the output device 30. It is for converting to a device value.

【0018】なお、第1変換部32は、後述するニューラ
ルネットワークで構成された変換機能を有すると共に、
それを学習する学習機能を有している。次に、各機能部
の詳細を説明する。第1変換部32は、色情報値である色
分解値の変換のために予め構築された変換系で、入力装
置24からの被写体を撮影して得た原画像のRGB 等の色分
解値を少なくとも3つの主成分ベクトルの展開係数に変
換する。この変換には、ニューラルネットワークを用い
ることができる。第1変換部32は、RGB の各色毎に色分
解値を入力するための入力層として色分解値の数に応じ
たニューロンを有し、中間層を介して係数値(主成分ベ
クトル係数)を出力するための出力層として特徴パラメ
ータ係数の数に応じたニューロンを有して各々のニュー
ロンがシナプスによって結合されたニューラルネットワ
ークを以下に説明する学習処理により学習して、所望の
色分解値から未知の主成分ベクトル係数を求める系を得
るものである。
The first conversion section 32 has a conversion function constituted by a neural network described later,
It has a learning function to learn it. Next, details of each functional unit will be described. The first conversion unit 32 is a conversion system constructed in advance for conversion of color separation values as color information values, and converts color separation values such as RGB of an original image obtained by photographing a subject from the input device 24. Conversion into expansion coefficients of at least three principal component vectors. For this conversion, a neural network can be used. The first conversion unit 32 has neurons corresponding to the number of color separation values as input layers for inputting color separation values for each of the RGB colors, and converts coefficient values (principal component vector coefficients) through an intermediate layer. A neural network according to the number of feature parameter coefficients is provided as an output layer for outputting, and a neural network in which each neuron is connected by a synapse is learned by a learning process described below, and unknown from a desired color separation value. To obtain a system for calculating the principal component vector coefficients of

【0019】図3に示すように、第1変換部32は、ネッ
トワーク46及び教師部48から構成されている。ネットワ
ーク46には、RGB の各色毎に色分解値が入力されると共
に、推定演算された主成分ベクトル係数を出力するよう
になっている。入力の色分解値に対応する教師信号TC及
び出力の主成分ベクトル係数に対応する出力信号OCは教
師部48に入力され、教師部48はこれらの差分等から得ら
れた修正信号SCをネットワーク46に出力するようになっ
ている。すなわち、ネットワーク46に、RGB の各色毎に
色分解値が入力されると共に、推定演算された主成分ベ
クトル係数を出力する。この入力の色情報値に対応する
既知の主成分ベクトル係数は教師信号TCとして教師部48
に入力され、出力の主成分ベクトル係数に相当する出力
信号OCも教師部48に入力される。教師部48はこれら入力
された信号の差分等から得た修正信号SCをネットワーク
46に出力する。
As shown in FIG. 3, the first conversion unit 32 includes a network 46 and a teacher unit 48. The network 46 receives the color separation values for each of the RGB colors and outputs the estimated principal component vector coefficients. The teacher signal TC corresponding to the input color separation value and the output signal OC corresponding to the output principal component vector coefficient are input to the teacher unit 48, and the teacher unit 48 converts the correction signal SC obtained from the difference and the like into the network 46. Output. That is, the color separation values are input to the network 46 for each of the RGB colors, and the estimated principal component vector coefficients are output. A known principal component vector coefficient corresponding to the input color information value is used as a teacher signal TC as a teacher unit 48.
The output signal OC corresponding to the output principal component vector coefficient is also input to the teacher unit 48. The teacher unit 48 transmits the corrected signal SC obtained from the difference between these input signals to a network.
Output to 46.

【0020】この第1変換部32に用いられているニュー
ラルネットワークの一例としては、図4に示すように、
色分解値としてのR 、G 、B の3つのユニット(または
Y 、M 、C 、K やビデオ信号の各成分の個数のユニッ
ト)I1、I2、I3からなる入力層、多数のユニットMq(q
≧1 )からなる中間層、及び出力ユニットU1、U2、・・
・、Unからなる出力層から構成されている。中間層の各
ユニットはバイアスユニットに接続されている。中間層
のユニットは入出力関係がシグモイド関数によって表さ
れる神経回路素子により構成され、入力層のユニット及
び出力層のユニットは入出力関係が線形の神経回路素子
で構成されている。出力層のユニットは中間層のユニッ
トと同様に入力関係がシグモイド特性を持つ神経回路素
子で構成されてもよい。出力層の出力ユニットの数は、
分光反射率分布に対する多変量解析によって得られる特
徴パラメータのうち実際に分光反射率を表現するために
用いる特徴パラメータの数、すなわち、後述するように
主成分ベクトル係数に対応している。
As an example of the neural network used in the first conversion unit 32, as shown in FIG.
Three units of R, G and B as color separation values (or
An input layer composed of Y, M, C, K and the number of components of each video signal component) I1, I2, I3, and a large number of units Mq (q
≧ 1), and output units U1, U2,.
-It consists of an output layer consisting of Un. Each unit of the intermediate layer is connected to a bias unit. The unit of the intermediate layer is constituted by a neural circuit element whose input / output relationship is represented by a sigmoid function, and the unit of the input layer and the unit of the output layer are constituted by neural circuit elements whose input / output relationship is linear. The unit of the output layer may be formed of a neural circuit element having an input relationship having a sigmoid characteristic similarly to the unit of the intermediate layer. The number of output units in the output layer is
Among the feature parameters obtained by multivariate analysis of the spectral reflectance distribution, the number of feature parameters used to actually represent the spectral reflectance, that is, the number of feature parameters corresponds to the principal component vector coefficients as described later.

【0021】第1変換部32では、RGB 値、CMYK値等のデ
バイス値がその入力として与えられると、ネットワーク
の中間層のユニットからは次式に従った出力Hjが出力さ
れる。
In the first converter 32, when a device value such as an RGB value or a CMYK value is given as an input, an output Hj according to the following equation is output from a unit in the middle layer of the network.

【0022】[0022]

【数1】ただし、W(h)ijは入力層の i番目のユニットと
中間層の j番目のユニットの結合係数(すなわち重み)
を表し、Iiは入力層の i番目のユニットの出力(すなわ
ち色情報値)、bjはバイアスユニットから供給されるバ
イアス値を表す。また、出力層のユニットの出力 Ok も
同様に次式のように表される。
Where W (h) ij is the coupling coefficient (ie, weight) of the i-th unit of the input layer and the j-th unit of the intermediate layer
, Ii is the output of the ith unit of the input layer (ie, the color information value), and bj is the bias value supplied from the bias unit. Similarly, the output Ok of the output layer unit is also expressed by the following equation.

【0023】[0023]

【数2】ただし、W(o)jkは j番目の中間ユニットと k番
目の出力ユニットの結合係数を表し、また Hj は数式1
で定義される中間層の j番目のユニットの出力値であ
る。また、n 、m 、u はそれぞれ入力層、中間層、出力
層の各々のユニット数である。従って、入力層のユニッ
トへ色分解値を入力することによって、出力層のユニッ
トから出力 Ok として少なくとも3つの主成分ベクトル
係数の値が出力される。
## EQU2 ## where W (o) jk represents the coupling coefficient of the j-th intermediate unit and the k-th output unit, and Hj is
Is the output value of the j-th unit in the hidden layer defined by. Further, n, m, and u are the numbers of units in the input layer, the intermediate layer, and the output layer, respectively. Therefore, by inputting the color separation values to the units of the input layer, the values of at least three principal component vector coefficients are output as outputs Ok from the units of the output layer.

【0024】なお、上記の入力層の各ユニットの特性は
入力をそのまま出力するような特性であり、また、中間
層のユニットの結合係数は次式で定義される[0,1 ]の
間で単調増加するシグモイド関数で表される特性であ
る。
The characteristics of each unit in the input layer are such that the input is output as it is, and the coupling coefficient of the unit in the intermediate layer is between [0,1] defined by the following equation. This is a characteristic represented by a monotonically increasing sigmoid function.

【0025】[0025]

【数3】また、出力層のユニットはシグモイド関数ある
いは線形関数で表される特性である。ただし、出力層は
バイアスユニットからの入力があってもよい。このニュ
ーラルネットワークの結合係数は、出力層の各ユニット
の出力と前記重み付けされた分光反射率の主成分分析に
よって得られた特徴パラメータ係数である教師信号との
誤差を最小にするように予め学習・修正される。すなわ
ち、RGB 値、CMYK値等から前記重み付けされた分光反射
率の主成分分析によって得られる特徴パラメータ係数で
ある主成分ベクトル係数への変換を学習する。
## EQU3 ## The unit of the output layer has a characteristic represented by a sigmoid function or a linear function. However, the output layer may have an input from the bias unit. Coupling coefficients of this neural network are learned in advance so as to minimize the error between the output of each unit of the output layer and the teacher signal, which is a characteristic parameter coefficient obtained by principal component analysis of the weighted spectral reflectance. Will be modified. That is, conversion from RGB values, CMYK values, and the like to principal component vector coefficients, which are characteristic parameter coefficients obtained by principal component analysis of the weighted spectral reflectance, is learned.

【0026】本実施の形態では、ニューラルネットワー
クとして、フィードフォワード結合型ニューラルネット
ワークを用いており、該ネットワークの学習方法は各種
の方法があるが、例えば、バックプロパゲーションアル
ゴリズム(ラメルハート[Runmelhert,D.E and McClell
and,J.L. (Eds), "Parallel Distributied Processin
g," Exploration in the Microstructure of Congnitio
n. Vol.1, 2, MIT Press, Cammbridge (1989) 参照])
の最急降下法等を用いることができる。ここで、主成分
分析によって求められる主成分ベクトルは、種々の色の
分光反射率に前記重み付けを施し、その共分散行列を用
いて、次式で定義される固有方程式の解として定義され
る。
In the present embodiment, a feedforward connection type neural network is used as the neural network, and there are various methods for learning the network. For example, a back propagation algorithm (Runmelhert, DE and McClell
and, JL (Eds), "Parallel Distributied Processin
g, "Exploration in the Microstructure of Congnitio
n. Vol.1, 2, MIT Press, Cammbridge (1989)])
The steepest descent method can be used. Here, the principal component vector obtained by the principal component analysis is defined as a solution of an eigen equation defined by the following equation by applying the above-mentioned weighting to the spectral reflectances of various colors and using the covariance matrix.

【0027】[0027]

【数4】ただし、F は次式で定義される共分散行列、l
は固有値、v は固有ベクトル(主成分ベクトル)を表し
ている。
Where F is a covariance matrix defined by the following equation, l
Represents an eigenvalue, and v represents an eigenvector (principal component vector).

【0028】[0028]

【数5】また、特徴パラメータ係数は数式4から得られ
る主成分ベクトルを用いて次式で定義される。
## EQU5 ## The characteristic parameter coefficient is defined by the following equation using the principal component vector obtained from equation (4).

【0029】[0029]

【数6】ただし、Yiは特徴パラメータを表し、また、R
は前記重み付き分光反射率の平均値ベクトルを表してい
る。次に、第1変換部32におけるニューラルネットワー
クの学習の処理の詳細を図5を参照してさらに説明す
る。まず、ニューラルネットワークを学習させる前の処
理S1として、RGB やYMCK等の色分解値が既知の色票の分
光反射率分布を測定する。次の処理S2では、測定した複
数の色票の分光反射率に前記重み付けをする。次の処理
S3では、該重み付き分光反射率を主成分分析する。次
に、処理S4では主成分分析することによって得られる少
なくとも3つの主成分ベクトル、及び主成分ベクトル係
数を導出する。この主成分ベクトルは、上記説明したよ
うに、数式4で定義される固有方程式の解として定義さ
れる。また、主成分ベクトル係数は、数式6で算出され
る主成分ベクトル係数Y である。次の処理S5では、上記
の処理で求めた色票の少なくとも3つの主成分ベクトル
係数を教師信号とし、入力装置25で撮影したRGB 等の色
分解値を入力信号として各々ニューラルネットワークに
入力し、次の処理S6で学習させる。すなわち、ネットワ
ークの出力と主成分分析によって得られた主成分ベクト
ル係数(特徴パラメータである)教師信号との2 乗誤差
を最小にするように学習される。以上の処理が終了し
(処理S7)、ニューラルネットワークの学習が十分に行
われた後に、処理S8でネットワークの構造、ウェイトを
メモリ18に記憶し、変換系の構築を終了する。このよう
に、学習することによって第1変換部32では、入力装置
24の撮影により出力されたRGB 等の色分解値が入力され
ると、入力装置24が出力した色分解値に対応する少なく
とも3 つの主成分ベクトル係数を、入力装置24の色特性
に依存しない値として出力する。
Where Yi represents a feature parameter, and Ri
Represents an average vector of the weighted spectral reflectance. Next, details of the neural network learning process in the first conversion unit 32 will be further described with reference to FIG. First, as processing S1 before learning the neural network, the spectral reflectance distribution of a color chart with a known color separation value such as RGB or YMCK is measured. In the next process S2, the measured spectral reflectances of the plurality of color patches are weighted. Next processing
In S3, the weighted spectral reflectance is subjected to principal component analysis. Next, in process S4, at least three principal component vectors and principal component vector coefficients obtained by performing principal component analysis are derived. This principal component vector is defined as the solution of the eigen equation defined by Equation 4 as described above. The principal component vector coefficient is a principal component vector coefficient Y calculated by Expression 6. In the next process S5, at least three principal component vector coefficients of the color chart obtained in the above process are used as teacher signals, and color separation values such as RGB captured by the input device 25 are input to the neural network as input signals, respectively. Learning is performed in the next process S6. That is, learning is performed so as to minimize the square error between the output of the network and the principal component vector coefficient (feature parameter) teacher signal obtained by the principal component analysis. After the above processing is completed (processing S7) and the learning of the neural network is sufficiently performed, the structure and weight of the network are stored in the memory 18 in processing S8, and the construction of the conversion system is completed. In this way, by learning, the first conversion unit 32 allows the input device
When the color separation values such as RGB output by the shooting of 24 are input, at least three principal component vector coefficients corresponding to the color separation values output by the input device 24 are set to values independent of the color characteristics of the input device 24. Output as

【0030】次に、第2変換部34は、第1変換部32から
出力された少なくとも3 つの主成分ベクトル係数と、上
記の主成分分析にて導出した少なくとも3 つの主成分ベ
クトルとを用いて、前記重み付き分光反射率を導出する
ための機能を有しており、次式に従って変換した前記重
み付き分光反射率を出力する。
Next, the second conversion unit 34 uses at least three principal component vector coefficients output from the first conversion unit 32 and at least three principal component vectors derived by the above-described principal component analysis. , And has a function of deriving the weighted spectral reflectance, and outputs the weighted spectral reflectance converted according to the following equation.

【0031】[0031]

【数7】次に、第3変換部36は、予めメモリ18に記憶さ
れた重み係数を読みとると共に、第2変換部34より出力
された前記重み付き分光反射率を読み取った重み係数で
除することによって、前記重みを取り除き分光反射率を
出力する。第4変換部38は、第3変換部36からの分光反
射率を、予めメモリ18に記憶された所望する光源の分光
情報あるいは測定により得られた光源の分光情報を用い
て、その光源下の色彩値に変換する機能を有しており、
次式に従って変換された色彩値を出力する。なお、色彩
値は CIE XYZ、CIE L*a*b*、CIE L*u*v*等が利用可能で
あり、本実施の形態では、CIE XYZ の三刺激値を用い
る。
## EQU7 ## Next, the third conversion unit 36 reads the weight coefficient stored in the memory 18 in advance, and divides the weighted spectral reflectance output from the second conversion unit 34 by the read weight coefficient. Thus, the weight is removed and the spectral reflectance is output. The fourth conversion unit 38 uses the spectral reflectance of the desired light source stored in advance in the memory 18 or the spectral information of the light source obtained by the measurement, and calculates the spectral reflectance from the third conversion unit 36 under the light source. It has a function to convert to color values,
The color value converted according to the following equation is output. Note that as the color values, CIE XYZ, CIE L * a * b *, CIE L * u * v *, etc. can be used. In the present embodiment, the tristimulus values of CIE XYZ are used.

【0032】[0032]

【数8】ただし、S(l):光源情報(光源の分光分布) R(l):第3変換部から出力される分光反射率 _ _ _ x 、y 、z :標準視関数 第5変換部40は、第4変換部38からの色彩値信号を、出
力装置の特性値を用いて、画像を出力するのに適した出
力値に変換するためのものである。本実施の形態では、
モニタ上に表示するために必要なRGB 値を得るためのマ
トリクス演算、あるいは、カラープリンタで出力するた
めに必要なCMYK値を得るためのニューラルネットワーク
を使用することができる。
Where S (l): light source information (spectral distribution of the light source) R (l): spectral reflectance ____x, y, z output from the third conversion unit: standard visual function fifth conversion The unit 40 is for converting the color value signal from the fourth conversion unit 38 into an output value suitable for outputting an image using the characteristic value of the output device. In the present embodiment,
A matrix operation for obtaining RGB values required for display on a monitor, or a neural network for obtaining CMYK values required for output by a color printer can be used.

【0033】次に、本実施の形態の色シミュレーション
装置50の作動を図6のフローチャートを参照してさらに
説明する。上述のようにして第1変換部の学習が終了し
た後に、色シミュレーション装置50の電源が投入または
シミュレーション実行開始の指示がキーボードよりなさ
れると、図6のステップ100 へ進み、入力装置24によっ
てシミュレートすべき原稿や物体を撮影した原画像の色
分解値が読みとられる。次のステップ101 では、上記説
明したように学習されたニューラルネットワークの第1
変換部32において、入力された色分解値が少なくとも3
つの主成分ベクトル係数に変換され、変換した主成分ベ
クトル係数を第2変換部34へ出力する。次に、ステップ
102 において、上述のように、予め導出された主成分ベ
クトル(メモリ18に記憶されている)を読みとると共
に、第1変換部32から出力された少なくとも3つの主成
分ベクトル係数に、読みとった少なくとも3つの主成分
ベクトルを乗じることによって、前記重み付き分光反射
率を第3変換部36へ出力する。ステップ103 では、予め
メモリ18に記憶された重み係数を読みとると共に、第2
変換部34から出力された重み付き分光反射率を読み取っ
た重み係数で除して重みを取り除き、原画像に対応する
分光反射率に変換する。次のステップ104 では、オペレ
ータのキーボードによる指示を読みとることによって、
入力装置24により入力された原画像を何れの光源下でシ
ミュレートするかの指示を受け、指示された光源の光源
情報をメモリ18から読みとる。次のステップ105 では、
第4変換部38において第3変換部36から出力された原画
像の分光反射率と、読みとった光源の分光情報または測
定により得られた光源の分光情報とを用いて、所望の光
源下での色彩値に変換する。次のステップ106 では、第
5変換部40において所望の光源下での色彩値を出力装置
30に画像を出力するため、出力装置30の特性値を用いて
出力値に変換する。次のステップ107 では、第5変換部
40からの出力値に応じて、所望する光源下で原画像を観
察する際の色で出力する。
Next, the operation of the color simulation apparatus 50 according to this embodiment will be further described with reference to the flowchart of FIG. After the learning of the first conversion unit is completed as described above, when the power of the color simulation apparatus 50 is turned on or an instruction to start the simulation is issued from the keyboard, the process proceeds to step 100 in FIG. The color separation values of the original image of the document or object to be scanned are read. In the next step 101, the first of the neural network trained as described above
In the conversion unit 32, the input color separation value is at least 3
It is converted into two principal component vector coefficients, and the converted principal component vector coefficients are output to the second conversion unit 34. Then, step
In step 102, as described above, the previously derived principal component vector (stored in the memory 18) is read, and at least three principal component vector coefficients output from the first transform unit 32 are read into at least three principal component vectors. The weighted spectral reflectance is output to the third conversion unit 36 by multiplying the two principal component vectors. In step 103, the weight coefficient previously stored in the memory 18 is read, and the second
The weighted spectral reflectance output from the converting unit 34 is divided by the read weight coefficient to remove the weight, and is converted into a spectral reflectance corresponding to the original image. In the next step 104, by reading the operator's keyboard instructions,
Upon receiving an instruction under which light source the original image input by the input device 24 is simulated, the light source information of the specified light source is read from the memory 18. In the next step 105,
The fourth conversion unit 38 uses the spectral reflectance of the original image output from the third conversion unit 36 and the read spectral information of the light source or the spectral information of the light source obtained by measurement to obtain a desired light source. Convert to color values. In the next step 106, the fifth converter 40 outputs a color value under a desired light source to an output device.
In order to output an image to 30, an output value is converted using the characteristic value of the output device 30. In the next step 107, the fifth conversion unit
According to the output value from 40, the image is output in a color at the time of observing the original image under a desired light source.

【0034】このように、本実施の形態の色シミュレー
ション装置では、第1変換部で原画像の色分解値から定
まる前記重み付き分光反射率の主成分ベクトル係数を求
め、この主成分ベクトル係数を用いて第2変換部で重み
付き分光反射率を求め、第3変換部で重みを取り除き、
第4変換部で照射させる光源の光源情報により色彩値を
求め、第5変換部において出力装置の特性に応じた変換
をした後に、原画像を出力しているので、原稿や物体等
の被写体を種々の光源下で観察する場合と等価な原画像
として出力できる。従って、本色シミュレーション装置
を用いることで、カメラで撮影した原画像を観察する光
源がどのようなものであっても、出力装置で再現するこ
とができる。
As described above, in the color simulation apparatus according to the present embodiment, the first conversion unit obtains the principal component vector coefficient of the weighted spectral reflectance determined from the color separation value of the original image, and calculates the principal component vector coefficient. The weighted spectral reflectance is obtained by the second conversion unit using the above, the weight is removed by the third conversion unit,
The color value is obtained from the light source information of the light source to be irradiated by the fourth conversion unit, and the fifth conversion unit performs conversion according to the characteristics of the output device, and then outputs the original image. It can be output as an original image equivalent to the case of observation under various light sources. Therefore, by using the present color simulation device, it is possible to reproduce the original image captured by the camera with the output device regardless of the light source for observing the original image.

【0035】本実施の形態の色シミュレーション装置
は、暗室等のような照明光源の色が特殊な環境下におい
て行き先案内板や、緊急時の案内板等を観察する場合を
想定した原画像のシミュレーションに好適である。な
お、上記実施の形態では、シミュレーション装置本体内
にニューラルネットワークを含んだ構成としたが、ニュ
ーラルネットワークを別個の独立した構成として用いて
も良い。また、上記実施の形態では、入力装置をシミュ
レーション装置本体に直接接続した場合を説明したが、
ビデオカメラ等で被写体を撮影してビデオ信号(TV信
号)やデジタル信号で磁気記録や光学記録し、その記録
媒体である磁気記録媒体や光学記録媒体を再生する装置
を接続し、再生信号をシミュレーション装置本体に入力
するようにしても良い。
The color simulation apparatus according to the present embodiment simulates an original image assuming a case where a destination guide board, an emergency guide board, or the like is observed in a special environment where the color of an illumination light source such as a dark room is special. It is suitable for. In the above embodiment, the simulation apparatus includes a neural network in the main body. However, the neural network may be used as a separate and independent configuration. Further, in the above embodiment, the case where the input device is directly connected to the simulation device main body has been described.
Simulate the reproduction signal by connecting a device that captures the subject with a video camera or the like, performs magnetic recording or optical recording with a video signal (TV signal) or digital signal, and reproduces the magnetic recording medium or optical recording medium that is the recording medium. You may make it input into an apparatus main body.

【0036】[0036]

【発明の効果】以上説明したように本発明によれば、入
力した原画像の色情報値を、人間の色弁別能に応じた重
み付けをした分光反射率を多変量解析することによって
得られる少なくとも3つの特徴パラメータ係数に変換
し、さらに該特徴パラメータ及び特徴パラメータ係数を
用いて得られる前記重み付き分光反射率から重みを取り
除き、原画像の分光反射率を求めることができるので、
指定された光源の分光情報に基づいた色彩値に変換して
出力することにより、入力装置で原画像を入力するため
に撮影した被写体を、指定した光源下で観察したときの
色で出力できる、という効果がある。
As described above, according to the present invention, at least the color information value of the input original image can be obtained by multivariate analysis of the spectral reflectance weighted according to the color discrimination ability of a human. It is possible to obtain the spectral reflectance of the original image by converting it into three characteristic parameter coefficients and removing the weight from the weighted spectral reflectance obtained using the characteristic parameter and the characteristic parameter coefficient.
By converting to a color value based on the spectral information of the specified light source and outputting it, the subject photographed for inputting the original image with the input device can be output in the color observed when observed under the specified light source. This has the effect.

【図面の簡単な説明】[Brief description of the drawings]

【図1】色シミュレーション装置の機能別構成の概略を
示すブロック図である。
FIG. 1 is a block diagram illustrating an outline of a functional configuration of a color simulation apparatus.

【図2】本実施の形態にかかる色シミュレーション装置
の概略構成を示すブロック図である。
FIG. 2 is a block diagram illustrating a schematic configuration of a color simulation apparatus according to the embodiment;

【図3】ニューラルネットワークの動作を説明するため
の概念イメージ図である。
FIG. 3 is a conceptual image diagram for explaining the operation of the neural network.

【図4】ニューラルネットワークの構成を説明するため
の概念イメージ図である。
FIG. 4 is a conceptual image diagram for explaining a configuration of a neural network.

【図5】第1変換部であるニューラルネットワークの変
換系構築時の処理過程を示すフローチャートである。
FIG. 5 is a flowchart showing a processing procedure when constructing a conversion system of a neural network as a first conversion unit.

【図6】色シミュレーション装置の動作の流れを示すフ
ローチャートである。
FIG. 6 is a flowchart illustrating a flow of an operation of the color simulation apparatus.

【符号の説明】[Explanation of symbols]

10 シミュレーション本体 12 CPU 14 ROM 16 RAM 18 記憶用メモリ 20 データ入出力装置 22 バス 24 原画像入力装置 26 画像データ入出力装置 28 キーボード 30 原画像出力装置 32 第1変換部 34 第2変換部 36 第3変換部 38 第4変換部 40 第5変換部 42 光源情報 44 重み係数 46 ニューラルネットワーク 48 教師部 50 色シミュレーション装置 10 Simulation main unit 12 CPU 14 ROM 16 RAM 18 Storage memory 20 Data input / output device 22 Bus 24 Original image input device 26 Image data input / output device 28 Keyboard 30 Original image output device 32 First conversion unit 34 Second conversion unit 36 No. 3 conversion unit 38 4th conversion unit 40 5th conversion unit 42 Light source information 44 Weight coefficient 46 Neural network 48 Teacher unit 50 Color simulation device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI H04N 9/74 G06F 15/66 310 H04N 1/46 Z ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification code FI H04N 9/74 G06F 15/66 310 H04N 1/46 Z

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】撮影された被写体の色を、人間の視覚特性
を考慮して画像出力装置に再現する色シミュレーション
方法であって、 被写体を撮影し得られた入力画像の色情報値を、人間の
色弁別能に応じた重み付けをした分光反射率を多変量解
析することによって得られる、少なくとも3つの特徴パ
ラメータ係数に変換し、 前記変換された少なくとも3つの特徴パラメータ係数
を、多変量解析により得られる少なくとも3つの特徴パ
ラメータに基づいて、重み付き分光反射率に変換し、 変換された重み付き分光反射率から重みを取り除き、被
写体の分光反射率に変換する、 ことを特徴とする色シミュレーション方法。
1. A color simulation method for reproducing a color of a photographed object on an image output device in consideration of human visual characteristics, wherein a color information value of an input image obtained by photographing the object is determined by a human. Is converted into at least three characteristic parameter coefficients obtained by performing a multivariate analysis on the spectral reflectance weighted according to the color discrimination ability of the image processing apparatus, and the converted at least three characteristic parameter coefficients are obtained by a multivariate analysis. A color simulation method comprising: converting to a weighted spectral reflectance based on at least three characteristic parameters obtained; removing weights from the converted weighted spectral reflectance; and converting the weighted spectral reflectance into a spectral reflectance of a subject.
【請求項2】多変量解析として主成分分析を用い、主成
分分析することによって得られる重み付き分光反射率の
主成分ベクトルを特徴パラメータとし、主成分ベクトル
による重み付き分光反射率の展開係数を特徴パラメータ
係数とする、ことを特徴とする請求項1記載の色シミュ
レーション方法。
2. A principal component analysis is used as a multivariate analysis, and a principal component vector of a weighted spectral reflectance obtained by the principal component analysis is used as a feature parameter, and a development coefficient of the weighted spectral reflectance by the principal component vector is calculated. 2. The color simulation method according to claim 1, wherein the parameter is a characteristic parameter coefficient.
【請求項3】被写体を撮影し得られた入力画像の色情報
値を、色情報値から色情報値に対応する前記少なくとも
3つの特徴パラメータ係数に変換するように学習された
多層フィードフォワード型ニューラルネットワークによ
り、特徴パラメータ係数に変換する、ことを特徴とする
請求項1記載の色シミュレーション方法。
3. A multi-layer feedforward neural network that has been learned to convert a color information value of an input image obtained by photographing a subject from the color information value to the at least three characteristic parameter coefficients corresponding to the color information value. 2. The color simulation method according to claim 1, wherein the parameter is converted into a characteristic parameter coefficient by a network.
【請求項4】被写体を撮影し得られた入力画像の色情報
値を、色情報値と色情報値に対応する前記少なくとも3
つの特徴パラメータ係数との対応関係を記憶したルック
アップテーブルにより、特徴パラメータ係数に変換す
る、ことを特徴とする請求項1記載の色シミュレーショ
ン方法。
4. A color information value of an input image obtained by photographing a subject, the color information value and at least three color information values corresponding to the color information value.
2. The color simulation method according to claim 1, wherein the conversion into the characteristic parameter coefficients is performed by a look-up table storing the correspondence between the characteristic parameter coefficients.
【請求項5】等色関数または色度座標、あるいは、視細
胞特性を重み係数として分光反射率に乗じることによっ
て、人間の色弁別能に応じた分光反射率への重み付けを
行う、ことを特徴とする請求項1記載の色シミュレーシ
ョン方法。
5. A method of weighting a spectral reflectance according to a human color discrimination ability by multiplying a spectral reflectance by a color matching function or a chromaticity coordinate or a photoreceptor characteristic as a weighting factor. The color simulation method according to claim 1, wherein
JP8298480A 1996-11-11 1996-11-11 Color simulation method Pending JPH10145619A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8298480A JPH10145619A (en) 1996-11-11 1996-11-11 Color simulation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8298480A JPH10145619A (en) 1996-11-11 1996-11-11 Color simulation method

Publications (1)

Publication Number Publication Date
JPH10145619A true JPH10145619A (en) 1998-05-29

Family

ID=17860252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8298480A Pending JPH10145619A (en) 1996-11-11 1996-11-11 Color simulation method

Country Status (1)

Country Link
JP (1) JPH10145619A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099499A (en) * 2004-09-30 2006-04-13 Brother Ind Ltd Data display control device and data display program
CN114531578A (en) * 2020-11-23 2022-05-24 华为技术有限公司 Light source spectrum acquisition method and device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099499A (en) * 2004-09-30 2006-04-13 Brother Ind Ltd Data display control device and data display program
CN114531578A (en) * 2020-11-23 2022-05-24 华为技术有限公司 Light source spectrum acquisition method and device

Similar Documents

Publication Publication Date Title
JP3287177B2 (en) Color imaging method and apparatus
CA1312290C (en) Method of describing a color image using a triaxial planar vector color space
JP3417051B2 (en) Color information processing method and apparatus using feature parameter values independent of light source
US5546195A (en) Apparatus for reproducing color images
JPH09163382A (en) Color slurring correction method and device
JPH099083A (en) Color picture processor
JP3304740B2 (en) Color simulation device
JP2978615B2 (en) Apparatus and method for adjusting color balance
JP2005045446A (en) Color conversion matrix calculation method and color correction method
JPH10145619A (en) Color simulation method
JPH10164381A (en) Color conversion method
JPH10145622A (en) Color simulation device
JPH09233352A (en) Color simulation device
JP3360531B2 (en) Method and apparatus for determining color gamut
JPH09284581A (en) Color simulation device
JP3671097B2 (en) Image signal processing method
KR101993752B1 (en) Method and Apparatus for Matching Colors Using Neural Network
KR970009063B1 (en) Color correcting method and device
JP3411847B2 (en) Color reproduction method and apparatus for input device, and recording medium recording program of this method
JPH10243247A (en) Color information conversion method and device to match observation results of colors with each other
JPH06339016A (en) Automatic converting method and device for color reproduction area and automatic color converter
JP4136820B2 (en) Color conversion matrix calculation method and color correction method
JPH11220630A (en) Method for generating three-dimensional look up table, image processor executing the same and digital color printer provided with the same
JP2001352457A (en) Information color system and printing method for the information color system
JP3070827B2 (en) Method and apparatus for obtaining color gamut