JP2002027264A - Image processing method and image processor - Google Patents

Image processing method and image processor

Info

Publication number
JP2002027264A
JP2002027264A JP2000201895A JP2000201895A JP2002027264A JP 2002027264 A JP2002027264 A JP 2002027264A JP 2000201895 A JP2000201895 A JP 2000201895A JP 2000201895 A JP2000201895 A JP 2000201895A JP 2002027264 A JP2002027264 A JP 2002027264A
Authority
JP
Japan
Prior art keywords
image data
image
color
data
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000201895A
Other languages
Japanese (ja)
Inventor
Mutsuko Nichogi
睦子 二梃木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2000201895A priority Critical patent/JP2002027264A/en
Publication of JP2002027264A publication Critical patent/JP2002027264A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing method and an image processor in which an input image is converted into a color space independent from the image processor and illumination with high accuracy. SOLUTION: Image data and colorimetric value of a color chip composed of a plurality of colors are acquired previously, ideal image data being predicted using a signal generation model of an input unit is calculated from the colorimetric value of the color chip. Image data of the color chip is then converted into the ideal image data through a neural network or a function and a matrix in order to remove nonlinearity of the image data. An image processor of higher order than the image data or color data independent from the image processor and illumination can be estimated with high accuracy using the image data from which nonlinearity is removed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、市販の入力装置か
ら入力されたカラー画像データを、装置および照明に依
存しない色空間に、高精度に変換する画像処理方法およ
びその装置に関するものである。
[0001] 1. Field of the Invention [0002] The present invention relates to an image processing method for converting color image data input from a commercially available input device into a color space independent of the device and illumination with high accuracy, and a device therefor.

【0002】[0002]

【従来の技術】近年、カラー画像を処理する装置として
スキャナ、デジタルカメラ、プリンタ、ディスプレイ等
さまざまなものが利用されている。これらの装置間で画
像データを交換する手法に、入力装置から入力されたカ
ラー画像データを、一度装置に依存しない独立な色空間
に変換してから、出力装置に出力するカラー画像データ
に変換するものがある。
2. Description of the Related Art In recent years, various devices, such as scanners, digital cameras, printers, and displays, have been used as devices for processing color images. According to a technique for exchanging image data between these devices, color image data input from an input device is once converted into an independent color space independent of the device, and then converted into color image data to be output to an output device. There is something.

【0003】このように、画像入力装置の信号と装置に
依存しない色空間との変換を確立しておけば、あらゆる
画像出力装置にデータを渡すことができるため、入力装
置と出力装置の組み合わせの数だけ色変換処理を決める
必要がない。
As described above, if the conversion between the signal of the image input device and the color space independent of the device is established, the data can be transferred to any image output device. There is no need to determine the number of color conversion processes.

【0004】また、画像入力装置から入力されたカラー
画像データを装置だけでなく照明にも依存しない独立な
色空間に変換しておけば、画像入力時の照明と異なる照
明下の画像を出力装置から出力することもできる。
If the color image data input from the image input device is converted into an independent color space not depending on the device but also on the illumination, an image under illumination different from the illumination at the time of image input can be output to the output device. You can also output from.

【0005】装置に依存しない独立な色空間としては、
国際標準機関CIEが規定するXYZ三刺激値や、L*a*b*表色
系、L*u*v*表色系、あるいはCAM97sなどのカラーアピア
ランスモデルを用いることが一般的であるが、カラーア
ピアランスモデルの属性値はXYZ三刺激値から算出され
るため、画像入出力装置の信号からXYZ三刺激値を推定
することができれば上記色変換が可能になる。
[0005] As an independent color space independent of the device,
XYZ tristimulus values specified by the International Standards Institute CIE, and L * a * b * color system, L * u * v * color system, or it is common to use a color appearance model such as CAM97s, Since the attribute values of the color appearance model are calculated from the XYZ tristimulus values, if the XYZ tristimulus values can be estimated from the signals of the image input / output device, the above color conversion becomes possible.

【0006】また、装置および照明に依存しない色空間
としては、被写体の分光反射率を用いることが一般的で
ある。分光反射率に所望の照明をかけ積分すれば、XYZ
三刺激値を算出することができる。
As a color space that does not depend on the device and the illumination, it is general to use the spectral reflectance of the subject. By integrating the spectral reflectance with the desired illumination, XYZ
Tristimulus values can be calculated.

【0007】このように、各画像入出力装置の色空間か
ら被写体のXYZ三刺激値あるいは分光反射率を推定する
ことをキャラクタライゼーションと呼ぶ。
Estimating the XYZ tristimulus values or the spectral reflectance of a subject from the color space of each image input / output device in this manner is called characterization.

【0008】本発明は、デジタルカメラ、マルチスペク
トルカメラ、スキャナをはじめとする画像入力装置のキ
ャラクタライゼーションに関するものである。
The present invention relates to the characterization of an image input device such as a digital camera, a multispectral camera, and a scanner.

【0009】従来の画像入力装置のキャラクタライゼー
ション技術には、例えば、特開平7−174631号公
報記載の皮膚の測色方法及び分光反射スペクトルの推定
方法や特開平9−233490号公報記載の色シュミレ
ーション装置がある。特開平7−174631号公報で
は、画像入力装置から入力された画像から皮膚の分光反
射スペクトルを推定する方法を開示している。
Conventional characterization techniques for an image input device include, for example, a colorimetric method for skin and a method for estimating a spectral reflection spectrum described in Japanese Patent Application Laid-Open No. 7-174631, and a color simulation described in Japanese Patent Application Laid-Open No. 9-233490. There is a device. Japanese Patent Application Laid-Open No. 7-174631 discloses a method of estimating a spectral reflection spectrum of skin from an image input from an image input device.

【0010】その手順を図7を用いて説明する。まず、
手順701で入力された画像データRGBを、輝度に線形
な信号に2次関数で変換する。前記公報記載の2次関数
を(数1)に示す。(数1)は、無彩色の9階調の色票
のXYZ三刺激値を測色しておき、そのY値である輝度に線
形となるように決定されている。
The procedure will be described with reference to FIG. First,
The image data RGB input in step 701 is converted into a signal linear in luminance by a quadratic function. The quadratic function described in the above publication is shown in (Equation 1). (Equation 1) is determined so that the XYZ tristimulus values of the 9-tone color chip of achromatic color are measured, and the luminance is linear with the Y value.

【0011】[0011]

【数1】 (Equation 1)

【0012】次に、手順702で、輝度線形信号から、
少なくとも2次の項までを使用する重回帰行列によりXY
Z三刺激値を算出する。最後に手順703で、XYZ三刺激
値から分光反射率を推定する。分光反射率の次元は、例
えば400nmから700nmの可視光の範囲を10nmおきにサンプ
リングしても31次元とかなり大きく推定が困難である
ため、主成分分析を行い、31次よりも低次なm次の基
底で表現する手法を用いる。被写体である皮膚の分光反
射率の第3主成分までの累積寄与率は99.5パーセントな
ので、m=3で十分であるため、XYZ三刺激値から基底
係数を一意に求めることができる。
Next, in step 702, from the luminance linear signal,
XY with multiple regression matrix using at least quadratic terms
Calculate Z tristimulus values. Finally, in step 703, the spectral reflectance is estimated from the XYZ tristimulus values. The dimension of the spectral reflectance is, for example, 31 dimensions even if the range of visible light from 400 nm to 700 nm is sampled every 10 nm, which is considerably large and difficult to estimate. The following expression method is used. Since the cumulative contribution ratio of the spectral reflectance of the skin as the subject to the third principal component is 99.5%, m = 3 is sufficient, so that the basis coefficient can be uniquely obtained from the XYZ tristimulus values.

【0013】このように従来のキャラクタライゼーショ
ン方法は、入力された画像データを輝度に線形な信号
(R',G',B')に2次関数で変換する非線形性除去処理と、
非線形性を除去した(R',G',B')信号からXYZ値あるいは
分光反射率を推定する色推定処理の2段階から成る。
As described above, the conventional characterization method converts the input image data into a signal linear in luminance.
(R ', G', B ') by a quadratic function to remove nonlinearity,
It consists of two stages of color estimation processing for estimating the XYZ values or the spectral reflectance from the (R ', G', B ') signal from which the non-linearity has been removed.

【0014】また、特開平9−233490号公報記載
の色シュミレーション装置では、画像入力装置から入力
された画像を所望の光源下の色に変換してからディスプ
レイ上に出力する照明シュミレーションを開示してい
る。その手順を図8を用いて説明する。
In the color simulation device described in Japanese Patent Application Laid-Open No. 9-233490, an illumination simulation for converting an image input from an image input device into a color under a desired light source and outputting the color on a display is disclosed. I have. The procedure will be described with reference to FIG.

【0015】特開平7−174631号公報記載の方法
と同様に、分光反射率を主成分分析し、31次よりも低
次なm次の基底で表現する。そして、手順801で入力画像
データから基底係数m次ベクトルをニューラルネットワ
ークで推定する。次に手順802で、推定されたm次ベクト
ルから分光反射率を算出する。得られた分光反射率に所
望の光源ベクトルをかけてXYZ三刺激値とし、ディスプ
レイの色特性を用いてディスプレイ駆動信号に変換す
る。
Similar to the method described in Japanese Patent Application Laid-Open No. 7-174631, the spectral reflectance is subjected to principal component analysis, and is represented by an m-th order base lower than the 31st order. Then, in step 801, a m-th order basis coefficient vector is estimated from the input image data using a neural network. Next, in step 802, the spectral reflectance is calculated from the estimated m-order vector. The obtained spectral reflectance is multiplied by a desired light source vector to obtain XYZ tristimulus values, which are converted into display drive signals using the color characteristics of the display.

【0016】このように前記従来例と異なり、非線形性
除去処理と色推定処理を分けずに、入力画像データから
直接分光反射率の基底係数をニューラルネットワークで
推定している。
As described above, unlike the conventional example, the neural network estimates the basis coefficient of the spectral reflectance directly from the input image data without separating the nonlinearity removal processing and the color estimation processing.

【0017】[0017]

【発明が解決しようとする課題】特開平7−17463
1号公報記載の方法では、2次関数で入力画像データの
非線形性を除去しているが、画像入力装置から出力され
る信号は、ガンマ変換だけでなく、ホワイトバランスや
その他の色補正処理が施されているため、単純なR、G、
B信号毎の2次関数による変換で非線形性を除去するこ
とは不可能である。非線形性が残ると、最終的な推定目
的であるXYZ三刺激値や分光反射率に大きな誤差が生じ
る。
Problems to be Solved by the Invention
In the method described in Japanese Patent Application Laid-Open Publication No. H10-157, nonlinearity of input image data is removed by a quadratic function, but a signal output from an image input device is subjected to not only gamma conversion but also white balance and other color correction processing. Simple R, G,
It is impossible to remove nonlinearity by conversion using a quadratic function for each B signal. If the non-linearity remains, a large error occurs in the XYZ tristimulus values and the spectral reflectance, which are final estimation purposes.

【0018】また、非線形性除去処理後の色推定処理に
おいては、被写体が皮膚に限られているため、主成分分
析により分光反射率の次元数を3次元にまで落とすこと
ができたが、皮膚以外の被写体では3次元で分光反射率
を表現することは不可能である。例えば、ジャーナル
オブ オプティカルソサイエティアメリカA Vol.3 No.1
0(1986) ページ 1673「エバリュエイション オブ
リニア モデルズ オブサーフェイスイズ スペクトル
リフレクタンス ウイズ スモール ナンバーズ オ
ブ パラメータズ」には、任意の物体の分光反射率を表
現するには、最低6次元か、8次元程度が必要であると
いう事実が記載されている。そのため、バンド数が6か
ら8より小さい画像入力装置では高次の情報を推定しな
ければないという問題がある。
In the color estimation processing after the non-linearity removal processing, since the subject is limited to the skin, the number of dimensions of the spectral reflectance can be reduced to three dimensions by principal component analysis. In other subjects, it is impossible to express the spectral reflectance in three dimensions. For example, journal
Of Optical Society America A Vol.3 No.1
0 (1986) Page 1673 "Evaluation of
Linear Models of Surfaces Spectral Reflectance with Small Numbers of Parameters states that at least six or eight dimensions are required to represent the spectral reflectance of any object. . Therefore, there is a problem in that an image input apparatus having a band number of less than 6 to 8 has to estimate higher-order information.

【0019】また、特開平9−233490号公報記載
の方法では、ニューラルネットワークにより画像データ
から直接分光反射率の基底係数を推定しているが、画像
データと基底係数の関係は、本来非線形および線形な複
数の変換から成るため、ニューラルネットワークとして
例えば多層パーセプトロンを用いた場合、中間層のユニ
ット数や、層数の数が多く、また、学習回数も多くしな
ければ高精度な推定ができない。
In the method described in Japanese Patent Application Laid-Open No. 9-233490, the basis coefficient of the spectral reflectance is directly estimated from the image data by the neural network. However, the relationship between the image data and the basis coefficient is originally nonlinear and linear. Therefore, when a multi-layer perceptron is used as a neural network, for example, a high-precision estimation cannot be performed unless the number of units and the number of layers in the intermediate layer is large and the number of learnings is not large.

【0020】このように、画像入力装置の画像データか
ら被写体のXYZ三刺激値や分光反射率を高精度に算出す
る方法は未だ解決されない課題となっている。
As described above, the method of calculating the XYZ tristimulus values and the spectral reflectance of the subject from the image data of the image input device with high accuracy has not been solved yet.

【0021】本発明は、かかる点に鑑みてなされたもの
で、入力装置から入力されたカラー画像データを装置お
よび照明に依存しない色空間に高精度に変換する画像処
理方法を提供することを目的とする。
The present invention has been made in view of the above points, and has as its object to provide an image processing method for converting color image data input from an input device into a color space that does not depend on the device and illumination with high accuracy. And

【0022】[0022]

【課題を解決するための手段】本発明は、複数の色から
構成された色票の画像データと測色値を予め取得してお
き、前記色票の測色値から入力装置の信号発生モデルを
用いて予測される理想的な画像データを算出し、前記色
票の画像データを前記理想的な画像データにニューラル
ネットワークあるいは関数と行列で変換することによ
り、画像データの非線形性を除去し、前記非線形性を除
去した画像データを用いて画像データよりも高次元な装
置あるいは装置と照明に独立な色データを推定する画像
処理方法としたものである。
According to the present invention, image data and colorimetric values of a color chart composed of a plurality of colors are obtained in advance, and a signal generation model of an input device is obtained from the colorimetric values of the color chart. By calculating the ideal image data predicted by using, the image data of the color chart is converted to the ideal image data by a neural network or a function and a matrix, thereby removing the nonlinearity of the image data, An image processing method for estimating color data that is independent of the image data and a device that is higher in dimension than the image data or that is independent of the device and the illumination using the image data from which the nonlinearity has been removed.

【0023】この本発明によれば、入力装置から入力さ
れたカラー画像データを、装置、あるいは装置と照明に
独立な色データに高精度に変換することができる。
According to the present invention, the color image data input from the input device can be converted into color data independent of the device or the device and the illumination with high accuracy.

【0024】[0024]

【発明の実施の形態】請求項1に記載の発明は、画像入
力装置により入力された画像データから装置あるいは装
置と照明に独立な色データを推定する際に、画像データ
の次元が装置あるいは装置と照明に独立な色データの次
元よりも低い場合、色データのうち画像データと同次元
数までを前記画像データから推定し、残りの次元は既に
推定された前記画像データと同次元数までの色データか
ら推定する画像処理方法としたものであり、画像入力装
置の信号を装置あるいは装置および照明に依存しない色
空間に高精度に変換することができるという作用を有す
る。
According to the first aspect of the present invention, when estimating color data independent of a device or a device and illumination from image data input by an image input device, the dimension of the image data is determined by the device or the device. If the dimension is lower than the dimension of the color data independent of the illumination, the color data is estimated from the image data up to the same dimension as the image data, and the remaining dimensions are up to the same dimension as the image data already estimated. This is an image processing method of estimating from color data, and has an effect that a signal of an image input device can be converted to a color space independent of the device or the device and the illumination with high accuracy.

【0025】請求項2に記載の発明は、画像入力装置に
より入力された画像データから装置あるいは装置と照明
に独立な色データを推定する際に、画像データの次元が
装置あるいは装置と照明に独立な色データの次元よりも
低い場合、画像データと同次元までと、残りの次元のデ
ータを分けて推定する画像処理方法としたものであり、
画像入力装置の信号を装置あるいは装置および照明に依
存しない色空間に高精度に変換することができるという
作用を有する。
According to a second aspect of the present invention, when estimating color data independent of the device or the device and the illumination from the image data input by the image input device, the dimension of the image data is independent of the device or the device and the illumination. If it is lower than the dimension of the color data, the image processing method is to separately estimate the data of the remaining dimension up to the same dimension as the image data,
This has the effect that the signal of the image input device can be converted into a color space independent of the device or the device and the illumination with high accuracy.

【0026】請求項3に記載の発明は、画像入力装置に
より入力された画像データから装置あるいは装置と照明
に独立な色データを推定する際に、画像データから装置
あるいは装置と照明に独立な色データへの変換を2次以
上の項に拡張した行列変換で行う画像処理方法としたも
のであり、画像入力装置の信号を装置あるいは装置およ
び照明に依存しない色空間に高精度に変換することがで
きるという作用を有する。
According to a third aspect of the present invention, when color data independent of a device or a device and illumination is estimated from image data input by an image input device, a color independent of the device or a device and illumination is estimated from the image data. This is an image processing method in which conversion to data is performed by matrix conversion extended to second-order or higher terms, and it is possible to convert a signal of an image input device to a color space independent of a device or a device and illumination with high accuracy. Has the effect of being able to.

【0027】請求項4に記載の発明は、装置あるいは装
置と照明に独立な色データへの変換に用いる前記画像デ
ータは、画像入力装置から入力された画像データの非線
形性を除去したものであることを特徴とする請求項1か
ら3のいずれかに記載の画像処理方法としたものであ
り、画像入力装置の信号を装置あるいは装置および照明
に依存しない色空間に高精度に変換することができると
いう作用を有する。
According to a fourth aspect of the present invention, the image data used for conversion into color data independent of the device or the device and the illumination is obtained by removing the non-linearity of the image data input from the image input device. An image processing method according to any one of claims 1 to 3, wherein the signal of the image input device can be converted into a color space that does not depend on the device or the device and the illumination with high accuracy. It has the action of:

【0028】請求項5に記載の発明は、画像入力装置に
より入力された画像データの非線形性を除去してから装
置あるいは装置と照明に独立な色データを推定する際
に、非線形性の除去をニューラルネットワークで行う画
像処理方法としたものであり、従来例には分光反射率の
基底係数を直接ニューラルネットワークで推定する方法
も存在するが、従来方法ではネットワーク構造が複雑で
あり、また、多くの学習データを必要とし、学習時間も
かかるのに対し、本手法ではネットワークを簡潔なもの
とすることができ、学習データ数や学習時間が少なくて
も良い推定結果が得ることができるという作用を有す
る。
According to a fifth aspect of the present invention, when the color data independent of the apparatus or the apparatus and the illumination is estimated after removing the nonlinearity of the image data input by the image input apparatus, the nonlinearity is removed. This is an image processing method performed by a neural network. In the conventional example, there is also a method of directly estimating the basis coefficient of the spectral reflectance by the neural network. However, in the conventional method, the network structure is complicated. While this method requires learning data and requires a long learning time, this method has an effect that a simple network can be obtained, and a good estimation result can be obtained with a small number of learning data and a small learning time. .

【0029】請求項6に記載の発明は、画像入力装置に
より入力された画像データの非線形性を除去してから装
置あるいは装置と照明に独立な色データを推定する際
に、非線形性の除去を関数と行列変換で行う画像処理方
法としたものであり、入力画像データの非線形性を高精
度に除去することができる。
According to a sixth aspect of the present invention, when the color data independent of the apparatus or the apparatus and the illumination is estimated after removing the nonlinearity of the image data input by the image input apparatus, the nonlinearity is removed. This is an image processing method performed by a function and a matrix conversion, and can remove nonlinearity of input image data with high accuracy.

【0030】請求項7に記載の発明は、非線形性の除去
に用いる行列は、入力された画像データの2次以上の項
に拡張したものであることを特徴とする請求項6記載の
画像処理方法としたものであり、入力画像データの非線
形性を高精度に除去することができる。
According to a seventh aspect of the present invention, there is provided the image processing apparatus according to the sixth aspect, wherein the matrix used for removing the non-linearity is expanded to a second or higher order term of the input image data. This method can remove nonlinearity of input image data with high accuracy.

【0031】請求項8に記載の発明は、複数の色から構
成された色票の画像データと測色値を予め取得してお
き、前記色票の測色値から入力装置の信号発生モデルを
用いて予測される理想的な画像データを算出し、前記色
票の画像データを前記理想的な画像データに変換するこ
とで画像データの非線形性を除去しておき、前記非線形
性を除去した画像データを用いて装置あるいは装置と照
明に独立な色データを推定する画像処理方法としたもの
であり、このように画像入力装置の信号発生モデルに適
したデータに入力画像データを変換してから分光反射率
の推定を行うことで推定精度を高めることができるとい
う作用を有する。
According to the present invention, image data and colorimetric values of a color chart composed of a plurality of colors are obtained in advance, and a signal generation model of an input device is obtained from the colorimetric values of the color chart. Calculate ideal image data to be predicted using, and convert the image data of the color chart to the ideal image data to remove the nonlinearity of the image data, and remove the nonlinearity from the image. This is an image processing method for estimating color data that is independent of the device or the device and the illumination using the data. In this way, the input image data is converted into data suitable for the signal generation model of the image input device, and then spectral analysis is performed. There is an effect that the estimation accuracy can be improved by estimating the reflectance.

【0032】請求項9に記載の発明は、画像入力装置か
ら入力された画像データの非線形性を除去する非線形性
除去手段と、前記非線形性を除去した画像データから画
像データよりも高次な装置あるいは装置と照明に独立な
色データを推定する色推定手段とを具備する画像処理装
置としたものであり、画像入力装置の信号を装置あるい
は装置および照明に依存しない色空間に高精度に変換す
ることができるという作用を有する。
According to a ninth aspect of the present invention, there is provided a non-linearity removing means for removing non-linearity of image data input from an image input device, and a device which is higher in order than the image data based on the non-linearity-removed image data. Alternatively, the image processing apparatus includes an apparatus and color estimation means for estimating color data independent of illumination, and converts a signal of the image input apparatus into a color space independent of the apparatus or the apparatus and the illumination with high accuracy. It has the effect of being able to.

【0033】以下、本発明の実施の形態について図面を
参照して詳細に説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

【0034】(実施の形態1)画像入力装置をRGB3バン
ドの出力を持つデジタルカメラであるとし、RGB画像デ
ータから装置および照明に依存しないデータである被写
体の分光反射率を推定する方法について説明する。
(Embodiment 1) A method of estimating the spectral reflectance of a subject, which is data independent of the device and illumination, from RGB image data, assuming that the image input device is a digital camera having RGB three-band outputs will be described. .

【0035】図1は、実施の形態1にかかる入力装置の
RGB画像データから分光反射率画像データを推定する画
像処理装置のブロック図である。図1において、101
はRGB3バンドの画像データを取得するディジタルカ
メラ等の画像入力手段、102は画像入力手段101か
ら入力された画像データ、103は画像データ102か
ら装置および照明に依存しないデータ、すなわち分光反
射率を推定する色推定手段、104は色推定手段103
で推定された分光反射率画像データ、105は分光反射
率画像データ104を記録する画像記録手段、106は
色推定手段103の構成要素の1つであり、入力された
画像データから非線形性を除去する非線形性除去部、1
07は非線形性除去に用いるニューラルネットワークの
重みや閾値あるいは関数、行列などのパラメータを格納
する非線形除去処理パラメータ格納部、108は非線形
性除去部106によって得られる非線形性を除去した画
像データであり、これを以降、スカラー画像データと呼
ぶことにする。
FIG. 1 shows an input device according to the first embodiment.
FIG. 3 is a block diagram of an image processing device that estimates spectral reflectance image data from RGB image data. In FIG. 1, 101
Is image input means such as a digital camera for acquiring image data of RGB three bands, 102 is image data input from the image input means 101, 103 is data which does not depend on a device and illumination, that is, estimates spectral reflectance from the image data 102 Color estimating means 104;
Is an image recording unit for recording the spectral reflectance image data 104; and 106 is one of the components of the color estimating unit 103, and removes nonlinearity from the input image data. Nonlinearity removing unit,
Reference numeral 07 denotes a non-linear removal processing parameter storage unit that stores parameters such as weights, threshold values, functions, and matrices of a neural network used for non-linearity removal. Reference numeral 108 denotes image data from which the non-linearity obtained by the non-linearity removal unit 106 has been removed; This is hereinafter referred to as scalar image data.

【0036】109は色推定手段103の構成要素の1
つであり、スカラー画像データ108から物体の分光反
射率を推定する分光反射率推定部、110は分光反射率
推定部105で使用するカメラの分光感度や撮影時の照
明といったカメラパラメータを格納するカメラパラメー
タ格納部である。
Reference numeral 109 denotes one of the components of the color estimating means 103.
A spectral reflectance estimating unit for estimating the spectral reflectance of the object from the scalar image data 108; a camera 110 for storing camera parameters such as the spectral sensitivity of the camera used in the spectral reflectance estimating unit 105 and illumination during shooting; This is a parameter storage unit.

【0037】図1の色推定手段の動作を説明する。画像
入力手段101から入力された画像データ102は、色
推定手段103で装置および照明に依存しない色空間で
ある分光反射率画像データ104に変換され、画像記録
手段105に記録される。
The operation of the color estimating means of FIG. 1 will be described. The image data 102 input from the image input unit 101 is converted by the color estimation unit 103 into spectral reflectance image data 104 which is a color space independent of the device and illumination, and is recorded in the image recording unit 105.

【0038】本発明の特徴となる色推定手段103は、
非線形除去部106、非線形除去処理パラメータ格納部
107、分光反射率推定部109、カメラパラメータ格
納部110から構成される。
The color estimating means 103, which is a feature of the present invention,
It comprises a non-linear elimination unit 106, a non-linear elimination processing parameter storage unit 107, a spectral reflectance estimating unit 109, and a camera parameter storage unit 110.

【0039】色推定手段103の動作を説明する。色推
定手段103に入力された画像データ102は、まず、
非線形性除去部106によりスカラー画像データ104
に変換され、次に、分光反射率推定部105でスカラー
画像データから分光反射率画像データ107に変換され
る。
The operation of the color estimating means 103 will be described. First, the image data 102 input to the color estimating means 103 is
The scalar image data 104 by the non-linearity removing unit 106
Then, the spectral reflectance estimating unit 105 converts the scalar image data into the spectral reflectance image data 107.

【0040】非線形性除去部106の詳細な動作につい
て説明する。非線形性除去部106では、画像データ1
02をスカラー画像データ108に変換する。
The detailed operation of the non-linearity removing section 106 will be described. In the nonlinearity removing unit 106, the image data 1
02 is converted to scalar image data 108.

【0041】変換を実現する方法の1つとしてニューラ
ルネットワークであるマルチレイヤーパーセプトロンを
用いた場合を説明する。マルチレイヤーパーセプトロン
は、ニューロンのパラメータである重みと閾値を予め学
習しておき、その学習によって得られたパラメータを用
いて推定を行う。そこで、まず、マルチレイヤーパーセ
プトロンのパラメータ学習手順について図2を用いて説
明する。
A case where a multilayer perceptron, which is a neural network, is used as one of the methods for realizing the conversion will be described. The multi-layer perceptron previously learns weights and thresholds, which are parameters of neurons, and performs estimation using the parameters obtained by the learning. Therefore, first, a parameter learning procedure of the multi-layer perceptron will be described with reference to FIG.

【0042】手順201で複数の色から構成された色票
の画像データと測色値を予め取得しておく。次に、手順
202で前記色票の測色値から入力装置の信号発生モデ
ルを用いて予測される理想的な画像データを算出する。
次に、手順203で画像データ102を入力データと
し、理想的な画像データを教師データとして重みと閾値
を学習する。この学習によって得られた重みと閾値が非
線形性除去処理パラメータ格納部107に格納される。
In step 201, image data and colorimetric values of a color chart composed of a plurality of colors are obtained in advance. Next, in step 202, ideal image data predicted using the signal generation model of the input device is calculated from the colorimetric values of the color chart.
Next, in step 203, weights and thresholds are learned using the image data 102 as input data and ideal image data as teacher data. The weight and threshold obtained by this learning are stored in the non-linearity removal processing parameter storage unit 107.

【0043】手順202における理想的な画像データの
算出方法について説明する。
The method of calculating ideal image data in step 202 will be described.

【0044】理想的な画像データは入力装置の信号発生
モデルに色票の測色値を代入することで求めることがで
きる。信号発生モデルは、物体の分光反射率R(λ)と照
明の分光分布S(λ)とカメラのRGB3バンドの分光感度CR
(λ)、CG(λ)、CB(λ)を用いて、(数2)で書く
ことができる。カメラの分光感度と照明の分光分布は既
知とする。
The ideal image data can be obtained by substituting the colorimetric values of the color chart into the signal generation model of the input device. The signal generation model includes the spectral reflectance R (λ) of the object, the spectral distribution S (λ) of the illumination, and the spectral sensitivity C R of the three RGB bands of the camera.
Using (λ), C G (λ), and C B (λ), it can be written by (Equation 2). It is assumed that the spectral sensitivity of the camera and the spectral distribution of the illumination are known.

【0045】[0045]

【数2】 (Equation 2)

【0046】(数2)のR(λ)に色票の分光反射率を代
入して得られるR',G',B'が理想的な画像データとなる。
R ′, G ′, B ′ obtained by substituting the spectral reflectance of the color chart for R (λ) in (Equation 2) become ideal image data.

【0047】(数2)の信号発生モデルの説明図を図3
に示す。図3において、301は信号発生モデルに代入
する色票の分光反射率、302は既知の入力装置の分光
感度特性、303は画像データ102撮影時の照明特
性、304は(数2)の信号発生モデル、305は色票
の理想画像データである。
FIG. 3 is an explanatory diagram of the signal generation model of (Expression 2).
Shown in In FIG. 3, reference numeral 301 denotes the spectral reflectance of a color chart to be substituted into the signal generation model, 302 denotes the spectral sensitivity characteristic of a known input device, 303 denotes the illumination characteristic at the time of capturing the image data 102, and 304 denotes the signal generation of Equation (2). A model 305 is ideal image data of a color chart.

【0048】図3に示すように、信号発生モデルすなわ
ち(数2)に、入力装置の分光感度特性302、照明特
性303及び、物体の分光反射率301を与えることに
より、物体の理想画像データ305が得られる。
As shown in FIG. 3, by giving the spectral sensitivity characteristic 302 and the illumination characteristic 303 of the input device and the spectral reflectance 301 of the object to the signal generation model, that is, (Equation 2), ideal image data 305 of the object is obtained. Is obtained.

【0049】次に、以上のようにして学習された重みと
閾値のニューラルネットワークによる推定について説明
する。非線形性除去部106では、非線形除去処理パラ
メータ格納部107に格納されている重みと閾値を読み
出し、これを用いたニューラルネットワークに画像デー
タ102を入力する。これにより、ニューラルネットワ
ークの出力には非線形性が除去された画像データである
スカラー画像データ108が得られる。
Next, estimation of weights and threshold values learned as described above using a neural network will be described. The non-linearity removing unit 106 reads out the weights and thresholds stored in the non-linearity removal processing parameter storage unit 107, and inputs the image data 102 to the neural network using the weights and the threshold values. As a result, scalar image data 108, which is image data from which nonlinearity has been removed, is obtained at the output of the neural network.

【0050】なお、特開平9−233490号公報記載
の方法では画像データから分光反射率の基底係数を直接
ニューラルネットワークで推定しているが、本来画像デ
ータと分光反射率の基底係数の間には非線形や線形を含
む多段の処理があるはずであり、このような複雑な演算
すべてを1つのニューラルネットワークで学習しようと
すると、層数およびニューロンの数を増やしたり、学習
回数を多くする必要があり処理に極めて時間がかかる。
In the method described in JP-A-9-233490, the basis coefficient of the spectral reflectance is directly estimated from the image data by a neural network. There must be multiple stages of processing including non-linear and linear. If all such complicated operations are to be learned by a single neural network, it is necessary to increase the number of layers and neurons, or to increase the number of times of learning. Processing is extremely time-consuming.

【0051】それに対し、本実施の形態の方法では、画
像データからスカラー画像データを求めるまでをニュー
ラルネットワークで行い、スカラー画像データから分光
反射率の推定は、例えば分光反射率推定部109に示す
ような解析的な方法を用いることで、ニューラルネット
ワークの構造はより簡潔なもので済み、学習データ数や
学習時間が少なくても良い推定結果が得ることができ
る。例えば、中間層には10個のニューロンを持つ全3層
のマルチレイヤーパーセプトロンで5,000から10,000回
の学習により良い推定結果が得られることが実験から判
明している。一方、特開平9−233490号公報記載
の方法で同構造のマルチレイヤーパーセプトロンでは2
0,000回学習しても満足な推定結果を得ることはできな
い。
On the other hand, in the method of the present embodiment, the process up to obtaining the scalar image data from the image data is performed by a neural network, and the estimation of the spectral reflectance from the scalar image data is performed, for example, as shown in the spectral reflectance estimating unit 109. By using a simple analytical method, the structure of the neural network can be simplified, and a good estimation result can be obtained even if the number of learning data and the learning time are small. For example, experiments have shown that a good estimation result can be obtained by learning 5,000 to 10,000 times with a multilayer perceptron of three layers having 10 neurons in the hidden layer. On the other hand, a multi-layer perceptron having the same structure according to the method described in
You cannot get a satisfactory estimation result even after learning 000 times.

【0052】次に、非線形性除去部106で画像データ
102をスカラー画像データ108に変換するもう1つ
の方法として、1次元関数と行列を用いた方法を説明す
る。1次元変換関数とは、カメラの逆ガンマに相当する
関数であり、図4に示すような非線形関数である。本方
法では、まず、この非線形な1次元変換関数により画像
データを(R'',G'',B'')に変換し、更に行列により(R'',
G'',B'')をスカラー画像データ(R',G',B')に変換して非
線形除去部106から出力される。推定に用いる1次元
変換関数と行列は予め決定しておき、非線形除去処理パ
ラメータ格納部107に格納しておくものとする。
Next, as another method for converting the image data 102 into the scalar image data 108 by the nonlinearity removing unit 106, a method using a one-dimensional function and a matrix will be described. The one-dimensional conversion function is a function corresponding to the inverse gamma of the camera, and is a non-linear function as shown in FIG. In this method, first, image data is converted into (R '', G '', B '') by this nonlinear one-dimensional conversion function, and further, (R '',
G ″, B ″) are converted to scalar image data (R ′, G ′, B ′) and output from the nonlinear elimination unit 106. It is assumed that the one-dimensional conversion function and the matrix used for estimation are determined in advance and stored in the non-linear removal processing parameter storage unit 107.

【0053】関数と行列の決定手順について図5を用い
て説明する。手順501でグレー階調の色票の画像デー
タと測色値を予め取得しておく。手順502で前記色票
の測色値から入力装置の信号発生モデル(数2)を用い
て予測される理想的な画像データを算出する。手順50
3で画像データ102を入力データとし、理想的な画像
データを出力とする1次元変換関数を各色毎に決定す
る。手順504で複数色から成る色票の画像データと測
色値を予め取得しておく。手順505で前記複数色の色
票の測色値から入力装置の信号発生モデル(数2)を用
いて予測される理想的な画像データを算出する。手順5
06で複数色の色票の画像データを手順503で求めた
1次元変換関数に入力し(R'',G'',B'')を得る。手順5
07で(R'',G'',B'')から手順505の理想画像データ
(R',G',B')を推定する行列を決定する。
The procedure for determining the function and the matrix will be described with reference to FIG. In step 501, image data and colorimetric values of a gray scale color chart are obtained in advance. In step 502, ideal image data predicted from the colorimetric values of the color chart using the signal generation model (Equation 2) of the input device is calculated. Step 50
In step 3, a one-dimensional conversion function that uses the image data 102 as input data and outputs ideal image data is determined for each color. In step 504, image data and colorimetric values of a color chart composed of a plurality of colors are obtained in advance. In step 505, ideal image data to be predicted is calculated from the colorimetric values of the color patches of the plurality of colors using the signal generation model (Equation 2) of the input device. Step 5
In step 06, the image data of the color patches of a plurality of colors is input to the one-dimensional conversion function obtained in step 503 to obtain (R '', G '', B ''). Step 5
At 07, a matrix for estimating the ideal image data (R ′, G ′, B ′) in step 505 from (R ″, G ″, B ″) is determined.

【0054】手順502および手順504における理想
的な画像データの算出方法は図2と同様である。手順5
03における1次元変換関数の決定には、色票としてグ
レーの階調を用いる。このグレー階調色票の画像データ
を横軸、理想画像データを縦軸に取ることで図4の1次
元変換関数を得ることができる。
The method of calculating ideal image data in steps 502 and 504 is the same as in FIG. Step 5
For the determination of the one-dimensional conversion function in 03, gray gradation is used as a color chart. The one-dimensional conversion function shown in FIG. 4 can be obtained by taking the image data of the gray gradation color chart on the horizontal axis and the ideal image data on the vertical axis.

【0055】なお、この1次元変換関数で得られる値
を、特開平7−174631号公報記載の方法では非線
形性が除去されたものとして扱っているが、通常のカメ
ラではガンマだけでなく複雑な処理が組み込まれている
ため、この1次元変換関数だけでは非線形性の除去を十
分に行うことはできない。非線形性を残すことで、最終
的に得られる分光反射率の精度が大きく低下することが
実験からも判明している。
The value obtained by the one-dimensional conversion function is treated as the one in which the non-linearity is removed in the method described in Japanese Patent Application Laid-Open No. 7-174631, but not only gamma but also complicated Since the processing is incorporated, it is not possible to sufficiently remove the non-linearity using only the one-dimensional conversion function. Experiments have shown that leaving the non-linearity greatly reduces the accuracy of the finally obtained spectral reflectance.

【0056】そこで、本発明では、手順507で1次元
変換関数の出力(R'',G'',B'')を更に行列変換し非線形
性を除去する。手順507における行列の決定方法につ
いて説明する。
Therefore, in the present invention, the output (R ", G", B ") of the one-dimensional conversion function is further subjected to matrix conversion in step 507 to remove nonlinearity. A method for determining a matrix in step 507 will be described.

【0057】手順506で既に複数の色から成る色票の
画像データを、手順503で決定した1次元変換関数に
代入して(R'',G'',B'')が得られている。一方、手順5
05で既に同一色票の理想画像データ(R',G',B')が得ら
れている。これら2つの座標値の変換を行う行列Sを
(数3)で定義する。
In step 506, the image data of the color chart composed of a plurality of colors has already been substituted into the one-dimensional conversion function determined in step 503 to obtain (R ", G", B "). . On the other hand, step 5
At 05, the ideal image data (R ', G', B ') of the same color chart has already been obtained. A matrix S for converting these two coordinate values is defined by (Equation 3).

【0058】[0058]

【数3】 (Equation 3)

【0059】行列Sの各成分は、左辺に色票の各色の
(R',G',B')tを横に並べて作成した行列と、右辺第2項
に色票の各色の(R'',G'',B'')tを横に並べて作成した行
列を用いて、二乗誤差が最も小さくなるように、(数
4)を用いて行列Sを求めれば良い。(数4)におい
て、+はムーアペンローズの一般逆行列を意味する。
Each component of the matrix S is represented on the left side by each color of the color chart.
A matrix created by (R ', G', B ') t arranged side by side, and (R'',G'',B'') t of each color of the color chart arranged side by side in the second term on the right side The matrix S may be obtained using (Equation 4) so as to minimize the square error using the matrix. In (Equation 4), + means a general inverse matrix of Moore Penrose.

【0060】[0060]

【数4】 (Equation 4)

【0061】あるいは、(数2)の代わりに(R'',G'',
B'')を、各二乗項や積の項も含めて(数5)のように拡
張することで非線形性を除去してもよい。
Alternatively, instead of (Equation 2), (R ″, G ″,
B ″) may be extended to include the square terms and the product terms as shown in (Equation 5) to remove nonlinearity.

【0062】[0062]

【数5】 (Equation 5)

【0063】以上で、非線形性除去部106の動作説明
を終える。
The operation of the non-linearity removing section 106 has been described above.

【0064】次に、分光反射率推定部109の詳細につ
いて説明する。分光反射率推定部109は、非線形性除
去部106で算出されたスカラー画像データ108から
物体の分光反射率を推定する。これは、数2の左辺(R',
G',B')にスカラー画像データ104を代入したときにR
(λ)を推定する逆問題となる。(数2)において、スカ
ラー画像データと分光反射率は線形な関係にあるから、
(数2)を離散的な行列表現に書きかえれば(数6)と
なる。
Next, details of the spectral reflectance estimating unit 109 will be described. The spectral reflectance estimating unit 109 estimates the spectral reflectance of the object from the scalar image data 108 calculated by the nonlinearity removing unit 106. This corresponds to the left-hand side (R ',
G ′, B ′) when the scalar image data 104 is substituted
This is the inverse problem of estimating (λ). In (Equation 2), since the scalar image data and the spectral reflectance have a linear relationship,
If (Equation 2) is rewritten into a discrete matrix expression, (Equation 6) is obtained.

【0065】[0065]

【数6】 (Equation 6)

【0066】(数6)の左辺はスカラー画像データ10
8、(R1,R2,…,Rn)Tは物体の分光反射率の離散的表現で
あり、各成分は例えば、10nmおきの波長の反射率を表
す。行列Aはカメラの分光感度と照明の分光分布によっ
て決まる行列である。
The left side of (Equation 6) is the scalar image data 10
8, (R1, R2,..., Rn) T is a discrete expression of the spectral reflectance of the object, and each component represents the reflectance at a wavelength of, for example, every 10 nm. Matrix A is a matrix determined by the spectral sensitivity of the camera and the spectral distribution of illumination.

【0067】(数6)を用いて、スカラー画像データ1
08から物体の分光反射率Rを推定する問題は線形逆問
題であり、画像データが例えばRGB3バンドの場合、(R
1,R2,…,Rn)Tは次元数が3よりも格段に大きく推定する
ことが難しい。
By using (Equation 6), scalar image data 1
The problem of estimating the spectral reflectance R of the object from the color image 08 is a linear inverse problem.
(1, R2, ..., Rn) T has a dimension number much larger than three, and it is difficult to estimate it.

【0068】この問題を解決する方法として、例えば、
物体の分光反射率をnよりも低次の基底関数で表現すれ
ば、求めるべきデータの次元数を減らすことができる。
例えば、基底関数を6次元O1(λ),O2(λ),O3(λ),O
4(λ),O5(λ),O6(λ)とすれば、(数2)は(数7)に
書き換えることができ、推定すべきデータは(a,b,c,d,
e,f)の6次のベクトルとなる。従って、(数6)は、
(数8)に書き換えることができる。(数8)におい
て、行列Bは、カメラの分光感度と照明の分光分布と上
記基底関数により決まる行列である。
As a method for solving this problem, for example,
If the spectral reflectance of the object is expressed by a basis function having a lower order than n, the number of dimensions of data to be obtained can be reduced.
For example, the basis functions are defined as 6-dimensional O 1 (λ), O 2 (λ), O 3 (λ), O
4 (λ), O 5 (λ), O 6 (λ), (Equation 2) can be rewritten as (Equation 7), and the data to be estimated are (a, b, c, d,
e, f) is a sixth-order vector. Therefore, (Equation 6) is
Equation 8 can be rewritten. In Equation 8, the matrix B is a matrix determined by the spectral sensitivity of the camera, the spectral distribution of illumination, and the above basis function.

【0069】[0069]

【数7】 (Equation 7)

【0070】[0070]

【数8】 (Equation 8)

【0071】(数7)において、基底関数が3次元なら
ば、入力データの次元数と出力データの次元数が共に等
しくなるため、行列Bが正方行列となり解を一意に得る
ことができる。皮膚のように分光反射率が偏っていれば
基底関数の数は3つで十分であるが、その他の現存する
物体の分光反射率は3つの基底で表現することは難し
い。例えば、ジャーナル オブ オプティカルソサイエ
ティアメリカA Vol.3 No.10(1986) ページ 1673「エ
バリュエイション オブ リニア モデルズ オブサー
フェイスイズ スペクトル リフレクタンス ウイズ
スモール ナンバーズ オブ パラメータズ」では、多
くの物体の分光反射率を表現するには、最低6次元か、
8次元程度が必要であるという事実が記載されている。
In (Equation 7), if the basis function is three-dimensional, the number of dimensions of input data and the number of dimensions of output data are both equal, so that matrix B becomes a square matrix and a solution can be uniquely obtained. If the spectral reflectance is deviated like skin, three basis functions are sufficient, but it is difficult to express the spectral reflectance of other existing objects by using three bases. For example, Journal of Optical Society America A Vol.3 No.10 (1986), page 1673, "Evaluation of Linear Models of Surfaces, Spectral Reflectance With
The "Small Numbers of Parameters" requires at least six dimensions to represent the spectral reflectance of many objects,
The fact that about eight dimensions are required is described.

【0072】そのため、被写体を皮膚に限定しなけれ
ば、画像入力装置の3次元の情報から、より高次の情報
を推定しなければない。例えば基底関数を6とした場合
には、入力次元数3よりも多い次元数6−3=3は核
(カーネル)成分となり理論的に算出することは不可能
であるため、何らかの方法で推定することが考えられ
る。核(カーネル)成分とは、行列Bによって、零ベク
トル0=(0,0,0)Tに射影される基底係数空間内の部分空
間、すなわち、(数9)を満たす(a,b,…,f)Tの集合で
ある。
Therefore, unless the subject is limited to the skin, higher-order information must be estimated from the three-dimensional information of the image input device. For example, when the basis function is set to 6, the dimension number 6-3 = 3, which is larger than the input dimension number 3, becomes a kernel (kernel) component and cannot be theoretically calculated. It is possible. The kernel component is a subspace in the basis coefficient space projected to the zero vector 0 = (0,0,0) T by the matrix B, that is, (a, b,...) , f) is a set of T.

【0073】[0073]

【数9】 (Equation 9)

【0074】このように低次な情報から高次な情報を線
形に推定するにはムーアペンローズの一般化逆行列を用
いる方法が一般である。ムーアペンローズの一般化逆行
列では、推定するデータのノルムを最小にするという制
約条件のもとに解が得られる。
In order to linearly estimate higher-order information from lower-order information, a method using a Moore-Penrose generalized inverse matrix is generally used. In the Moore-Penrose generalized inverse matrix, a solution is obtained under the constraint that the norm of the data to be estimated is minimized.

【0075】しかし、この制約条件は、本問題に適切な
制約条件とはいえず誤差を招く。そこで、本発明では、
このように入力次元数3よりも多い次元数のデータを推
定する方法を開示する。まず、(数8)を満たす解(a1,
b1,c1,d1,e1,f1)を求める。(数8)を満たす解は無数
にあり、例えば、ムーアペンローズの一般逆行列による
解やその他の解を用いてもよいが、少なくともムーアペ
ンローズの一般逆行列による解よりも基本解を用いた方
が推定精度が高いことが実験から判明している。そのた
め、ここでは解の一例として、基本解を用いた場合を取
り上げる。
However, this constraint is not an appropriate constraint for the present problem, and causes an error. Therefore, in the present invention,
A method for estimating data having a number of dimensions larger than the number of input dimensions 3 is disclosed. First, the solution (a1,
b1, c1, d1, e1, f1). There are innumerable solutions that satisfy (Equation 8). For example, a solution based on the general inverse matrix of Moore Penrose and other solutions may be used. It has been found from experiments that the estimation accuracy is high. Therefore, here, the case where the basic solution is used is taken as an example of the solution.

【0076】基本解の算出方法を説明する。まず、入力
次元数よりも多い次元数である(d,e,f)は無視し、基底
関数は入力と同次数だけであると仮定して(数10)と
し、行列Cの逆行列により(a,b,c)の係数を求めておく。
得られた(a,b,c)と(d,e,f)=(0,0,0)とした解は、(数
8)を満たし、一般に基本解と呼ばれる。この解を(a1,
b1,c1,d1,e1,f1)とおく。
A method for calculating the basic solution will be described. First, (d, e, f), which is a number of dimensions larger than the number of input dimensions, is ignored, and it is assumed that the basis function has only the same degree as the input (Equation 10). The coefficients of a, b, c) are determined in advance.
The solution obtained with (a, b, c) and (d, e, f) = (0,0,0) satisfies (Equation 8) and is generally called a basic solution. This solution is called (a1,
b1, c1, d1, e1, f1).

【0077】[0077]

【数10】 (Equation 10)

【0078】次に、得られた(a1,b1,c1,d1,e1,f1)から
核(カーネル)成分を推定する。この推定を行うには、
(a1,b1,c1,d1,e1,f1)と核(カーネル)成分に統計的な
相関があることが前提条件となる。
Next, a kernel component is estimated from the obtained (a1, b1, c1, d1, e1, f1). To make this estimate,
A precondition is that there is a statistical correlation between (a1, b1, c1, d1, e1, f1) and a kernel component.

【0079】相関を表す行列Dを作成する。その方法に
ついて説明する。まず、行列Bの次元をRとする。する
と、N次の非負対称行列 BtB の次元もRで、B tB の零固
有値に属する固有空間は N-R 次元になる。BtB は非負
対称行列なので、BtBの固有ベクトルからなるRNの正規
直交基底[vn]n=1,..,Nのうち、n=N-R,..,N は核(カー
ネル)(B)の正規直交基底であり、一方、n=1,..,Rは核
(カーネル)(B)の直交補空間の正規直交基底になる。
この2つの空間を結合する行列Dを求めればよいことに
なる。
A matrix D representing the correlation is created. In that way
explain about. First, let the dimension of the matrix B be R. Do
And the Nth non-negative symmetric matrix BtThe dimension of B is also R, B tZero of B
Eigenspaces belonging to eigenvalues have N-R dimensions. BtB is non-negative
Since it is a symmetric matrix, BtRN normal consisting of eigenvectors of B
Of the orthogonal basis [vn] n = 1, .., N, n = N-R, .., N is the kernel (Kerr
F) the orthonormal basis of (B), while n = 1, .., R are kernels
(Kernel) An orthonormal basis of the orthogonal complement space of (B).
What is necessary is to find the matrix D that connects these two spaces.
Become.

【0080】具体的な計算手順について図6を用いて説
明する。手順601で複数の色から成る色票のスカラー
画像データから基本解(a1,b1,c1,d1,e1,f1)を求める。
手順602で、色票の各色の分光反射率を測色計で測色
し、分光反射率を6個の基底関数で表現した(a,b,c,d,
e,f)の6次のデータを求めておく。これを(ar,br,cr,d
r,er,fr)とおく。
A specific calculation procedure will be described with reference to FIG. In step 601, a basic solution (a1, b1, c1, d1, e1, f1) is obtained from scalar image data of a color chart composed of a plurality of colors.
In step 602, the spectral reflectance of each color on the color chart was measured with a colorimeter, and the spectral reflectance was represented by six basis functions (a, b, c, d,
The sixth-order data of e, f) is obtained in advance. This is (ar, br, cr, d
r, er, fr).

【0081】次に、手順603でBtBの固有ベクトルを
求める。この固有ベクトルの最大固有値から3つの固有
ベクトルで表される空間に、(a1,b1,c1,d1,e1,f1)を射
影する。得られた座標値を(a1P,b1P,c1P)とおく。手順
604で、(ar,br,cr,dr,er,fr)から(a1,b1,c1,d1,e1,f
1)を引いた6次のデータを前記固有ベクトルの最大固有
値から4番目、5番目、6番目の3つの固有ベクトルで
あらわされる空間に射影する。得られた座標値を(d0P,e
0P,f0P)とおく。最後に手順605で(a1P,b1P,c1P)と(d
0P,e0P,f0P)の関係を表す行列Dを(数11)で定義し、
求める。
Next, in step 603, the eigenvector of B t B is obtained. From the maximum eigenvalue of this eigenvector, (a1, b1, c1, d1, e1, f1) is projected onto a space represented by three eigenvectors. The obtained coordinate values are set as (a1P, b1P, c1P). In step 604, (a1, b1, c1, d1, e1, f) is calculated from (ar, br, cr, dr, er, fr).
The sixth-order data obtained by subtracting 1) is projected onto a space represented by the fourth, fifth, and sixth eigenvectors from the maximum eigenvalue of the eigenvector. The obtained coordinate values are expressed as (d0P, e
0P, f0P). Finally, in step 605, (a1P, b1P, c1P) and (d
0P, e0P, f0P) is defined by the following equation (11).
Ask.

【0082】[0082]

【数11】 [Equation 11]

【0083】行列Dは、色票の各色における(数11)
による推定二乗誤差が最も小さくなるように決定するこ
とができる。
The matrix D is expressed by (Equation 11) for each color of the color chart.
Can be determined so as to minimize the estimated squared error.

【0084】本実施の形態では、入力装置を3バンドと
し、分光反射率を6次の基底で表したため、Dが正方行
列となった。このように、入力装置のバンド数の2倍の
次元数の基底を用いれば、Dを正方行列とすることがで
き推定を行いやすい。以上の変形として、例えば(数1
1)の左辺の第2項としてスカラーRGBデータをそのま
ま用いても類似の推定が可能である。
In the present embodiment, since the input device has three bands and the spectral reflectance is represented by a sixth-order basis, D is a square matrix. In this way, if a base having twice the number of bands as the number of bands of the input device is used, D can be a square matrix, and estimation can be easily performed. As the above modification, for example, (Equation 1)
Similar estimation can be made by using scalar RGB data as it is as the second term on the left side of 1).

【0085】以上のように方法によれば、画像データの
バンド数よりも求めるべき物体の分光反射率あるいはそ
の基底関数の次元数が多くても、色データのうち画像デ
ータと同次元数までを前記画像データから推定し、残っ
た次元は既に推定された前記色データから統計的に推定
することで、より高精度に物体の分光反射率を求めるこ
とができる。
According to the above-described method, even if the spectral reflectance of the object to be obtained or the number of dimensions of its basis function is larger than the number of bands of the image data, the number of dimensions up to the same dimension as the image data in the color data is obtained. The spectral reflectance of the object can be obtained with higher accuracy by estimating from the image data and statistically estimating the remaining dimensions from the already estimated color data.

【0086】次に、分光反射率推定部の別の実現方法と
して、スカラー画像データの2乗以上の項や積の項を使
った行列変換で行う方法について説明する。
Next, as another method of realizing the spectral reflectance estimating unit, a method of performing matrix conversion using terms of square or more or products of scalar image data will be described.

【0087】分光反射率の推定には、ウイーナ推定を用
いる。ウイーナ推定では、前述の方法のようにカメラの
分光感度及び照明の分光分布及び物体の分光反射率の基
底関数から成る行列Bを予め求めておく必要はなく、こ
の行列Bに相当する行列、具体的にはスカラー画像デー
タから物体の分光反射率を推定する行列G(行列Bの逆行
列に相当)を、既知の入出力データ、すなわち、色票の
各色のスカラー画像データと分光反射率の基底係数から
推定する。
The Wiener estimation is used for estimating the spectral reflectance. In the Wiener estimation, it is not necessary to previously obtain a matrix B composed of the basis functions of the spectral sensitivity of the camera, the spectral distribution of the illumination, and the spectral reflectance of the object as in the method described above. Specifically, a matrix G (corresponding to an inverse matrix of the matrix B) for estimating the spectral reflectance of an object from scalar image data is converted into known input / output data, that is, a scalar image data of each color of a color chart and a basis of the spectral reflectance. Estimate from coefficients.

【0088】具体的な計算手順について説明する。スカ
ラー画像データと分光反射率の基底係数の各縦ベクトル
を色票の各色分だけ横に並べて行列とし、これらを行列
E及びFと呼ぶことにすると、スカラー画像データから物
体の分光反射率を推定する行列Gを用いて(数8)を
(数12)のように書き直す。
A specific calculation procedure will be described. The scalar image data and the vertical vector of the basis coefficient of the spectral reflectance are arranged horizontally for each color of the color chart to form a matrix.
If they are called E and F, (Equation 8) is rewritten as (Equation 12) using a matrix G for estimating the spectral reflectance of the object from the scalar image data.

【0089】[0089]

【数12】 (Equation 12)

【0090】(数12)の行列Gはウイーナ推定により
(数13)で得ることができる。(数13)において、
Rは相互相関行列を意味する。
The matrix G of (Equation 12) can be obtained by (Equation 13) by Wiener estimation. In (Equation 13),
R means a cross-correlation matrix.

【0091】[0091]

【数13】 (Equation 13)

【0092】ウイーナ推定では、(数12)において、
行列Eの縦の次元、すなわち、スカラーの次元よりも、
行列Fの縦の次元、すなわち、求めるべき分光反射率の
基底係数の次元が大きい場合にも、色票として与えた色
データの性質さえよければ、推定が可能である。
In the Wiener estimation, in (Equation 12),
The vertical dimension of matrix E, that is, the scalar dimension,
Even when the vertical dimension of the matrix F, that is, the dimension of the basis coefficient of the spectral reflectance to be determined is large, it is possible to perform estimation as long as the properties of the color data given as a color chart are good.

【0093】しかし、より精度良く推定を行いたい場合
には次のようにするとよい。例えば、スカラー画像デー
タが3次元であり、分光反射率の6個の基底係数を求め
たい場合には、入力次数を6次元に増やすために、スカ
ラー画像データの二乗項や、各積の項を用いる。すなわ
ち、(数8)の代わりに(数14)を用いて、上記と同
様にしてウイーナ推定により推定行列Gを求めれば良
い。
However, when it is desired to perform the estimation with higher accuracy, the following may be performed. For example, if the scalar image data is three-dimensional and it is desired to obtain six basis coefficients of the spectral reflectance, in order to increase the input order to six dimensions, the square term of the scalar image data or the term of each product is used. Used. That is, the estimation matrix G may be obtained by Wiener estimation in the same manner as described above, using (Expression 14) instead of (Expression 8).

【0094】[0094]

【数14】 [Equation 14]

【0095】このように本来3次元である入力の次元数
を多項に拡張して仮想的に6次元であるとみなすこと
で、6次元の入力データから6次元の出力データ(a,b,
…,f)を推定するようにすることが可能となる。
As described above, the dimension of the input, which is originally three-dimensional, is expanded to polynomial and is regarded as virtually six-dimensional, so that the six-dimensional input data is converted to the six-dimensional output data (a, b,
, F) can be estimated.

【0096】以上のように本発明によれば、画像データ
のバンド数よりも求めるべき物体の分光反射率あるいは
その基底関数の次元数が多くても、スカラー画像データ
の2乗以上の項や積の項を使った行列変換でより高精度
に物体の分光反射率を求めることができる。以上で、分
光反射率推定部105の動作の詳細な説明を終える。
As described above, according to the present invention, even if the spectral reflectance of the object to be obtained or the number of dimensions of its basis function is larger than the number of bands of the image data, the term or product of the square or more of the scalar image data is obtained. The spectral reflectance of the object can be obtained with higher accuracy by the matrix conversion using the term. This concludes the detailed description of the operation of spectral reflectance estimating section 105.

【0097】なお、本実施の形態では、RGB3バンドの
画像入力装置について説明を行っているが、フィルタを
RGBだけでなく、より数多く増やした場合にも本手法を
同様に適用することができる。
In this embodiment, the image input device for RGB three bands is described.
This method can be similarly applied not only to RGB but also to a larger number.

【0098】また、画像入力装置はデジタルカメラだけ
でなく、スキャナや、アナログ出力をデジタイズしたデ
ータとしてもよいし、更に動画の各画像に本処理を適用
してもよい。
The image input device is not limited to a digital camera, but may be a scanner or data obtained by digitizing an analog output. Further, the present process may be applied to each image of a moving image.

【0099】また、色推定手段103で装置および照明
に依存しない色空間である分光反射率画像データ104
に変換され、画像記録手段105に記録されるように説
明したが、有線(例えば、IEEE1394、USB)
あるいは無線(例えば、Bluetooth、IrDA)による
通信手段を用いて分光反射率画像データ104を伝送し
ても良い。
The color estimating means 103 generates spectral reflectance image data 104 which is a color space independent of the device and illumination.
, And recorded in the image recording unit 105. However, wired (for example, IEEE1394, USB)
Alternatively, the spectral reflectance image data 104 may be transmitted using a wireless (for example, Bluetooth, IrDA) communication unit.

【0100】本発明は、色推定手段をCD−ROMに記
憶し、CD−ROMに記憶してあるプログラムをPC上
のRAMにダウンロードし、PC上のCPUに色推定手
段の処理を行わせるものである。
According to the present invention, the color estimating means is stored on a CD-ROM, the program stored on the CD-ROM is downloaded to a RAM on a PC, and the processing on the color estimating means is performed by a CPU on the PC. It is.

【0101】または、色推定手段を画像入力装置内のRO
Mに記憶しておき、画像入力装置内のCPUに色推定手
段の処理を行わせるものである。この場合には、画像入
力装置から出力される画像データは、入力装置に固有の
色空間表示ではなく、装置あるいは装置及び照明に依存
しない色空間の画像データとなるため、従来のようにコ
ンピュータ上に色推定手段をインストールする手間が省
けるため、コンピュータや色変換に詳しくない一般ユー
ザーにも簡易に扱うことができるという利点を持つ。た
だし、入力装置のRGB画像データの取得も、モードを変
えることでできるようにしておくと、従来装置との整合
性もとれて良い。
Alternatively, the color estimating means may be replaced by a RO in the image input device.
This is stored in M and causes the CPU in the image input device to perform the processing of the color estimating means. In this case, the image data output from the image input device is not a color space display unique to the input device, but is image data in a color space independent of the device or the device and the illumination. Since it is not necessary to install the color estimation means in the computer, it has an advantage that it can be easily handled by general users who are not familiar with computers and color conversion. However, if the RGB image data of the input device can be obtained by changing the mode, consistency with the conventional device may be obtained.

【0102】以上のように本実施の形態によれば、複数
の色から構成された色票の画像データと測色値を予め取
得しておき、前記色票の測色値から入力装置の信号発生
モデルを用いて予測される理想的な画像データを算出
し、前記色票の画像データを前記理想的な画像データに
ニューラルネットワークあるいは関数と行列で変換する
ことにより、画像データの非線形性を除去し、前記非線
形性を除去した画像データを用いて画像データよりも高
次元な装置あるいは装置と照明に独立な色データを推定
することで、入力装置から入力されたカラー画像データ
を、装置あるいは装置と照明に独立な色データに高精度
に変換することができる。
As described above, according to the present embodiment, the image data and colorimetric values of the color chart composed of a plurality of colors are obtained in advance, and the signal of the input device is obtained from the colorimetric values of the color chart. Calculate ideal image data predicted using an occurrence model and remove the nonlinearity of the image data by converting the image data of the color chart into the ideal image data by a neural network or a function and a matrix. Then, the color image data input from the input device is estimated by using the image data from which the nonlinearity has been removed, and estimating color data independent of the device or the device and the illumination with higher dimensions than the image data using the image data. And can be converted to color data independent of illumination with high precision.

【0103】[0103]

【発明の効果】以上のように本発明によれば、入力装置
から入力されたカラー画像データを高精度に装置に依存
しない色空間に高精度に変換する画像処理方法及び画像
入力装置を提供することができる。
As described above, according to the present invention, there is provided an image processing method and an image input device for converting color image data input from an input device with high accuracy into a device-independent color space. be able to.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1にかかる画像処理装置の
ブロック図
FIG. 1 is a block diagram of an image processing apparatus according to a first embodiment of the present invention;

【図2】実施の形態1にかかる非線形除去ニューラルネ
ットワークの学習手順を示すフローチャート
FIG. 2 is a flowchart showing a learning procedure of the nonlinear elimination neural network according to the first embodiment;

【図3】実施の形態1にかかる信号発生モデルを説明す
る図
FIG. 3 is a diagram for explaining a signal generation model according to the first embodiment;

【図4】実施の形態1にかかる1次元変換関数を示す図FIG. 4 is a diagram showing a one-dimensional conversion function according to the first embodiment;

【図5】実施の形態1にかかる非線形除去関数と行列の
決定手順を示すフローチャート
FIG. 5 is a flowchart showing a procedure for determining a nonlinear elimination function and a matrix according to the first embodiment;

【図6】実施の形態1にかかる分光反射率推定する手順
を示すフローチャート
FIG. 6 is a flowchart showing a procedure for estimating the spectral reflectance according to the first embodiment;

【図7】従来例1における色推定処理の手順を示すフロ
ーチャート
FIG. 7 is a flowchart showing the procedure of a color estimation process in Conventional Example 1;

【図8】従来例2における色推定処理の手順を示すフロ
ーチャート
FIG. 8 is a flowchart showing a procedure of a color estimation process in Conventional Example 2;

【符号の説明】[Explanation of symbols]

101 画像入力手段 102 画像データ 103 色推定手段 104 分光反射率画像データ 105 画像記録手段 106 非線形性除去部 107 非線形除去処理パラメータ格納部 108 スカラーRGB画像データ 109 分光反射率推定部 110 カメラパラメータ格納部 Reference Signs List 101 Image input means 102 Image data 103 Color estimation means 104 Spectral reflectance image data 105 Image recording means 106 Nonlinearity removal unit 107 Nonlinear removal processing parameter storage unit 108 Scalar RGB image data 109 Spectral reflectance estimation unit 110 Camera parameter storage unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CE17 5C066 AA11 CA00 CA08 GA01 HA03 KE04 KE07 5C077 MM27 MP08 PP32 PP37 PP71 PQ12 PQ15 PQ22 TT09 5C079 HB01 LA02 LB02 MA11 MA13 NA03 NA29  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B057 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CE17 5C066 AA11 CA00 CA08 GA01 HA03 KE04 KE07 5C077 MM27 MP08 PP32 PP37 PP71 PQ12 PQ15 PQ22 TT09 5C079 HB01 MA02

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 画像入力装置により入力された画像デー
タから装置あるいは装置と照明に独立な色データを推定
する際に、画像データの次元が装置あるいは装置と照明
に独立な色データの次元よりも低い場合、色データのう
ち画像データと同次元数までを前記画像データから推定
し、残りの次元は既に推定された前記画像データと同次
元数までの色データから推定することを特徴とする画像
処理方法。
When estimating color data independent of a device or a device and illumination from image data input by an image input device, the dimension of the image data is greater than the dimension of the color data independent of the device or the device and illumination. If the image data is low, the image data is estimated from the image data up to the same number of dimensions as the image data, and the remaining dimensions are estimated from the color data up to the same number of dimensions as the already estimated image data. Processing method.
【請求項2】 画像入力装置により入力された画像デー
タから装置あるいは装置と照明に独立な色データを推定
する際に、画像データの次元が装置あるいは装置と照明
に独立な色データの次元よりも低い場合、画像データと
同次元までと、残りの次元のデータを分けて推定するこ
とを特徴とする画像処理方法。
2. When estimating color data independent of a device or a device and illumination from image data input by an image input device, the dimension of the image data is greater than the dimension of the color data independent of the device or the device and illumination. An image processing method characterized by estimating data of the remaining dimension up to the same dimension as the image data when it is low.
【請求項3】 画像入力装置により入力された画像デー
タから装置あるいは装置と照明に独立な色データを推定
する際に、画像データから装置あるいは装置と照明に独
立な色データへの変換を2次以上の項に拡張した行列変
換で行うことを特徴とする画像処理方法。
3. Estimating color data independent of a device or a device and illumination from image data input by an image input device, and converting the image data into color data independent of a device or device and illumination in a second order. An image processing method characterized by performing by matrix transformation extended to the above terms.
【請求項4】 装置あるいは装置と照明に独立な色デー
タへの変換に用いる前記画像データは、画像入力装置か
ら入力された画像データの非線形性を除去したものであ
ることを特徴とする請求項1から3のいずれかに記載の
画像処理方法。
4. The apparatus according to claim 1, wherein said image data used for conversion into color data independent of a device or a device and illumination is obtained by removing nonlinearity of image data input from an image input device. 4. The image processing method according to any one of 1 to 3.
【請求項5】 画像入力装置により入力された画像デー
タの非線形性を除去してから装置あるいは装置と照明に
独立な色データを推定する際に、非線形性の除去をニュ
ーラルネットワークで行うことを特徴とする画像処理方
法。
5. The method according to claim 1, wherein when removing the nonlinearity of the image data input by the image input device and then estimating the color data independent of the device or the device and the illumination, the nonlinearity is removed by a neural network. Image processing method.
【請求項6】 画像入力装置により入力された画像デー
タの非線形性を除去してから装置あるいは装置と照明に
独立な色データを推定する際に、非線形性の除去を関数
と行列変換で行うことを特徴とする画像処理方法。
6. Eliminating nonlinearity by a function and matrix conversion when estimating color data independent of the device or the device and illumination after removing the nonlinearity of the image data input by the image input device. An image processing method characterized by the following.
【請求項7】 非線形性の除去に用いる行列は、入力さ
れた画像データの2次以上の項に拡張したものであるこ
とを特徴とする請求項6記載の画像処理方法。
7. The image processing method according to claim 6, wherein the matrix used for removing the non-linearity is expanded to a second-order or higher-order term of the input image data.
【請求項8】 複数の色から構成された色票の画像デー
タと測色値を予め取得しておき、前記色票の測色値から
入力装置の信号発生モデルを用いて予測される理想的な
画像データを算出し、前記色票の画像データを前記理想
的な画像データに変換することで画像データの非線形性
を除去しておき、前記非線形性を除去した画像データを
用いて装置あるいは装置と照明に独立な色データを推定
することを特徴とする画像処理方法。
8. The image data and colorimetric values of a color chart composed of a plurality of colors are obtained in advance, and an ideal image is predicted from the colorimetric values of the color chart using a signal generation model of an input device. Calculating non-linearity of the image data by converting the image data of the color chart into the ideal image data, and removing the non-linearity of the image data. An image processing method for estimating color data independent of illumination and illumination.
【請求項9】 画像入力装置から入力された画像データ
の非線形性を除去する非線形性除去手段と、前記非線形
性を除去した画像データから画像データよりも高次な装
置あるいは装置と照明に独立な色データを推定する色推
定手段とを具備することを特徴とする画像処理装置。
9. A non-linearity removing means for removing non-linearity of image data input from an image input device, and a device or a device which is higher in order than the image data from the non-linearity-removed image data and independent of illumination and An image processing apparatus comprising: color estimation means for estimating color data.
JP2000201895A 2000-07-04 2000-07-04 Image processing method and image processor Pending JP2002027264A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000201895A JP2002027264A (en) 2000-07-04 2000-07-04 Image processing method and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000201895A JP2002027264A (en) 2000-07-04 2000-07-04 Image processing method and image processor

Publications (1)

Publication Number Publication Date
JP2002027264A true JP2002027264A (en) 2002-01-25

Family

ID=18699499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000201895A Pending JP2002027264A (en) 2000-07-04 2000-07-04 Image processing method and image processor

Country Status (1)

Country Link
JP (1) JP2002027264A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007096793A (en) * 2005-09-29 2007-04-12 Toppan Printing Co Ltd Method, device, and program for estimating spectral reflection factor
JP2007208708A (en) * 2006-02-02 2007-08-16 Toppan Printing Co Ltd Method, device and program for estimating spectral reflectance
JP2008249438A (en) * 2007-03-30 2008-10-16 Ntt Data Corp Image processing device and its program
JP2009245236A (en) * 2008-03-31 2009-10-22 Institute Of Physical & Chemical Research Information processor, information processing method and program
KR101993752B1 (en) * 2018-02-27 2019-06-27 연세대학교 산학협력단 Method and Apparatus for Matching Colors Using Neural Network
WO2019182108A1 (en) * 2018-03-22 2019-09-26 凸版印刷株式会社 Color correspondence information generation system, program, and color correspondence information generation method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007096793A (en) * 2005-09-29 2007-04-12 Toppan Printing Co Ltd Method, device, and program for estimating spectral reflection factor
JP4692190B2 (en) * 2005-09-29 2011-06-01 凸版印刷株式会社 Spectral reflectance estimation method, spectral reflectance estimation apparatus, and spectral reflectance estimation program
JP2007208708A (en) * 2006-02-02 2007-08-16 Toppan Printing Co Ltd Method, device and program for estimating spectral reflectance
JP2008249438A (en) * 2007-03-30 2008-10-16 Ntt Data Corp Image processing device and its program
JP2009245236A (en) * 2008-03-31 2009-10-22 Institute Of Physical & Chemical Research Information processor, information processing method and program
KR101993752B1 (en) * 2018-02-27 2019-06-27 연세대학교 산학협력단 Method and Apparatus for Matching Colors Using Neural Network
WO2019182108A1 (en) * 2018-03-22 2019-09-26 凸版印刷株式会社 Color correspondence information generation system, program, and color correspondence information generation method
JPWO2019182108A1 (en) * 2018-03-22 2021-03-18 凸版印刷株式会社 Color correspondence information generation system, program and color correspondence information generation method
JP7272349B2 (en) 2018-03-22 2023-05-12 凸版印刷株式会社 Color correspondence information generation system, program, and color correspondence information generation method
US11727599B2 (en) 2018-03-22 2023-08-15 Toppan Printing Co., Ltd. Color correspondence information generating system, program, and method of generating color correspondence information

Similar Documents

Publication Publication Date Title
JP3417051B2 (en) Color information processing method and apparatus using feature parameter values independent of light source
US6888963B2 (en) Image processing apparatus and image processing method
EP1906674A1 (en) Color correction method and color correction device
US6304294B1 (en) Apparatus for and method of estimating the illumination of an image
JP2000113174A (en) Color matching method, color matching device and machine readable recording medium recorded with program
JPH09508768A (en) Method and apparatus for converting color scanner signals into colorimetric values
WO2001037544A1 (en) Color conversion table creating method, color conversion table creating device, and storage medium on which color conversion table creating program is recorded
JP2004005566A (en) Color compiling apparatus and color compiling method
JPH07174631A (en) Colorimetric method for skin and method for estimating spectral reflection spectrum
Connah et al. Spectral recovery using polynomial models
US8330833B2 (en) Signal processing apparatus for determining color conversion processing for color-converting second color signal obtained by second image pickup device to color signal approximate to first color signal obtained by target first image pickup device and non-transitory computer-readable recording medium for recording signal processing program for the color conversion processing
JP2002027264A (en) Image processing method and image processor
JP2008206163A (en) Color image processor
Shams-Nateri et al. Computer vision techniques for measuring and demonstrating color of textile
JP2012028973A (en) Illumination light estimation device, illumination light estimation method, and illumination light estimation program
Cao et al. Spectral data compression using weighted principal component analysis with consideration of human visual system and light sources
Faghih et al. Neural gray edge: Improving gray edge algorithm using neural network
CN113542699A (en) Digital imaging apparatus and method for generating digital color images
JP7206878B2 (en) SPECTRAL IMAGE ESTIMATION SYSTEM, SPECTRAL IMAGE ESTIMATION METHOD, AND PROGRAM
JP2002077660A (en) Image processor
MacDonald Color space transformation using neural networks
JPH11261740A (en) Picture evaluating method, its device and recording medium
Kucuk et al. Comparison of Regression Methods and Neural Networks for Colour Corrections
KR960013557B1 (en) Apparatus and method for estimating a color revival
Nikolaev et al. Comparative analysis of Gaussian and linear spectral models for Colour constancy