JPH09231353A - Color picture processing system - Google Patents

Color picture processing system

Info

Publication number
JPH09231353A
JPH09231353A JP8036627A JP3662796A JPH09231353A JP H09231353 A JPH09231353 A JP H09231353A JP 8036627 A JP8036627 A JP 8036627A JP 3662796 A JP3662796 A JP 3662796A JP H09231353 A JPH09231353 A JP H09231353A
Authority
JP
Japan
Prior art keywords
output
environment
input
profile
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8036627A
Other languages
Japanese (ja)
Inventor
Takayuki Sawada
崇行 澤田
Tadanobu Kamiyama
忠信 神山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP8036627A priority Critical patent/JPH09231353A/en
Publication of JPH09231353A publication Critical patent/JPH09231353A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Image Communication Systems (AREA)
  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device independent color realizing method capable of corresponding to color reproduction inhibition factors and a color reproducing method. SOLUTION: An input environment judging means 19, an input environment correcting means 12 and an input environment profile storing part 10 are prepared in each input environment factor. Prescribed input environment profile data are selectively outputted from the storing part 10 and supplied to the means 12. The correcting means 12 can correct color data distorted due to the influence, of an input environment by referring to the supplied input environment profile.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は例えば、入力機器と
してのカラ−スキャナで読み取った出力機器としてのデ
ィスプレイ、カラ−プリンタに出力する場合の画像処理
を行なうカラ−画像処理システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to, for example, a display as an output device read by a color scanner as an input device, and a color image processing system for performing image processing when outputting to a color printer.

【0002】[0002]

【従来の技術】カラー画像処理システムは、一般に主と
して入力機器、処理部、記憶部、出力機器から構成され
る。入力機器としては、カラースキャナ、ビデオカメ
ラ、ディジタルスチルカメラなどが、出力機器として
は、ディスプレイ、カラープリンタなどがそれぞれ用い
られる。また、処理部ではカラー画像の各種処理、解析
などが行われる。
2. Description of the Related Art Generally, a color image processing system mainly comprises an input device, a processing unit, a storage unit and an output device. A color scanner, a video camera, a digital still camera or the like is used as the input device, and a display, a color printer or the like is used as the output device. Further, the processing unit performs various types of processing and analysis of color images.

【0003】カラー画像を扱う場合の問題点として、色
再現が忠実に行われないという点が従来からあった。例
えば、ディスプレイに表示した色と印刷した色とが異な
っていたり、印刷した色同士でもプリンタが異なると色
が異なったりということが起こっていた。これは、入出
力機器(デバイス)毎に特性が異なるために起きる現象
である。入力機器の特性としてはセンサーの分光感度な
どがあり、出力機器の特性には、ある色データに対応す
るインクの量などといったパラメータがある。
As a problem in handling a color image, there has been a problem that color reproduction is not faithfully performed. For example, the colors displayed on the display and the printed colors may be different, or the printed colors may be different if the printer is different. This is a phenomenon that occurs because the characteristics differ for each input / output device (device). The characteristics of the input device include the spectral sensitivity of the sensor, and the characteristics of the output device include parameters such as the amount of ink corresponding to certain color data.

【0004】このような色再現の問題を解決するために
は、次の2点が実現される必要がある。 (1)同一の環境で同一の被写体の画像を入力した場
合、入力機器が異なっても同一の色データが得られる。 (2)同一の環境で同一の色データを出力した場合、出
力機器が異なっても同一の色が再現される(色差が許容
範囲内に収まる)。
In order to solve such a problem of color reproduction, the following two points need to be realized. (1) When the same subject image is input in the same environment, the same color data can be obtained even if the input device is different. (2) When the same color data is output in the same environment, the same color is reproduced even if the output device is different (the color difference is within the allowable range).

【0005】(1)は入力機器毎の特性の相違を吸収
し、人間の視覚特性に基づいた色表現に変換することに
よって実現される。この様子を図7に示す。ある色光α
が入力機器Aに入力されると、機器Aから得られる色デ
ータは機器A固有の特性によって歪みを受けた色データ
[RαA ,GαA ,BαA ]となる。
(1) is realized by absorbing the difference in the characteristics of each input device and converting it into a color expression based on human visual characteristics. This is shown in FIG. A certain colored light α
Is input to the input device A, the color data obtained from the device A becomes color data [RαA, GαA, BαA] which is distorted due to the characteristic peculiar to the device A.

【0006】同様に、入力機器を機器Bに置き換えると
機器B固有の特性によって歪みを受けた色データ[Rα
B ,GαB ,BαB ]が得られる。これら双方の色デー
タは環境と被写体が同一であるにも関わらず値が異なっ
ており、人間の視覚特性に基づく本来の色データ[R
α,Gα,Bα]または[Xα,Yα,Zα]を得る必
要がある。ここで、[Rα,Gα,Bα]はCIE・R
GB表色系における色光αの三刺激値であり、[Xα,
Yα,Zα]はCIE・XYZ表色系における色光αの
三刺激値である。これらは、デバイスの特性に依存しな
い色データであることからデバイスディペンデントカラ
ーと呼ばれる。以後、本明細書ではCIE・XYZ表色
系を用いるものとして記述する。
Similarly, when the input device is replaced with the device B, the color data [Rα which is distorted by the characteristic peculiar to the device B is obtained.
B, GαB, BαB] is obtained. Both of these color data have different values even though the environment and the subject are the same, and the original color data [R
[α, Gα, Bα] or [Xα, Yα, Zα] needs to be obtained. Here, [Rα, Gα, Bα] is CIE · R
It is a tristimulus value of color light α in the GB color system, and [Xα,
[Yα, Zα] are tristimulus values of the color light α in the CIE / XYZ color system. These are called device dependent colors because they are color data that do not depend on the characteristics of the device. Hereinafter, this specification will be described as using the CIE / XYZ color system.

【0007】さて、色光αに対する機器固有の色データ
から[Xα,Yα,Zα]を求めるには、機器の特性を
記述したデータが必要である。機器の特性を記述したデ
ータはデバイスプロファイルと呼ばれる。例えば、機器
Aを用いた場合には[RαA,GαA ,BαA ]から
[Xα,Yα,Zα]を求めることになり、機器Aのデ
バイスプロファイル(プロファイルAと呼ぶことにす
る)を使用することになる。
In order to obtain [Xα, Yα, Zα] from the color data unique to the device for the color light α, data describing the characteristics of the device are required. Data that describes the characteristics of a device is called a device profile. For example, when the device A is used, [Xα, Yα, Zα] is obtained from [RαA, GαA, BαA], and the device profile of the device A (to be referred to as profile A) is used. Become.

【0008】(2)は、(1)で得られた色データ[X
α,Yα,Zα]から色光αを再現することである。こ
の様子を図7に示す。例えば、プリンタCを用いて印刷
を行う場合、[Xα,Yα,Zα]をプリンタCが色光
αを再現するためのデータ[CαC ,MαC ,YαC ,
KαC ]に変換する必要がある。同様に、プリンタDを
用いる場合は[CαD ,MαD ,YαD ,KαD ]に変
換する必要がある。変換に際してはプリンタC用のプロ
ファイルCまたはプリンタD用のプロファイルDがそれ
ぞれ用いられる。
(2) is the color data [X] obtained in (1).
α, Yα, Zα] is to reproduce the color light α. This is shown in FIG. For example, when printing is performed using the printer C, data [CαC, MαC, YαC, [CαC, MαC, YαC,
K α C]. Similarly, when the printer D is used, it must be converted into [CαD, MαD, YαD, KαD]. At the time of conversion, the profile C for the printer C or the profile D for the printer D is used.

【0009】このように、システム内部では色データを
デバイスインディペンデントカラーで取り扱い、入出力
の際に、機器固有の特性を記述したデバイスプロファイ
ルを介して機器固有の色データとの変換を行うことによ
り、一貫した色の取り扱いと良好な色再現を実現しよう
とする方法が知られている。
As described above, inside the system, the color data is handled in the device independent color, and at the time of input / output, the color data unique to the device is converted through the device profile describing the property unique to the device. Discloses a method for achieving consistent color handling and good color reproduction.

【0010】[0010]

【発明が解決しようとする課題】従来技術によれば、デ
バイスの相違(型の違い)を原因とする色再現の悪化は
ある程度防ぐことが可能である。しかし、デバイスの相
違以外にも、撮影環境すなわち照明光源の分光分布、カ
ラースキャナで読みとる写真原稿のプリント品質や経時
変化、印刷用紙の紙質などの要因によって色データが大
きく影響を受け、入力時にデバイスインディペンデント
カラーを正しく求められなかったり、出力時の色再現性
が悪化するという問題がある。
According to the prior art, it is possible to prevent deterioration of color reproduction due to a difference in device (difference in mold) to some extent. However, in addition to differences in devices, the color data is greatly affected by factors such as the shooting environment, that is, the spectral distribution of the illumination light source, the print quality and aging of photo originals read by a color scanner, and the quality of the printing paper. There is a problem that the independent color cannot be obtained correctly or the color reproducibility at the time of output is deteriorated.

【0011】また、デバイス自身についても特性の経時
変化や同一型番同士の個体差が大きく影響する場合があ
り、これも型番毎のデバイスプロファイルだけでは吸収
することはできない。本発明の目的は、色再現に対する
これらの阻害要因に対応できるデバイスインディペンデ
ントカラーの実現方法と色再現方法を提供するものであ
る。
Further, the characteristics of the device itself may change significantly with time and individual differences between the same model numbers may have a great influence, and this cannot be absorbed by the device profile of each model number alone. An object of the present invention is to provide a device-independent color realization method and a color reproduction method capable of coping with these obstacles to color reproduction.

【0012】[0012]

【課題を解決するための手段】請求項1に係わるカラ−
画像処理システムは、入力環境判定手段と入力環境補正
手段と入力環境プロファイル格納部を入力環境要因毎に
備え、入力環境判定手段から出力される環境判定情報に
応じて、入力環境プロファイル格納部から所定の入力環
境プロファイルデータが選択的に出力されて入力環境補
正手段に供給され、入力環境補正手段において、供給さ
れた入力環境プロファイルを参照することにより、入力
環境の影響によって歪んだ色データを補正することを特
徴とする。
A means for solving the problems according to claim 1.
The image processing system includes an input environment determination unit, an input environment correction unit, and an input environment profile storage unit for each input environment factor, and the image processing system determines a predetermined value from the input environment profile storage unit according to the environment determination information output from the input environment determination unit. Input environment profile data is selectively output and supplied to the input environment correction means, and the input environment correction means refers to the supplied input environment profile to correct the color data distorted by the influence of the input environment. It is characterized by

【0013】請求項2に係わるカラ−画像処理システム
は、出力環境判定手段と出力環境補正手段と出力環境プ
ロファイル格納部を出力環境要因毎に備え、出力環境判
定手段から出力される環境判定情報に応じて、出力環境
プロファイル格納部から所定の出力環境プロファイルデ
ータが選択的に出力されて出力環境補正手段に供給さ
れ、出力環境補正手段において、供給された出力環境プ
ロファイルを参照することにより、出力環境の影響によ
って歪んだ色データを補正することを特徴とする。
A color image processing system according to a second aspect is provided with an output environment determining means, an output environment correcting means, and an output environment profile storing section for each output environment factor, and the environment determining information output from the output environment determining means is included in the environment determining information. Accordingly, the predetermined output environment profile data is selectively output from the output environment profile storage unit and supplied to the output environment correction unit, and the output environment correction unit refers to the supplied output environment profile to output the output environment profile data. The feature is that the distorted color data is corrected by the influence of.

【0014】請求項3に係わるカラ−画像処理システム
は、入力環境補正手段が、入力された色データAに対
し、入力環境プロファイル格納部から供給される数値デ
ータを成分に持つ変換マトリクスMを用いて B=MA
なる演算を行い、その演算結果Bを出力することを特徴
とする。
In the color image processing system according to the third aspect, the input environment correction means uses the conversion matrix M having the numerical data supplied from the input environment profile storage unit as a component for the input color data A. B = MA
Is performed and the operation result B is output.

【0015】請求項4に係わるカラ−画像処理システム
は、上記入力環境プロファイル格納部が、直接撮影時の
照明光源の分光特性に応じた数値データを、変換マトリ
クスの成分として入力環境補正手段に供給することを特
徴とする。
In the color image processing system according to the fourth aspect, the input environment profile storage unit supplies the input environment correction means with numerical data corresponding to the spectral characteristic of the illumination light source at the time of direct photographing as a component of the conversion matrix. It is characterized by doing.

【0016】請求項5に係わる請求項1記載の入力環境
プロファイル格納部が、間接撮影時の読み取り原稿の色
の特性に応じた数値データを、変換マトリクスの成分と
して入力環境補正手段に供給することを特徴とする。
According to a fifth aspect of the present invention, the input environment profile storage section according to the first aspect supplies numerical data corresponding to the color characteristics of the read original at the time of indirect photographing to the input environment correction means as a component of the conversion matrix. Is characterized by.

【0017】請求項6に係わるカラ−画像処理システム
は、請求項2記載の出力環境補正手段が、入力された色
データAに対し、出力環境プロファイル格納部から供給
される数値データを成分に持つ変換マトリクスMを用い
て B=MA なる演算を行い、その演算結果Bを出力することを特徴
とする。
In the color image processing system according to a sixth aspect, the output environment correcting means according to the second aspect has, as a component, the numerical data supplied from the output environment profile storage unit for the input color data A. The conversion matrix M is used to perform an operation of B = MA, and the operation result B is output.

【0018】請求項7に係わるカラ−画像処理システム
は、請求項2記載の出力環境プロファイル格納部が、デ
ィスプレイ出力時の照明光源の分光特性に応じた数値デ
ータを、変換マトリクスの成分として出力環境補正手段
に供給することを特徴とする。
In a color image processing system according to a seventh aspect, the output environment profile storage section according to the second aspect outputs numerical data corresponding to the spectral characteristic of the illumination light source at the time of display output as an output environment as a component of the conversion matrix. It is characterized in that it is supplied to the correction means.

【0019】請求項8に係わるカラ−画像処理システム
は、請求項2記載の出力環境プロファイル格納部が、プ
リンタ出力時のインクの特性に応じた数値データを、変
換マトリクスの成分として出力環境補正手段に供給する
ことを特徴とする。
In the color image processing system according to the eighth aspect, the output environment profile storage section according to the second aspect uses the output environment correction means as numerical data corresponding to the characteristics of the ink at the time of printer output as a component of the conversion matrix. It is characterized by supplying to.

【0020】請求項9に係わるカラ−画像処理システム
は、請求項2記載の出力環境プロファイル格納部が、プ
リンタ出力時の印刷用紙の特性に応じた数値データを、
変換マトリクスの成分として出力環境補正手段に供給す
ることを特徴とする。
According to a ninth aspect of the color image processing system, the output environment profile storage section according to the second aspect stores numerical data according to the characteristics of the printing paper at the time of printer output.
It is characterized in that it is supplied to the output environment correcting means as a component of the conversion matrix.

【0021】請求項10に係わるカラ−画像処理システ
ムは、入力機器から出力されるデータとメイン画像処理
部に供給されるデータとを用いて、入力機器の個体差に
よる特性のばらつきと経時変化を補正するためのマトリ
クスデータを演算により抽出し、入力環境プロファイル
格納部に供給する入力プロファイル生成手段を具備する
ことを特徴とする。
A color image processing system according to a tenth aspect of the present invention uses the data output from the input device and the data supplied to the main image processing section to detect variations in characteristics and changes with time due to individual differences in the input device. The present invention is characterized by comprising input profile generation means for extracting matrix data for correction by calculation and supplying it to the input environment profile storage unit.

【0022】請求項11に係わるカラ−画像処理システ
ムは、メイン画像処理部から出力されるデータまたはそ
の処理結果と、出力機器に供給されるデータとを用い
て、出力機器の個体差による特性のばらつきと経時変化
を補正するためのマトリクスデータを演算により抽出
し、出力環境プロファイル格納部に供給する出力プロフ
ァイル生成手段を具備することを特徴とする。
The color image processing system according to the eleventh aspect uses the data output from the main image processing unit or the processing result thereof and the data supplied to the output device to determine the characteristics depending on the individual difference of the output device. It is characterized by further comprising output profile generation means for extracting matrix data for correcting variations and changes with time by calculation and supplying the extracted matrix data to the output environment profile storage unit.

【0023】請求項12に係わるカラ−画像処理システ
ムは、請求項1あるいは2記載の画像処理システムは、
環境判定情報に応じた適切な環境プロファイルデータが
環境プロファイル格納部に存在しない(未知である)場
合に、判定された環境条件に近く、かつ環境プロファイ
ル格納部に存在する環境プロファイルデータを用いて、
前記未知の環境プロファイルデータを補間または推定す
るプロファイル補間・推定手段を具備することを特徴と
する。
The color image processing system according to claim 12 is the image processing system according to claim 1 or 2.
When the appropriate environment profile data corresponding to the environment determination information does not exist in the environment profile storage (unknown), the environment profile data that is close to the determined environment condition and exists in the environment profile storage is used.
It is characterized by comprising profile interpolation / estimation means for interpolating or estimating the unknown environment profile data.

【0024】[0024]

【発明の実施の形態】以下、図面を参照して本発明の第
1の実施の形態に係わるカラ−画像処理システムについ
て説明する。図1において、11は入力機器である。こ
の入力機器11で撮影されたカラ−画像デ−タは入力環
境補正部12に入力される。この入力環境補正部12で
はプロファイル補間・推定部13から出力される入力環
境プロファイルに基づいてカラ−画像デ−タが入力環境
に応じて補正される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A color image processing system according to a first embodiment of the present invention will be described below with reference to the drawings. In FIG. 1, 11 is an input device. Color image data captured by the input device 11 is input to the input environment correction unit 12. The input environment correction unit 12 corrects the color image data according to the input environment based on the input environment profile output from the profile interpolation / estimation unit 13.

【0025】そして、入力環境補正部12から出力され
る補正されたカラ−画像デ−タは入力カラ−変換部14
に入力される。この入力カラ−変換部14は、入力デバ
イスプロファイル格納部15に格納されている入力デバ
イスプロフィイルを参照して、カラ−画像デ−タを、デ
バイスインデペンデントカラ−に変換した後に、メイン
画像処理部16に供給する。メイン画像処理部ではデバ
イスインディペンデントカラーで表現されている画像デ
ータに対して編集、解析等の各種処理が行われる。
The corrected color image data output from the input environment correction unit 12 is input to the input color conversion unit 14
Is input to The input color conversion unit 14 refers to the input device profile stored in the input device profile storage unit 15, converts the color image data into the device-independent color, and then converts the main image. It is supplied to the processing unit 16. In the main image processing unit, various processes such as editing and analysis are performed on the image data represented by the device independent color.

【0026】ところで、17は対象物の既知のデバイス
インディペンデントカラ−デ−タを記憶しているメモリ
である。このメモリ17から出力される既知のデバイス
インデペンデントカラ−デ−タは入力プロファイル生成
部18に入力される。この入力プロファイル生成部18
は上記既知のデバイスインデペンデントカラ−デ−タと
上記入力機器11から出力されるカラ−画像デ−タとに
基づいて入力環境プロファイルを生成して入力環境プロ
ファイル格納部20に格納すると共に、入力デバイスプ
ロファイルを入力デバイスプロファイル格納部15に格
納する。
By the way, reference numeral 17 is a memory for storing known device-independent color data of the object. The known device independent color data output from the memory 17 is input to the input profile generation unit 18. This input profile generator 18
Generates an input environment profile based on the known device-independent color data and color image data output from the input device 11 and stores the input environment profile in the input environment profile storage unit 20. The input device profile is stored in the input device profile storage unit 15.

【0027】また、19は入力環境の判定を行う入力環
境判定部である。この入力環境判定部19から出力され
る環境判定情報は、プロファイル補間・推定部13に出
力される。このプロファイル補間・推定部13は、環境
判定情報に応じて入力環境プロファイル格納部20から
入力環境プロファイルデ−タを選択的に読み出し、これ
を変換が行われる入力環境補正部12に転送する。
Further, reference numeral 19 is an input environment judging section for judging the input environment. The environment determination information output from the input environment determination unit 19 is output to the profile interpolation / estimation unit 13. The profile interpolation / estimation unit 13 selectively reads the input environment profile data from the input environment profile storage unit 20 according to the environment determination information, and transfers this to the input environment correction unit 12 where the conversion is performed.

【0028】メイン画像処理部16はデバイスインディ
ペンデントカラ−で表現されている画像デ−タに対して
編集、解析等の各種処理が行われる。そして、メイン画
像処理部16から出力されるデバイスインディペンデン
トカラ−は出力カラ−変換部21、出力プロファイル生
成部22に出力される。
The main image processing unit 16 performs various processes such as editing and analysis on the image data represented by the device-independent color. Then, the device-independent color output from the main image processing unit 16 is output to the output color conversion unit 21 and the output profile generation unit 22.

【0029】この出力カラ−変換部21において、出力
デバイスプロファイル格納部23に格納されている出力
デバイスプロファイルよりデバイスインデペンデントカ
ラ−が画像デ−タに変換される。
In the output color converter 21, the device-independent color is converted from the output device profile stored in the output device profile storage 23 into image data.

【0030】メイン画像処理部16から出力されるデバ
イスインデペンデントカラ−は出力プロファイル生成部
22に出力される。また、出力カラ−変換部21から出
力されるカラ−画像デ−タは出力プロファイル生成部2
2及び出力環境補正部24に出力される。
The device-independent color output from the main image processing unit 16 is output to the output profile generation unit 22. The color image data output from the output color conversion unit 21 is output to the output profile generation unit 2
2 and the output environment correction unit 24.

【0031】また、25は出力環境判定部である。この
出力環境判定部25は、各種センサ情報及び手動操作を
入力し、環境判定情報をプロファイル補間・推定部26
に出力する。プロファイル補間・推定部26は、環境判
定情報に応じて出力環境プロファイル格納部27から出
力環境プロファイルデ−タを選択的に読み出し、これを
変換が行われる出力環境補正部24に転送する。変換の
方法としては、マトリクスを用いた線形変換やテ−ブル
参照・補間などを用いることができる。
Reference numeral 25 is an output environment judging section. The output environment determination unit 25 inputs various sensor information and manual operation, and outputs environment determination information to the profile interpolation / estimation unit 26.
Output to The profile interpolation / estimation unit 26 selectively reads the output environment profile data from the output environment profile storage unit 27 according to the environment determination information, and transfers this to the output environment correction unit 24 where the conversion is performed. As the conversion method, linear conversion using a matrix, table reference / interpolation, or the like can be used.

【0032】この出力環境補正部24には、外部調整入
力信号が入力されている。そして、この出力環境補正部
24から出力されるカラ−画像デ−タは出力プロファイ
ル生成部22及び出力機器28に送られる。そして、出
力機器28から例えば印字出力される。
An external adjustment input signal is input to the output environment correction unit 24. Then, the color image data output from the output environment correction unit 24 is sent to the output profile generation unit 22 and the output device 28. Then, for example, print output is performed from the output device 28.

【0033】次に、上記のように構成された本発明の第
1実施の形態の動作について説明する。まず、カメラで
画像を入力する場合について図2を参照して説明する。
カメラ(機器Aとする)によってカラー画像を入力する
場合、色光βに対応する色データ[RβA,GβA,B
βA]はカメラの特性によって歪みを受けているため、
デバイスプロファイルAを参照して視覚特性に基づく色
データ(デバイスインディペンデントカラー)に変換し
なければならない。
Next, the operation of the first embodiment of the present invention configured as above will be described. First, the case of inputting an image with a camera will be described with reference to FIG.
When a color image is input by a camera (device A), color data [RβA, GβA, B corresponding to color light β is obtained.
βA] is distorted by the characteristics of the camera,
The device profile A must be referred to and converted into color data (device-independent color) based on visual characteristics.

【0034】しかし、実際には[RβA,GβA,Bβ
A]は撮影環境すなわち光源の影響を受けたデータとな
っており、デバイスの特性に対する補正だけでは不十分
である。そこで、本発明では図2において次に説明する
処理を行うことによって光源による外乱に対する補正を
行う。
However, in reality, [RβA, GβA, Bβ
[A] is data that is influenced by the shooting environment, that is, the light source, and it is not sufficient to correct only the characteristics of the device. Therefore, in the present invention, the process described below with reference to FIG. 2 is performed to correct the disturbance caused by the light source.

【0035】いま、標準の光の下で色光αを反射する被
写体αを考える。システムは色光αの色データを[X
α,Yα,Zα]として内部に取り込み、どの出力機器
からでも色光αを再現できることが望ましい。
Now, consider a subject α which reflects the color light α under standard light. The system converts the color data of the colored light α to [X
α, Yα, Zα], and it is desirable that the color light α can be reproduced from any output device.

【0036】もし、被写体αに標準の光とは異なる光が
照射されると被写体αからは色光αとは異なる色光βが
反射されてシステムに入力され、カメラからの出力とし
て[RβA,GβA,BβA]が得られる。
If the subject α is irradiated with a light different from the standard light, a color light β different from the color light α is reflected from the subject α and input to the system, and as an output from the camera [RβA, GβA, BβA] is obtained.

【0037】そこで、本システムでは入力環境補正部に
おいて入力環境プロファイルを参照して[RβA,Gβ
A,BβA]を[RαA,GαA,BαA]に変換す
る。この場合の入力環境プロファイルは、使用された光
源の分光分布に基づく変換パラメータによって構成され
る。
Therefore, in the present system, the input environment correction unit refers to the input environment profile [RβA, Gβ
A, BβA] is converted to [RαA, GαA, BαA]. The input environment profile in this case is composed of conversion parameters based on the spectral distribution of the light source used.

【0038】入力環境判定部19は撮影条件に関する情
報(この場合は光源の特性)を直接または間接的に得
て、入力環境プロファイル格納部20から適切なプロフ
ァイル情報を選択するための環境判定情報を出力する。
この環境判定情報は、プロファイル補間・推定部13に
供給される。プロファイル補間・推定部13は環境判定
情報に応じて入力環境プロファイル格納部20から入力
環境プロファイルデータを選択的に読み出し、これを変
換が行われる入力環境補正部12に転送する。変換の方
法としては、マトリクスを用いた線形変換やテーブル参
照・補間などを用いることができる。
The input environment determination unit 19 obtains information (in this case, the characteristics of the light source) relating to the photographing conditions directly or indirectly, and outputs environment determination information for selecting appropriate profile information from the input environment profile storage unit 20. Output.
This environment determination information is supplied to the profile interpolation / estimation unit 13. The profile interpolation / estimation unit 13 selectively reads the input environment profile data from the input environment profile storage unit 20 according to the environment determination information, and transfers this to the input environment correction unit 12 where the conversion is performed. As a conversion method, linear conversion using a matrix or table reference / interpolation can be used.

【0039】ここで、線形変換を行う場合は、入力環境
プロファイルは変換マトリクスで表される。この変換マ
トリクスをMEIとすると、入力環境補正部12では次式
で表されるマトリクスの掛け算が行われる。数1
Here, when performing linear transformation, the input environment profile is represented by a transformation matrix. When this conversion matrix is MEI, the input environment correction unit 12 multiplies the matrix represented by the following equation. Number 1

【0040】[0040]

【数1】 (MEIは3×3の変換マトリクス) また、テーブル参照・補間を行う場合は、入力環境プロ
ファイルは[RβA,GβA,BβA]から[RαA,
GαA,BαA]への既知の対応表であり、入力環境補
正部12では未知の入力に対してテーブル補間によって
対応を求める処理が行われる。
[Equation 1] (MEI is a 3 × 3 conversion matrix) When performing table reference / interpolation, the input environment profile changes from [RβA, GβA, BβA] to [RαA,
[GαA, BαA] is a known correspondence table, and the input environment correction unit 12 performs a process for finding correspondence by unknown table with respect to an unknown input.

【0041】このようにして求められた[RαA,Gα
A,BαA]は入力カラー変換部14においてデバイス
プロファイルAを参照してデバイスインディペンデント
カラー[Xα,Yα,Zα]に変換され、メイン画像処
理部16へ供給される。
Thus obtained [RαA, Gα
A, BαA] is converted into a device independent color [Xα, Yα, Zα] by referring to the device profile A in the input color conversion unit 14 and supplied to the main image processing unit 16.

【0042】以下、このメイン画像処理部16におい
て、各種画像処理が行われる。次に、スキャナで画像入
力する場合について図3のフロ−チャ−トを参照して説
明する。スキャナ機器Bによってカラー画像を入力する
場合、取り込んだ画像の色データはスキャナの特性の影
響を受ける。ただし、スキャナによる画像取り込みで
は、外光を遮断した状態で内蔵光源を使用するので、光
源の分光分布を外乱としてではなくスキャナBの特性に
含めて扱うことが可能である。
Hereinafter, various image processes are performed in the main image processing section 16. Next, the case of inputting an image with a scanner will be described with reference to the flowchart of FIG. When a color image is input by the scanner device B, the color data of the captured image is affected by the characteristics of the scanner. However, since the built-in light source is used in a state where the external light is blocked when the image is captured by the scanner, the spectral distribution of the light source can be included in the characteristics of the scanner B and not as a disturbance.

【0043】したがって、スキャナの総合特性を示すデ
バイスプロファイルBが変換マトリクスMB で表される
とすると、標準の光の下で色光αを反射するカラー原稿
を入力した場合、次の変換式によってデバイスインディ
ペンデントカラーが得られる。数2
Therefore, assuming that the device profile B indicating the overall characteristics of the scanner is represented by the conversion matrix MB, when a color original that reflects the color light α under standard light is input, the device index is expressed by the following conversion formula. A pendant color is obtained. Number 2

【0044】[0044]

【数2】 (MB は3×3の変換マトリクス) ここで、認証用顔画像データベースを作成する目的で、
人物を電子スチルカメラで撮影する代わりに既存のカラ
ー証明写真をスキャナで取り込む場合を考える。(前者
を直接撮影、後者を間接撮影と呼ぶことにする。) 間接撮影では、人物αの画像データを得るためには、人
物αを撮影した写真が必要となる。ここに、人物αを写
した複数の写真β、γ、δがあるとすると、これらは一
般に写真の撮影条件、プリント時の諸条件やプリントし
てからの経時変化などの違いによって互いに色が異なっ
ている。また、3つの写真の色は人物αを標準の光の下
で見た色とも異なっている。すなわち、人物αを撮影し
た3つの写真β、γ、δをスキャナBで読み取って得ら
れる色(簡単のため、代表点の色で説明する)は、それ
ぞれ[RβB ,GβB ,BβB ]、[RγB ,GγB ,
BγB ]、[RδB ,GδB ,BδB ]となる。
[Equation 2] (MB is a 3 × 3 conversion matrix) Here, for the purpose of creating a face image database for authentication,
Consider a case where an existing color ID photo is captured by a scanner instead of shooting a person with an electronic still camera. (The former will be referred to as direct photography, and the latter will be referred to as indirect photography.) In indirect photography, a photograph of the person α is required to obtain image data of the person α. If there are multiple photographs β, γ, and δ of a person α, the colors of these are generally different from each other depending on the photographing conditions of the photograph, various conditions at the time of printing, and changes over time after printing. ing. Also, the colors of the three photographs are different from the colors of the person α seen under standard light. That is, the colors obtained by scanning the three photographs β, γ, and δ of the person α with the scanner B (for the sake of simplicity, the color of the representative point will be described) are [RβB, GβB, BβB] and [RγB, respectively. , GγB,
BγB], [RδB, GδB, BδB].

【0045】原稿の色を得るのであれば、それはスキャ
ナプロファイルBを用いた上記変換式によって可能であ
る。しかし、このような用途においては、いずれの写真
を原稿に用いても、原稿の色ではなく人物αの色が得ら
れることが望ましい。
If the color of the original is to be obtained, it can be obtained by the above conversion formula using the scanner profile B. However, in such an application, it is desirable to obtain the color of the person α, not the color of the original, no matter which photograph is used for the original.

【0046】そこで、本発明ではこれら3通りの色デー
タを、入力環境補正部12において、原稿毎のプロファ
イルデータを参照し、標準の光の下で人物αを見たとき
の色がそのまま現れている仮想的な写真αを読み取って
得られる色データ[RαB ,GαB αB ]に変換す
る。その後、入力カラー変換部14においてデバイスプ
ロファイルBを参照して、デバイスインディペンデント
カラー[Xα,Yα,Zα]に変換する(図3)。
Therefore, in the present invention, these three types of color data are referred to by the profile data for each original in the input environment correction section 12, and the color when the person α is seen under the standard light appears as it is. The virtual image α present is read and converted into color data [RαB, GαB αB] obtained. Then, the input color conversion unit 14 refers to the device profile B and converts it into a device-independent color [Xα, Yα, Zα] (FIG. 3).

【0047】入力環境判定部19は撮影条件に関する情
報(この場合は写真原稿の特性)を直接または間接的に
得て、入力環境プロファイル格納部20から適切なプロ
ファイル情報を選択するための環境判定情報を出力す
る。
The input environment determination unit 19 obtains the information (in this case, the characteristics of the photo original) relating to the photographing conditions directly or indirectly, and selects the appropriate profile information from the input environment profile storage unit 20. Is output.

【0048】この環境判定情報は、プロファイル補間・
推定部13に供給される。プロファイル補間・推定部1
3は環境判定情報に応じて入力環境プロファイル格納部
20から入力環境プロファイルデータを選択的に読み出
し、これを変換が行われる入力環境補正部12a〜12
cに転送する。ここでは、写真原稿β、γ、δのプリン
トあるいは劣化の特性に応じて、原稿プロファイルβ、
γ、δがそれぞれ選択されている。
This environment judgment information is profile interpolation /
It is supplied to the estimation unit 13. Profile interpolation / estimation unit 1
Reference numeral 3 denotes input environment correction units 12a to 12 that selectively read the input environment profile data from the input environment profile storage unit 20 according to the environment determination information and convert the data.
transfer to c. Here, according to the characteristics of printing or deterioration of the photo originals β, γ, δ, the original profile β,
γ and δ are selected respectively.

【0049】そして、[RαB,GαB,BαB]は入
力カラ−変換部14において、デバイスプロファイルB
を参照してデバイスインディペンデントカラ−[Xα,
Yα,Zα]に変換され、メイン画像処理部16へ供給
される。以下、このメイン画像処理部16において、各
種画像処理が行われる。
[RαB, GαB, BαB] is input to the device profile B in the input color conversion unit 14.
Device independent color [Xα,
Yα, Zα] and is supplied to the main image processing unit 16. Hereinafter, various image processes are performed in the main image processing unit 16.

【0050】次に、ディスプレイC上に画像出力する場
合の動作について図4を参照して説明する。システム内
部の色データ[Xα,Yα,Zα]を元にディスプレイ
(機器Cとする)で色光αを再現する場合、ディスプレ
イの置かれている環境を考慮する必要がある。
Next, the operation for outputting an image on the display C will be described with reference to FIG. When reproducing the color light α on the display (device C) based on the color data [Xα, Yα, Zα] in the system, it is necessary to consider the environment in which the display is placed.

【0051】暗室内にディスプレイCを置き、ディスプ
レイCの発光だけで色光αを再現する場合は、出力カラ
ー変換部19においてデバイスプロファイルCを参照し
て[Xα,Yα,Zα]から色光αを発するための色デ
ータ[RαC ,GαC ,BαC ]への変換を行えばよ
い。
When the display C is placed in a dark room and the color light α is reproduced only by the light emission of the display C, the output color converter 19 refers to the device profile C and emits the color light α from [Xα, Yα, Zα]. Conversion to color data [RαC, GαC, BαC] for

【0052】しかし、ある光源βによって照明が施され
ている環境でディスプレイを見る場合に色光αを再現す
るには、ディスプレイは色光αとは異なる色光を発しな
ければならない。これを色光βとすると、ディスプレイ
には色データ[RβC ,GβC ,BβC ]を供給する必
要がある。
However, in order to reproduce the colored light α when the display is viewed in the environment where the certain light source β is illuminated, the display must emit colored light different from the colored light α. If this is color light β, it is necessary to supply color data [RβC, GβC, BβC] to the display.

【0053】そこで、本発明では出力環境補正部24に
おいて環境プロファイルβを参照して[RαC ,GαC
,BαC ]を[RβC ,GβC ,BβC ]に変換する
(図4)。
Therefore, in the present invention, the output environment correction unit 24 refers to the environment profile β to obtain [RαC, GαC
, BαC] to [RβC, GβC, BβC] (FIG. 4).

【0054】出力環境判定部25はディスプレイの観測
条件に関する情報(この場合は照明光の特性)を直接ま
たは間接的に得て、出力環境プロファイル格納部27か
ら適切なプロファイル情報を選択するための環境判定情
報を出力する。
The output environment determining unit 25 directly or indirectly obtains information regarding the observation conditions of the display (in this case, the characteristics of the illumination light) and selects an environment for selecting appropriate profile information from the output environment profile storage unit 27. Output judgment information.

【0055】この環境判定情報は、プロファイル補間・
推定部26に供給される。プロファイル補間・推定部2
6は環境判定情報に応じて出力環境プロファイル格納部
27から出力環境プロファイルデータを選択的に読み出
し、これを変換が行われる出力環境補正部24に転送す
る。
This environment determination information is profile interpolation /
It is supplied to the estimation unit 26. Profile interpolation / estimation unit 2
Reference numeral 6 selectively reads the output environment profile data from the output environment profile storage unit 27 according to the environment determination information and transfers it to the output environment correction unit 24 where the conversion is performed.

【0056】ここで、赤みがかった照明光の下で観測す
る場合の出力環境プロファイルデータをA、青みがかっ
た照明光の下で観測する場合の出力環境プロファイルデ
ータをBとし、AとBは既に出力環境プロファイル格納
部24に存在するものとすると、紫がかった照明光の下
で観測する場合の出力環境プロファイルデータCが未知
の時は、プロファイル補間・推定部26はプロファイル
格納部27からAとBを読み出し、次のような補間・推
定関数 C=f(A,B) によってプロファイルCを算出し、出力環境補正部24
に供給する。すなわち、問題となっているプロファイル
データが既知のプロファイルデータから推測可能な場合
には、プロファイル補間・推定部26は格納部から読み
出したプロファイルデータを転送する代わりに、演算に
よって適切なプロファイルデータを生成する。この機能
はディスプレイの場合に限らず、全ての入出力環境要因
に対応するプロファイルについて当てはまる。
Here, the output environment profile data when observing under reddish illumination light is A, the output environment profile data when observing under bluish illumination light is B, and A and B are already output environments. Assuming that the profile storage unit 24 exists in the profile storage unit 24, when the output environment profile data C when observing under purpleish illumination light is unknown, the profile interpolation / estimation unit 26 stores A and B from the profile storage unit 27. The profile C is read out, the profile C is calculated by the following interpolation / estimation function C = f (A, B), and the output environment correction unit 24
To supply. That is, when the profile data in question can be inferred from known profile data, the profile interpolation / estimation unit 26 generates appropriate profile data by calculation instead of transferring the profile data read from the storage unit. To do. This function is applicable not only to the case of the display but also to the profile corresponding to all the input / output environment factors.

【0057】次に、プリンタに画像出力する場合につい
て図5のフロ−チャ−トを参照して説明する。まず、シ
ステム内部の色データ[Xα,Yα,Zα]を元にプリ
ンタ(機器Dとする)で色光αを再現する場合を考えて
みる。これは、プリンタDによる印刷物が標準の光の下
で色光αを反射することである。
Next, the case of outputting an image to the printer will be described with reference to the flowchart of FIG. First, consider a case where the printer (device D) reproduces the color light α based on the color data [Xα, Yα, Zα] in the system. This is that the printed matter by the printer D reflects the color light α under standard light.

【0058】もし、1種類の定められたインクのみを用
いて、1種類の定められた用紙のみに印刷するのであれ
ば、この定められたインクおよび用紙の特性を含めたプ
リンタDのデバイスプロファイルを参照して[Xα,Y
α,Zα]から[CαD ,MαD ,YαD ,KαD ]へ
の変換を行えばよい。
If only one type of defined ink is used to print on only one type of defined paper, the device profile of the printer D including the defined ink and the characteristics of the paper is used. Refer to [Xα, Y
The conversion from [α, Zα] to [CαD, MαD, YαD, KαD] may be performed.

【0059】しかし、一般には特性の異なる複数の種類
のインクや用紙を使うことになるし、1種類しか使わな
い場合でも、特にインクなどでは経時変化が起こった場
合は実質的に異なるインクを用いたのと同様になるた
め、色再現性を悪化させることになる。
However, in general, a plurality of types of inks and papers having different characteristics are used, and even when only one type is used, substantially different inks are used especially when there is a change over time in the ink. As it is, the color reproducibility is deteriorated.

【0060】そこで、本発明では色再現性を良好に保つ
ために、インクの特性と用紙の特性に基づいて色データ
を補正する。以下、図5に沿って色データの処理の流れ
を説明する。
Therefore, in the present invention, in order to maintain good color reproducibility, the color data is corrected based on the ink characteristics and the paper characteristics. The flow of processing color data will be described below with reference to FIG.

【0061】まず、システム内部の色データ(デバイス
インディペンデントカラー)[Xα,Yα,Zα]は出
力カラー変換部においてデバイスプロファイルDを参照
して色データ[CαD ,MαD ,YαD ,KαD ]に変
換される。これは上記のように、プリンタDによって規
定のインクと用紙を用いて印刷された物が、標準の光の
下で色光αを反射するための色データである。
First, the color data (device independent color) [Xα, Yα, Zα] inside the system is converted into color data [CαD, MαD, YαD, KαD] by referring to the device profile D in the output color conversion unit. To be done. As described above, this is color data for the object printed by the printer D using the specified ink and paper to reflect the color light α under the standard light.

【0062】次に、[CαD ,MαD ,YαD ,KαD
]に対して出力環境補正部において規定外のインクの
特性に基づく補正を行う。すなわち、規定外のインクβ
を用いる場合はインクプロファイルβを参照することに
よりSWS[CβD ,MβD ,YβD ,KβD ]を、規
定外のインクγを用いる場合はインクプロファイルγを
参照することにより[CγD ,MγD ,YγD ,KγD
]をそれぞれ補正データとして出力する。
Next, [CαD, MαD, YαD, KαD
] Is corrected in the output environment correction unit based on the non-specified ink characteristics. That is, the non-specified ink β
When using the ink profile β, the SWS [CβD, MβD, YβD, KβD] is used. When the non-specified ink γ is used, the ink profile γ is referred to [CγD, MγD, YγD, KγD].
] Are output as correction data.

【0063】さらに、出力環境補正部において規定外の
用紙の特性に基づく補正を行う。すなわち、インクβを
用いる場合で、規定外の用紙δに印刷する場合は[Cβ
D ,MβD ,YβD ,KβD ]に対して用紙プロファイ
ルδを参照することにより[CδβD ,MδβD ,Yδ
βD ,KδβD ]を、規定外の用紙εに印刷する場合は
用紙プロファイルεを参照することにより[CεβD ,
MεβD ,YεβD ,KεβD ]をそれぞれ補正データ
として出力する。同様に、インクγを用いる場合は[C
γD ,MγD ,YγD ,KγD ]に対して補正を行い、
用紙δに印刷するときは[CδγD ,MδγD ,Yδγ
D ,KδγD ]を、用紙εに印刷するときは[CεγD
,MεγD ,YεγD ,KεγD ]をそれぞれ補正デ
ータとして出力する。
Further, the output environment correction unit performs correction based on the characteristics of the non-specified paper. That is, when the ink β is used and the non-regular paper δ is printed, [Cβ
[CδβD, MδβD, Yδ by referring to the paper profile δ for D, MβD, YβD, KβD]
βD, KδβD] is printed on the paper ε which is out of the specification, by referring to the paper profile ε [CεβD,
MεβD, YεβD, KεβD] are output as correction data. Similarly, when the ink γ is used, [C
[γD, MγD, YγD, KγD]
When printing on paper δ [CδγD, MδγD, Yδγ
[C εγD] when printing D, KδγD] on paper ε
, MεγD, YεγD, KεγD] are respectively output as correction data.

【0064】このようにして、規定外のインクや用紙を
用いて標準の光の下で色再現性の良好な印刷結果を得る
ことができる。出力環境判定部25は印刷条件に関する
情報(インクの特性、紙の特性)を直接または間接的に
得て、出力環境プロファイル格納部27から適切なプロ
ファイル情報を選択するための環境判定情報を出力す
る。環境判定情報は、プロファイル補間・推定部26に
供給される。プロファイル補間・推定部26は環境判定
情報に応じて出力環境プロファイル格納部27から出力
環境プロファイルデータを選択的に読み出し、これを変
換が行われる出力環境補正部24に転送する。ここで
は、インクの特性に応じてプロファイルβまたはプロフ
ァイルγが、用紙の特性に応じてプロファイルδまたは
プロファイルεがそれぞれ選択されている。
In this way, it is possible to obtain a print result with good color reproducibility under standard light using non-standard ink or paper. The output environment determination unit 25 directly or indirectly obtains information (characteristics of ink and characteristics of paper) regarding printing conditions, and outputs environment determination information for selecting appropriate profile information from the output environment profile storage unit 27. . The environment determination information is supplied to the profile interpolation / estimation unit 26. The profile interpolation / estimation unit 26 selectively reads the output environment profile data from the output environment profile storage unit 27 according to the environment determination information, and transfers this to the output environment correction unit 24 where the conversion is performed. Here, the profile β or the profile γ is selected according to the characteristics of the ink, and the profile δ or the profile ε is selected according to the characteristics of the paper.

【0065】次に、環境プロファイルの取得方法につい
て説明する。上記したように、入出力機器の特性に起因
する色データの歪みは入(出)力カラー変換部14(2
1)において、機器に対応するデバイスプロファイルを
参照して変換を行うことにより補正する。
Next, a method of acquiring the environment profile will be described. As described above, the distortion of the color data due to the characteristics of the input / output device causes the input / output color conversion unit 14 (2).
In 1), correction is performed by referring to the device profile corresponding to the device and performing conversion.

【0066】一方、直接撮影時の光源、間接撮影時の原
稿の状態、ディスプレイ観測時の照明条件、およびプリ
ンタ出力時のインクや紙の特性といった環境要因による
色データの歪みに対しては、入(出)力環境補正部12
(24)において環境プロファイルを参照して補正す
る。環境プロファイルは変換マトリクスで表現される場
合と、対応テーブルで表現される場合とがあり得る。
On the other hand, the distortion of the color data due to environmental factors such as the light source during direct photography, the state of the original during indirect photography, the illumination conditions during display observation, and the characteristics of ink and paper during printer output are (Out) force environment correction unit 12
In (24), the environmental profile is referenced and corrected. The environment profile may be represented by a conversion matrix or a correspondence table.

【0067】変換マトリクスで表現される環境プロファ
イルが未知の場合、本発明では次のようにしてこれを求
める。ここでは、プリンタ出力における用紙プロファイ
ルを求める場合について説明する。条件として、インク
γおよび用紙δを使用するものとする。ただし、インク
プロファイルγは既知であり用紙プロファイルδは未知
であるとする。
When the environment profile represented by the transformation matrix is unknown, the present invention obtains it as follows. Here, a case of obtaining a paper profile in the printer output will be described. Ink γ and paper δ are used as conditions. However, it is assumed that the ink profile γ is known and the paper profile δ is unknown.

【0068】もし、インクγと規定の用紙を用いるので
あれば[CαD ,MαD ,YαD ,KαD ]に対して次
式の変換を行って[CγD ,MγD ,YγD ,KγD ]
を求め、プリンタDに供給すればよい。 数3
If ink γ and a specified sheet are used, [CγD, MγD, YγD, KγD] is obtained by converting the following equation for [CαD, MαD, YαD, KαD].
Is obtained and supplied to the printer D. Number 3

【0069】[0069]

【数3】 (Equation 3)

【0070】ただし、Mγは4×4の変換マトリクス しかし、規定の用紙の代わりに用紙δを用いる場合に
は、まず、[CαD ,MαD ,YαD ,KαD ]から
[CδγD ,MδγD ,YδγD ,KδγD ]への変換
マトリクスを求める。すなわち、複数の色をサンプルと
して(すなわち、複数通りの色光αについて)、 [CαD ,MαD ,YαD ,KαD ]→[CδγD ,M
δγD ,YδγD ,KδγD ] の対応を求め、統計的手法によって次式を近似的に満足
する変換マトリクスMγδを求める。
However, when the paper δ is used instead of the prescribed paper, Mγ is a 4 × 4 conversion matrix. First, [CαD, MαD, YαD, KαD] to [CδγD, MδγD, YδγD, KδγD]. Find the transformation matrix to. That is, using a plurality of colors as samples (that is, for a plurality of kinds of color light α), [CαD, MαD, YαD, KαD] → [CδγD, M
[Delta] [gamma] D, Y [delta] [gamma] D, K [delta] [gamma] D], and a transformation matrix M [gamma] [delta] that approximately satisfies the following equation is obtained by a statistical method.

【0071】[0071]

【数4】 数4 (Mγδは4×4の変換マトリクス) Mγδはプロファイルγとプロファイルδを合成したも
のであるが、インクを交換する場合に備えて、プロファ
イルδのみを表すマトリクスMδを求めておく必要があ
る。本発明では、次式によってマトリクスMδを求めて
いる。
(Equation 4) Formula 4 (Mγδ is a 4 × 4 conversion matrix) Mγδ is a combination of profile γ and profile δ, but it is necessary to obtain a matrix Mδ representing only profile δ in case of ink replacement. . In the present invention, the matrix Mδ is calculated by the following equation.

【0072】[0072]

【数5】 これを変形すると、 Mγδ=MδMγ となる。逆に、インクプロファイルγが未知であり用紙
プロファイルδが既知であれば、
(Equation 5) When this is transformed, Mγδ = MδMγ. On the contrary, if the ink profile γ is unknown and the paper profile δ is known,

【0073】[0073]

【数6】 によって変換マトリクスMγを求める。(Equation 6) The transformation matrix Mγ is obtained by

【0074】この方法は、マトリクスで表現される未知
の環境プロファイル全てに適用できる。デバイスの個人
差による特性のばらつきやデバイス特性の経時変化は、
入(出)力環境補正部において個体差プロファイルおよ
び経時変化の傾向に基づいた経時変化プロファイルを参
照して補正される。プロファイルの取得は、前述した手
法を用いて、入(出)力プロファイル生成部において行
う。
This method can be applied to all unknown environment profiles represented by a matrix. Variations in characteristics due to individual differences in devices and changes in device characteristics over time
The input / output force environment correction unit refers to the individual difference profile and the time-dependent change profile based on the tendency of the time-dependent change to perform correction. The acquisition of the profile is performed by the input (output) force profile generation unit using the method described above.

【0075】入力機器の経時変化プロファイルを求める
手順を説明する。簡単のため、個体差プロファイルは既
知の情報として環境プロファイルに包含されているもの
とする。いま、色光αを発する被写体を、経時変化のな
い状態の入力機器Aで撮影して得られる色デ−タを[R
αA,GαA,BαA]、デバイスインディペンデント
カラ−を[Xα,Yα,Zα]、環境プロファイルとデ
バイスプロファイルを合成した総合プロファイルを表す
マトリクスをMとすると、数7となる。
A procedure for obtaining the secular change profile of the input device will be described. For simplicity, the individual difference profile is included in the environment profile as known information. Now, the color data obtained by photographing the subject emitting the color light α with the input device A in a state that does not change with time is [R
αA, GαA, BαA], the device-independent color is [Xα, Yα, Zα], and the matrix representing the total profile in which the environment profile and the device profile are combined is M, then Equation 7 is obtained.

【0076】[0076]

【数7】 ただし、マトリクスNは経時変化プロファイルを表す。
一方、経時変化の起こった機器Aで撮影すると、数8と
なる。
(Equation 7) However, the matrix N represents a change profile with time.
On the other hand, when the image is taken with the device A that has changed over time, the result is Equation 8.

【0077】[0077]

【数8】 となる。ただし、マトリクスNは経時変化プロファイル
を表す。
(Equation 8) Becomes However, the matrix N represents a change profile with time.

【0078】デバイスインディペンデントカラ−が既知
である数色の対象物についてデ−タの採集を行うと入力
プロファイル生成部には、入力機器から得られるデ−タ
[R′αA,G′αA,B′αA]と[Xα,Yα,Z
α]の組が数個得られるため、前述したように統計的手
法からMとNの合成プロファイルのマトリクスLが入力
プロファイル生成部において求められる。したがって、
マトリクスNも入力プロファイル生成部において求めら
れる。したがって、マトリクスNも入力プロファイル生
成部において次式の演算数9
When data is collected for objects of several colors for which the device independent color is known, the input profile generator receives data [R'αA, G'αA] obtained from the input device. , B′αA] and [Xα, Yα, Z
Since several sets of [α] are obtained, the matrix L of the composite profile of M and N is obtained in the input profile generation unit from the statistical method as described above. Therefore,
The matrix N is also obtained by the input profile generation unit. Therefore, the matrix N is also calculated by the following equation in the input profile generator 9

【0079】[0079]

【数9】 によって求められる。[Equation 9] Required by

【0080】マトリクスNによる経時変化補正は、図1
において既存の入力環境補正部と入力環境プロファイル
格納部の対の前段に、新たな入力環境補正部と入力環境
プロファイル格納部の対を(ソフトウェア的あるいはハ
−ドウェア的に)増設し、この中で実現する。しかし、
既存の環境プロファイルを更新すると考えて、上式のマ
トリクスMがデバイスプロファイル、マトリクスNが更
新する環境プロファイルであるとして求めても良い。
The correction of the change over time by the matrix N is shown in FIG.
In, a new input environment correction unit and input environment profile storage unit pair (software or hardware) is added before the existing input environment correction unit and input environment profile storage unit pair. To be realized. But,
Considering that the existing environment profile is updated, the matrix M in the above formula may be calculated as the device profile and the matrix N as the environment profile to be updated.

【0081】同様にして、出力機器の経時変化プロファ
イルを求める手順を説明する。CMYKで色を表現する
プリンタDを用いた場合、[Xα,Yα,Zα]は [CαD,MαD,YαD,KαD]=f([Xα,Y
α,Zα]) によりCMYKデ−タに変換される。上式のf()はテ
−ブル補間などの変換手段を表す。いま、既知のマトリ
クスMβで表される環境要因のみ存在し、経時変化のな
い状態であれば、標準の光の下で色光αを反射する印刷
結果を得るためのプリンタ駆動デ−タは、数10
Similarly, a procedure for obtaining a time-dependent change profile of an output device will be described. When a printer D that expresses colors in CMYK is used, [Xα, Yα, Zα] is [CαD, MαD, YαD, KαD] = f ([Xα, Y
α, Zα]) is converted into CMYK data. In the above equation, f () represents conversion means such as table interpolation. Now, if only the environmental factors represented by the known matrix Mβ exist and there is no change over time, the printer drive data for obtaining the printing result that reflects the color light α under the standard light is several in number. 10

【0082】[0082]

【数10】 となる。一方、経時変化のある状態で同じ印刷結果を得
る場合は、数11
(Equation 10) Becomes On the other hand, if you want to get the same print result with the change over time,

【0083】[0083]

【数11】 となる。ただし、マトリクスNは経時変化プロファイル
を表す。
[Equation 11] Becomes However, the matrix N represents a change profile with time.

【0084】数色の色をサンプルとして、[C′βD ,
M′βD ,Y′βD ,K′βD ]と[CαD ,MαD ,
YαD ,KαD ]の対応を求め、図1の出力プロファイ
ル生成部において上記入力機器の場合と同様、前述した
方法によってマトリクスNを求める。この場合、マトリ
クスNに対応する出力環境補正部と出力環境プロファイ
ル格納部の設置は、既存の補正部・格納部の後段とな
る。
[C'βD,
M'βD, Y'βD, K'βD] and [CαD, MαD,
Y [alpha] D, K [alpha] D], and the matrix N is obtained by the above-described method in the output profile generator of FIG. In this case, the output environment correction unit and the output environment profile storage unit corresponding to the matrix N are installed in the subsequent stage of the existing correction unit / storage unit.

【0085】なお、[C′βD ,M′βD ,Y′βD ,
K′βD ]の収集は、出力環境補正部において外部調整
信号を用いて出力機器を駆動する色デ−タを調整し、そ
の結果を出力プロファイル生成部に供給することによっ
て行う。
[C'βD, M'βD, Y'βD,
K′βD] is collected by adjusting the color data for driving the output device using the external adjustment signal in the output environment correction unit and supplying the result to the output profile generation unit.

【0086】[0086]

【発明の効果】以上詳述したように本発明によれば、色
再現に対するこれらの阻害要因に対応できるデバイスイ
ンディペンデントカラーの実現方法と色再現方法を提供
することができる。
As described above in detail, according to the present invention, it is possible to provide a device-independent color realizing method and a color reproducing method capable of coping with these obstacles to color reproduction.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施の形態に係わるシステム構
成を示す図。
FIG. 1 is a diagram showing a system configuration according to a first embodiment of the present invention.

【図2】本発明の第2の実施の形態に係わるカメラAを
入力機器としたシステム構成を示す図。
FIG. 2 is a diagram showing a system configuration in which a camera A according to a second embodiment of the present invention is used as an input device.

【図3】本発明の第3の実施の形態に係わるスキャナB
を入力機器としたシステム構成を示す図。
FIG. 3 is a scanner B according to a third embodiment of the present invention.
The figure which shows the system configuration which made the input equipment.

【図4】本発明の第4の実施の形態に係わるディスプレ
イに表示を行うシステム構成を示す図。
FIG. 4 is a diagram showing a system configuration for displaying on a display according to a fourth embodiment of the present invention.

【図5】本発明の第5の実施の形態に係わる印刷を行う
システム構成を示す図。
FIG. 5 is a diagram showing a system configuration for performing printing according to a fifth embodiment of the present invention.

【図6】従来のシステム構成を示す図。FIG. 6 is a diagram showing a conventional system configuration.

【図7】従来のシステム構成を示す図。FIG. 7 is a diagram showing a conventional system configuration.

【符号の説明】[Explanation of symbols]

11…入力機器、12…入力環境補正部、13…プロフ
ァイル補間・推定部、14…入力カラ−変換部、15…
入力デバイスプロファル格納部、16…メイン画像処理
部、17…メモリ、18…入力プロファイル生成部、1
9…入力環境判定部、20…入力環境プロファイル格納
部、21…出力カラ−変換部、22…出力プロファイル
生成部。
11 ... Input device, 12 ... Input environment correction unit, 13 ... Profile interpolation / estimation unit, 14 ... Input color conversion unit, 15 ...
Input device profile storage unit, 16 ... Main image processing unit, 17 ... Memory, 18 ... Input profile generation unit, 1
9 ... Input environment determination unit, 20 ... Input environment profile storage unit, 21 ... Output color conversion unit, 22 ... Output profile generation unit.

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 入力環境判定手段と入力環境補正手段と
入力環境プロファイル格納部を入力環境要因毎に備え、 入力環境判定手段から出力される環境判定情報に応じ
て、入力環境プロファイル格納部から所定の入力環境プ
ロファイルデータが選択的に出力されて入力環境補正手
段に供給され、 入力環境補正手段において、供給された入力環境プロフ
ァイルを参照することにより、入力環境の影響によって
歪んだ色データを補正することを特徴とするカラー画像
処理システム。
1. An input environment determination means, an input environment correction means, and an input environment profile storage unit are provided for each input environment factor, and the input environment profile storage unit determines a predetermined value according to the environment determination information output from the input environment determination unit. Input environment profile data is selectively output and supplied to the input environment correction means, and the input environment correction means refers to the supplied input environment profile to correct the color data distorted by the influence of the input environment. A color image processing system characterized by the above.
【請求項2】 出力環境判定手段と出力環境補正手段と
出力環境プロファイル格納部を出力環境要因毎に備え、 出力環境判定手段から出力される環境判定情報に応じ
て、出力環境プロファイル格納部から所定の出力環境プ
ロファイルデータが選択的に出力されて出力環境補正手
段に供給され、 出力環境補正手段において、供給された出力環境プロフ
ァイルを参照することにより、出力環境の影響によって
歪んだ色データを補正することを特徴とするカラー画像
処理システム。
2. An output environment determining unit, an output environment correcting unit, and an output environment profile storage unit are provided for each output environment factor, and the output environment profile storage unit determines a predetermined value according to the environment determination information output from the output environment determining unit. Output environment profile data is selectively output and supplied to the output environment correction means, and the output environment correction means refers to the supplied output environment profile to correct the color data distorted by the influence of the output environment. A color image processing system characterized by the above.
【請求項3】 入力環境補正手段が、入力された色デー
タAに対し、入力環境プロファイル格納部から供給され
る数値データを成分に持つ変換マトリクスMを用いて B=MA なる演算を行い、その演算結果Bを出力することを特徴
とする請求項1記載のカラー画像処理システム。
3. The input environment correction means performs a calculation of B = MA on the input color data A by using a conversion matrix M having numerical data supplied from the input environment profile storage as a component. The color image processing system according to claim 1, wherein the calculation result B is output.
【請求項4】 上記入力環境プロファイル格納部が、直
接撮影時の照明光源の分光特性に応じた数値データを、
変換マトリクスの成分として入力環境補正手段に供給す
ることを特徴とする請求項1記載のカラー画像処理シス
テム。
4. The input environment profile storage unit stores numerical data according to spectral characteristics of an illumination light source during direct shooting,
The color image processing system according to claim 1, wherein the color image processing system is supplied as a component of a conversion matrix to the input environment correcting means.
【請求項5】 上記入力環境プロファイル格納部が、間
接撮影時の読み取り原稿の色の特性に応じた数値データ
を、変換マトリクスの成分として入力環境補正手段に供
給することを特徴とする請求項1記載のカラー画像処理
システム。
5. The input environment profile storage section supplies numerical data corresponding to the color characteristics of a read document at the time of indirect photography to the input environment correction means as a component of a conversion matrix. The described color image processing system.
【請求項6】 上記出力環境補正手段が、入力された色
データAに対し、出力環境プロファイル格納部から供給
される数値データを成分に持つ変換マトリクスMを用い
て B=MA なる演算を行い、その演算結果Bを出力することを特徴
とする請求項2記載のカラー画像処理システム。
6. The output environment correcting means performs an operation of B = MA on the input color data A by using a conversion matrix M having numerical data supplied from the output environment profile storage as a component. The color image processing system according to claim 2, wherein the calculation result B is output.
【請求項7】 上記出力環境プロファイル格納部が、デ
ィスプレイ出力時の照明光源の分光特性に応じた数値デ
ータを、変換マトリクスの成分として出力環境補正手段
に供給することを特徴とする請求項2記載のカラー画像
処理システム。
7. The output environment profile storage unit supplies numerical data corresponding to the spectral characteristic of the illumination light source at the time of display output to the output environment correction means as a component of a conversion matrix. Color image processing system.
【請求項8】 上記出力環境プロファイル格納部が、プ
リンタ出力時のインクの特性に応じた数値データを、変
換マトリクスの成分として出力環境補正手段に供給する
ことを特徴とする請求項2のカラー画像処理システム。
8. The color image according to claim 2, wherein the output environment profile storage section supplies numerical data corresponding to ink characteristics at the time of printer output to the output environment correction means as a component of a conversion matrix. Processing system.
【請求項9】 上記出力環境プロファイル格納部が、プ
リンタ出力時の印刷用紙の特性に応じた数値データを、
変換マトリクスの成分として出力環境補正手段に供給す
ることを特徴とする請求項2のカラー画像処理システ
ム。
9. The output environment profile storage unit stores numerical data according to the characteristics of printing paper at the time of printer output,
3. The color image processing system according to claim 2, which is supplied to the output environment correction means as a component of a conversion matrix.
【請求項10】 入力機器から出力されるデータとメイ
ン画像処理部に供給されるデータとを用いて、入力機器
の個体差による特性のばらつきと経時変化を補正するた
めのマトリクスデータを演算により抽出し、入力環境プ
ロファイル格納部に供給する入力プロファイル生成手段
を具備することを特徴とするカラー画像処理システム。
10. Matrix data is calculated by using data output from the input device and data supplied to the main image processing unit to correct characteristic variations and temporal changes due to individual differences in the input device. In addition, the color image processing system is provided with an input profile generation unit that supplies the input environment profile storage unit.
【請求項11】 メイン画像処理部から出力されるデー
タまたはその処理結果と、出力機器に供給されるデータ
とを用いて、出力機器の個体差による特性のばらつきと
経時変化を補正するためのマトリクスデータを演算によ
り抽出し、出力環境プロファイル格納部に供給する出力
プロファイル生成手段を具備することを特徴とするカラ
ー画像処理システム。
11. A matrix for correcting characteristic variations and aging due to individual differences in output devices by using data output from the main image processing unit or processing results thereof and data supplied to output devices. A color image processing system comprising an output profile generation means for extracting data by calculation and supplying it to an output environment profile storage section.
【請求項12】 環境判定情報に応じた適切な環境プロ
ファイルデータが環境プロファイル格納部に存在しない
(未知である)場合に、判定された環境条件に近く、か
つ環境プロファイル格納部に存在する環境プロファイル
データを用いて、前記未知の環境プロファイルデータを
補間または推定するプロファイル補間・推定手段を具備
することを特徴とする請求項1あるいは請求項2の記載
のカラ−画像処理システム。
12. An environment profile that is close to the determined environmental condition and exists in the environment profile storage when appropriate environment profile data corresponding to the environment determination information does not exist (is unknown) in the environment profile storage. 3. The color image processing system according to claim 1, further comprising profile interpolation / estimation means for interpolating or estimating the unknown environment profile data by using data.
JP8036627A 1996-02-23 1996-02-23 Color picture processing system Pending JPH09231353A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8036627A JPH09231353A (en) 1996-02-23 1996-02-23 Color picture processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8036627A JPH09231353A (en) 1996-02-23 1996-02-23 Color picture processing system

Publications (1)

Publication Number Publication Date
JPH09231353A true JPH09231353A (en) 1997-09-05

Family

ID=12475072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8036627A Pending JPH09231353A (en) 1996-02-23 1996-02-23 Color picture processing system

Country Status (1)

Country Link
JP (1) JPH09231353A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309356A (en) * 2000-04-27 2001-11-02 Ntt Communications Kk Method and device for browsing remote place situation
JP2002160387A (en) * 2000-09-12 2002-06-04 Canon Inc Media pack, printer, and camera with printer
WO2003010955A1 (en) * 2001-07-23 2003-02-06 Seiko Epson Corporation Printing system and printing method
WO2005027040A1 (en) * 2003-09-11 2005-03-24 Matsushita Electric Industrial Co., Ltd. Image processing apparatus, image processing method, and image processing program
US7027067B1 (en) 1998-07-24 2006-04-11 Canon Kabushiki Kaisha Image processing apparatus and method
US7256911B2 (en) 2001-08-29 2007-08-14 Seiko Epson Corporation Image retouching program
US7258498B2 (en) 2001-08-01 2007-08-21 Seiko Epson Corporation Printing system and server monitoring printing job
JP2008067415A (en) * 1998-12-28 2008-03-21 Ricoh Co Ltd Image forming system, image processor, image forming method, and recording medium recording program related to the image forming method or image processing
US7408573B2 (en) 1999-05-31 2008-08-05 Olympus Corporation Color production system for carrying out color correction by changing over color-correction parameters according to images of photographed subjects
US7443539B2 (en) 1997-09-09 2008-10-28 Olympus Optical Co., Ltd. Color reproducing device
US7545532B2 (en) 2001-06-07 2009-06-09 Fujifilm Corporation Image processing apparatus and image processing program storage medium
US7783126B2 (en) 2003-09-11 2010-08-24 Panasonic Corporation Visual processing device, visual processing method, visual processing program, and semiconductor device
US7860339B2 (en) 2003-09-11 2010-12-28 Panasonic Corporation Visual processing device, visual processing method, visual processing program, intergrated circuit, display device, image-capturing device, and portable information terminal

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7443539B2 (en) 1997-09-09 2008-10-28 Olympus Optical Co., Ltd. Color reproducing device
US7672017B2 (en) 1997-09-09 2010-03-02 Olympus Optical Co., Ltd. Color reproducing device
US7158146B2 (en) 1998-07-24 2007-01-02 Canon Kabushiki Kaisha Image processing apparatus and method
US7027067B1 (en) 1998-07-24 2006-04-11 Canon Kabushiki Kaisha Image processing apparatus and method
JP2008067415A (en) * 1998-12-28 2008-03-21 Ricoh Co Ltd Image forming system, image processor, image forming method, and recording medium recording program related to the image forming method or image processing
US7408573B2 (en) 1999-05-31 2008-08-05 Olympus Corporation Color production system for carrying out color correction by changing over color-correction parameters according to images of photographed subjects
JP2001309356A (en) * 2000-04-27 2001-11-02 Ntt Communications Kk Method and device for browsing remote place situation
JP2002160387A (en) * 2000-09-12 2002-06-04 Canon Inc Media pack, printer, and camera with printer
US7545532B2 (en) 2001-06-07 2009-06-09 Fujifilm Corporation Image processing apparatus and image processing program storage medium
US7557950B2 (en) 2001-07-23 2009-07-07 Seiko Epson Corporation Printing system and printing method
WO2003010955A1 (en) * 2001-07-23 2003-02-06 Seiko Epson Corporation Printing system and printing method
US7258498B2 (en) 2001-08-01 2007-08-21 Seiko Epson Corporation Printing system and server monitoring printing job
US7256911B2 (en) 2001-08-29 2007-08-14 Seiko Epson Corporation Image retouching program
US7821669B2 (en) 2001-08-29 2010-10-26 Seiko Epson Corporation Image retouching program
US8610953B2 (en) 2001-08-29 2013-12-17 Seiko Epson Corporation Image retouching program
US8848247B2 (en) 2001-08-29 2014-09-30 Seiko Epson Corporation Image retouching program
WO2005027040A1 (en) * 2003-09-11 2005-03-24 Matsushita Electric Industrial Co., Ltd. Image processing apparatus, image processing method, and image processing program
US7783126B2 (en) 2003-09-11 2010-08-24 Panasonic Corporation Visual processing device, visual processing method, visual processing program, and semiconductor device
US7860339B2 (en) 2003-09-11 2010-12-28 Panasonic Corporation Visual processing device, visual processing method, visual processing program, intergrated circuit, display device, image-capturing device, and portable information terminal
US7945115B2 (en) 2003-09-11 2011-05-17 Panasonic Corporation Visual processing device, visual processing method, visual processing program, and semiconductor device
US8165417B2 (en) 2003-09-11 2012-04-24 Panasonic Corporation Visual processing device, visual processing method, visual processing program, integrated circuit, display device, image-capturing device, and portable information terminal

Similar Documents

Publication Publication Date Title
EP1237379B1 (en) Image processing for digital cinema
JP3242251B2 (en) Color image reproduction method
EP1558021A2 (en) Image processing method, image processing apparatus and image recording apparatus
US20060170942A1 (en) Color-space transformation-matrix calculating method and image processing device
JP4174703B2 (en) Spectrum / color reproduction system
JPH0715612A (en) Device and method for encoding color
JPH07231393A (en) Picture reproducing device
JPH11220687A (en) Method for processing picture and device therefor
US20050237554A1 (en) Method, apparatus, and recording medium for image correction
US20020122589A1 (en) Constructing profiles to compensate for non-linearities in image capture
JPH09231353A (en) Color picture processing system
WO2000064191A1 (en) Method and system for calibrating color correction instructions between color correction devices
JP2005354372A (en) Apparatus and method for image recording device, method and system for image processing
US5764796A (en) Image processing apparatus for and a method of preparing data representing a colour image
JPH09107484A (en) Color correction device and method and device for color management
JP5322326B2 (en) Color correction table calculation circuit, color correction device, display device, color correction method, and program
JP2002262125A (en) Processing film image for digital cinema
JP4128759B2 (en) Color conversion apparatus and color conversion program
US7369273B2 (en) Grayscale mistracking correction for color-positive transparency film elements
JP3271487B2 (en) Image database with image characteristics and image processing device
JP2001036762A (en) Device and method for preparing color correction definition
JP3134744B2 (en) Color management method and system in color image system
JP5748236B2 (en) Color correction information generation method and color correction apparatus
JP2004023207A (en) Device and method for preparing color conversion table, recording medium recorded with color conversion table preparation program and profile preparing device for preparing profile on the basis of color conversion table prepared by the device or method
JP2000261825A (en) Image processing method, device therefor and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050927

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060207