JP2001143065A - Image-processing method and recording medium - Google Patents

Image-processing method and recording medium

Info

Publication number
JP2001143065A
JP2001143065A JP32319899A JP32319899A JP2001143065A JP 2001143065 A JP2001143065 A JP 2001143065A JP 32319899 A JP32319899 A JP 32319899A JP 32319899 A JP32319899 A JP 32319899A JP 2001143065 A JP2001143065 A JP 2001143065A
Authority
JP
Japan
Prior art keywords
profile
tag
monitor
observation
white
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP32319899A
Other languages
Japanese (ja)
Inventor
Shuichi Kumada
周一 熊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP32319899A priority Critical patent/JP2001143065A/en
Publication of JP2001143065A publication Critical patent/JP2001143065A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To dissolve the problem where limited observation environment is required to realize sure color matching by CMS. SOLUTION: Each item of observation conditions is set by a user interface to set the observation conditions S102, an observation condition tag and a private tag for scanner and monitor profile are created, based on setting of the items S103, the scanner profile corresponding to set 'white of illumination for observation' and the monitor profile corresponding to the set 'white of a monitor' are selected S104 to S105, the created observation condition tag and the private tag are set in the selected scanner and monitor profiles S106 and color matching is executed S107 to S108.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理に関し、例
えば、観察条件に応じたカラーマッチングのような色順
応変換を行う画像処理に関するものである。
[0001] 1. Field of the Invention [0002] The present invention relates to image processing, for example, to image processing for performing chromatic adaptation conversion such as color matching according to viewing conditions.

【0002】[0002]

【従来の技術】図1はCMS(Color Management System)に
おける観察環境(Viewing Condition)を示す図である。
観察環境とは、標準光源であるD65やD50の特性を再現す
る蛍光ランプ(Fluorescent Lamp)の下に色パッチ(N5な
どの標準背景)をおき、その色パッチをスキャナで読み
込んでカラーマッチング処理を行い、その結果を暗い環
境(Dark Surround)の下のCRTで色(N5などの標準背景)
として表示したときに、色パッチとCRTの色が同じ色に
観察されるという、限定されたものである。
2. Description of the Related Art FIG. 1 is a view showing an observation environment (Viewing Condition) in a CMS (Color Management System).
The observation environment is defined by placing a color patch (standard background such as N5) under a fluorescent lamp that reproduces the characteristics of the standard light source D65 and D50, reading the color patch with a scanner, and performing color matching processing. Perform and color the results on a CRT under dark environment (Dark Surround) (standard background such as N5)
Is limited, the color patch and the CRT color are observed in the same color.

【0003】特開平7-222009号において説明されている
ように、一般に、カラーマネージメントシステムは、CM
M(Color Management Module)およびデバイスプロファイ
ル(Device Proflle)で構成され、変換前のソースデバイ
スに対応したプロファイルと、変換後のデスティネーシ
ョンデバイスに対応したプロファイルとを用いて色変換
処理を行う。前者のプロファイルをソースデバイスプロ
ファイル、後者のプロファイルをデスティネーションデ
バイスプロファイルと呼ぶ。
As described in Japanese Patent Application Laid-Open No. Hei 7-222009, generally, a color management system
It is composed of an M (Color Management Module) and a device profile (Device Profile), and performs color conversion processing using a profile corresponding to the source device before conversion and a profile corresponding to the destination device after conversion. The former profile is called a source device profile, and the latter profile is called a destination device profile.

【0004】図2はCMS処理を示す図で、スキャナ色空間
(スキャナRGB)からモニタ色空間(モニタRGB)への変
換が示されている。スキャナのプロファイル(Scanner P
rofile)がソースデバイスプロファイルであり、モニタ
のプロファイル(Monitor Profile)がデスティネーショ
ンデバイスプロファイルである。
FIG. 2 is a diagram showing a CMS process, which shows conversion from a scanner color space (scanner RGB) to a monitor color space (monitor RGB). Scanner profile (Scanner P
rofile) is a source device profile, and a monitor profile (Monitor Profile) is a destination device profile.

【0005】スキャナRGBは、まずスキャナのプロファ
イルを用いて、デバイスに依存しない色空間であるXYZ
色空間に変換され、次に、モニタのプロファイルを用い
てモニタRGBに変換される。この場合のXYZ色空間は、標
準光源(図1の観察条件)に依存する空間であり、CMSは
観察条件が限定される処理であることがわかる。
[0005] The scanner RGB is a device-independent color space, XYZ, using a scanner profile.
It is converted to color space and then to monitor RGB using the monitor profile. In this case, the XYZ color space is a space that depends on the standard light source (viewing conditions in FIG. 1), and it can be seen that CMS is a process in which viewing conditions are limited.

【0006】図3はデバイスプロファイルの構造例を示
す図である。
FIG. 3 is a diagram showing an example of the structure of a device profile.

【0007】デバイスプロファイルのフォーマットに
は、ICC(International Color Consortium)が定めるInt
er Color Profile Formatが業界標準として用いられて
いる。プロファイルは、管理のためのヘッダ部(プロフ
ァイルヘッダ(Profile Header))、タグデータアクセス
部(タグテーブル(Tag Table))、および、タグデータ
格納部(タグデータ(Tag Data))に分けられる。ヘッダ
部には、そのプロファイルがどのデバイス(例えばモニ
タ)のものであるかを示すデバイス情報、そのプロファ
イルがどのCMMで使用されるものかを示すCMM情報などが
格納されている。タグデータアクセス部には、Tag Data
にアクセスするためのポインタが格納されている。
[0007] The format of the device profile is Int specified by the ICC (International Color Consortium).
er Color Profile Format is used as an industry standard. The profile is divided into a header part (Profile Header) for management, a tag data access part (Tag Table), and a tag data storage part (Tag Data). The header section stores device information indicating which device (for example, monitor) the profile belongs to, CMM information indicating which CMM the profile uses, and the like. The tag data access section contains Tag Data
A pointer for accessing is stored.

【0008】Tag Dataは、必須タグ(Required Tag)、オ
プショナルタグ(Optional Tag)およびプライベートタグ
(Private Tag)の三つに分類され、Required Tagは、オ
ペレーティングシステム(OS)が用意するCMM(例えばCol
orSyncやICMのデフォルトCMM)が使用するもので、必ず
用意しなければならないものである。Optional Tagに
は、拡張カラー変換(Enhanced Color Transformation)
に関する情報、例えばPostScript(R)レベル2に関する処
理のためのデータなどが格納される。Private Tagに
は、OSべンダ以外のサードパーティが独自のCMM(カス
タムCMM)を用意して独自処理を行う場合に用いるデー
タが格納される。
[0008] Tag Data is a required tag (Required Tag), optional tag (Optional Tag) and private tag
(Private Tag), and Required Tag is a CMM (for example, Col
This is used by orSync or the default CMM of ICM, and must be prepared. Optional Tag includes Enhanced Color Transformation
, For example, data for processing related to PostScript (R) level 2. The Private Tag stores data used when a third party other than the OS vendor prepares its own CMM (custom CMM) and performs its own processing.

【0009】[0009]

【発明が解決しようとする課題】図4は一般のオフィス
環境にかなり近い観察環境を示す図である。ここには図
1に示すようなライトブース(Light Booth)は存在せず、
モニタを観る環境も、色パッチを観るのと同じ照明下で
ある。つまり、実際の観察環境(観察条件)は、図1に
示すようなCMSが想定する観察環境(観察条件)とは一
致しない。従って、CMSを利用しても、図4に示すような
一般のオフイス環境では、必ずしもカラーマッチングが
実現されない。言い換えれば、CMSにより、確実なカラ
ーマッチングを実現するには、図1に示すような限定さ
れた観察環境が必要になる。
FIG. 4 is a diagram showing an observation environment which is quite close to a general office environment. Here is the figure
There is no light booth (Light Booth) as shown in 1,
The environment for viewing the monitor is also under the same lighting as watching the color patches. That is, the actual observation environment (observation conditions) does not match the observation environment (observation conditions) assumed by the CMS as shown in FIG. Therefore, even if the CMS is used, color matching is not always realized in a general office environment as shown in FIG. In other words, in order to realize reliable color matching by CMS, a limited observation environment as shown in FIG. 1 is required.

【0010】本発明は、上述の問題を解決するためのも
のであり、一般的な観察条件において色順応変換を行う
画像処理を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problem, and has as its object to provide image processing for performing chromatic adaptation conversion under general viewing conditions.

【0011】[0011]

【課題を解決するための手段】本発明は、前記の目的を
達成する一手段として、以下の構成を備える。
The present invention has the following configuration as one means for achieving the above object.

【0012】本発明にかかる画像処理方法は、入力画像
データに対して観察条件に応じた色順応変換を行う画像
処理方法であって、観察条件がマニュアル入力され、入
力された観察条件に対応してプロファイルを加工し、加
工されたプロファイルを基に、入力された観察条件を考
慮したカラーマッチング処理を行うことを特徴とする。
An image processing method according to the present invention is an image processing method for performing chromatic adaptation conversion on input image data in accordance with a viewing condition, wherein the viewing condition is manually input and corresponds to the input viewing condition. Profile processing, and based on the processed profile, perform color matching processing in consideration of input observation conditions.

【0013】[0013]

【発明の実施の形態】以下に、添付図面を参照して本発
明の好適な実施形態を詳細に説明する。
Preferred embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0014】[システム構成]図5は本発明にかかる一
実施形態のシステム構成例を示す図で、本実施形態のシ
ステムは、パーソナルコンピュータ(PC)などの情報処理
装置1、CRTやLCDのモニタ2およびスキャナ3から構成さ
れている。なお、以下では、情報処理装置1をPC本体と
呼ぶ。
[System Configuration] FIG. 5 is a diagram showing an example of a system configuration according to an embodiment of the present invention. The system according to the embodiment includes an information processing apparatus 1 such as a personal computer (PC) and a monitor of a CRT or LCD. 2 and a scanner 3. Hereinafter, the information processing apparatus 1 is referred to as a PC main body.

【0015】PC本体1は、モニタ表示や画像処理などの
情報処理に必要なマイクロプロセッサ(CPU)およびビデ
オメモリ(VRAM)などを備え、アプリケーションソフトウ
ェアなどのソフトウェアの動作に必要な基本機能を提供
するOS11、カラーマッチング処理などのユーティリティ
やOSがワーク領域として使用するRAM12、画像データが
格納される画像データ格納部13、モニタ2に表示する際
に表示データを制御するモニタドライバ14、スキャナ3
とPC本体1とを接続するためのインタフェイス(I/F)15、
カラーマッチング処理を実行するためのモジュールであ
るCMM16、スキャナ3にセットされた原稿画像を読み取る
ためのソフトウェアであるスキャナユーティリティ17、
モニタ2のモニタプロファイルが格納されるモニタプロ
ファイル格納部18、スキャナ3のスキャナプロファイル
が格納されるスキャナプロファイル格納部19を有してい
る。
The PC body 1 includes a microprocessor (CPU) and a video memory (VRAM) necessary for information processing such as monitor display and image processing, and provides basic functions necessary for operation of software such as application software. OS 11, utilities such as color matching processing and RAM 12 used as a work area by the OS, an image data storage unit 13 in which image data is stored, a monitor driver 14 for controlling display data when displayed on the monitor 2, a scanner 3
Interface (I / F) 15 for connecting the
CMM16 which is a module for executing color matching processing, scanner utility 17 which is software for reading a document image set in the scanner 3,
A monitor profile storage unit 18 for storing a monitor profile of the monitor 2 and a scanner profile storage unit 19 for storing a scanner profile of the scanner 3 are provided.

【0016】スキャナユーティリティ17は、複数の観察
条件パラメータが格納される観察条件パラメータ格納部
1A、および、プロファイルのTag(タグ)データを生成
するタグデータ生成部1Bを有している。
The scanner utility 17 is a viewing condition parameter storage unit in which a plurality of viewing condition parameters are stored.
1A, and a tag data generation unit 1B for generating profile Tag data.

【0017】画像データ格納部13、モニタプロファイル
格納部18およびスキャナプロファイル格納部19などに
は、例えばハードディスク、MOおよびDVD-RAMなどの磁
気記録、光磁気記録および光記録メディアを利用するこ
とができる。
For the image data storage unit 13, the monitor profile storage unit 18, the scanner profile storage unit 19, etc., magnetic recording, magneto-optical recording and optical recording media such as a hard disk, MO and DVD-RAM can be used. .

【0018】スキャナ3を接続するためのインタフェイ
ス(I/F)15には、RS232C、RS422、SCSI、GPIB、USB(Univ
ersal Serial Bus)、IEEE1394などの汎用のインタフェ
イスが利用可能である。従って、これらのインタフェイ
スを備える機器であれば、スキャナ3に代わって、ディ
ジタルカメラ、ディジタルビデオカメラおよびフィルム
スキャナなどの画像取得デバイスを接続することも可能
である。なお、スキャナ3以外の機器を接続する場合
は、必要に応じて、スキャナユーティリティ17をそれら
の機器に対応するユーティリティに置き換える。同様
に、出力デバイスもモニタに限定されず、例えばカラー
プリンタやフィルムレコーダのような機器であってもよ
い。
An interface (I / F) 15 for connecting the scanner 3 includes RS232C, RS422, SCSI, GPIB, USB (Univ.
General-purpose interfaces such as IEEE 1394 and IEEE1394 are available. Therefore, as long as the device has these interfaces, an image acquisition device such as a digital camera, a digital video camera, and a film scanner can be connected instead of the scanner 3. When devices other than the scanner 3 are connected, the scanner utility 17 is replaced with a utility corresponding to those devices as necessary. Similarly, the output device is not limited to a monitor, but may be an apparatus such as a color printer or a film recorder.

【0019】[スキャナユーティリティ]図6はスキャ
ナユーティリティ17が提供する観察条件を設定するため
のユーザインタフェイス(UI)の一例を示す図である。こ
のUIには、観察照明の「明るさ」および「白の度合
い」、並びに、モニタの「明るさ」および「白の度合
い」を、それぞれ感応的な(人間の感覚的な)三つのラ
ンクから選択する設定項目がある。なお、ランクの設定
は三つに限定されるものではなく、例えば三つのランク
の中間的ランクを設けて五つのランクから選択するよう
にすることも可能である。
[Scanner Utility] FIG. 6 is a view showing an example of a user interface (UI) for setting viewing conditions provided by the scanner utility 17. This UI displays the "brightness" and "whiteness" of the observation illumination, and the "brightness" and "whiteness" of the monitor from the three sensitive (human-sensitive) ranks, respectively. There is a setting item to select. The setting of the rank is not limited to three. For example, it is possible to provide an intermediate rank of three ranks and select from five ranks.

【0020】図7は、図6に示すランクそれぞれに対応す
る観察条件を表す値を示す図である。「観察照明の明る
さ」は、照明の白の絶対的な三刺激値XLYLZLで表され、
YLが照明の絶対輝度である。「観察照明の明るさ」のラ
ンク「暗い」「普通」および「明るい」は、YLの値90.0
cd/m2、157.0cd/m2および318.0cd/m2の三段階にそれぞ
れ対応する
FIG. 7 is a diagram showing values representing viewing conditions corresponding to each rank shown in FIG. The “brightness of the observation light” is represented by the absolute tristimulus value X L Y L Z L of the white of the light,
Y L is the absolute brightness of the illumination. The rank “dark”, “normal”, and “bright” of “brightness of observation illumination” is a value of Y L of 90.0.
cd / m 2, corresponding respectively to the three stages of 157.0cd / m 2 and 318.0cd / m 2

【0021】「観察照明の白」のランク「少し黄色い」
「普通」および「少し青い」は、白自体が少し黄色く見
えるF2(色温度: 4150K)、普通の白に見えるD50(色温
度:5000K)、および、少し青く見えるD65(色温度: 650
0K)の三段階にそれぞれ対応する。
"White of observation illumination" rank "Slightly yellow"
"Normal" and "Slightly blue" are white F2 (color temperature: 4150K) that looks slightly yellow, D50 (color temperature: 5000K) that looks normal white, and D65 (color temperature: 650) that looks slightly blue.
0K).

【0022】「モニタの明るさ」は、モニタの白の絶対
的な三刺激値XMYMZMで表され、YMがモニタの絶対輝度で
ある。「モニタの明るさ」のランク「少し暗い」「普
通」および「少し明るい」は、YMの値70.0cd/m2、90.0c
d/m2および110.0cd/m2の三段階にそれぞれ対応する。
The "brightness of the monitor" is represented by an absolute tristimulus value X M Y M Z M of white of the monitor, where Y M is the absolute brightness of the monitor. "Monitoring of brightness" rank "a little dark,""normal" and "a little light" of the value of Y M 70.0cd / m 2, 90.0c
It corresponds to three stages of d / m 2 and 110.0 cd / m 2 respectively.

【0023】「モニタの白」のランク「普通」「少し青
い」および「青い」は、普通の白に見えるD50、少し青
く見えるD65、および、青く見えるD93(色温度: 9300
K)の三段階にそれぞれ対応する。
The ranks “normal”, “slightly blue” and “blue” of “white on the monitor” are D50 that looks normal white, D65 that looks slightly blue, and D93 that looks blue (color temperature: 9300).
K) corresponds to each of the three stages.

【0024】[環境光を考慮したCMS処理]図8は環境光
を考慮する場合のCMS処理の一例を示す図である。
[CMS Processing Considering Ambient Light] FIG. 8 is a diagram showing an example of the CMS processing in the case where environmental light is considered.

【0025】環境光を考慮したカラーマッチングを行う
ためには、CAM(Color AppearanceModel、色知覚モデ
ル)をCMSに導入することが重要になる。CAMの一種とし
てCIE(国際照明委員会)が1997年5月に定めたCIE CAM9
7sがあり、図8はCIE CAM97sを用いた場合の処理を示し
ている。
In order to perform color matching in consideration of ambient light, it is important to introduce a CAM (Color Appearance Model) into a CMS. CIE CAM9 specified by the CIE (International Commission on Illumination) in May 1997 as a type of CAM
7s, and FIG. 8 shows processing when CIE CAM97s is used.

【0026】スキャナの特性に依存したスキャナRGBデ
ータ、例えばスキャナ3で読み込んだ色パッチデータな
どは、まず、パッチの観察条件(VC1)の照明の白色点を
基にXYZデータ(VC1の照明の白色点に依存する)に変換
され、VC1の観察条件パラメータなどを入力としてCAMの
順変換により、色知覚空間であるJCh(観察照明の基準
白色に相対的な色知覚空間)またはQMH(観察照明の照
度レベルによって大きさが変化する絶対的な色知覚空
間)へ変換される。そして、モニタの観察条件(VC2)パ
ラメータなどを入力として、CAMの逆変換により、観察
条件(VC2)の照明の白色点を基にXYZデータ(VC2の照明
の白色点に依存する)に変換され、最後にモニタRGB
(モニタの特性に依存する)に変換されることになる。
The scanner RGB data depending on the characteristics of the scanner, for example, the color patch data read by the scanner 3 is first converted into XYZ data (white light of the VC1 illumination) based on the white point of the illumination under the patch observation condition (VC1). Point-dependent), and the forward conversion of CAM using the viewing condition parameters of VC1 as input, JCh (color perception space relative to the reference white of the observation illumination) or QMH (color perception space of the observation illumination) It is converted into an absolute color perception space whose size changes according to the illuminance level. Then, using the monitor viewing condition (VC2) parameters and the like as input, the CAM is converted into XYZ data (depending on the VC2 lighting white point) based on the lighting white point of the viewing condition (VC2) by inverse conversion of CAM. And finally the monitor RGB
(Depending on the characteristics of the monitor).

【0027】図9Aは、図4に示した観察環境の観察条件
パラメータを示す図で、これらがCAMの入カパラメータ
になる。
FIG. 9A is a diagram showing observation condition parameters of the observation environment shown in FIG. 4, and these are input parameters of the CAM.

【0028】ソース側(VC1)の輝度ファクタ(Luminance
Factors)は、照明の白色点の相対三刺激値(Refernce Wh
ite Point)XwYwZw、順応視野の輝度(順応視野の絶対輝
度の20%の値が設定される)La(Reference Luminance)、
および、照明下の背景の相対輝度Yb(Relative Luminanc
e)である。
The luminance factor (Luminance) on the source side (VC1)
Factors) are the relative tristimulus values of the white point of the illumination (Reference Wh).
ite Point) XwYwZw, luminance of the adaptive visual field (value of 20% of the absolute luminance of the adaptive visual field is set) La (Reference Luminance),
And the relative luminance Yb (Relative Luminanc
e).

【0029】デスティネーション側(VC2)の輝度ファク
タは、モニタの白色点の相対三刺激値XrwYrwZrw、照明
下のモニタ輝度(順応視野の絶対輝度の20%の値が設定
される)Lar、モニタ表示の背景の相対輝度Ybrである。
The luminance factors on the destination side (VC2) are the relative tristimulus values XrwYrwZrw of the white point of the monitor, the monitor luminance under illumination (a value of 20% of the absolute luminance of the adaptive visual field is set), and the monitor display Is the relative luminance Ybr of the background.

【0030】また、色パッチ(Color Stimulus)の三刺激
値(Tristimulus Values)は、図8のXYZ(VC1)に相当す
る。その他のCIE CAM97s特有のパラメータとしては、周
囲の影響の定数c(Impact of Surround)、色誘導係数Nc
(Chromatic Inducation Factor)、明度コントラスト係
数FLL(Lightness Contrast Factor)、および、順応度係
数F(Degree of Adaptation)が、ソース(VC1)およびデ
スティネーション(VC2)で設定可能なパラメータにな
る。これらのパラメータは、周囲光によって図9Bに示す
ようにその値が変化する。
The tristimulus values of a color patch (Color Stimulus) correspond to XYZ (VC1) in FIG. Other CIE CAM97s-specific parameters include the ambient influence constant c (Impact of Surround) and the color induction coefficient Nc
(Chromatic Inducation Factor), lightness contrast coefficient FLL (Lightness Contrast Factor), and adaptation coefficient F (Degree of Adaptation) are parameters that can be set in the source (VC1) and the destination (VC2). The values of these parameters change depending on the ambient light as shown in FIG. 9B.

【0031】[観察条件タグ(viewingCondition Tag)]
図10はInter Color Profile Formatのオプショナルタグ
に含まれる観察条件タグ(viewingCondition Tag)の内容
を示す図である。
[Viewing Condition Tag]
FIG. 10 is a diagram showing the contents of the viewing condition tag (viewingCondition Tag) included in the optional tag of the Inter Color Profile Format.

【0032】「Abosolute XYZ value for illuminant」
には、図7に示した照明の白の絶対的な三刺激値XLY
LZL、および、モニタの白の絶対的な三刺激値XMYMZM
該当する。これから図9Aに示した照明の白色点の相対三
刺激値XwYwZw、順応視野の輝度La、モニタの白色点の相
対三刺激値XrwYrwZrw、および、照明下のモニタ輝度Lar
を求めることができる。「Abosolute XYZ value for su
rround」には該当するものが存在しない。「illuminant
type」は、図7に示した観察照明およびモニタの白と一
致している。
[Abosolute XYZ value for illuminant]
The absolute tristimulus values X L Y of the white illumination shown in FIG.
L Z L, and the absolute tristimulus values X M Y M Z M White monitor corresponds. From now on, the relative tristimulus value XwYwZw of the white point of the illumination shown in FIG. 9A, the luminance La of the adaptive visual field, the relative tristimulus value XrwYrwZrw of the white point of the monitor, and the monitor luminance Lar under illumination
Can be requested. `` Abosolute XYZ value for su
There is no such thing in "round". "Illuminant
The “type” matches the observation illumination and the white of the monitor shown in FIG.

【0033】照明の白の絶対的な三刺激値XLYLZLから、
照明の白色点の相対三刺激値XwYwZw、および、順応視野
の輝度Laへの変換は次式で示される。 Xw = 100×xw/yw Yw = 100 Zw = (1 - xw - yw)×100/yw …(1) La = 20×Yw/100 ただし、xw = XL/XYZL yw = YL/XYZL XYZL = XL + YL + ZL
From the absolute tristimulus values X L Y L Z L of the illumination white,
The conversion of the white point of the illumination to the relative tristimulus values XwYwZw and the adaptation field of view to the luminance La is represented by the following equation. Xw = 100 × x w / y w Yw = 100 Zw = (1-x w -y w ) × 100 / y w … (1) La = 20 × Yw / 100 where x w = X L / XYZ L y w = Y L / XYZ L XYZ L = X L + Y L + Z L

【0034】また、モニタの白の絶対的な三刺激値XMYM
ZMから、モニタの白色点の相対三刺激値XrwYrwZrw、お
よび、照明下のモニタ輝度Larへの変換は次式で示され
る。 Xrw = 100×xrw/yrw Yrw = 100 Zrw = (1 - xrw - yrw)×100/yrw …(2) La = 20×Yrw/100 ただし、xrw = XM/XYZM yrw = YM/XYZM XYZM = XM + YM + ZM
Also, the absolute tristimulus value X M Y M of white on the monitor
From Z M, relative tristimulus values XrwYrwZrw the white point of the monitor, and conversion to the illumination of a monitor brightness Lar is expressed by the following equation. Xrw = 100 × x rw / y rw Yrw = 100 Zrw = (1-x rw -y rw ) × 100 / y rw ... (2) La = 20 × Yrw / 100 where x rw = X M / XYZ M y rw = Y M / XYZ M XYZ M = X M + Y M + Z M

【0035】上記の変換式は、XLYLZLおよびXMYMZMが白
の絶対的な値であり、XwYwZwおよびXrwYrwZrwは白の相
対的な値であること、並びに、LaおよびLarは白の絶対
輝度の20%の値という定義からなり立っている。
The above equation shows that X L Y L Z L and X M Y M Z M are absolute values of white, XwYwZw and XrwYrwZrw are relative values of white, and La and Lar consists of a definition of 20% of the absolute brightness of white.

【0036】[プライベートタグ]図11はInter Color
Profile Formatのプライベートタグに含まれる観察条件
に関連する内容を示す図である。
[Private Tag] FIG. 11 shows the Inter Color
FIG. 4 is a diagram illustrating content related to viewing conditions included in a private tag of a Profile Format.

【0037】「Relative luminance of background」は
図9Aに示した照明下の背景の相対輝度Yb、および、モニ
タ表示の背景の相対輝度Ybrに、「Impact of surroun
d」は図9Aに示した周囲の影響の定数cに、「Chromatic
inducation factor」は図9Aの色誘導係数Ncに、「Light
ness contrast factor」は図9Aに示した明度コントラス
ト係数FLLに、並びに、「Degree of adaptation」は図9
Aに示した順応度係数Fにそれぞれ一致する。
“Relative luminance of background” is the relative luminance Yb of the background under illumination and the relative luminance Ybr of the background displayed on the monitor shown in FIG.
d) is the ambient effect constant c shown in FIG.
The `` induction factor '' is replaced by `` Light
`` ness contrast factor '' is the brightness contrast coefficient FLL shown in FIG. 9A, and `` Degree of adaptation '' is
Each of them corresponds to the adaptation coefficient F shown in A.

【0038】[プロファイル格納部]図12は、図7に示
した観察照明の白に対応した三つのスキャナプロファイ
ル、および、モニタの白に対応した三つのプロファイル
がそれぞれ、スキャナプロファイル格納部19およびモニ
タプロファイル格納部18に格納されていることを示して
いる。スキャナプロファイルには、スキャナRGBから観
察照明の白に依存したXYZに変換するためのデータが、
モニタプロファイルには、モニタの白に依存したXYZか
らモニタRGBへの変換データが格納される。
[Profile Storage Unit] FIG. 12 shows the three scanner profiles corresponding to the observation illumination white shown in FIG. 7 and the three profiles corresponding to the monitor white shown in FIG. This indicates that the information is stored in the profile storage unit 18. In the scanner profile, data to convert from scanner RGB to XYZ depending on the white of the observation illumination,
In the monitor profile, conversion data from XYZ depending on the white of the monitor to monitor RGB is stored.

【0039】[カラーマッチング処理]図13は、スキャ
ナユーティリティ17によりスキャナ3にセットされたオ
リジナル画像を読み込み、その観察条件を考慮して、ス
キャナ3とモニタ2との間のカラーマッチング処理を行
い、その結果をモニタ2に表示する一連の処理例を示す
フローチャートである。
[Color Matching Process] FIG. 13 shows an original image set on the scanner 3 by the scanner utility 17, and performs a color matching process between the scanner 3 and the monitor 2 in consideration of the observation conditions. 9 is a flowchart showing a series of processing examples for displaying the result on a monitor 2.

【0040】ステップS100でスキャナユーティリティ17
が起動され、ステップS101で図6に示した観察条件を設
定するUIが表示される。ステップS102では、観察条件を
設定するUIの各項目のランクが選択される。例えば、
「観察照明の明るさ」で「明るい」ランクが選択され
る。
In step S100, the scanner utility 17
Is activated, and a UI for setting the observation conditions shown in FIG. 6 is displayed in step S101. In step S102, the rank of each item of the UI for setting the viewing condition is selected. For example,
The “bright” rank is selected in “brightness of observation illumination”.

【0041】次に、ステップS103では、ステップS102の
選択結果を基に、スキャナプロファイル向けおよびモニ
タプロファイル向けの観察条件タグ(図10参照)および
プライベートタグ(図11参照)が、タグデータ生成部1B
により作成される。ステップS104では、選択された「観
察照明の白」のランクに対応するスキャナプロファイル
が、スキャナプロファイル格納部19に格納された三つの
スキャナプロファイル(図12参照)から選択される。ス
テップS105では、選択された「モニタの白」のランクに
対応するモニタプロファイルが、モニタプロファイル格
納部18に格納された三つのモニタプロファイル(図12参
照)から選択される。
Next, in step S103, based on the selection result in step S102, the observation condition tag (see FIG. 10) and the private tag (see FIG. 11) for the scanner profile and the monitor profile are converted to the tag data generation unit 1B.
Created by In step S104, a scanner profile corresponding to the selected rank of “white of observation illumination” is selected from three scanner profiles (see FIG. 12) stored in the scanner profile storage unit 19. In step S105, a monitor profile corresponding to the selected “monitor white” rank is selected from the three monitor profiles stored in the monitor profile storage unit 18 (see FIG. 12).

【0042】続いて、ステップS106では、ステップ103
で作成した観察条件タグおよびプライベートタグを、ス
テップS105で選択したスキャナおよびモニタプロファイ
ル内にセットする。観察条件タグおよびプライベートタ
グがセットされたスキャナプロファイルおよびモニタプ
ロファイルは、ステップS107でCMM16に渡される(セッ
トされる)。
Subsequently, in step S106, step 103
The observation condition tag and the private tag created in step S105 are set in the scanner and monitor profile selected in step S105. The scanner profile and the monitor profile in which the observation condition tag and the private tag are set are transferred (set) to the CMM 16 in step S107.

【0043】ステップS108でCMM16にカラーマッチング
処理を実行させ、ステップS109でカラーマッチング結
果、つまりカラーマッチングされた画像をモニタ2に表
示して処理を終了する。
In step S108, the CMM 16 executes the color matching process. In step S109, the color matching result, that is, the color-matched image is displayed on the monitor 2, and the process ends.

【0044】このように、スキャナ3とモニタ2との間の
カラーマッチングを観察環境を考慮して行うことが可能
である。
As described above, color matching between the scanner 3 and the monitor 2 can be performed in consideration of the observation environment.

【0045】[観察条件の設定]図14は観察条件を設定
するUIの各項目のランクが選択されるステップS102の詳
細例を示すフローチャートである。
[Setting of Observation Conditions] FIG. 14 is a flowchart showing a detailed example of step S102 in which the rank of each item of the UI for setting the observation conditions is selected.

【0046】ステップS200で「観察照明の明るさ」のラ
ンクが選択され、ステップS201で、選択された「観察照
明の明るさ」のランクに対応する照明の白の三刺激値の
絶対値であるXLYLZLの値を、図7に示すデータから選択
し、保持する。
In step S200, the rank of "brightness of observation illumination" is selected, and in step S201, it is the absolute value of the white tristimulus value of the illumination corresponding to the selected rank of "brightness of observation illumination". The value of X L Y L Z L is selected from the data shown in FIG. 7 and held.

【0047】次に、ステップS202で「観察照明の白」の
ランクが選択され、ステップS203で、選択された「観察
照明の白」のランクに対応する情報を、図7に示すデー
タから選択しLwにセットする。
Next, in step S202, the rank of "white of observation illumination" is selected. In step S203, information corresponding to the selected rank of "white of observation illumination" is selected from the data shown in FIG. Set to Lw.

【0048】次に、ステップS204で「モニタの明るさ」
のランクが選択され、ステップS205で、選択された「モ
ニタの明るさ」のランクに対応するモニタの白の三刺激
値の絶対値であるXMYMYMの値を、図7に示すデータから
選択し、保持する。
Next, at step S204, "monitor brightness"
Rank is selected in, in step S205, the value of an absolute value is X M Y M Y M of the tristimulus values of white of the monitor corresponding to the rank of the selected "monitor brightness" shown in FIG. 7 Select from data and keep.

【0049】次に、ステップS206で「モニタの白」のラ
ンクが選択され、ステップS207で、選択された「モニタ
の白」のランクに対応する情報を、図7に示すデータか
ら選択しMwにセットして処理を終了する。
Next, in step S206, the rank of "monitor white" is selected. In step S207, information corresponding to the selected rank of "monitor white" is selected from the data shown in FIG. Set and end the process.

【0050】このように、図6に示す観察条件を設定す
るためのUIにより選択された各項目のランクに対応した
情報または値を観察条件パラメータ格納部1Aから取り出
すことができる。なお、図14には「観察照明の明るさ」
「観察照明の白」「モニタの明るさ」「モニタの白」の
順に設定される例を説明したが、設定(選択)の順序は
任意であるとともに、設定を変更する必要がない項目の
ステップは省略可能である。
As described above, the information or value corresponding to the rank of each item selected by the UI for setting the viewing condition shown in FIG. 6 can be taken out from the viewing condition parameter storage unit 1A. FIG. 14 shows “brightness of observation illumination”.
The example in which the setting is performed in the order of “observation illumination white”, “monitor brightness”, and “monitor white” has been described. Can be omitted.

【0051】[タグの作成]図15はスキャナおよびモニ
タプロファイル向けに観察条件タグおよびプライベート
タグを作成するステップS103の詳細例を示すフローチャ
ートである。
[Creation of Tag] FIG. 15 is a flowchart showing a detailed example of step S103 for creating an observation condition tag and a private tag for a scanner and a monitor profile.

【0052】ステップS300で、図10に示した観察条件タ
グのタイプ記述子(type descriptor)部分を作成し、予
めこのタグに対して定義された内容を入れてステップS3
01へ進む。ステップS301では、観察条件タグの予約(Res
erved)部分を作成する。
In step S300, a type descriptor portion of the observation condition tag shown in FIG. 10 is created, and the contents defined in advance for this tag are entered, and step S3 is executed.
Go to 01. In step S301, reservation of the observation condition tag (Res
erved) part.

【0053】次に、ステップS302で、観察条件タグの
「Absolute XYZ value for illuminant」部分を作成
し、スキャナプロファイル向けのタグにはステップS201
で保持されたXLYLZLの値を、モニタプロファイル向けの
タグにはステップS205で保持されたXMYMYMの値を入れ
る。
Next, in step S302, an “Absolute XYZ value for illuminant” portion of the observation condition tag is created, and the tag for the scanner profile is created in step S201.
In the value of the retained X L Y L Z L, the tags for monitor profile put the value of X M Y M Y M that is held in step S205.

【0054】次に、ステップS303で、観察条件タグの
「Absolute XYZ value for surround」部分を作成し、
このタグは使用しないためNULL値を入れる。
Next, in step S303, an “Absolute XYZ value for surround” portion of the viewing condition tag is created,
Since this tag is not used, enter a NULL value.

【0055】次に、ステップS304で、観察条件タグの
「Illuminant type」部分を作成し、スキャナプロファ
イル向けのタグにはステップS203で保持されたLwの値
を、モニタプロファイル向けのタグにはステップS207で
保持されたMwの値を入れて処理を終了する。
Next, in step S304, an "Illuminant type" portion of the observation condition tag is created, and the value of Lw held in step S203 is set for the tag for the scanner profile, and the step S207 is set for the tag for the monitor profile. The process is terminated by inputting the value of Mw held in the step.

【0056】このように、スキャナおよびモニタプロフ
ァイル向けに、図6に示した観察条件を設定するUIによ
り設定された観察条件に基づく観察条件タグおよびプラ
イベートタグを作成することが可能である。
As described above, it is possible to create an observation condition tag and a private tag for the scanner and the monitor profile based on the observation condition set by the UI for setting the observation condition shown in FIG.

【0057】[タグのセット]図16はスキャナおよびモ
ニタプロファイル向けに作成した観察条件タグおよびプ
ライベートタグをセットするステップS106の詳細例を示
すフローチャートである。
[Setting of Tag] FIG. 16 is a flowchart showing a detailed example of step S106 for setting an observation condition tag and a private tag created for a scanner and a monitor profile.

【0058】ステップS400で、選択されたスキャナプロ
ファイルをRAM12に読み込む。ステップS401では、RAM12
に読み込まれたスキャナプロファイル内に、作成された
スキャナプロファイル向けの観察条件タグをセットす
る。ステップS402では、RAM12に読み込まれたスキャナ
プロファイル内に、作成されたスキャナプロファイル向
けのプライベートタグをセットする。
At step S 400, the selected scanner profile is read into RAM 12. In step S401, RAM12
A viewing condition tag for the created scanner profile is set in the scanner profile read in. In step S402, a private tag for the created scanner profile is set in the scanner profile read into the RAM 12.

【0059】次に、ステップS403で、選択されたモニタ
プロファイルをRAM12に読み込む。ステップS404では、R
AM12に読み込まれたモニタプロファイル内に、作成され
たモニタプロファイル向けの観察条件タグをセットす
る。ステップS405では、RAM12に読み込まれたモニタプ
ロファイル内に、作成されたモニタプロファイル向けの
プライベートタグをセットして、処理を終了する。
Next, in step S403, the selected monitor profile is read into the RAM 12. In step S404, R
Set the observation condition tag for the created monitor profile in the monitor profile read into AM12. In step S405, a private tag for the created monitor profile is set in the monitor profile read into the RAM 12, and the process ends.

【0060】このように、スキャナプロファイル格納部
19およびモニタプロファイル格納部18からRAM12に一時
的に取り出したスキャナおよびモニタプロファイルに対
して、図6に示した観察条件を設定するためのUIにより
設定された観察条件に基づく管圧条件タグおよびプライ
ベートタグをセットすることが可能である。
As described above, the scanner profile storage unit
For the scanner and the monitor profile temporarily taken out of the RAM 12 from the monitor profile storage unit 19 and the monitor profile storage unit 18, the tube pressure condition tag and the private based on the observation condition set by the UI for setting the observation condition shown in FIG. Tags can be set.

【0061】[カラーマッチング]図17はCMM16にカラ
ーマッチング処理を実行させるステップS108の詳細例を
示すフローチャートである。
[Color Matching] FIG. 17 is a flowchart showing a detailed example of step S108 for causing the CMM 16 to execute color matching processing.

【0062】ステップS500で、セットされたスキャナプ
ロファイルから観察条件タグの「Absolute XYZ value f
or illuminant」の内容であるXLYLZLの値を取り出す。
ステップS501では、上述した式(1)を用いてXWYWZWおよ
びLaを算出する。
In step S500, “Absolute XYZ value f” of the observation condition tag is set based on the set scanner profile.
taking out or illuminant value of X L Y L Z L is the content of the ".
At step S501, it calculates the X W Y W Z W and La using equation (1) described above.

【0063】次に、ステップS502で、セットされたスキ
ャナプロファイルからプライベートタグの内容であるY
b、c、Nc、FLLおよびFの値を取り出す。ステップS503で
は、セットされたモニタプロファイルから観察条件タグ
の「Absolute XYZ value forilluminant」の内容である
XMYMYMの値を取り出す。ステップS504では、上述した式
(2)を用いてXrwYrwZrwおよびLarを算出する。
Next, in step S502, the content of the private tag, Y, is read from the set scanner profile.
Retrieve the values of b, c, Nc, FLL and F. In step S503, the content of the “Absolute XYZ value forilluminant” of the observation condition tag is set based on the set monitor profile.
Extract the value of X M Y M Y M. In step S504, the above-described expression
XrwYrwZrw and Lar are calculated using (2).

【0064】次に、ステップS505で、セットされたモニ
タプロファイルからプライベートタグの内容であるYb、
C、Nc、FLLおよびFの値を取り出す。ステップS506で
は、スキャナプロファイルを用いて、スキャナRGBデー
タを観察照明の白に依存するXYZデータに変換する。
Next, in step S505, Yb, which is the content of the private tag, is read from the set monitor profile.
Retrieve the values of C, Nc, FLL and F. In step S506, the scanner RGB data is converted into XYZ data depending on the observation illumination white using the scanner profile.

【0065】次に、ステップS507で、ステップS501から
S505で得られたパラメータを基にCIE CAM97sの処理を行
い、モニタの白に依存するXYZデータを得る。ステップS
508では、モニタプロファイルを用いて、モニタの白に
依存するXYZデータをモニタに依存するRGBデータに変換
して、処理を終了する。
Next, in step S507, from step S501
Based on the parameters obtained in S505, the processing of CIE CAM97s is performed to obtain XYZ data depending on the monitor white. Step S
In 508, the XYZ data depending on white of the monitor is converted into RGB data depending on the monitor using the monitor profile, and the process is terminated.

【0066】このように、観察条件に関わるタグ(観察
条件タグおよびプライベートタグ)がセットされたスキ
ャナおよびモニタプロファイルを用いて、CIE CAM97sを
用いたカラーマッチング処理により、カラーマッチング
を行うことが可能である。
As described above, color matching can be performed by color matching processing using CIE CAM97s using a scanner and a monitor profile in which tags relating to viewing conditions (viewing condition tags and private tags) are set. is there.

【0067】[CIE CAM97sの処理]図18および図19を用
いてCIE CAM97sの処理を行うステップS507の詳細を説明
する。
[Process of CIE CAM97s] The details of step S507 for performing the process of CIE CAM97s will be described with reference to FIGS. 18 and 19.

【0068】●順変換 図18は、図8において、入力画像に観察条件VC1に応じた
補正処理(XYZをJChまたはQMHに変換する処理)を施す
色知覚モデルCIE CAM97sの順変換における処理内容を示
すフローチャートである。
FIG. 18 shows the contents of the forward conversion of the color perception model CIE CAM97s, which performs the correction processing (the processing of converting XYZ into JCh or QMH) according to the viewing condition VC1 on the input image in FIG. It is a flowchart shown.

【0069】まず、入力画像の観察条件情報として、ス
テップS660で、順応視野の輝度(cd/m2、通常、順応視
野における白の輝度の20%を選らぶ)であるLa、光源条
件における試料の相対三刺激値であるXYZ、光源条件に
おける白色光の相対三刺激値であるXwYwZw、および、光
源条件における背景の相対輝度であるYbが設定される。
また、ステップS680で指定される観察条件のタイプに基
づき、入力画像の観察条件情報として、ステップS670で
周囲の影響の定数c、色誘導係数Nc、明度コントラスト
係数FLLおよび順応度の係数Fが設定される。
First, in step S660, as the observation condition information of the input image, La which is the luminance of the adaptive visual field (cd / m 2 , usually 20% of the white luminance in the adaptive visual field is selected), and the sample under the light source conditions , XwYwZw, which is the relative tristimulus value of white light under the light source condition, and Yb, which is the relative luminance of the background under the light source condition.
Also, based on the type of viewing condition specified in step S680, as the viewing condition information of the input image, in step S670, a constant c of surrounding influence, a color induction coefficient Nc, a brightness contrast coefficient FLL, and a coefficient F of adaptation are set. Is done.

【0070】ステップS660およびS670で設定された入力
画像観察条件情報に基づき、入力像を示す三刺激値XYZ
に対して以下のような処理が行われる。
Based on the input image observation condition information set in steps S660 and S670, tristimulus values XYZ indicating the input image
Is processed as follows.

【0071】まず、人間の生理的な三原色として考えら
れているBradfordの三原色に基づき、XYZを変換してBra
dford錐体応答RGBが求められる(S600)。人間の視覚は常
に観察光源に完全順応するわけではないので、輝度レベ
ルと周囲条件(LaおよびF)に基づき順応度を示す変数D
を求め、この変数DおよびXwYwZwに基づき、RGBに対して
不完全順応処理を行いRcGcBcに変換される(S610)。
First, XYZ is converted based on Bradford's three primary colors, which are considered as physiological three primary colors of humans, and Bra is converted.
The dford cone response RGB is obtained (S600). Since human vision does not always perfectly adapt to the viewing illuminant, a variable D that indicates the degree of adaptation based on the luminance level and the surrounding conditions (La and F)
Is calculated based on this variable D and XwYwZw, and the RGB is converted to RcGcBc by performing incomplete adaptation processing (S610).

【0072】次に、人間の生理的な三原色として考えら
れているHunt-Pointer-Estevezの三原色に基づき、RcGc
Bcを変換してHun-Pointer-Estevez錐体応答R'G'B'が求
められる(S620)。このR'G'B'に対して刺激強度レべルに
よる順応度合いの推定が行われ、試料と白の両方に応じ
た順応後錐体応答が求められる(S630)。なお、ステップ
S630では、順応視野の輝度Laに基づき求められる変数FL
を用いて非線型応答圧縮が行われる。
Next, based on the three primary colors of Hunt-Pointer-Estevez, which are considered as the three primary colors of human physiology, RcGc
By converting Bc, a Hun-Pointer-Estevez cone response R'G'B 'is obtained (S620). The adaptation degree is estimated for the R'G'B 'by the stimulus intensity level, and the post-adaptation cone response corresponding to both the sample and white is obtained (S630). Note that step
In S630, the variable FL calculated based on the luminance La
Is used to perform non-linear response compression.

【0073】続いて、見えとの相関関係を求めるため
に、以下の処理が行われる。
Subsequently, the following processing is performed to determine the correlation with the appearance.

【0074】赤-緑および黄色-青の反対色応答abがR'a
G'aB'aから求められ(S640)、反対色応答abおよび偏心係
数から色相Hが求められる(S650)。
The opponent red-green and yellow-blue response ab is R'a
The hue H is obtained from G'aB'a (S640), and the hue H is obtained from the opposite color response ab and the eccentricity coefficient (S650).

【0075】また、Ywおよび背景の相対輝度Ybから求め
られる背景誘導係数nが求められ、この背景誘導係数nを
用いて試料および白の両方に関する無彩色応答AおよびA
wが求められ(S690)、背景誘導係数nおよび明度コントラ
スト係数FLLから求められる係数z、並びに、A、Awおよ
びcに基づき明度Jが求められ(S651)、色誘導係数Ncから
飽和度Sが求められ(S653)、飽和度Sおよび明度Jからク
ロマCが求められ(S652)、明度Jおよび白の無彩色応答Aw
から輝度Qが求められる(S654)。
Further, a background induction coefficient n obtained from Yw and the relative luminance Yb of the background is obtained, and the achromatic responses A and A for both the sample and white are obtained using the background induction coefficient n.
w is obtained (S690), the coefficient z obtained from the background induction coefficient n and the lightness contrast coefficient FLL, and the lightness J is obtained based on A, Aw and c (S651), and the saturation S is obtained from the color induction coefficient Nc. The chroma C is obtained from the saturation S and the brightness J (S652), and the brightness J and the white achromatic response Aw
Is obtained from the luminance (S654).

【0076】また、変数FLおよび周囲の影響の定数cか
らカラフルネスMが求められる(S655)。
The colorfulness M is obtained from the variable FL and the constant c of the influence of the surroundings (S655).

【0077】●逆変換 図19は、図8において、観察条件VC2に応じた補正処理
(JChまたはQMHをXYZに変換する処理)を行う色知覚モ
デルCIE CAM97sの逆変換における処理内容を示すフロー
チャートである。
Inverse Transform FIG. 19 is a flowchart showing the content of the inverse transform of the color perception model CIE CAM97s that performs the correction process (the process of converting JCh or QMH to XYZ) according to the viewing condition VC2 in FIG. is there.

【0078】図19では、図17に示す処理によって求めら
れた色知覚の相関量であるH(色相)、J(明度)、C
(クロマ)またはh(色相)、Q(ブライトネス)、M
(カラフルネス)の値から、試料の三刺激値XYZに対応
した出力観察条件におけるXYZ値であるX'Y'Z'が求めら
れる。なお、図18では、図をわかりやすくするために、
一部、各係数が影響する処理を示す矢印を省略してい
る。
In FIG. 19, H (hue), J (lightness), and C, which are the correlation amounts of the color perception obtained by the processing shown in FIG.
(Chroma) or h (Hue), Q (Brightness), M
From the value of (colorfulness), X′Y′Z ′ which is an XYZ value under output observation conditions corresponding to the tristimulus value XYZ of the sample is obtained. In FIG. 18, to make the figure easier to understand,
In some cases, arrows indicating processes affected by each coefficient are omitted.

【0079】まず、ステップS700において特定された出
力画像の観察条件情報として、ステップS701で順応視野
の輝度(cd/m2、通常、順応視野における白の輝度の20%
を選ぶ)であるLar、光源条件における白色光の相対三
刺激値であるXrwYrwZrw、光源条件における背景の相対
輝度であるYbrを設定する。また、ステップS700におい
て指定された観察条件のタイプに基づき、入力画像の観
察条件情報として、ステップS702で周囲の影響の定数
c'、色誘導係数Nc'、明度コントラスト係数FLL'、順応
度の係数F'を設定する。
First, as the viewing condition information of the output image specified in step S700, in step S701, the luminance of the adaptive visual field (cd / m 2 , usually 20% of the white luminance in the adaptive visual field)
Is set), XrwYrwZrw which is the relative tristimulus value of white light under the light source condition, and Ybr which is the relative luminance of the background under the light source condition. Also, based on the type of observation condition specified in step S700, the constant of the influence of the surroundings is set as the observation condition information of the input image in step S702.
c ′, the color induction coefficient Nc ′, the brightness contrast coefficient FLL ′, and the adaptation coefficient F ′ are set.

【0080】まず、XYZを人問の生理的な三原色として
考えられているBradfordの三原色に基づき変換し、白色
光の相対三刺激値であるXrwYrwZrwに対するBradford錐
体応答Rw'Gw'Bw'を求める(S703)。
First, XYZ is converted based on Bradford's three primary colors, which are considered as physiological three primary colors, and a Bradford cone response Rw'Gw'Bw 'to XrwYrwZrw which is a relative tristimulus value of white light is obtained. (S703).

【0081】人間の視覚は常に観察光源に完全順応する
わけではないので輝度レベルと周囲条件(Larおよび
F')に基づき順応度を示す変数D'を求める(S704)ととも
に、Brwの値から変数P'を求める(S705)。この変数D'、
P'およびRw'Gw'Bw'に基づき、Rcw'Gcw'Bcw'を求める(S7
06)。
Since human vision is not always perfectly adapted to the viewing illuminant, the brightness level and ambient conditions (Lar and
Based on F ′), a variable D ′ indicating the degree of adaptation is obtained (S704), and a variable P ′ is obtained from the value of Brw (S705). This variable D ',
Rcw'Gcw'Bcw 'is determined based on P' and Rw'Gw'Bw '(S7
06).

【0082】Rcw'Gcw'Bcw'をHunt-Pointer-Estevezの三
原色に基づきXYZに変換し、Hunt-Pointer-Estevez錐体
応答を求め、それに対して刺激強度レべルによる順応度
合いの推定を行い、白の順応後錐体応答Raw"Gaw"Baw"を
求める(S707)。
Rcw'Gcw'Bcw 'is converted into XYZ based on the three primary colors of Hunt-Pointer-Estevez, a Hunt-Pointer-Estevez cone response is obtained, and a degree of adaptation is estimated based on the stimulus intensity level. Then, a post-adaptive cone response Raw "Gaw" Baw "of white is obtained (S707).

【0083】次に、ステップS654で求めた輝度Qから明
度Jを求め(S708)、さらに、ステップS650で求めた色相
角Hからユニーク色相の色相角hを求める(S709)。
Next, the lightness J is obtained from the luminance Q obtained in step S654 (S708), and the hue angle h of the unique hue is obtained from the hue angle H obtained in step S650 (S709).

【0084】また、ステップS701の順応視野の輝度Lar
に基づき変数FL'を求め(S710)、FL'とステップS655で求
めたカラフルネスMからクロマCを求める(S711)。
Further, the luminance Lar of the adaptive visual field in step S701
A variable FL 'is obtained based on the above (S710), and a chroma C is obtained from FL' and the colorfulness M obtained in step S655 (S711).

【0085】そして、ステップS701のYrwおよび背景の
相対輝度Ybrから背景誘導係数n'を求め(S712)、ステッ
プS711で求めたクロマCおよびステップS708で求めた明
度Jから飽和度s'を求める(S713)。また、ステップS712
で求めたn'から変数Nbb'およびNcb'を求め(S714)、Nbb'
とステップS707で求めたRaw"Gaw"Baw"から白の無彩色応
答Aw'を求める(S715)。
Then, a background derivation coefficient n ′ is obtained from Yrw of step S701 and the relative luminance Ybr of the background (S712), and a saturation s ′ is obtained from the chroma C obtained in step S711 and the brightness J obtained in step S708 ( S713). Step S712
The variables Nbb 'and Ncb' are obtained from n 'obtained in (S714), and Nbb'
Then, a white achromatic response Aw 'is obtained from Raw "Gaw" Baw "obtained in step S707 (S715).

【0086】さらに、ステップS702の明度コントラスト
係数FLL'から係数z'を求め(S716)、ステップS702の周囲
の影響の定数c'、ステップS715で求めたAw'およびステ
ップS708で求めた明度Jから無彩色応答A'が求まる(S71
5)。このA'、ステップS702の色誘導係数Nc'、ステップS
713で求めた飽和度s'、ステップS709で求めたh、ステッ
プS714で求めたNbb'およびNcb'から赤-緑の反対色応答
a'を求め(S716)、このa'とステップS709で求めたhとか
ら黄色-青の反対色応答b'を求める(S717)。そして、a'
およびb'、ステップS714で求めたNbb'、並びに、ステッ
プS715で求めたA'から順応後錐体応答Ra"Ga"Ba"を求め
る(S718)。
Further, a coefficient z ′ is obtained from the brightness contrast coefficient FLL ′ in step S702 (S716), and a constant c ′ of the influence around the step S702, Aw ′ obtained in step S715, and brightness J obtained in step S708. Achromatic response A 'is determined (S71
Five). This A ′, the color induction coefficient Nc ′ of step S702, the step S702
Opposite-color response of red-green from saturation s ′ obtained in 713, h obtained in step S709, Nbb ′ and Ncb ′ obtained in step S714
a ′ is obtained (S716), and the opposite color response b ′ of yellow-blue is obtained from this a ′ and h obtained in step S709 (S717). And a '
And b ′, Nbb ′ obtained in step S714, and A ′ obtained in step S715, the post-adaptive cone response Ra “Ga” Ba ”is obtained (S718).

【0087】次にこのRa"Ga"Ba"からHunt-Pointer-Este
vez錐体R"G"B"を求め(S719)、このR"G"B"とステップS71
0で求めた変数FL'とからRc'Gc'Bc'を求め(S720)、このR
c'Gc'Bc'、ステップS704で求めた変数D'、ステップS705
で求めた変数P'およびステップS703で求めたRw'Gw'Bw'
を用いてBradford錐体応答R"G"B"を求め'(S721)、この
R"G"B"から試料XYZに対応した、出力観察条件における
X'Y'Z'が求まる(S722)。
Next, from the Ra “Ga” Ba ”, Hunt-Pointer-Este
The vez cone R "G" B "is obtained (S719), and the R" G "B" and step S71 are obtained.
Rc'Gc'Bc 'is determined from the variable FL' determined at 0 (S720), and this R
c′Gc′Bc ′, variable D ′ obtained in step S704, step S705
The variable P ′ obtained in step and Rw′Gw′Bw ′ obtained in step S703
To find the Bradford cone response R "G" B "'(S721)
Under output observation conditions corresponding to sample XYZ from R "G" B "
X'Y'Z 'is obtained (S722).

【0088】このように、CIE CAM97sを用いて、入力観
察条件のXYZから出力観察条件のX'Y'Z'への変換を行う
ことが可能である。
As described above, it is possible to convert the input observation conditions from XYZ to the output observation conditions X'Y'Z 'using CIE CAM97s.

【0089】このように、図6に示した観察条件を設定
するためのUIにより設定された観察条件に従い、観察条
件の白に対応したスキャナおよびモニタプロファイルを
複数用意したり、CIE CAM97sの処理に必要な情報である
タグをスキャナおよびモニタプロファイルにセットする
ことにより、CIE CAM97sに対応したCMSの処理を行うこ
とが可能である。言い換えれば、ユーザによって選択さ
れた明るさや白などの観察環境の条件に基づいて加工さ
れたデバイスプロファイルを利用してカラーマッチング
処理を行うので、スキャナによって読み取った画像に対
して、環境光を考慮したカラーマッチングを容易に行う
ことができ、環境光に応じたカラーマッチングが施され
た画像をモニタに表示することが可能になる。
As described above, in accordance with the observation conditions set by the UI for setting the observation conditions shown in FIG. 6, a plurality of scanners and monitor profiles corresponding to the observation conditions of white are prepared, and the CIE CAM97s is processed. By setting a tag, which is necessary information, in a scanner and a monitor profile, it is possible to perform CMS processing compatible with CIE CAM97s. In other words, since the color matching process is performed using the device profile processed based on the conditions of the observation environment such as brightness and white selected by the user, the environment light is considered for the image read by the scanner. Color matching can be easily performed, and an image on which color matching according to ambient light has been performed can be displayed on a monitor.

【0090】[0090]

【他の実施形態】なお、本発明は、複数の機器(例えば
ホストコンピュータ、インタフェイス機器、リーダ、プ
リンタなど)から構成されるシステムに適用しても、一
つの機器からなる装置(例えば、複写機、ファクシミリ
装置など)に適用してもよい。
[Other Embodiments] Even if the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus (for example, a copying machine) Machine, facsimile machine, etc.).

【0091】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納されたプログ
ラムコードを読み出し実行することによっても、達成さ
れることは言うまでもない。この場合、記憶媒体から読
み出されたプログラムコード自体が前述した実施形態の
機能を実現することになり、そのプログラムコードを記
憶した記憶媒体は本発明を構成することになる。また、
コンピュータが読み出したプログラムコードを実行する
ことにより、前述した実施形態の機能が実現されるだけ
でなく、そのプログラムコードの指示に基づき、コンピ
ュータ上で稼働しているオペレーティングシステム(OS)
などが実際の処理の一部または全部を行い、その処理に
よって前述した実施形態の機能が実現される場合も含ま
れることは言うまでもない。
Further, an object of the present invention is to supply a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and a computer (a computer) of the system or the apparatus. It is needless to say that the present invention can also be achieved by a CPU or an MPU) reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. Also,
When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also the operating system (OS) running on the computer based on the instructions of the program code.
It goes without saying that a case where the functions of the above-described embodiments are implemented by performing some or all of the actual processing, and the processing performs the functions of the above-described embodiments.

【0092】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, the program code is read based on the instruction of the program code. Needless to say, the CPU included in the function expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0093】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明した図13から図16(必要であ
れば、さらに図17および図18)に示すフローチャートに
対応するプログラムコードが格納されることになる。
When the present invention is applied to the storage medium, the storage medium has program codes corresponding to the flowcharts shown in FIGS. 13 to 16 (and, if necessary, FIGS. 17 and 18). Will be stored.

【0094】[0094]

【発明の効果】以上説明したように、本発明によれば、
一般的な観察条件において色順応変換を行う画像処理を
提供することができる。
As described above, according to the present invention,
Image processing for performing chromatic adaptation conversion under general viewing conditions can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】CMSが想定する観察環境を示す図、FIG. 1 is a diagram showing an observation environment assumed by a CMS,

【図2】CMSの処理系を示す図、FIG. 2 is a diagram showing a processing system of CMS;

【図3】デバイスプロファイルの構造例を示す図、FIG. 3 is a diagram showing an example of the structure of a device profile.

【図4】環境光を考慮した実際の観察環境の一例を示す
図、
FIG. 4 is a diagram showing an example of an actual observation environment in consideration of ambient light;

【図5】本発明にかかる一実施形態のシステム構成例を
示す図、
FIG. 5 is a diagram showing an example of a system configuration according to an embodiment of the present invention;

【図6】図5に示すスキャナユーティリティが提供する
観察条件を設定するためのユーザインタフェイス(UI)の
一例を示す図、
6 is a view showing an example of a user interface (UI) for setting viewing conditions provided by the scanner utility shown in FIG. 5;

【図7】図6に示すスキャナユーティリティのユーザイ
ンタフェイスにおける各項目のランクそれぞれに対応す
る観察条件を表す値を示す図、
FIG. 7 is a diagram showing values representing viewing conditions corresponding to each rank of each item in the user interface of the scanner utility shown in FIG. 6;

【図8】環境光を考慮する場合のCMS処理の一例を示す
図、
FIG. 8 is a diagram showing an example of a CMS process when environmental light is considered,

【図9A】図4に示す観察環境の観察条件パラメータを
示す図、
9A is a view showing observation condition parameters of the observation environment shown in FIG. 4;

【図9B】周囲光と観察条件パラメータとの関係を示す
図、
FIG. 9B is a diagram showing a relationship between ambient light and observation condition parameters;

【図10】Inter Color Profile Formatのオプショナル
タグに含まれる観察条件タグの内容を示す図、
FIG. 10 is a diagram showing the contents of viewing condition tags included in optional tags of Inter Color Profile Format,

【図11】Inter Color Profile Formatのプライベート
タグに含まれる観察条件に関連する内容を示す図、
FIG. 11 is a diagram showing contents related to viewing conditions included in a private tag of Inter Color Profile Format,

【図12】図5に示すスキャナプロファイル格納部およ
びモニタプロファイル格納部に格納されているプロファ
イルを示す図、
FIG. 12 is a view showing profiles stored in a scanner profile storage unit and a monitor profile storage unit shown in FIG. 5;

【図13】本実施形態のカラーマッチング処理を説明す
るためのフローチャート、
FIG. 13 is a flowchart illustrating a color matching process according to the embodiment;

【図14】観察条件を設定するUIの各項目のランクが選
択される手順例を示すフローチャート、
FIG. 14 is a flowchart illustrating an example of a procedure in which a rank of each item of a UI for setting an observation condition is selected;

【図15】スキャナおよびモニタプロファイル向けに観
察条件タグおよびプライベートタグを作成する手順例を
示すフローチャート、
FIG. 15 is a flowchart showing an example of a procedure for creating an observation condition tag and a private tag for a scanner and a monitor profile;

【図16】スキャナおよびモニタプロファイル向けに作
成した観察条件タグおよびプライベートタグをセットす
る手順例を示すフローチャート、
FIG. 16 is a flowchart showing an example of a procedure for setting an observation condition tag and a private tag created for a scanner and a monitor profile;

【図17】図5に示すCMMにカラーマッチング処理を実行
させる手順例を示すフローチャート、
17 is a flowchart showing an example of a procedure for causing the CMM shown in FIG. 5 to execute a color matching process;

【図18】CIE CAM97sの順変換処理を説明する図、FIG. 18 is a diagram for explaining a forward conversion process of CIE CAM97s.

【図19】CIE CAM97sの逆変換処理を説明する図であ
る。
FIG. 19 is a diagram illustrating the inverse conversion processing of CIE CAM97s.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA11 BA25 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CE18 5C077 LL19 MP08 PP32 PP36 PP37 SS05 5C079 HB01 HB05 HB12 LA23 LB02 MA17 NA03 PA05  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B057 AA11 BA25 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CE18 5C077 LL19 MP08 PP32 PP36 PP37 SS05 5C079 HB01 HB05 HB12 LA23 LB02 MA17 NA03 PA05

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 入力画像データに対して観察条件に応じ
た色順応変換を行う画像処理方法であって、 観察条件がマニュアル入力され、 入力された観察条件に対応してプロファイルを加工し、 加工されたプロファイルを基に、入力された観察条件を
考慮したカラーマッチング処理を行うことを特徴とする
画像処理方法。
1. An image processing method for performing chromatic adaptation conversion on input image data according to a viewing condition, wherein a viewing condition is manually input, and a profile is processed in accordance with the input viewing condition. An image processing method, comprising: performing a color matching process in consideration of an input viewing condition based on a selected profile.
【請求項2】 前記観察条件は観察環境における照明の
明るさおよび白色を示す情報であることを特徴とする請
求項1に記載された画像処理方法。
2. The image processing method according to claim 1, wherein the observation condition is information indicating brightness of illumination and white in an observation environment.
【請求項3】 前記プロファイルの加工は、前記入力さ
れた観察条件に関する情報をタグとして設定するもので
あることを特徴とする請求項1に記載された画像処理方
法。
3. The image processing method according to claim 1, wherein the processing of the profile sets information on the input viewing condition as a tag.
【請求項4】 前記タグは、ICC(International Color
Consortium)により規定されるプロファイルフォーマッ
トのオプショナルタグおよびプライベートタグであるこ
とを特徴とする請求項3に記載された画像処理方法。
4. The tag is an ICC (International Color).
4. The image processing method according to claim 3, wherein the tag is an optional tag and a private tag in a profile format defined by Consortium.
【請求項5】 前記観察条件の入力には、観察条件を感
応的に設定するためのユーザインタフェイスを利用する
ことを特徴とする請求項1から請求項3の何れかに記載さ
れた画像処理方法。
5. The image processing apparatus according to claim 1, wherein a user interface for responsively setting the viewing condition is used to input the viewing condition. Method.
【請求項6】 前記ユーザインタフェイスにより、前記
照明の明るさおよび白色、並びに、モニタデバイスの明
るさおよび白色の少なくとも一つを感応的に設定可能で
あることを特徴とする請求項4に記載された画像処理方
法。
6. The user interface according to claim 4, wherein at least one of the brightness and white of the illumination and the brightness and white of the monitor device can be responsively set. Image processing method.
【請求項7】 前記入力された観察条件に対応するプロ
ファイルの加工は、前記感応的に設定された環境条件
と、環境条件値との対応を示すテーブルを参照して行わ
れることを特徴とする請求項4または請求項5に記載され
た画像処理方法。
7. The processing of a profile corresponding to the input viewing condition is performed with reference to a table indicating a correspondence between the responsively set environmental condition and an environmental condition value. An image processing method according to claim 4 or claim 5.
【請求項8】 入力画像データに対して観察条件に応じ
た色順応変換を行う画像処理のプログラムコードが記録
された記録媒体であって、前記プログラムコードは少な
くとも、 観察条件がマニュアル入力されるステップのコードと、 入力された観察条件に対応してプロファイルを加工する
ステップのコードと、 加工されたプロファイルを基に、入力された観察条件を
考慮したカラーマッチング処理を行うステップのコード
とを有することを特徴とする記録媒体。
8. A recording medium on which is recorded a program code for image processing for performing chromatic adaptation conversion on input image data according to a viewing condition, wherein said program code includes at least a step of manually inputting a viewing condition. And a code of a step of processing a profile corresponding to the input viewing condition, and a code of a step of performing color matching processing in consideration of the input viewing condition based on the processed profile. A recording medium characterized by the above-mentioned.
JP32319899A 1999-11-12 1999-11-12 Image-processing method and recording medium Withdrawn JP2001143065A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32319899A JP2001143065A (en) 1999-11-12 1999-11-12 Image-processing method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32319899A JP2001143065A (en) 1999-11-12 1999-11-12 Image-processing method and recording medium

Publications (1)

Publication Number Publication Date
JP2001143065A true JP2001143065A (en) 2001-05-25

Family

ID=18152154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32319899A Withdrawn JP2001143065A (en) 1999-11-12 1999-11-12 Image-processing method and recording medium

Country Status (1)

Country Link
JP (1) JP2001143065A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7180632B2 (en) 2001-06-28 2007-02-20 Seiko Epson Corporation Image processing device, image processing method, and record medium
JP2007128526A (en) * 2001-11-27 2007-05-24 Samsung Electronics Co Ltd Standard illumination color converting method, standard illumination color conversion program, computer readable recording medium with standard illumination color conversion program recorded, color information extracting method, computer readable recording medium with color information extraction program recorded and color information extracting device
KR100781173B1 (en) 2005-12-26 2007-11-30 삼성테크윈 주식회사 Electric device, and method for displaying, and storing medium having program to perform the method
US8379106B2 (en) 2006-10-11 2013-02-19 Nikon Corporation Image processing device, image processing method and program product
US8531548B2 (en) 2006-11-22 2013-09-10 Nikon Corporation Image processing method, image processing program, image processing device and camera

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7180632B2 (en) 2001-06-28 2007-02-20 Seiko Epson Corporation Image processing device, image processing method, and record medium
JP2007128526A (en) * 2001-11-27 2007-05-24 Samsung Electronics Co Ltd Standard illumination color converting method, standard illumination color conversion program, computer readable recording medium with standard illumination color conversion program recorded, color information extracting method, computer readable recording medium with color information extraction program recorded and color information extracting device
KR100781173B1 (en) 2005-12-26 2007-11-30 삼성테크윈 주식회사 Electric device, and method for displaying, and storing medium having program to perform the method
US8379106B2 (en) 2006-10-11 2013-02-19 Nikon Corporation Image processing device, image processing method and program product
US8531548B2 (en) 2006-11-22 2013-09-10 Nikon Corporation Image processing method, image processing program, image processing device and camera

Similar Documents

Publication Publication Date Title
JP3634633B2 (en) Image processing apparatus and method
JP3305265B2 (en) Image processing apparatus and method
JP3291259B2 (en) Image processing method and recording medium
JP4592090B2 (en) Color processing method and apparatus
JP4757078B2 (en) Color processing method and apparatus
US6999617B1 (en) Image processing method and apparatus
JP2007081586A (en) Image processing unit and image processing method, program thereof, and recording medium
EP1085749B1 (en) Image processing method and apparatus
JP3805247B2 (en) Image processing apparatus and method
JP2006211093A (en) Color correction apparatus, color correction method, program, and recording medium
JP2001143065A (en) Image-processing method and recording medium
JP4356975B2 (en) Image processing apparatus and method
JP3305266B2 (en) Image processing method
JP2001143064A (en) Image-processing method and recording medium
JP2009071618A (en) Image processor, image processing method and program, and recording medium
JP2007074557A (en) Image processing method, image processing apparatus, computer program, and storage medium
JP2007174126A (en) Image processing apparatus and method
JP2001309198A (en) Image processing method
JP3311295B2 (en) Image processing apparatus and method
JP2006238335A (en) Information processing method
JP2006254369A (en) Color processing method and device thereof
JP2002077652A (en) Image processing method and recording medium
JP3535778B2 (en) Image processing method, apparatus and recording medium
JP3667171B2 (en) Image processing method, apparatus, and recording medium
JP2003274202A (en) Method and device for producing color signal conversion table, and method and device for image processing

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206