JP2009253467A - Color processing device and method thereof - Google Patents

Color processing device and method thereof Download PDF

Info

Publication number
JP2009253467A
JP2009253467A JP2008096557A JP2008096557A JP2009253467A JP 2009253467 A JP2009253467 A JP 2009253467A JP 2008096557 A JP2008096557 A JP 2008096557A JP 2008096557 A JP2008096557 A JP 2008096557A JP 2009253467 A JP2009253467 A JP 2009253467A
Authority
JP
Japan
Prior art keywords
color
input
image
observation method
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008096557A
Other languages
Japanese (ja)
Inventor
Hirochika Matsuoka
寛親 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008096557A priority Critical patent/JP2009253467A/en
Publication of JP2009253467A publication Critical patent/JP2009253467A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To adequately use advanced color matching using a color-adapted model. <P>SOLUTION: A CPU 101 displays, on a monitor 107, a dialog providing input items for inputting an observation method of an image, a device used for the observation of the image, and a light condition of an environment observing the image, and sets the input items of the dialog according to the observation method inputted. Then, the CPU 101 converts a color of the image based on the observation method, the device, and the lighting condition inputted. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、色順応モデルを使用する色処理に関する。   The present invention relates to color processing using a chromatic adaptation model.

近年、デスクトップパブリッシング(DTP)やコンピュータグラフィクス(CG)の技術が発展し、モニタに表示された画像や印刷された画像の色を管理するカラーマネージメント技術が重要になった。   In recent years, desktop publishing (DTP) and computer graphics (CG) technologies have been developed, and color management technology for managing the colors of images displayed on monitors and printed images has become important.

例えば、CGにおいては、モニタに表示されたカラー画像を観察しつつ、CGの作成/編集作業などを行い、その後、カラープリンタを使用して入稿する原稿の確認する場合がある。ここで、モニタに表示されたカラー画像と、カラープリンタが印刷した画像の間に知覚的な一致があることが望まれる。また、DTPにおいては、入稿先の印刷結果を、入稿の前に、カラープリンタの出力によって確認するプルーフが行われる。ここで、入稿先の印刷画像と、カラープリンタが印刷した画像の間に知覚的な一致があることが望まれる。このような要求を実現するには、カラーマネージメント技術が必須である。   For example, in CG, there is a case where a CG creation / editing operation is performed while observing a color image displayed on a monitor, and then a manuscript to be submitted is confirmed using a color printer. Here, it is desired that there is a perceptual match between the color image displayed on the monitor and the image printed by the color printer. In DTP, a proof of checking the print result of the submission destination by the output of the color printer is performed before submission. Here, it is desired that there is a perceptual match between the print image at the submission destination and the image printed by the color printer. Color management technology is indispensable for realizing such a demand.

カラーマネージメント技術としては、International Color Consortium (ICC)によって定められたICCカラープロファイルを用いるカラーマネージメントシステム(CMS)が一般的である。このCMSは、カラーマッチングを行うためのデバイスに独立な色空間(PCS)を定義する。そして、PCS上で、デバイスの色空間からPCSへの色変換を規定するソースプロファイル、および、PCSからデバイスの色空間への色変換を規定するデスティネーションプロファイルを用いてカラーマネージメントを実現する。なお、PCSは「ハブ色空間」と呼ばれることもある。   As a color management technique, a color management system (CMS) using an ICC color profile defined by the International Color Consortium (ICC) is generally used. This CMS defines a device independent color space (PCS) for color matching. Then, on the PCS, color management is realized using a source profile that defines color conversion from the device color space to the PCS and a destination profile that defines color conversion from the PCS to the device color space. PCS is sometimes called a “hub color space”.

色変換は、ソースプロファイルとデスティネーションプロファイルの二種類のカラープロファイルに基づき、次のように実施される。まず、入力画像を供給するデバイス(以下、入力デバイス)に適合したデバイス色空間の色信号値を、ソースプロファイルによってPCSの色信号値に変換する。そして、PCSの色信号値を、デスティネーションプロファイルによって画像の出力先のデバイス(以下、出力デバイス)に適合したデバイス色空間の色信号に変換する。   Color conversion is performed as follows based on two types of color profiles, a source profile and a destination profile. First, a color signal value in a device color space suitable for a device that supplies an input image (hereinafter referred to as an input device) is converted into a PCS color signal value by a source profile. Then, the PCS color signal value is converted into a color signal in a device color space suitable for an image output destination device (hereinafter, output device) by the destination profile.

このようなCMSによれば、CGにおいて使用されるモニタとプリンタのカラーマネージメント、DTPにおけるプルーフのカラーマネージメントなどに、幅広く柔軟に対応することができる。例えばCGにおいては、ソースプロファイルにモニタの特性を記したカラープロファイルを指定し、デスティネーションプロファイルにプリンタの特性を記したカラープロファイルを指定する。また、DTPにおいては、ソースプロファイルに入稿先の印刷機の特性を記したカラープロファイルを指定し、デスティネーションプロファイルにプリンタの特性を記したカラープロファイルを指定する。このようにカラープロファイルを指定することによって、所望する画像とプリンタの出力画像の間の知覚的一致を図ることができる。   According to such CMS, color management of monitors and printers used in CG, proof color management in DTP, etc. can be widely and flexibly supported. For example, in CG, a color profile that describes the characteristics of a monitor is specified as a source profile, and a color profile that describes the characteristics of a printer is specified as a destination profile. Also, in DTP, a color profile that describes the characteristics of the submission destination printing machine is specified in the source profile, and a color profile that specifies the characteristics of the printer is specified in the destination profile. By specifying the color profile in this way, it is possible to achieve perceptual matching between the desired image and the output image of the printer.

さらに、ICCカラープロファイルは、国際照明委員会(CIE)が規定する色順応モデルのCIECAM02、CIECAM97sなどにも対応したフォーマットであり、観察環境などに依存する視覚順応状態の変化にも対応したCMSを構築することができる。この場合、モニタや原稿などの媒体の観察条件を考慮したパラメータをICCカラープロファイルに設定することによって、様々な観察環境に対して、主観的により好ましいカラーマッチングを実現することができる。   Furthermore, the ICC color profile is a format that also supports the CIECAM02 and CIECAM97s chromatic adaptation models defined by the International Commission on Illumination (CIE), and a CMS that supports changes in the visual adaptation state depending on the observation environment. Can be built. In this case, subjectively more favorable color matching can be realized for various viewing environments by setting the parameters in consideration of the viewing conditions of a medium such as a monitor or a document in the ICC color profile.

ただし、カラーマネージメント技術の発達に伴い、カラーマネージメントを実行する際に、ユーザが留意すべき項目は多岐に亘っている。例えば、色順応モデルを利用する場合、ソースプロファイルとデスティネーションプロファイルに、デバイス特性が記述されているだけではなく、観察方法や観察照明に応じたパラメータが記述されているかについて留意する必要がある。   However, with the development of color management technology, there are a wide variety of items that users should be aware of when executing color management. For example, when the chromatic adaptation model is used, it is necessary to pay attention to whether the source profile and the destination profile describe not only device characteristics but also parameters according to the observation method and observation illumination.

一般に、プロファイルやパラメータの設定は、プリンタドライバやアプリケーションプログラムのプロファイル設定画面(ユーザインタフェイス)を介したファイルの指定によって行う。より良好なカラーマッチングを得るために、観察方法によっては、複数の入力項目に同一のファイルまたはパラメータを設定する必要がある。しかし、上記のユーザインタフェイスの入力項目は、ユーザの観察方法に関係なく、固定である。その結果、ユーザは不適切な設定を行う可能性がある。そもそも、上記のユーザインタフェイスは、カラーマネージメントの知識を充分に有さないユーザによる、色順応モデルを駆使した高度なカラーマッチングの適切な使用を困難にする。   Generally, profiles and parameters are set by specifying a file via a profile setting screen (user interface) of a printer driver or application program. In order to obtain better color matching, it is necessary to set the same file or parameter to a plurality of input items depending on the observation method. However, the input items of the above user interface are fixed regardless of the user's observation method. As a result, the user may make an inappropriate setting. In the first place, the above user interface makes it difficult for a user who does not have sufficient knowledge of color management to appropriately use advanced color matching using a chromatic adaptation model.

特開2000-148979公報JP 2000-148979

本発明は、色順応モデルを駆使した高度なカラーマッチングの適切な使用を可能にすることを目的とする。   An object of the present invention is to enable appropriate use of advanced color matching using a chromatic adaptation model.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。   The present invention has the following configuration as one means for achieving the above object.

本発明にかかる色処理装置は、画像の観察方法、画像の観察に使用するデバイス、および、画像を観察する環境の照明条件を入力する入力項目を提供する入力手段と、前記入力手段によって入力される前記観察方法に応じて、前記入力手段の入力項目を設定する設定手段と、前記入力手段によって入力される前記観察方法、前記デバイスおよび前記照明条件に基づき、画像を色変換する色処理手段とを有することを特徴とする。   The color processing apparatus according to the present invention includes an image observation method, a device used for image observation, input means for providing input items for inputting an illumination condition of an environment for observing the image, and input by the input means. Setting means for setting input items of the input means according to the observation method; color processing means for color-converting an image based on the observation method, the device, and the illumination condition input by the input means; It is characterized by having.

本発明にかかる色処理方法は、画像の観察方法、画像の観察に使用するデバイス、および、画像を観察する環境の照明条件を入力する入力項目を提供する入力ステップと、前記入力ステップで入力される前記観察方法に応じて、前記入力ステップの入力項目を設定する設定ステップと、前記入力ステップで入力される前記観察方法、前記デバイスおよび前記照明条件に基づき、画像を色変換する色処理ステップとを有することを特徴とする。   The color processing method according to the present invention is an input step for providing an input item for inputting an image observation method, a device used for image observation, and an illumination condition of an environment for observing the image, and is input in the input step. A setting step for setting input items in the input step according to the observation method, and a color processing step for color-converting an image based on the observation method, the device, and the illumination condition input in the input step; It is characterized by having.

本発明によれば、色順応モデルを駆使した高度なカラーマッチングの適切な使用を可能にすることができる。   According to the present invention, it is possible to appropriately use advanced color matching using a chromatic adaptation model.

以下、本発明にかかる実施例の色処理を図面を参照して詳細に説明する。   Hereinafter, color processing according to an embodiment of the present invention will be described in detail with reference to the drawings.

[装置の構成]
図1は色処理装置の構成例を示すブロック図である。
[Device configuration]
FIG. 1 is a block diagram illustrating a configuration example of a color processing apparatus.

CPU101は、メインメモリ102のRAMをワークメモリとして、メインメモリ102のROMおよびハードディスクドライブ(HDD)105に格納されたオペレーティングシステム(OS)や各種プログラムを実行する。そして、PCI (peripheral component interconnect)バスなどのシステムバス114を介して各構成を制御する。さらに、後述する画像処理アプリケーション、プリンタドライバ、カラーマネージメントモジュールを含む各種プログラムを実行する。   The CPU 101 executes an operating system (OS) and various programs stored in the ROM of the main memory 102 and the hard disk drive (HDD) 105 using the RAM of the main memory 102 as a work memory. Each component is controlled via a system bus 114 such as a PCI (peripheral component interconnect) bus. Further, various programs including an image processing application, a printer driver, and a color management module described later are executed.

CPU101は、システムバス114およびシリアルATAインタフェイス(SATA I/F)103を介してHDD105にアクセスする。また、ネットワークI/F104を介してローカルエリアネットワーク(LAN)などのネットワーク113にアクセスする。   The CPU 101 accesses the HDD 105 via the system bus 114 and the serial ATA interface (SATA I / F) 103. In addition, a network 113 such as a local area network (LAN) is accessed via the network I / F 104.

以下では、画像処理アプリケーション、画像データ、各種デバイスのデバイスプロファイルなどをHDD105から読み出すとして説明するが、ネットワーク113上のサーバから読み出すこともできる。   In the following description, it is assumed that image processing applications, image data, device profiles of various devices, and the like are read from the HDD 105, but can also be read from a server on the network 113.

また、CPU101は、後述する処理のユーザインタフェイスや処理結果をグラフィックアクセラレータ106を介してモニタ107に表示し、ユーザ指示をキーボード/マウスコントローラ110に接続されたキーボード111、マウス112を介して入力する。   Further, the CPU 101 displays a user interface and processing result of processing to be described later on the monitor 107 via the graphic accelerator 106, and inputs user instructions via the keyboard 111 and mouse 112 connected to the keyboard / mouse controller 110. .

また、CPU101は、画像データをUSB (Universal Serial Bus)コントローラ108を介してプリンタ109に出力して、例えばユーザが指示する画像を印刷する。   Further, the CPU 101 outputs the image data to the printer 109 via a USB (Universal Serial Bus) controller 108, and prints an image instructed by the user, for example.

[画像処理アプリケーション]
ユーザがキーボード111やマウス112を操作して、画像処理アプリケーション(画像処理AP)の実行を指示する。この指示に応じて、CPU101は、HDD105に格納された画像処理APを実行する。画像処理AP(CPU101)は、アプリケーションウィンドウの描画をグラフィックアクセラレータ106に指示し、モニタ107にアプリケーションウィンドウ201が表示される。
[Image processing application]
The user operates the keyboard 111 and the mouse 112 to instruct execution of the image processing application (image processing AP). In response to this instruction, the CPU 101 executes the image processing AP stored in the HDD 105. The image processing AP (CPU 101) instructs the graphic accelerator 106 to draw an application window, and the application window 201 is displayed on the monitor 107.

図2は画像処理APが提供するアプリケーションウィンドウ201の一例を示す図である。   FIG. 2 is a diagram showing an example of an application window 201 provided by the image processing AP.

ユーザは、アプリケーションウィンドウ201のプルダウンメニュー202を操作して、画像ファイルの読み込みを指示する。この指示に応じて、画像処理APは、HDD105に格納された画像データをメインメモリ102のRAMにロードする。そして、画像処理APは、画像データの描画をグラフィックアクセラレータ106に指示し、アプリケーションウィンドウ201の画像ウィンドウ203内に画像データが表す画像が表示される。   The user operates the pull-down menu 202 of the application window 201 to instruct reading of the image file. In response to this instruction, the image processing AP loads the image data stored in the HDD 105 into the RAM of the main memory 102. Then, the image processing AP instructs the graphic accelerator 106 to draw the image data, and the image represented by the image data is displayed in the image window 203 of the application window 201.

また、ユーザが、アプリケーションウィンドウ201のプルダウンメニュー202を操作して、プロファイルの設定を指示すると、画像処理APは、プロファイル設定用のダイアログ301をモニタ107に表示する。   When the user operates the pull-down menu 202 of the application window 201 to instruct profile setting, the image processing AP displays a profile setting dialog 301 on the monitor 107.

図3は画像処理APが提供するプロファイル設定用のダイアログ301の一例を示す図である。   FIG. 3 is a diagram showing an example of a profile setting dialog 301 provided by the image processing AP.

詳細は後述するが、ユーザは、プロファイル設定用のダイアログ301を操作して、色変換に必要な各種設定を行う。色変換に必要な各種設定が終わると、ユーザは設定終了ボタン310を押す。設定終了ボタン310が押されると、画像処理APは、プロファイル設定用のダイアログ301の設定に対応するパラメータを後述する色変換処理に設定する。   Although details will be described later, the user operates the profile setting dialog 301 to perform various settings necessary for color conversion. When various settings necessary for color conversion are completed, the user presses a setting end button 310. When the setting end button 310 is pressed, the image processing AP sets a parameter corresponding to the setting of the profile setting dialog 301 in a color conversion process described later.

また、ユーザが、アプリケーションウィンドウ201のプルダウンメニュー202を操作して、色変換表示を指示すると、画像処理APは、メインメモリ102のRAMに保持する画像データに後述する色変換処理を施し、ユーザが指定する方法で画像を出力する。   When the user operates the pull-down menu 202 of the application window 201 to instruct color conversion display, the image processing AP performs color conversion processing described later on the image data held in the RAM of the main memory 102, and the user Output the image by the specified method.

例えば、デスティネーションデバイスとしてモニタ107が指定されている場合、画像処理APは、色変換処理後の画像データの描画をグラフィックアクセラレータ106に指示する。従って、アプリケーションウィンドウ201の画像ウィンドウ203内に色変換処理後の画像データが表す画像が表示される。   For example, when the monitor 107 is designated as the destination device, the image processing AP instructs the graphic accelerator 106 to draw the image data after the color conversion processing. Accordingly, an image represented by the image data after the color conversion processing is displayed in the image window 203 of the application window 201.

また、デスティネーションデバイスとしてプリンタ109が指定されている場合、画像処理APは、色変換処理後の画像データの印刷をプリンタドライバに指示する。プリンタドライバは、色変換処理後の画像データをプリンタ109の色データ(例えばCMYKデータ)に変換し、色データをプリンタ109に供給する。従って、プリンタ109は、色変換処理後の画像データが表す画像を印刷する。   When the printer 109 is designated as the destination device, the image processing AP instructs the printer driver to print the image data after the color conversion process. The printer driver converts the image data after the color conversion processing into color data (for example, CMYK data) of the printer 109, and supplies the color data to the printer 109. Accordingly, the printer 109 prints an image represented by the image data after the color conversion process.

[プロファイル設定用のダイアログ]
次に、プロファイル設定用のユーザインタフェイスであるダイアログ301について説明する。後述するように、画像処理APは、ユーザのダイアログの操作に応じて、ダイアログの表示形態を変更する。
[Profile setting dialog]
Next, the dialog 301 which is a user interface for profile setting will be described. As will be described later, the image processing AP changes the display form of the dialog in accordance with the user's dialog operation.

図3、図4はプロファイル設定用のダイアログ301の一例を示す図である。なお、図3はチェックボックス302が未チェックの状態のダイアログの表示形態を示し、図4はチェックボックス302がチェックされた状態のダイアログの表示形態を示している。   3 and 4 are diagrams showing an example of the profile setting dialog 301. FIG. FIG. 3 shows a display form of a dialog in which the check box 302 is not checked, and FIG. 4 shows a display form of the dialog in a state where the check box 302 is checked.

チェックボックス302は、観察方法の選択用のチェックボックスである。つまり、ユーザは、例えばモニタの表示画像と印刷画像を同じ観察環境で同時に観察する場合はチェックボックス302をチェックする。また、例えばモニタの表示画像と印刷画像を異なる観察環境で観察する場合、言い換えれば観察場所が離間している場合はチェックボックス302をチェックしない。なお、同じ場所で同時に観察するとは、例えば、プリンタ109で印刷した画像をモニタ107の近傍にもってきて、モニタ107の表示画像と印刷画像を並べて見較べることができるような状況である。他方、異なる場所で観察するとは、例えば、印刷所に入稿した原稿データの印刷画像を印刷所でプルーフするような状況である。   A check box 302 is a check box for selecting an observation method. That is, the user checks the check box 302 when, for example, the monitor display image and the print image are observed simultaneously in the same observation environment. For example, when the display image and the print image of the monitor are observed in different observation environments, in other words, when the observation places are separated from each other, the check box 302 is not checked. Note that observing at the same place at the same time is a situation where, for example, an image printed by the printer 109 can be brought near the monitor 107 and the display image of the monitor 107 and the printed image can be compared side by side. On the other hand, observing at a different location is a situation in which, for example, a print image of document data submitted to a print shop is proofed at the print shop.

ユーザは、図3に示す、コンボボックス303を用いてソースデバイス側の観察照明を選択し、コンボボックス304を用いてデスティネーションデバイス側の観察照明を選択する。つまり、ソース側の画像とデスティネーション側の画像を観察する際の照明の種類をそれぞれ選択する。選択肢としては、A光源、D50光源、D65光源、F1〜F12光源などがある。   The user uses the combo box 303 shown in FIG. 3 to select the observation illumination on the source device side, and uses the combo box 304 to select the observation illumination on the destination device side. That is, the type of illumination for observing the source side image and the destination side image is selected. Options include A light source, D50 light source, D65 light source, F1-F12 light source, and the like.

また、ユーザは、図4に示すコンボボックス311を用いて、観察環境に共通の観察照明を選択する。つまり、ソース側の画像とデスティネーション側の画像を観察する共通の照明の種類をそれぞれ選択する。選択肢としては、A光源、D50光源、D65光源、F1〜F12光源などがある。   Further, the user uses the combo box 311 shown in FIG. 4 to select observation illumination common to the observation environment. That is, a common illumination type for observing the source side image and the destination side image is selected. Options include A light source, D50 light source, D65 light source, F1-F12 light source, and the like.

ユーザは、コンボボックス305を用いてソースデバイスを選択し、コンボボックス306を用いてデスティネーションデバイスを選択する。言い換えれば、ソースデバイスのデバイス特性を記述したデバイスプロファイルをソースプロファイルとして選択し、デスティネーションデバイスのデバイス特性を記述したデバイスプロファイルをデスティネーションプロファイルとして選択することになる。   The user uses the combo box 305 to select a source device, and uses the combo box 306 to select a destination device. In other words, the device profile describing the device characteristics of the source device is selected as the source profile, and the device profile describing the device characteristics of the destination device is selected as the destination profile.

なお、プリンタなど、物体色によって色を再現するデバイス(以下、物体色デバイス)に対しては、分光反射率を用いたデバイス特性がデバイスプロファイルに記述されている。また、モニタなど、光源色によって色を再現するデバイス(以下、光源色デバイス)に対しては、分光放射輝度を用いたデバイス特性がデバイスプロファイルに記述されている。   Note that device characteristics using spectral reflectance are described in a device profile for a device such as a printer that reproduces colors according to object colors (hereinafter, object color devices). In addition, for a device such as a monitor that reproduces a color according to a light source color (hereinafter, “light source color device”), device characteristics using spectral radiance are described in the device profile.

ウィンドウ307は、ソースデバイス側の観察方法とデスティネーションデバイス側の観察方法を、ユーザが直感的に理解できるように表示する領域である。つまり、チェックボックス302が未チェックの場合は、図3に示すように、ソースデバイス側と、デスティネーションデバイス側を分離して、照明光源も異なる様子を示す。また、チェックボックス302がチェックされた場合は、図4に示すように、ソースデバイス側とデスティネーションデバイス側の分離を解除し、照明光源が同一の様子を示す。   The window 307 is an area for displaying the observation method on the source device side and the observation method on the destination device side so that the user can intuitively understand. That is, when the check box 302 is unchecked, as shown in FIG. 3, the source device side and the destination device side are separated and the illumination light source is also different. When the check box 302 is checked, the source device side and the destination device side are separated from each other as shown in FIG. 4, and the illumination light source is the same.

ユーザは、ラジオボタン309を使用して、所望するカラーマッチング方法を選択する。ラジオボタン309の構成は、チェックボックス302の状態に応じて変更される。チェックボックス302が未チェックの場合は、図3に示すように「知覚的」「測色的」「サチュレーション」の三つのカラーマッチング方法の何れかが選択可能である。また、チェックボックス302がチェックされている場合は、図4に示すように「知覚的」「サチュレーション」の二つのカラーマッチング方法の何れかが選択可能である。   The user uses the radio button 309 to select a desired color matching method. The configuration of the radio button 309 is changed according to the state of the check box 302. When the check box 302 is unchecked, one of three color matching methods of “perceptual”, “colorimetric”, and “saturation” can be selected as shown in FIG. When the check box 302 is checked, one of two color matching methods “perceptual” and “saturation” can be selected as shown in FIG.

[色変換処理]
図5は色変換処理を説明するフローチャートである。
[Color conversion processing]
FIG. 5 is a flowchart for explaining the color conversion process.

画像処理APは、コンボボックス305、306にそれぞれ指定されたソースデバイスおよびデスティネーションデバイスのデバイスプロファイルを、ソースプロファイルおよびデスティネーションプロファイルとしてHDD105から読み出す(S401)。そして、チェックボックス302の状態を判定し(S402)、チェックボックス302がチェックされている(観察環境が同じ)場合は処理をステップS403へ分岐し、未チェックの(観察環境が異なる)場合は処理をステップS406へ分岐する。   The image processing AP reads the device profiles of the source device and the destination device specified in the combo boxes 305 and 306 from the HDD 105 as the source profile and the destination profile (S401). Then, the state of the check box 302 is determined (S402). If the check box 302 is checked (the observation environment is the same), the process branches to step S403, and if not checked (the observation environment is different), the process is performed. Branches to step S406.

観察環境が同じ場合、画像処理APは、コンボボックス311に指定された共通の照明条件を取得する(S403)。そして、分光反射率または分光放射輝度で記述されたデバイスプロファイルからXYZ値で記述したデバイスプロファイル(以下、XYZプロファイル)を生成する(S404)。なお、生成したXYZプロファイルはHDD105の所定領域に格納される。   When the observation environment is the same, the image processing AP acquires the common illumination condition specified in the combo box 311 (S403). Then, a device profile (hereinafter referred to as XYZ profile) described by XYZ values is generated from the device profile described by spectral reflectance or spectral radiance (S404). The generated XYZ profile is stored in a predetermined area of the HDD 105.

物体色デバイスの場合、プロファイル値である分光反射率R(λ)に対するXYZ値は、照明条件に基づき選択した相対分光分布S(λ)、および、二度視野XYZ等色関数x(λ)y(λ)z(λ)から、式(1)によって算出する。
Xi = ∫S(λ)Ri(λ)x(λ)dλ
Yi = ∫S(λ)Ri(λ)y(λ)dλ …(1)
Zi = ∫S(λ)Ri(λ)z(λ)dλ
ここで、Ri(λ)はi番目のプロファイル値である分光反射率、
XiYiZiはi番目のプロファイル値であるXYZ値、
積分範囲は可視光の波長範囲。
In the case of an object color device, the XYZ value for the spectral reflectance R (λ), which is the profile value, is the relative spectral distribution S (λ) selected based on the illumination conditions, and the twice field XYZ color matching function x (λ) y From (λ) z (λ), it is calculated according to equation (1).
Xi = ∫S (λ) Ri (λ) x (λ) dλ
Yi = ∫S (λ) Ri (λ) y (λ) dλ (1)
Zi = ∫S (λ) Ri (λ) z (λ) dλ
Here, Ri (λ) is the spectral reflectance that is the i-th profile value,
XiYiZi is the XYZ value that is the i-th profile value,
The integration range is the visible wavelength range.

また、光源色デバイスの場合、プロファイル値である分光放射輝度R(λ)に対するXYZ値は、二度視野XYZ等色関数x(λ)y(λ)z(λ)から、式(2)によって算出する。
Xi = ∫Ri(λ)x(λ)dλ
Yi = ∫Ri(λ)y(λ)dλ …(2)
Zi = ∫Ri(λ)z(λ)dλ
ここで、Ri(λ)はi番目のプロファイル値である分光放射輝度、
XiYiZiはi番目のプロファイル値であるXYZ値、
積分範囲は可視光の波長範囲。
In the case of a light source color device, the XYZ value for the spectral radiance R (λ), which is a profile value, is calculated from the twice-field XYZ color matching function x (λ) y (λ) z (λ) by equation (2). calculate.
Xi = ∫Ri (λ) x (λ) dλ
Yi = ∫Ri (λ) y (λ) dλ (2)
Zi = ∫Ri (λ) z (λ) dλ
Where Ri (λ) is the spectral radiance that is the i-th profile value,
XiYiZi is the XYZ value that is the i-th profile value,
The integration range is the visible wavelength range.

次に、画像処理APは、XYZプロファイルから、部分順応を考慮したカラーアピアランスモデルのプロファイル(以下、CAMプロファイル)を生成する(S405)。なお、生成したCAMプロファイルはHDD105の所定領域に格納される。CAMプロファイルには、後述するカラーマッチングに必要な順応白色点を次のように算出して記述する。   Next, the image processing AP generates a color appearance model profile (hereinafter, CAM profile) in consideration of partial adaptation from the XYZ profile (S405). The generated CAM profile is stored in a predetermined area of the HDD 105. In the CAM profile, an adaptive white point necessary for color matching described later is calculated and described as follows.

まず、ソースデバイスおよびデスティネーションデバイスのXYZプロファイルそれぞれから、ソースデバイスの白色点のXYZ値XwsYwsZws、および、デスティネーションデバイスの白色点のXYZ値XwdYwdZwdを算出する。次に、各白色点のxy色度CsとCdを計算し、式(3)によって、部分順応点のxy色度Caを計算する。
Ca = (Cs + Cd)/2 …(3)
First, the XYZ value XwsYwsZws of the white point of the source device and the XYZ value XwdYwdZwd of the white point of the destination device are calculated from the XYZ profiles of the source device and the destination device, respectively. Next, the xy chromaticity Cs and Cd of each white point are calculated, and the xy chromaticity Ca of the partial adaptation point is calculated by equation (3).
Ca = (Cs + Cd) / 2… (3)

部分順応点の色度Csの色度座標(x, y)とソースデバイスの白色点の輝度値Ywsから、ソースデバイスのCAMプロファイルに記述する順応白色点のXYZ値XawsYawsZawsを式(4)によって計算する。
Xaws = Yws×x/y
Yaws = Yws …(4)
Zaws = Yws×(1 - x - y)/y
The XYZ value XawsYawsZaws of the adaptation white point described in the CAM profile of the source device is calculated by Equation (4) from the chromaticity coordinates (x, y) of the chromaticity Cs of the partial adaptation point and the luminance value Yws of the white point of the source device. To do.
Xaws = Yws × x / y
Yaws = Yws… (4)
Zaws = Yws × (1-x-y) / y

また、部分順応点の色度Csの色度座標(x, y)とデスティネーションデバイスの白色点の輝度値Ywdから、デスティネーションデバイスのCAMプロファイルに記述する順応白色点のXYZ値XawdYawdZawdを式(5)によって計算する。
Xawd = Ywd×x/y
Yawd = Ywd …(5)
Zawd = Ywd×(1 - x - y)/y
Also, from the chromaticity coordinates (x, y) of the chromaticity Cs of the partial adaptation point and the brightness value Ywd of the white point of the destination device, the XYZ value XawdYawdZawd of the adaptation white point described in the CAM profile of the destination device is expressed by the formula ( Calculate according to 5).
Xawd = Ywd × x / y
Yawd = Ywd… (5)
Zawd = Ywd × (1-x-y) / y

他方、観察環境が異なる場合、画像処理APは、コンボボックス303、304に指定された照明条件を取得する(S406)。そして、分光反射率または分光放射輝度で記述されたデバイスプロファイルからXYZプロファイルを生成する(S407)。なお、生成したXYZプロファイルはHDD105の所定領域に格納される。   On the other hand, when the observation environments are different, the image processing AP acquires the illumination conditions specified in the combo boxes 303 and 304 (S406). Then, an XYZ profile is generated from the device profile described by the spectral reflectance or the spectral radiance (S407). The generated XYZ profile is stored in a predetermined area of the HDD 105.

物体色デバイスの場合、プロファイル値に対するXYZ値は、ソース側またはデスティネーション側の照明条件に基づき選択した相対分光分布S(λ)、および、二度視野XYZ等色関数x(λ)y(λ)z(λ)から、式(1)によって算出する。   In the case of an object color device, the XYZ values for the profile values are the relative spectral distribution S (λ) selected based on the illumination conditions on the source side or destination side, and the twice field XYZ color matching function x (λ) y (λ ) Calculate from the equation (1) from z (λ).

また、光源色デバイスの場合、プロファイル値に対するXYZ値は、二度視野XYZ等色関数x(λ)y(λ)z(λ)から、式(2)によって算出する。   In the case of the light source color device, the XYZ value for the profile value is calculated from the twice-view XYZ color matching function x (λ) y (λ) z (λ) according to Equation (2).

次に、画像処理APは、XYZプロファイルから、順応を考慮したCAMプロファイルを生成する(S408)。なお、生成したCAMプロファイルはHDD105の所定領域に格納される。CAMプロファイルには、後述するカラーマッチングに必要な順応白色点を次のように算出して記述する。   Next, the image processing AP generates a CAM profile considering adaptation from the XYZ profile (S408). The generated CAM profile is stored in a predetermined area of the HDD 105. In the CAM profile, an adaptive white point necessary for color matching described later is calculated and described as follows.

まず、ソースデバイスおよびデスティネーションデバイスのXYZプロファイルそれぞれから、ソースデバイスの白色点のXYZ値XwsYwsZws、および、デスティネーションデバイスの白色点のXYZ値XwdYwdZwdを算出する。そして、ソースデバイスのCAMプロファイルの順応白色点としてXYZ値XwsYwsZwsを、デスティネーションデバイスのCAMプロファイルの順応白色点としてXYZ値XwdYwdZwdを記述する。   First, the XYZ value XwsYwsZws of the white point of the source device and the XYZ value XwdYwdZwd of the white point of the destination device are calculated from the XYZ profiles of the source device and the destination device, respectively. Then, the XYZ value XwsYwsZws is described as the adaptation white point of the CAM profile of the source device, and the XYZ value XwdYwdZwd is described as the adaptation white point of the CAM profile of the destination device.

次に、画像処理APは、HDD105に格納した、XYZプロファイル、CAMプロファイル、および、色変換対象の画像データへのポインタを、色変換を行うカラーマネージメントモジュール(CMM)に通知する(S409)。そして、ラジオボタン309によって指定されたカラーマッチング方法を取得して、カラーマッチング方法をCMMに通知し(S410)、ポインタが示す画像データに対するカラーマッチング処理の実行をCMMに指示する(S411)。   Next, the image processing AP notifies the XYZ profile, the CAM profile, and the pointer to the color conversion target image data stored in the HDD 105 to the color management module (CMM) that performs color conversion (S409). Then, the color matching method designated by the radio button 309 is acquired, the color matching method is notified to the CMM (S410), and the CMM is instructed to perform color matching processing on the image data indicated by the pointer (S411).

CMMによる色変換が終了すると、画像処理APは、デスティネーションデバイスとして指定されたデバイスに色変換後の画像データを出力する(S412)。つまり、デスティネーションデバイスがモニタ107の場合はモニタ107の画面に色変換後の画像が表示され、デスティネーションデバイスがプリンタ109の場合は色変換後の画像が印刷される。   When the color conversion by the CMM is completed, the image processing AP outputs the image data after the color conversion to the device designated as the destination device (S412). That is, when the destination device is the monitor 107, the image after color conversion is displayed on the screen of the monitor 107, and when the destination device is the printer 109, the image after color conversion is printed.

[カラーマッチング処理]
図6はCMMが行うカラーマッチング処理(S411)を説明するフローチャートである。
[Color matching processing]
FIG. 6 is a flowchart for explaining color matching processing (S411) performed by the CMM.

CMMは、指定されたXYZプロファイルおよびCAMプロファイルをHDD105から取得し(S501)、指定された画像データをHDD105またはメインメモリ102のRAMから取得する(S502)。   The CMM acquires the specified XYZ profile and CAM profile from the HDD 105 (S501), and acquires the specified image data from the RAM of the HDD 105 or the main memory 102 (S502).

次に、CMMは、画像データからラスタ順に画素のRGB値を取得し(S503)、ソースデバイスのXYZプロファイルによって、取得したRGB値をXYZ値に変換する(S504)。そして、CIEが規定するカラーアピアランスモデル(例えばCIECAM02)とソースデバイスのCAMプロファイルに基づき、XYZ値をJCh値に変換する(S505)。その際、カラーアピアランスモデルに与える順応白色点として、ソースデバイスのCAMプロファイルに記述された順応白色点を用いる。   Next, the CMM acquires RGB values of pixels from the image data in raster order (S503), and converts the acquired RGB values into XYZ values according to the XYZ profile of the source device (S504). Then, based on the color appearance model (for example, CIECAM02) defined by the CIE and the CAM profile of the source device, the XYZ values are converted into JCh values (S505). At this time, the adaptive white point described in the CAM profile of the source device is used as the adaptive white point given to the color appearance model.

次に、CMMは、ソースデバイスとデスティネーションデバイスのCAMプロファイルを参照して、指定されたカラーマッチング方式に従う色域写像をJCh値に施す(S506)。なお、色域写像には、知覚的一致を目的とする色域写像、測色的一致を目的とする色域写像、サチューレーション一致を目的とする色域写像がある。   Next, the CMM refers to the CAM profiles of the source device and the destination device and applies a color gamut mapping according to the designated color matching method to the JCh value (S506). Note that the color gamut mapping includes a color gamut mapping for the purpose of perceptual matching, a color gamut mapping for the purpose of colorimetric matching, and a color gamut mapping for the purpose of saturation matching.

次に、CMMは、カラーアピアランスモデルとデスティネーションデバイスのCAMプロファイルに基づき、色域写像後のJCh値をXYZ値に変換する(S507)。その際、カラーアピアランスモデルに与える順応白色点として、デスティネーションデバイスのCAMプロファイルに記述された順応白色点を用いる。   Next, the CMM converts the JCh values after color gamut mapping into XYZ values based on the color appearance model and the CAM profile of the destination device (S507). At this time, the adaptive white point described in the CAM profile of the destination device is used as the adaptive white point to be given to the color appearance model.

次に、CMMは、デスティネーションデバイスのXYZプロファイルによって、変換後のXYZ値をデスティネーションデバイスの色値(RGB値またはCMYK値)に変換する(S508)。   Next, the CMM converts the converted XYZ value into the color value (RGB value or CMYK value) of the destination device using the XYZ profile of the destination device (S508).

次に、CMMは、画像データの全画素にステップS503からS508の処理を施したか否かを判定し(S509)、未処理の画素があれば処理をステップS503へ戻す。また、全画素にステップS503からS508の処理を施した場合は、色変換後の画像データをメインメモリ102のRAMまたはHDD105に格納する(S510)。   Next, the CMM determines whether or not the processing of steps S503 to S508 has been performed on all the pixels of the image data (S509). If there is an unprocessed pixel, the processing returns to step S503. If all the pixels are processed in steps S503 to S508, the image data after color conversion is stored in the RAM or HDD 105 of the main memory 102 (S510).

[色域写像]
●知覚的一致
図7はCMMが行う知覚的一致を目的とする色域写像を説明するフローチャートである。また、図8から図11は知覚的一致を目的とする色域写像を明度J-彩度C断面で模式的に示す図である。図8において、実線はソースデバイスの色再現を、点線はデスティネーションデバイスの色域をそれぞれ表す。
[Color Gamut Map]
● Perceptual Matching FIG. 7 is a flowchart for explaining color gamut mapping for perceptual matching performed by the CMM. FIGS. 8 to 11 are diagrams schematically showing a color gamut mapping for perceptual coincidence in a brightness J-saturation C cross section. In FIG. 8, the solid line represents the color reproduction of the source device, and the dotted line represents the color gamut of the destination device.

CMMは、写像する色(JCh)を取得し(S601)、ソースデバイスの色域の明度レンジの最大値を正規化する(J=100にする)ように、取得した色の明度値Jを補正する(S602)。この補正により、図9に示すように、一点鎖線で示すソースデバイスの色再現が、実線で示す色再現に変化する。   The CMM acquires the color (JCh) to be mapped (S601) and corrects the brightness value J of the acquired color so that the maximum value of the lightness range of the gamut of the source device is normalized (J = 100). (S602). By this correction, as shown in FIG. 9, the color reproduction of the source device indicated by the alternate long and short dash line changes to the color reproduction indicated by the solid line.

次に、CMMは、シグモイド関数を用いて、補正後の明度値J'をスケーリングする(S603)。このスケーリングにより、図10に示すように、一点鎖線で示す移動後の色再現が、実線で示すスケーリング後の色再現に変化する。   Next, the CMM uses the sigmoid function to scale the corrected brightness value J ′ (S603). By this scaling, as shown in FIG. 10, the color reproduction after movement indicated by the alternate long and short dash line changes to the color reproduction after scaling indicated by the solid line.

次に、CMMは、彩度値Cに応じて、スケーリング後の明度値J"を補正する(S604)。この補正により、図11に示すように、一点鎖線で示す色再現が、実線で示す色再現に変化する。   Next, the CMM corrects the lightness value J ″ after scaling according to the saturation value C (S604). As a result of this correction, the color reproduction indicated by the alternate long and short dash line is indicated by the solid line as shown in FIG. Change to color reproduction.

次に、CMMは、色相値hを保存しつつ、補正後の明度値J"と彩度値C'で表される色M(J"C'h)をデスティネーションデバイスの色域内に写像する(S605)。言い換えれば、補正後のソースデバイス(写像元)の色域と、デスティネーションデバイス(写像先)の色域に基づき色域写像を行う。図12は写像を明度J-彩度C断面で模式的に示す図である。図12において、実線はステップS602からS604の処理で得られる写像元の色域、点線はデスティネーションデバイス(写像先)の色域を表す。   Next, the CMM maps the color M (J "C'h) represented by the corrected lightness value J" and saturation value C 'into the color gamut of the destination device while preserving the hue value h. (S605). In other words, color gamut mapping is performed based on the color gamut of the corrected source device (mapping source) and the color gamut of the destination device (mapping destination). FIG. 12 is a diagram schematically showing the mapping in the section of lightness J-saturation C. In FIG. 12, the solid line represents the color gamut of the mapping source obtained by the processing of steps S602 to S604, and the dotted line represents the color gamut of the destination device (mapping destination).

色Mを写像する場合、写像先の色域における、色Mと同色相で最大彩度を有する色Dを算出し、色Dと同じ明度値を有する明度軸上の色Fを決定する。そして、色Fと色Mを結ぶ直線と写像元の色域境界の交点Bs、および、色Fと色Mを結ぶ直線と写像先の色域境界の交点Bdを算出する。そして、交点Bdと色Fの間の距離を1:9に内分する点E(BdE:EF=1:9)を算出する。ここで、距離MFが距離EF以下(MF≦EF)の場合は、色Mに対する写像を行わない(M'=M)。他方、距離MFが距離EFを超える(MF>EF)の場合は、式(6)が表す点M'を写像後の色にする(点M'は交点Bdと点Eの間に存在する)。
M' = M/BsE×BdE …(6)
ここで、BsEは交点Bsと点Eの間の距離、
BdEは交点Bdと点Eの間の距離。
When mapping the color M, the color D having the same hue as the color M and the maximum saturation in the color gamut of the mapping destination is calculated, and the color F on the brightness axis having the same brightness value as the color D is determined. Then, the intersection Bs of the straight line connecting the color F and the color M and the color gamut boundary of the mapping source, and the intersection Bd of the straight line connecting the color F and the color M and the color gamut boundary of the mapping destination are calculated. Then, a point E (BdE: EF = 1: 9) that internally divides the distance between the intersection Bd and the color F into 1: 9 is calculated. Here, when the distance MF is equal to or less than the distance EF (MF ≦ EF), mapping for the color M is not performed (M ′ = M). On the other hand, when the distance MF exceeds the distance EF (MF> EF), the point M ′ represented by the equation (6) is set to the color after mapping (the point M ′ exists between the intersection point Bd and the point E). .
M '= M / BsE × BdE (6)
Where BsE is the distance between intersection Bs and point E,
BdE is the distance between intersection Bd and point E.

●測色的一致
図13はCMMが行う測色的一致を目的とする色域写像を説明するフローチャートである。
Colorimetric match FIG. 13 is a flowchart for explaining color gamut mapping for the purpose of colorimetric matching performed by the CMM.

CMMは、写像する色M(JCh値)を取得し(S901)、色Mがデスティネーションデバイスの色域の内にあるか外にあるかを判定(内外判定)する(S902)。   The CMM acquires the color M (JCh value) to be mapped (S901), and determines whether the color M is within or outside the color gamut of the destination device (internal / external determination) (S902).

CMMは、色域内の色と判定した場合は色Mの色域写像を行わない(M'=M)。また、色域外の色と判定した場合は、色Mと、色相hが同じで、距離が最小のデスティネーションデバイスの色域境界の色M'を算出し、色M'を色域写像後の色とする(S903)。   When the CMM determines that the color is within the color gamut, the color gamut mapping of the color M is not performed (M ′ = M). If it is determined that the color is out of the gamut, the color M and the hue h are the same, and the color M ′ of the gamut boundary of the destination device with the smallest distance is calculated, and the color M ′ is the color gamut after the gamut mapping. Let it be a color (S903).

●サチュレーション一致
図14はCMMが行うサチュレーション一致を目的とする色域写像を説明するフローチャートである。図15から図17はサチュレーション一致を目的とする色域写像を明度J-彩度C断面で模式的に示す図である。
Saturation Matching FIG. 14 is a flowchart for explaining color gamut mapping for saturation matching performed by the CMM. FIGS. 15 to 17 are diagrams schematically showing a color gamut map intended for saturation matching in a lightness J-saturation C cross section.

CMMは、写像する色(JCh値)を取得し(S1001)、写像する色と、色相hが同じで、最大彩度をもつソースデバイスの色域境界の色Mを算出する(S1002)。そして、写像する色と、色相hが同じで、最大彩度をもつデスティネーションデバイスの色域境界の色Nを算出する(S1003)。図15は色Mと色Nの関係を示し、実線はソースデバイスの色再現を、点線はデスティネーションデバイスの色域をそれぞれ表す。   The CMM acquires the color (JCh value) to be mapped (S1001), and calculates the color M of the color gamut boundary of the source device having the same hue h as the color to be mapped and having the maximum saturation (S1002). Then, the color N of the color gamut boundary of the destination device having the same hue h as the mapped color and the maximum saturation is calculated (S1003). FIG. 15 shows the relationship between colors M and N, where the solid line represents the color reproduction of the source device and the dotted line represents the color gamut of the destination device.

次に、CMMは、色Mが色Nに一致するようにJC平面上でアフィン変換を施す(S1004)。この変換により、ソースデバイスの色再現と、デスティネーションデバイスの色域の関係は図16に示すようになる。また、アフィン変換が満たす条件は次のとおりである。
A・OW = OW
A・OM = ON …(7)
ここで、Aはアフィン変換、
Oは黒色点(J=C=0)、
Wはソースデバイスの白色点
Next, the CMM performs affine transformation on the JC plane so that the color M matches the color N (S1004). By this conversion, the relationship between the color reproduction of the source device and the color gamut of the destination device is as shown in FIG. The conditions that the affine transformation satisfies are as follows.
A ・ OW = OW
A ・ OM = ON (7)
Where A is the affine transformation,
O is black point (J = C = 0),
W is the white point of the source device

次に、CMMは、色相値hを保存しつつ、アフィン変換後の明度値J'と彩度値C'で表される色M(J'C'h)をデスティネーションデバイスの色域内に写像する(S1005)。なお、この色域写像の詳細は、知覚的一致の場合のステップS605と同じである。この写像により、ソースデバイスの色再現と、デスティネーションデバイスの色域の関係は図17に示すようになる。   Next, the CMM maps the color M (J'C'h) represented by the lightness value J 'and saturation value C' after affine transformation into the color gamut of the destination device while preserving the hue value h. (S1005). The details of this color gamut mapping are the same as in step S605 in the case of perceptual matching. By this mapping, the relationship between the color reproduction of the source device and the color gamut of the destination device is as shown in FIG.

なお、図7、13、14に示す色域写像処理は一色分の処理であり、画像データの画素分、色域写像処理を繰り返すか、キャッシュを利用して画像データが含む色数分、色域写像処理を繰り返すことになる。   Note that the color gamut mapping processing shown in FIGS. 7, 13, and 14 is processing for one color, and the color gamut mapping processing is repeated for the pixels of the image data, or the number of colors included in the image data using the cache The area mapping process is repeated.

このように、観察方法の設定に応じて、プロファイル設定用のダイアログ(ユーザンタフェイス)の入力項目を変化させるため、ユーザプロファイルの設定ミスを防ぐことができる。また、カラーマネージメントの知識を充分に有さないユーザによる、色順応モデルを駆使した高度なカラーマッチングの適切な使用が可能になる。   Thus, since the input items of the profile setting dialog (user interface) are changed according to the setting of the observation method, it is possible to prevent a user profile setting error. In addition, a user who does not have sufficient knowledge of color management can appropriately use advanced color matching using a chromatic adaptation model.

[他の実施例]
なお、本発明は、複数の機器(例えばコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置、制御装置など)に適用してもよい。
[Other embodiments]
Note that the present invention can be applied to a system constituted by a plurality of devices (for example, a computer, an interface device, a reader, a printer, etc.), but an apparatus (for example, a copier, a facsimile machine, a control device) composed of a single device. Etc.).

また、本発明の目的は、上記実施例の機能を実現するコンピュータプログラムを記録した記憶媒体をシステムまたは装置に供給し、そのシステムまたは装置のコンピュータ(CPUやMPU)が前記コンピュータプログラムを実行することでも達成される。この場合、記憶媒体から読み出されたソフトウェア自体が上記実施例の機能を実現することになり、そのコンピュータプログラムと、そのコンピュータプログラムを記憶する、コンピュータが読み取り可能な記憶媒体は本発明を構成する。   Another object of the present invention is to supply a storage medium storing a computer program for realizing the functions of the above-described embodiments to a system or apparatus, and the computer (CPU or MPU) of the system or apparatus executes the computer program. But it is achieved. In this case, the software read from the storage medium itself realizes the functions of the above embodiments, and the computer program and the computer-readable storage medium storing the computer program constitute the present invention. .

また、前記コンピュータプログラムの実行により上記機能が実現されるだけではない。つまり、そのコンピュータプログラムの指示により、コンピュータ上で稼働するオペレーティングシステム(OS)および/または第一の、第二の、第三の、…プログラムなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。   Further, the above functions are not only realized by the execution of the computer program. That is, according to the instruction of the computer program, the operating system (OS) and / or the first, second, third,... This includes the case where the above function is realized.

また、前記コンピュータプログラムがコンピュータに接続された機能拡張カードやユニットなどのデバイスのメモリに書き込まれていてもよい。つまり、そのコンピュータプログラムの指示により、第一の、第二の、第三の、…デバイスのCPUなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。   The computer program may be written in a memory of a device such as a function expansion card or unit connected to the computer. That is, it includes the case where the CPU of the first, second, third,... Device performs part or all of the actual processing according to the instructions of the computer program, thereby realizing the above functions.

本発明を前記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応または関連するコンピュータプログラムが格納される。   When the present invention is applied to the storage medium, the storage medium stores a computer program corresponding to or related to the flowchart described above.

色処理装置の構成例を示すブロック図、Block diagram showing a configuration example of a color processing device, 画像処理APが提供するアプリケーションウィンドウの一例を示す図、The figure which shows an example of the application window which image processing AP provides, 画像処理APが提供するプロファイル設定用のダイアログの一例を示す図、The figure which shows an example of the dialog for the profile setting which image processing AP provides, 画像処理APが提供するプロファイル設定用のダイアログの一例を示す図、The figure which shows an example of the dialog for the profile setting which image processing AP provides, 色変換処理を説明するフローチャート、A flowchart for explaining color conversion processing; CMMが行うカラーマッチング処理を説明するフローチャート、A flowchart for explaining color matching processing performed by the CMM; CMMが行う知覚的一致を目的とする色域写像を説明するフローチャート、A flow chart explaining the color gamut mapping for the purpose of perceptual matching performed by the CMM, 知覚的一致を目的とする色域写像をJC断面で模式的に示す図、A diagram schematically showing the color gamut mapping for perceptual matching in the JC section, 知覚的一致を目的とする色域写像をJC断面で模式的に示す図、A diagram schematically showing the color gamut mapping for perceptual matching in the JC section, 知覚的一致を目的とする色域写像をJC断面で模式的に示す図、A diagram schematically showing the color gamut mapping for perceptual matching in the JC section, 知覚的一致を目的とする色域写像をJC断面で模式的に示す図、A diagram schematically showing the color gamut mapping for perceptual matching in the JC section, 写像をJC断面で模式的に示す図、A diagram schematically showing the mapping in JC cross section, CMMが行う測色的一致を目的とする色域写像を説明するフローチャート、A flow chart explaining the color gamut mapping for the purpose of colorimetric matching performed by the CMM, CMMが行うサチュレーション一致を目的とする色域写像を説明するフローチャート、A flow chart explaining the gamut mapping for saturation matching performed by CMM, サチュレーション一致を目的とする色域写像をJC断面で模式的に示す図、A diagram schematically showing the color gamut mapping for saturation matching in the JC section, サチュレーション一致を目的とする色域写像をJC断面で模式的に示す図、A diagram schematically showing the color gamut mapping for saturation matching in the JC section, サチュレーション一致を目的とする色域写像をJC断面で模式的に示す図である。It is a figure which shows typically the color gamut map aiming at saturation matching in a JC cross section.

Claims (7)

画像の観察方法、画像の観察に使用するデバイス、および、画像を観察する環境の照明条件を入力する入力項目を提供する入力手段と、
前記入力手段によって入力される前記観察方法に応じて、前記入力手段の入力項目を設定する設定手段と、
前記入力手段によって入力される前記観察方法、前記デバイスおよび前記照明条件に基づき、画像を色変換する色処理手段とを有することを特徴とする色処理装置。
An image observing method, a device used for observing the image, and an input means for providing an input item for inputting an illumination condition of an environment for observing the image;
Setting means for setting input items of the input means according to the observation method input by the input means;
A color processing apparatus comprising: color processing means for color-converting an image based on the observation method, the device, and the illumination condition input by the input means.
前記入力手段は、前記観察方法として、ソース側の画像の観察とデスティネーション側の画像の観察を、同じ場所で行うか、異なる場所で行うかを選択する入力項目を提供し、
前記設定手段は、前記観察方法として前記同じ場所で行うが選択されると、前記照明条件の入力項目を前記ソース側の画像と前記デスティネーション側の画像で共通に設定し、前記観察方法として前記異なる場所で行うが選択されると、前記照明条件の入力項目を前記ソース側の画像と前記デスティネーション側の画像でそれぞれ別に設定することを特徴とする請求項1に記載された色処理装置。
The input means provides, as the observation method, an input item for selecting whether to perform observation of the source side image and observation of the destination side image in the same place or in different places,
When the setting unit is selected to perform at the same place as the observation method, the input item of the illumination condition is set in common for the source-side image and the destination-side image, and the observation method is the observation method. 2. The color processing apparatus according to claim 1, wherein when “perform in different places” is selected, the input item of the illumination condition is set separately for each of the source side image and the destination side image.
前記入力手段は、さらに、カラーマッチング方法を入力する入力項目を提供し、
前記設定手段は、前記観察方法として前記同じ場所で行うが選択された場合と、前記観察方法として前記異なる場所で行うが選択された場合で、前記カラーマッチング方法の入力項目を変更することを特徴とする請求項2に記載された色処理装置。
The input means further provides an input item for inputting a color matching method,
The setting means changes the input items of the color matching method when the observation method is selected to be performed at the same location and when the observation method is selected to be performed at the different location. 3. The color processing apparatus according to claim 2.
前記色処理手段は、前記観察方法として前記同じ場所で行うが選択された場合は部分順応を考慮した色変換を行い、前記観察方法として前記異なる場所で行うが選択された場合は色順応を考慮した色変換を行うことを特徴とする請求項2または請求項3に記載された色処理装置。   The color processing means performs color conversion in consideration of partial adaptation when the observation method is performed at the same location, and considers color adaptation when the observation method is selected as performed at the different location. 4. The color processing apparatus according to claim 2, wherein the color conversion is performed. 画像の観察方法、画像の観察に使用するデバイス、および、画像を観察する環境の照明条件を入力する入力項目を提供する入力ステップと、
前記入力ステップで入力される前記観察方法に応じて、前記入力ステップの入力項目を設定する設定ステップと、
前記入力ステップで入力される前記観察方法、前記デバイスおよび前記照明条件に基づき、画像を色変換する色処理ステップとを有することを特徴とする色処理方法。
An input step for providing input items for inputting an image observation method, a device used for image observation, and a lighting condition of an environment for observing the image;
In accordance with the observation method input in the input step, a setting step for setting input items in the input step;
A color processing method comprising: a color processing step for color-converting an image based on the observation method, the device, and the illumination condition input in the input step.
コンピュータ装置を制御して、請求項1から請求項4の何れか一項に記載された色処理装置の各手段として機能させることを特徴とするコンピュータプログラム。   5. A computer program for controlling a computer device to function as each unit of the color processing device according to claim 1. 請求項6に記載されたコンピュータプログラムが記録されたことを特徴とするコンピュータが読み取り可能な記憶媒体。   7. A computer-readable storage medium in which the computer program according to claim 6 is recorded.
JP2008096557A 2008-04-02 2008-04-02 Color processing device and method thereof Withdrawn JP2009253467A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008096557A JP2009253467A (en) 2008-04-02 2008-04-02 Color processing device and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008096557A JP2009253467A (en) 2008-04-02 2008-04-02 Color processing device and method thereof

Publications (1)

Publication Number Publication Date
JP2009253467A true JP2009253467A (en) 2009-10-29

Family

ID=41313755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008096557A Withdrawn JP2009253467A (en) 2008-04-02 2008-04-02 Color processing device and method thereof

Country Status (1)

Country Link
JP (1) JP2009253467A (en)

Similar Documents

Publication Publication Date Title
US20100118008A1 (en) Color processing apparatus, color processing method, and storage medium
JP5153607B2 (en) Image processing apparatus, image processing method, and image processing program
JP4757078B2 (en) Color processing method and apparatus
US8488905B2 (en) Image processing method for reproducing one image by overlapping output images by first and second devices having different output modes
JP2003087591A (en) Picture processing method and picture processor
KR20050097540A (en) Color conversion method and profile generation method
JP2007181145A (en) Image processing apparatus and method thereof
US7843605B2 (en) Color processing apparatus and method thereof
US10097732B2 (en) Color conversion method, non-transitory recording medium storing computer readable program, and image processing apparatus
JP5387713B2 (en) Image adjustment apparatus, image adjustment system, and program
US20050219561A1 (en) User interface for selecting color settings
US8237735B2 (en) Caching for color management systems performing a gamut mapping function
JP2008278055A (en) Color processor and method therefor
JP2008177783A (en) Color conversion device and program
JP2015089056A (en) Profile generation device and profile generation method
JP2009071618A (en) Image processor, image processing method and program, and recording medium
JP6895791B2 (en) Color processing equipment, color processing method
JP2009253467A (en) Color processing device and method thereof
JP2011205467A (en) Color processing apparatus, and program
JP2003283851A (en) System, method and program for controlling printing, medium with the program recorded, device and method for converting color, color conversion table, and method for generating the table
JP4802981B2 (en) Color conversion table creation program, color conversion table creation device, and color conversion table creation system
JP2006254369A (en) Color processing method and device thereof
JP5849549B2 (en) Color processing apparatus and program
US11934711B2 (en) Information processing device, display method, and non-transitory computer-readable storage medium storing display information generation program
JP2004023650A (en) Image processor and image producing or processing program to be used for the same

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110607