JP2010109752A - Color processing apparatus and method thereof - Google Patents

Color processing apparatus and method thereof Download PDF

Info

Publication number
JP2010109752A
JP2010109752A JP2008280269A JP2008280269A JP2010109752A JP 2010109752 A JP2010109752 A JP 2010109752A JP 2008280269 A JP2008280269 A JP 2008280269A JP 2008280269 A JP2008280269 A JP 2008280269A JP 2010109752 A JP2010109752 A JP 2010109752A
Authority
JP
Japan
Prior art keywords
profile
color
image data
appearance model
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008280269A
Other languages
Japanese (ja)
Inventor
Hirochika Matsuoka
寛親 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008280269A priority Critical patent/JP2010109752A/en
Publication of JP2010109752A publication Critical patent/JP2010109752A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To match impressions of colors of an image in a plurality of environments where various illuminations or various devices are combined. <P>SOLUTION: In the color processing apparatus, a partial matching point in observing a source-side image and a partial matching point in observing a destination-side image from a device profile of a source-side device and a device profile of a destination-side device are calculated (S702). On the basis of the partial matching points, a color appearance model profile of the source-side device and a color appearance model profile of the destination-side device are generated (S703). The device profile and the color appearance model profile of the source-side device are added to image data (S707) and the image data, to which the device profile and the color appearance have been added, are supplied to another color processing apparatus (S709). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、異なる画像観察環境の間の色処理に関する。   The present invention relates to color processing between different image viewing environments.

近年、デスクトップパブリッシング(DTP)やコンピュータグラフィクス(CG)の技術が発展し、モニタに表示された画像や印刷された画像の色を管理するカラーマネージメント技術が重要になった。   In recent years, desktop publishing (DTP) and computer graphics (CG) technologies have been developed, and color management technology for managing the colors of images displayed on monitors and printed images has become important.

例えば、CGにおいては、モニタに表示されたカラー画像を観察しつつ、CGの作成/編集作業などを行い、その後、カラープリンタを使用して入稿する原稿を確認する場合がある。ここで、モニタに表示されたカラー画像と、カラープリンタが印刷した画像の間に知覚的な一致があることが望まれる。このような要求を実現するには、カラーマネージメント技術が必須である。   For example, in CG, there are cases where a CG creation / editing operation is performed while observing a color image displayed on a monitor, and then a manuscript to be submitted is confirmed using a color printer. Here, it is desired that there is a perceptual match between the color image displayed on the monitor and the image printed by the color printer. Color management technology is indispensable for realizing such a demand.

カラーマネージメント技術としては、International Color Consortium (ICC)によって定められたICCカラープロファイルを用いるカラーマネージメントシステム(CMS)が一般的である。このCMSは、カラーマッチングを行うためのデバイスに独立な色空間(PCS)を定義する。そして、PCS上で、デバイスの色空間からPCSへの色変換を規定するソースプロファイル、および、PCSからデバイスの色空間への色変換を規定するデスティネーションプロファイルを用いてカラーマネージメントを実現する。なお、PCSは「ハブ色空間」と呼ばれることもある。   As a color management technique, a color management system (CMS) using an ICC color profile defined by the International Color Consortium (ICC) is generally used. This CMS defines a device independent color space (PCS) for color matching. Then, on the PCS, color management is realized using a source profile that defines color conversion from the device color space to the PCS and a destination profile that defines color conversion from the PCS to the device color space. PCS is sometimes called a “hub color space”.

色変換は、ソースプロファイルとデスティネーションプロファイルの二種類のカラープロファイルに基づき、次のように実施される。まず、入力画像を供給するデバイス(以下、入力デバイス)に適合したデバイス色空間の色信号値を、ソースプロファイルによってPCSの色信号値に変換する。そして、PCSの色信号値を、デスティネーションプロファイルによって画像の出力先のデバイス(以下、出力デバイス)に適合したデバイス色空間の色信号に変換する。   Color conversion is performed as follows based on two types of color profiles, a source profile and a destination profile. First, a color signal value in a device color space suitable for a device that supplies an input image (hereinafter referred to as an input device) is converted into a PCS color signal value by a source profile. Then, the PCS color signal value is converted into a color signal in a device color space suitable for an image output destination device (hereinafter, output device) by the destination profile.

このようなCMSによれば、CGにおいて使用されるモニタとプリンタのカラーマネージメント、DTPにおけるプルーフのカラーマネージメントなどに、幅広く柔軟に対応することができる。例えばCGにおいては、ソースプロファイルにモニタの特性を記したカラープロファイルを指定し、デスティネーションプロファイルにプリンタの特性を記したカラープロファイルを指定する。このようにカラープロファイルを指定することによって、所望する画像とプリンタの出力画像の間の知覚的一致を図ることができる。   According to such CMS, color management of monitors and printers used in CG, proof color management in DTP, etc. can be widely and flexibly supported. For example, in CG, a color profile that describes the characteristics of a monitor is specified as a source profile, and a color profile that describes the characteristics of a printer is specified as a destination profile. By specifying the color profile in this way, it is possible to achieve perceptual matching between the desired image and the output image of the printer.

さらに、ICCカラープロファイルは、国際照明委員会(CIE)が規定する色順応モデルのCIECAM02、CIECAM97sなどにも対応したフォーマットであり、観察環境などに依存する視覚順応状態の変化にも対応したCMSを構築することができる。とくに、モニタとプリンタのカラーマッチングにおいては、この機構を応用して、部分順応を考慮した白色点を設定し、より知覚的に一致した色再現を得ることができる(特許文献1参照)。   Furthermore, the ICC color profile is a format that also supports the CIECAM02 and CIECAM97s chromatic adaptation models specified by the International Commission on Illumination (CIE). Can be built. In particular, in color matching between a monitor and a printer, this mechanism can be applied to set a white point in consideration of partial adaptation to obtain more perceptually consistent color reproduction (see Patent Document 1).

部分順応を考慮するカラーマッチングによれば、一つの照明下における異なるデバイス間のカラーマッチングが可能である。しかし、ある照明下において異なるデバイス間でカラーマッチングした画像の色の見えは、別の照明下において別の異なるデバイス間でカラーマッチングした画像の色の見えとは相違する。   According to color matching considering partial adaptation, color matching between different devices under one illumination is possible. However, the color appearance of an image color-matched between different devices under a certain illumination is different from the color appearance of an image color-matched between different devices under a different illumination.

この理由の一つは、デバイス特性の相違、あるいは、照明の変化に応じた物体色の見えの変化により、表示装置の色再現特性が相違することにある。また、他の理由として、照明または色再現特性の変化に応じて、視覚の順応状態も変化することがある。   One reason for this is that the color reproduction characteristics of the display device differ due to differences in device characteristics or changes in the appearance of object colors in response to changes in illumination. Another reason is that the state of visual adaptation may change according to changes in illumination or color reproduction characteristics.

このように、ある照明下において異なるデバイス間でカラーマッチングした画像を、複数の照明とデバイスを組み合わせて評価すると、各組み合わせの間で、色の印象が異なることになる。従って、例えば複数の環境に跨ってCGの編集/確認作業を行う場合、環境によって色の印象が異なる問題がある。   As described above, when an image color-matched between different devices under a certain illumination is evaluated in combination with a plurality of illuminations and devices, the color impression is different between the combinations. Therefore, for example, when CG editing / confirmation work is performed across a plurality of environments, there is a problem that the color impression varies depending on the environment.

特開2000-148979公報JP 2000-148979

本発明は、様々な照明や様々なデバイスが組み合わされた複数の環境において、画像の色の印象を一致させることを目的とする。   An object of the present invention is to match the color impression of an image in a plurality of environments in which various lights and various devices are combined.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。   The present invention has the following configuration as one means for achieving the above object.

本発明にかかる色処理は、ソース側のデバイスのデバイスプロファイルおよびデスティネーション側のデバイスのデバイスプロファイルから前記ソース側の画像を観察する際の部分順応点および前記デスティネーション側の画像を観察する際の部分順応点を算出し、前記部分順応点に基づき、前記ソース側のデバイスのカラーアピアランスモデルプロファイルおよび前記デスティネーション側のデバイスのカラーアピアランスモデルプロファイルを生成し、前記ソース側のデバイスの前記デバイスプロファイルと前記カラーアピアランスモデルプロファイルを画像データに付加し、前記デバイスプロファイルと前記カラーアピアランスを付加した画像データを他の色処理装置に供給することを特徴とする。   In the color processing according to the present invention, the partial adaptation point when observing the source-side image and the destination-side image from the device profile of the source-side device and the device profile of the destination-side device are used. A partial adaptation point is calculated, and based on the partial adaptation point, a color appearance model profile of the source device and a color appearance model profile of the destination device are generated, and the device profile of the source device The color appearance model profile is added to image data, and the image data with the device profile and the color appearance added is supplied to another color processing apparatus.

また、画像データを入力し、前記画像データに付加されたデバイスプロファイルとカラーアピアランスモデルプロファイルを抽出し、モニタのデバイスプロファイルおよびプリンタのデバイスプロファイルから前記モニタの画像を観察する際の部分順応点および前記プリンタの画像を観察する際の部分順応点を算出し、前記部分順応点に基づき、前記モニタのカラーアピアランスモデルプロファイルおよび前記プリンタのカラーアピアランスモデルプロファイルを生成し、前記抽出したデバイスプロファイルとカラーアピアランスモデルプロファイルをソース側のプロファイルに設定し、前記モニタのデバイスプロファイルとカラーアピアランスモデルプロファイルをデスティネーション側のプロファイルに設定して、前記画像データにカラーアピアランスモデルに基づく色変換を施した画像データを生成し、前記抽出したデバイスプロファイルとカラーアピアランスモデルプロファイルを前記ソース側のプロファイルに設定し、前記プリンタのデバイスプロファイルとカラーアピアランスモデルプロファイルを前記デスティネーション側のプロファイルに設定して、前記画像データに前記カラーアピアランスモデルに基づく色変換を施した画像データを生成することを特徴とする。   In addition, image data is input, a device profile and a color appearance model profile added to the image data are extracted, a partial adaptation point for observing the monitor image from the monitor device profile and the printer device profile, and the A partial adaptation point for observing the image of the printer is calculated, and based on the partial adaptation point, a color appearance model profile of the monitor and a color appearance model profile of the printer are generated, and the extracted device profile and color appearance model Set the profile to the source side profile, set the device profile and color appearance model profile of the monitor to the destination side profile, and add color to the image data. Generating image data subjected to color conversion based on the appearance model, setting the extracted device profile and color appearance model profile as the source side profile, and setting the device profile and color appearance model profile of the printer to the destination side And generating image data obtained by performing color conversion on the image data based on the color appearance model.

本発明によれば、様々な照明や様々なデバイスが組み合わされた複数の環境において、画像の色の印象を一致させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the impression of the color of an image can be matched in the some environment where various illumination and various devices were combined.

以下、本発明にかかる実施例の色処理を図面を参照して詳細に説明する。   Hereinafter, color processing according to an embodiment of the present invention will be described in detail with reference to the drawings.

[システムの構成]
図1は実施例のカラーマッチングシステムの構成例を示すブロック図である。
[System configuration]
FIG. 1 is a block diagram illustrating a configuration example of a color matching system according to an embodiment.

ネットワーク1101は、画像処理装置(色処理装置)1102〜1104およびサーバ1105を相互に接続する。サーバ1105は、ネットワークの管理サーバおよびファイルサーバとして機能する。つまり、サーバ1105は、動的ホスト構成プロトコル(DHCP)により各画像処理装置がネットワーク1101に接続する際の情報管理と、画像処理装置1102〜1104の間で共有されるデータファイルの格納と管理を行う。サーバ1105の管理下、画像処理装置1102〜1104は、ネットワーク1101を介して、データファイルを交換し、それぞれ画像などの表示と印刷を行う。   A network 1101 connects image processing apparatuses (color processing apparatuses) 1102 to 1104 and a server 1105 to each other. The server 1105 functions as a network management server and file server. In other words, the server 1105 manages information when each image processing apparatus connects to the network 1101 by the dynamic host configuration protocol (DHCP), and stores and manages data files shared between the image processing apparatuses 1102 to 1104. Do. Under the management of the server 1105, the image processing apparatuses 1102 to 1104 exchange data files via the network 1101, and display and print images, respectively.

[装置の構成]
図2は画像処理装置1102〜1104それぞれの構成例を示すブロック図である。
[Device configuration]
FIG. 2 is a block diagram illustrating a configuration example of each of the image processing apparatuses 1102 to 1104.

CPU101は、メインメモリ102のRAMをワークメモリとして、メインメモリ102のROMおよびハードディスクドライブ(HDD)105に格納されたオペレーティングシステム(OS)や各種プログラムを実行する。そして、PCI (peripheral component interconnect)バスなどのシステムバス114を介して各構成を制御する。さらに、後述する画像処理アプリケーション、プリンタドライバ、カラーマネージメントモジュールを含む各種プログラムを実行する。   The CPU 101 executes an operating system (OS) and various programs stored in the ROM of the main memory 102 and the hard disk drive (HDD) 105 using the RAM of the main memory 102 as a work memory. Each component is controlled via a system bus 114 such as a PCI (peripheral component interconnect) bus. Further, various programs including an image processing application, a printer driver, and a color management module described later are executed.

CPU101は、システムバス114およびシリアルATAインタフェイス(SATA I/F)103を介してHDD105にアクセスする。また、ネットワークI/F104を介してローカルエリアネットワーク(LAN)などのネットワーク1101にアクセスする。   The CPU 101 accesses the HDD 105 via the system bus 114 and the serial ATA interface (SATA I / F) 103. In addition, a network 1101 such as a local area network (LAN) is accessed via the network I / F 104.

以下では、画像処理アプリケーション、画像データ、各種デバイスのデバイスプロファイルなどをHDD105から読み出すとして説明するが、ネットワーク1101上のサーバ1105から読み出すこともできる。   In the following description, it is assumed that image processing applications, image data, device profiles of various devices, and the like are read from the HDD 105, but they can also be read from the server 1105 on the network 1101.

また、CPU101は、後述する処理のユーザインタフェイスや処理結果をグラフィックアクセラレータ106を介してモニタ107に表示し、ユーザ指示をキーボード/マウスコントローラ110に接続されたキーボード111、マウス112を介して入力する。   Further, the CPU 101 displays a user interface and processing result of processing to be described later on the monitor 107 via the graphic accelerator 106, and inputs user instructions via the keyboard 111 and mouse 112 connected to the keyboard / mouse controller 110. .

また、CPU101は、画像データをUSB (Universal Serial Bus)コントローラ108を介してプリンタ109に出力して、例えばユーザが指示する画像を印刷する。   Further, the CPU 101 outputs the image data to the printer 109 via a USB (Universal Serial Bus) controller 108, and prints an image instructed by the user, for example.

[画像処理アプリケーション]
ユーザがキーボード111やマウス112を操作して、画像処理アプリケーション(画像処理AP)の実行を指示する。この指示に応じて、CPU101は、HDD105に格納された画像処理APを実行する。画像処理AP(CPU101)は、ダイアログの描画をグラフィックアクセラレータ106に指示し、モニタ107にダイアログ301が表示される。
[Image processing application]
The user operates the keyboard 111 and the mouse 112 to instruct execution of the image processing application (image processing AP). In response to this instruction, the CPU 101 executes the image processing AP stored in the HDD 105. The image processing AP (CPU 101) instructs the graphic accelerator 106 to draw a dialog, and the dialog 301 is displayed on the monitor 107.

図3は画像処理APが提供するダイアログ301の一例を示す図である。   FIG. 3 is a diagram showing an example of a dialog 301 provided by the image processing AP.

ユーザは、ダイアログ301の「ホストモード」選択ボタン302または「クライアントモード」選択ボタン303を押す。   The user presses a “host mode” selection button 302 or a “client mode” selection button 303 in the dialog 301.

●ホストモード
ユーザが、ダイアログ301の「ホストモード」選択ボタン302を押すと、画像処理APは、ホストモード用のアプリケーションウィンドウ401をモニタ107に表示する。
Host Mode When the user presses the “Host Mode” selection button 302 in the dialog 301, the image processing AP displays an application window 401 for the host mode on the monitor 107.

図4はホストモード用のアプリケーションウィンドウ401の一例を示す図である。   FIG. 4 is a view showing an example of an application window 401 for the host mode.

ユーザは、アプリケーションウィンドウ401のプルダウンメニュー402を操作して、画像ファイルの設定を指示する。この指示(HDD105に格納された画像データの指定を含む)に応じて、画像処理APは、HDD105に格納された画像データをメインメモリ102のRAMにロードする。そして、画像処理APは、画像データの描画をグラフィックアクセラレータ106に指示し、アプリケーションウィンドウ401の画像ウィンドウ403内に画像データが表す画像が表示される。   The user operates the pull-down menu 402 of the application window 401 to instruct image file setting. In response to this instruction (including designation of image data stored in the HDD 105), the image processing AP loads the image data stored in the HDD 105 into the RAM of the main memory 102. Then, the image processing AP instructs the graphic accelerator 106 to draw the image data, and the image represented by the image data is displayed in the image window 403 of the application window 401.

また、ユーザが、アプリケーションウィンドウ401のプルダウンメニュー402を操作して、プロファイルの設定を指示すると、画像処理APは、プロファイル設定用のダイアログ501をモニタ107に表示する。   When the user operates the pull-down menu 402 of the application window 401 to instruct profile setting, the image processing AP displays a profile setting dialog 501 on the monitor 107.

図5は画像処理APが提供するプロファイル設定用のダイアログ501の一例を示す図である。   FIG. 5 is a diagram showing an example of a profile setting dialog 501 provided by the image processing AP.

ユーザは、プロファイル設定用のダイアログ501を操作して、色変換に必要なデバイスプロファイルの設定を行う。ユーザは、プルダウンメニュー502によってモニタ107の色再現特性が記述されたデバイスプロファイルを指定し、プルダウンメニュー503によってプリンタ109の色再現特性が記述されたデバイスプロファイルを指定する。デバイスプロファイルの設定が終わると、ユーザは設定終了ボタン504を押す。設定終了ボタン504が押されると、画像処理APは、指定されたデバイスプロファイルを後述する色変換処理に設定する。   The user operates a profile setting dialog 501 to set a device profile necessary for color conversion. The user designates a device profile in which the color reproduction characteristics of the monitor 107 are described by the pull-down menu 502, and designates a device profile in which the color reproduction characteristics of the printer 109 are described by the pull-down menu 503. When the device profile setting is completed, the user presses a setting end button 504. When the setting end button 504 is pressed, the image processing AP sets the designated device profile for color conversion processing described later.

なお、詳細は後述するが、プロファイル設定用のダイアログ501によって指定されるデバイスプロファイルは、各画像処理装置1102〜1104が設置された環境の照明に基づき、適切に作成されている。   Although details will be described later, the device profile specified by the profile setting dialog 501 is appropriately created based on the illumination of the environment in which the image processing apparatuses 1102 to 1104 are installed.

また、ユーザが、アプリケーションウィンドウ401のプルダウンメニュー402を操作して、画像変換印刷を指示すると、画像処理APは、メインメモリ102のRAMに保持する画像データに後述する色変換処理を施す。そして、色変換処理後の画像データに基づく画像をプリンタ109に印刷させる。   When the user operates the pull-down menu 402 of the application window 401 to instruct image conversion printing, the image processing AP performs color conversion processing described later on the image data held in the RAM of the main memory 102. Then, the printer 109 prints an image based on the image data after the color conversion process.

画像変換印刷の実行後、画像処理APは、メインメモリ102のRAMに保持する画像データにモニタのデバイスプロファイルとカラーアピアランスモデルプロファイルを付加した共有用の画像データを生成してHDD105などに一時的に格納する。この後、ユーザがアプリケーションウィンドウ401のプルダウンメニュー402を操作して画像送信を指示すると、画像処理APは、共有用の画像データをネットワークI101を介してサーバ1105に送信する。なお、カラーアピアランスモデルプロファイル(CAMプロファイル)の詳細は後述する。   After executing the image conversion printing, the image processing AP generates image data for sharing by adding the device profile of the monitor and the color appearance model profile to the image data stored in the RAM of the main memory 102, and temporarily stores it in the HDD 105 or the like. Store. Thereafter, when the user operates the pull-down menu 402 of the application window 401 to instruct image transmission, the image processing AP transmits image data for sharing to the server 1105 via the network I101. Details of the color appearance model profile (CAM profile) will be described later.

ユーザが画像送信を指示するのは、画像の色の見えを他のユーザ(画像処理装置)と共有したい場合である。なお、特定のユーザ(画像処理装置)と共有したい場合は、共有用の画像データを、サーバ1105を介さずに、当該画像処理装置に直接送信してもよい。つまり、画像処理APとサーバ1105は、他の画像処理装置に処理対象画像を供給する供給手段として機能する。   The user instructs the image transmission when the user wants to share the color appearance of the image with another user (image processing apparatus). When it is desired to share with a specific user (image processing apparatus), the image data for sharing may be directly transmitted to the image processing apparatus without going through the server 1105. That is, the image processing AP and the server 1105 function as a supply unit that supplies a processing target image to another image processing apparatus.

●クライアントモード
ユーザが、ダイアログ301の「クライアントモード」選択ボタン303を押すと、画像処理APは、クライアントモード用のアプリケーションウィンドウ601をモニタ107に表示する。
Client Mode When the user presses the “Client Mode” selection button 303 in the dialog 301, the image processing AP displays an application window 601 for client mode on the monitor 107.

図6はクライアントモード用のアプリケーションウィンドウ601の一例を示す図である。   FIG. 6 shows an example of an application window 601 for the client mode.

ユーザは、アプリケーションウィンドウ601のプルダウンメニュー602を操作して、画像ファイルの取得を指示する。この指示(サーバ1105に格納された画像データの指定を含む)に応じて、画像処理APは、サーバ1105に格納された画像データをメインメモリ102のRAMにロードする。そして、画像処理APは、画像データの描画をグラフィックアクセラレータ106に指示し、アプリケーションウィンドウ601の画像ウィンドウ603内に画像データが表す画像が表示される。   The user operates the pull-down menu 602 of the application window 601 to instruct acquisition of an image file. In response to this instruction (including designation of image data stored in the server 1105), the image processing AP loads the image data stored in the server 1105 into the RAM of the main memory 102. Then, the image processing AP instructs the graphic accelerator 106 to draw the image data, and the image represented by the image data is displayed in the image window 603 of the application window 601.

なお、プルダウンメニュー602の「画像変換」は、当初選択不可であるが、画像ファイルの取得によって選択可能になる。   Note that “image conversion” in the pull-down menu 602 cannot be initially selected, but can be selected by acquiring an image file.

また、ユーザが、アプリケーションウィンドウ601のプルダウンメニュー602を操作して、プロファイルの設定を指示すると、画像処理APは、図5に示すプロファイル設定用のダイアログ501をモニタ107に表示する。従って、ユーザは、ホストモードと同様に、モニタ107およびプリンタ109のデバイスプロファイルを設定することができる。   When the user operates the pull-down menu 602 of the application window 601 to instruct profile setting, the image processing AP displays a profile setting dialog 501 shown in FIG. Therefore, the user can set the device profiles of the monitor 107 and the printer 109 as in the host mode.

また、ユーザが、アプリケーションウィンドウ601のプルダウンメニュー602を操作して、画像変換を指示すると、画像処理APは、メインメモリ102のRAMに保持する画像データに後述する色変換処理を施す。そして、色変換処理後の画像データに基づく画像を画像ウィンドウ603に表示するとともにプリンタ109に印刷させる。   When the user operates the pull-down menu 602 of the application window 601 to instruct image conversion, the image processing AP performs color conversion processing described later on the image data held in the RAM of the main memory 102. Then, an image based on the image data after the color conversion process is displayed on the image window 603 and printed by the printer 109.

[ホストモードにおけるカラーマッチング処理]
図7はホストモードにおけるカラーマッチング処理を説明するフローチャートで、画像変換印刷が指示された場合に画像処理APが実行する処理である。
[Color matching processing in host mode]
FIG. 7 is a flowchart for explaining the color matching processing in the host mode. This processing is executed by the image processing AP when image conversion printing is instructed.

画像処理APは、ダイアログ501によって指定されたモニタのデバイスプロファイルをソース側のデバイスプロファイル、プリンタのデバイスプロファイルをデスティネーション側のデバイスプロファイルとして取得する(S701)。なお、デバイスプロファイルのデータ構造は後述する。   The image processing AP acquires the monitor device profile designated by the dialog 501 as the source device profile and the printer device profile as the destination device profile (S701). The device profile data structure will be described later.

次に、画像処理APは、取得したデバイスプロファイルに基づき、部分順応点を算出する(S702)。   Next, the image processing AP calculates a partial adaptation point based on the acquired device profile (S702).

まず、画像処理APは、モニタのデバイスプロファイルからモニタのデバイス白色点Wm(Xm, Ym, Zm)を、プリンタのデバイスプロファイルからプリンタのデバイス白色点Wp(Xp, Yp, Zp)を取得する。そして、これら白色点の値に基づき、xy座標系における色度座標を求める。ここで、モニタのデバイス白色点のxy座標をwm(xm, ym)、プリンタのデバイス白色点のxy座標をwp(xp, yp)とする。続いて、下式によって、xy座標における部分順応点の色度座標をモニタ観察時とプリント観察時それぞれについて計算する。
xam = (2xm + xp)/3
yam = (2ym + yp)/3
xap = (xm + 2xp)/3 …(1)
yap = (ym + 2yp)/3
ここで、wam(xam, yam)はモニタ観察時の部分順応点の色度座標、
wap(xap, yap)はプリント観察時の部分順応点の色度座標。
First, the image processing AP acquires the monitor device white point Wm (Xm, Ym, Zm) from the monitor device profile, and the printer device white point Wp (Xp, Yp, Zp) from the printer device profile. Based on these white point values, chromaticity coordinates in the xy coordinate system are obtained. Here, it is assumed that the xy coordinate of the device white point of the monitor is w m (x m , y m ), and the xy coordinate of the device white point of the printer is w p (x p , y p ). Subsequently, the chromaticity coordinates of the partial adaptation points in the xy coordinates are calculated for each of the monitor observation and the print observation by the following expression.
x am = (2x m + x p ) / 3
y am = (2y m + y p ) / 3
x ap = (x m + 2x p ) / 3… (1)
y ap = (y m + 2y p ) / 3
Where w am (x am , y am ) is the chromaticity coordinate of the partial adaptation point during monitor observation,
w ap (x ap , y ap ) is the chromaticity coordinate of the partial adaptation point during print observation.

図9はデバイス白色点の色度座標wm、wp、部分順応点の色度座標wam、wapの関係を示す図である。 FIG. 9 is a diagram showing the relationship between the chromaticity coordinates w m and w p of the device white point and the chromaticity coordinates w am and w ap of the partial adaptation point.

続いて、画像処理APは、下式によって、算出した色度座標から部分順応点のXYZ座標を計算する。
Xam = Ym×xam/yam
Yam = Ym
Zam = Ym×(1 - xam - yam)/yam
Xap = Yp×xap/yap …(2)
Yap = Yp
Zap = Yp×(1 - xap - yap)/yap
ここで、Wam(Xam, Yam, Zam)はモニタ観察時の部分順応点、
Wap(Xap, Yap, Zap)はプリント観察時の部分順応点。
Subsequently, the image processing AP calculates the XYZ coordinates of the partial adaptation point from the calculated chromaticity coordinates according to the following equation.
X am = Ym × x am / y am
Y am = Ym
Z am = Ym × (1-x am -y am ) / y am
X ap = Yp × x ap / y ap … (2)
Y ap = Yp
Z ap = Yp × (1-x ap -y ap ) / y ap
Where W am (X am , Y am , Z am ) is a partial adaptation point during monitor observation,
W ap (X ap , Y ap , Z ap ) is a partial adaptation point during print observation.

次に、画像処理APは、算出した部分順応点Wam、Wapに基づき、モニタ用のソース側CAMプロファイルと、プリンタ用のデスティネーション側CAMプロファイルを生成する(S703)。なお、CAMプロファイルのデータ構造は後述する。 Next, the image processing AP generates a source CAM profile for monitoring and a destination CAM profile for printer based on the calculated partial adaptation points W am and W ap (S703). The data structure of the CAM profile will be described later.

次に、画像処理APは、処理対象の画像データをユーザが指定するHDD105やサーバ1105のディレクトリからメインメモリ102のRAMにロードする(S704)。そして、ソース側およびデスティネーション側のデバイスプロファイルおよびCAMプロファイルを用いて後述するカラーマッチング処理を画像データに施し、処理後の画像データに基づく画像をプリンタ109に印刷させる(S705)。   Next, the image processing AP loads image data to be processed into the RAM of the main memory 102 from the directory of the HDD 105 or server 1105 designated by the user (S704). Then, color matching processing, which will be described later, is performed on the image data using the source-side and destination-side device profiles and the CAM profile, and an image based on the processed image data is printed on the printer 109 (S705).

次に、画像処理APは、メインメモリ102のRAMに保持する、カラーマッチング処理を施していない画像データに基づく画像をモニタ107に表示させる(S706)。そして、メインメモリ102のRAMに保持するカラーマッチング処理を施していない画像データにソース側のデバイスプロファイル(モニタのデバイスプロファイル)およびソース側のCAMプロファイルを付加した共有用の画像データを格納する(S707)。なお、共有用の画像データのデータ構造は後述する。   Next, the image processing AP causes the monitor 107 to display an image based on the image data that has not been subjected to the color matching process and is stored in the RAM of the main memory 102 (S706). Then, shared image data is stored by adding the source-side device profile (monitor device profile) and the source-side CAM profile to the image data not subjected to the color matching processing held in the RAM of the main memory 102 (S707). ). The data structure of the image data for sharing will be described later.

このようにして得られるモニタ画像とプリント画像は、カラーマッチング処理により、色の見えが一致した画像になる。   The monitor image and the print image obtained in this way are images with the same color appearance by color matching processing.

次に、画像処理APは、ユーザがアプリケーションウィンドウ401のプルダウンメニュー402を操作して画像送信を指示したか否かを判定し(S708)、画像送信が指示されると共有用の画像データをサーバ1105に送信する(S709)。   Next, the image processing AP determines whether or not the user has instructed image transmission by operating the pull-down menu 402 of the application window 401 (S708), and when image transmission is instructed, the image data for sharing is stored in the server. It transmits to 1105 (S709).

●デバイスプロファイル
図8はデバイスプロファイルのデータ構造例を示す図である。
Device Profile FIG. 8 is a diagram showing an example data structure of a device profile.

デバイスプロファイルは、4バイトのタグIDと、タグIDに続く12バイトの情報値の羅列、並びに、測色値データから構成される。なお、図8には、ファイル内のオフセットアドレスを示したが、プロファイルにはタグID、情報値、測色値データが記述されている。また、図8には、タグIDをキーワードで表現したが、実際の記述は各キーワードに対応する4バイトの数値である。   The device profile includes a 4-byte tag ID, an enumeration of 12-byte information values following the tag ID, and colorimetric value data. Although FIG. 8 shows the offset address in the file, the profile describes tag ID, information value, and colorimetric value data. In FIG. 8, tag IDs are expressed by keywords, but the actual description is a 4-byte numerical value corresponding to each keyword.

タグ「Profiler Version」は、プロファイルの種別とバージョンを表す文字列であり、プロファイルの先頭に必ず配置される。   The tag “Profiler Version” is a character string indicating the type and version of the profile, and is always placed at the top of the profile.

タグ「Device Type」は、デバイスの種別を示し、情報値「0」はプリンタ、「1」はモニタ、「2」はプロジェクタ、「3」はDSC (digital still camera)、「4」はスキャナを示す。タグ「Model Name」は、機種名を表す文字列である。   The tag “Device Type” indicates the type of device, information value “0” is printer, “1” is monitor, “2” is projector, “3” is DSC (digital still camera), “4” is scanner. Show. A tag “Model Name” is a character string representing a model name.

タグ「Device Modeling」は、デバイス特性の表現モデルを示す。情報値「0」は後続の測色値データが三次元ルックアップテーブル(3DLUT)に基づくことを示し、「1」はガンママトリクスモデル、「2」は三次元多項式モデルであることを示す。なお、3DLUTのデータの並びについては、例えばICC発行のICC Profile仕様書に記載されている。また、三次元多項式モデルについては、例えば米国特許公開公報2007/0058223号に記載されている。   A tag “Device Modeling” indicates a representation model of device characteristics. The information value “0” indicates that the subsequent colorimetric value data is based on a three-dimensional lookup table (3DLUT), “1” indicates a gamma matrix model, and “2” indicates a three-dimensional polynomial model. The arrangement of 3DLUT data is described, for example, in the ICC Profile specification issued by ICC. A three-dimensional polynomial model is described in, for example, US Patent Publication No. 2007/0058223.

タグ「Number of Data」は、測色値データに記述されるXYZ値の総数を示す。図8の例では、測色値データが3DLUTに基づくため、格子点の数93=729を示す16進数2D9が記述されている。 The tag “Number of Data” indicates the total number of XYZ values described in the colorimetric value data. In the example of FIG. 8, since the colorimetric value data is based on 3DLUT, a hexadecimal number 2D9 indicating the number of grid points 9 3 = 729 is described.

タグ「Data Head」は、測色値データの記述開始アドレスを示す。なお、測色値データはX、Y、Zの順に各XYZ値を単精度浮動小数点で記述する。   The tag “Data Head” indicates the description start address of the colorimetric value data. In the colorimetric value data, each XYZ value is described in single precision floating point in the order of X, Y, and Z.

●CAMプロファイル
図10はCAMプロファイルのデータ構造例を示す図である。
CAM profile FIG. 10 is a diagram showing an example of the data structure of a CAM profile.

CAMプロファイルは、4バイトのタグIDと、タグIDに続く12バイトの情報値の羅列から構成される。なお、図10には、ファイル内のオフセットアドレスを示したが、プロファイルにはタグID、情報値が記述されている。また、図10には、タグIDをキーワードで表現したが、実際の記述は各キーワードに対応する4バイトの数値である。   The CAM profile is composed of a 4-byte tag ID and a list of 12-byte information values following the tag ID. FIG. 10 shows the offset address in the file, but the profile describes the tag ID and information value. In FIG. 10, the tag ID is expressed by a keyword, but the actual description is a 4-byte numerical value corresponding to each keyword.

タグ「Profiler Version」は、プロファイルの種別とバージョンを表す文字列であり、プロファイルの先頭に必ず配置される。   The tag “Profiler Version” is a character string indicating the type and version of the profile, and is always placed at the top of the profile.

タグ「Adopted White」は、順応白色点を示し、順応白色点はX、Y、Zの順に単精度浮動小数点で記述する。つまり、タグ「Adopted White」の情報値として、ステップS702で算出した順応白色点を記述する。   The tag “Adopted White” indicates an adaptation white point, and the adaptation white point is described in the order of X, Y, and Z in single precision floating point. That is, the adaptive white point calculated in step S702 is described as the information value of the tag “Adopted White”.

タグ「Degree of Adaptation」は、不完全順応の割合を示し、不完全順応の割合は単精度浮動小数点で記述する。なお、情報値「-1」は不完全順応の割合が自動的に算出されることを示す。   The tag “Degree of Adaptation” indicates the rate of incomplete adaptation, and the rate of incomplete adaptation is described in single precision floating point. The information value “−1” indicates that the ratio of incomplete adaptation is automatically calculated.

タグ「Luminance of Adapting Visual Field」は、順応視野の輝度値を示し、順応視野の輝度値は単精度浮動小数点で記述する。一般に、順応視野の輝度値は、二度視野の平均輝度値の20%の値を記述する。   The tag “Luminance of Adapting Visual Field” indicates the luminance value of the adaptive visual field, and the luminance value of the adaptive visual field is described in single precision floating point. In general, the luminance value of the adaptive visual field describes a value that is 20% of the average luminance value of the double visual field.

タグ「Background」は、背景輝度を示し、背景輝度は白色に対する相対値を単精度浮動小数点で記述する。一般に、背景輝度は、十度視野の平均輝度のパーセンテージとして20が記述される。   The tag “Background” indicates the background luminance, and the background luminance describes a relative value with respect to white in a single precision floating point. In general, the background luminance is described as 20 as a percentage of the average luminance of the ten-degree field of view.

なお、タグIDと情報値については、CIEが定めたCIECAM02の仕様書に詳細な記載がある。   The tag ID and the information value are described in detail in the CIECAM02 specification defined by CIE.

●共有用の画像データ
図11は共有用の画像データのデータ構造例を示す図である。
[Image Data for Sharing] FIG. 11 shows an example of the data structure of image data for sharing.

共有用の画像データは、4バイトのタグIDと、タグIDに続く12バイトの情報値の羅列、画像データ、および、プロファイルデータから構成される。なお、図11には、ファイル内のオフセットアドレスを示したが、画像データにはタグID、情報値、画像データ、プロファイルデータが記述されている。また、図11には、タグIDをキーワードで表現したが、実際の記述は各キーワードに対応する4バイトの数値である。   The image data for sharing includes a 4-byte tag ID, an enumeration of 12-byte information values following the tag ID, image data, and profile data. Although FIG. 11 shows the offset address in the file, the tag ID, information value, image data, and profile data are described in the image data. In FIG. 11, the tag ID is expressed by a keyword, but the actual description is a 4-byte numerical value corresponding to each keyword.

タグ「Compression」は、画像データの圧縮形式を表す。情報値「0」は非圧縮、「1」はJPEG圧縮、「2」はランレンレングス圧縮を示す。   The tag “Compression” represents the compression format of the image data. The information value “0” indicates uncompressed, “1” indicates JPEG compression, and “2” indicates run-length compression.

タグ「Image Width」は画像の横幅を、タグ「Image Height」は画像の縦長を示す。   The tag “Image Width” indicates the horizontal width of the image, and the tag “Image Height” indicates the vertical length of the image.

タグ「Image Data Head」は、画像データの記述開始アドレスを示す。なお、図11の例では、画像データはタグ「Compression」の値に「0」に基づき、非圧縮で記述される。   The tag “Image Data Head” indicates the description start address of the image data. In the example of FIG. 11, the image data is described in an uncompressed manner based on the value of the tag “Compression” based on “0”.

タグ「Profile Data Head」は、プロファイルデータの記述開始アドレスを示す。プロファイルデータは、デバイスプロファイルにCAMプロファイルを続けた構造で記述される。なお、デバイスプロファイルとCMプロファイルは、タグ「Profile Version」などを検出することで分離可能である。   A tag “Profile Data Head” indicates a description start address of profile data. Profile data is described in a structure in which a device profile is followed by a CAM profile. The device profile and the CM profile can be separated by detecting a tag “Profile Version” or the like.

[クライアントモードにおけるカラーマッチング処理]
図12はクライアントモードにおけるカラーマッチング処理を説明するフローチャートで、画像変換が指示された場合に画像処理APが実行する処理である。
[Color matching process in client mode]
FIG. 12 is a flowchart for explaining the color matching process in the client mode. This process is executed by the image processing AP when an image conversion is instructed.

画像処理APは、処理対象の画像データをユーザが指定するサーバ1105のディレクトリからメインメモリ102のRAMにロードする(S1201)。なお、処理対象の画像データは、他の画像処理装置がホストモードの画像変換印刷において生成した共有用の画像データである。   The image processing AP loads image data to be processed from the directory of the server 1105 designated by the user into the RAM of the main memory 102 (S1201). Note that the image data to be processed is image data for sharing generated by another image processing apparatus in image conversion printing in the host mode.

次に、画像処理APは、メインメモリ102のRAMに保持した画像データからデバイスプロファイルとCAMプロファイルを抽出し分離する(S1202)。つまり、画像データのタグ「Profile Data Head」の情報値が示す先頭アドレスからプロファイルデータを抽出し、その後、タグ「Profiler Version」を検出してデバイスプロファイルとCAMプロファイルを分離する。なお、これらプロファイルは、後述する処理で何れもソース側のプロファイルとして使用する。   Next, the image processing AP extracts and separates the device profile and the CAM profile from the image data held in the RAM of the main memory 102 (S1202). That is, the profile data is extracted from the head address indicated by the information value of the tag “Profile Data Head” of the image data, and then the tag “Profiler Version” is detected to separate the device profile from the CAM profile. These profiles are used as source-side profiles in the processing described later.

次に、画像処理APは、ダイアログ501によって指定されたモニタのデバイスプロファイルと、プリンタのデバイスプロファイルを取得する(S1203)。なお、これらデバイスプロファイルは、後述する処理で何れもデスティネーション側のプロファイルとして使用する。   Next, the image processing AP acquires the device profile of the monitor and the device profile of the printer designated by the dialog 501 (S1203). These device profiles are used as destination-side profiles in the processing described later.

次に、画像処理APは、ステップS1203で取得したデバイスプロファイルに基づき、モニタ観察時およびプリント観察時の部分順応点をホストモードの処理(S702)と同様に算出する(S1204)。そして、ホストモードの処理(S703)と同様に、算出した部分順応点に基づき、モニタ用のCAMプロファイルとプリンタ用のCAMプロファイルを生成する(S1205)。   Next, the image processing AP calculates partial adaptation points at the time of monitor observation and print observation based on the device profile acquired at step S1203 in the same manner as the host mode processing (S702) (S1204). Then, as in the host mode processing (S703), a monitor CAM profile and a printer CAM profile are generated based on the calculated partial adaptation points (S1205).

次に、画像処理APは、画像データから抽出したデバイスプロファイルとCAMプロファイルをソース側プロファイルに設定する。さらに、ステップS1203で取得したモニタのデバイスプロファイルとステップS1204で生成したモニタ用のCAMプロファイルをデスティネーション側プロファイルに設定する(S1206)。そして、メインメモリ102のRAMに保持する画像データに後述するカラーマッチング処理を施し、処理後の画像データに基づく画像をモニタ107に表示させる(S1207)。言い換えれば、表示用の画像データを生成する。   Next, the image processing AP sets the device profile and CAM profile extracted from the image data as the source profile. Further, the monitor device profile acquired in step S1203 and the monitor CAM profile generated in step S1204 are set as the destination profile (S1206). Then, color matching processing described later is performed on the image data held in the RAM of the main memory 102, and an image based on the processed image data is displayed on the monitor 107 (S1207). In other words, display image data is generated.

次に、画像処理APは、画像データから抽出したデバイスプロファイルとCAMプロファイルをソース側プロファイルに設定する。さらに、ステップS1203で取得したプリンタのデバイスプロファイルとステップS1204で生成したプリンタ用のCAMプロファイルをデスティネーション側プロファイルに設定する(S1208)。そして、メインメモリ102のRAMに保持する画像データに後述するカラーマッチング処理を施し、処理後の画像データに基づく画像をプリンタ109に印刷させる(S1209)。言い換えれば、印刷用の画像データを生成する。   Next, the image processing AP sets the device profile and CAM profile extracted from the image data as the source profile. Further, the printer device profile acquired in step S1203 and the printer CAM profile generated in step S1204 are set as the destination side profile (S1208). Then, color matching processing, which will be described later, is performed on the image data held in the RAM of the main memory 102, and an image based on the processed image data is printed on the printer 109 (S1209). In other words, image data for printing is generated.

このようにして得られるモニタ画像とプリント画像は、他の環境のデバイスの色再現特性をソース側の色再現特性に設定したカラーマッチング処理により、色の見えが一致した画像になるとともに、色の印象が他の環境における色の印象と一致する。   The monitor image and the print image obtained in this manner are images with the same color appearance by color matching processing in which the color reproduction characteristics of devices in other environments are set to the color reproduction characteristics on the source side. The impression matches the color impression in other environments.

[カラーマッチング処理]
図13はカラーマッチング処理(S705、S1206、S1208)を説明するフローチャートである。
[Color matching processing]
FIG. 13 is a flowchart for explaining color matching processing (S705, S1206, S1208).

画像処理APは、メインメモリ102のRAMに保持する画像データからラスタ順に画素値(RGB値)を取得し(S1301)、取得した画素値をソース側のデバイスプロファイルに基づきXYZ値に変換する(S1302)。   The image processing AP acquires pixel values (RGB values) in raster order from the image data stored in the RAM of the main memory 102 (S1301), and converts the acquired pixel values into XYZ values based on the device profile on the source side (S1302). ).

次に、画像処理APは、カラーアピアランスモデル(例えばCIECAM02)に基づき、XYZ値をJCh値に順変換する(S1303)。なお、カラーアピアランスモデルに与える順応白色点は、ソース側CAMプロファイルに記述された順応白色点の値である。   Next, the image processing AP forward-converts the XYZ values into JCh values based on a color appearance model (for example, CIECAM02) (S1303). The adaptive white point given to the color appearance model is a value of the adaptive white point described in the source-side CAM profile.

次に、画像処理APは、デスティネーション側のデバイスプロファイルに基づき、JCh空間に変換した画素値を色域写像する(S1304)。   Next, the image processing AP performs color gamut mapping of the pixel value converted into the JCh space based on the device profile on the destination side (S1304).

次に、画像処理APは、カラーアピアランスモデルに基づき、色域写像したJCh値をXYZ値に逆変換する(S1305)。なお、カラーアピアランスモデルに与える順応白色点は、デスティネーション側CAMプロファイルに記述された順応白色点の値である。   Next, based on the color appearance model, the image processing AP reversely converts the JCh values mapped in the color gamut into XYZ values (S1305). The adaptive white point given to the color appearance model is the value of the adaptive white point described in the destination CAM profile.

次に、画像処理APは、XYZ値をデスティネーション側のデバイスモデルに基づき、デバイス値(例えばRGB値)に変換し、メインメモリ102のRAMの所定領域に格納する(S1306)。そして、ステップS1307の判定により、画像データの総ての画素を色変換するまで、ステップS1301からS1306を繰り返す。   Next, the image processing AP converts the XYZ values into device values (for example, RGB values) based on the device model on the destination side, and stores them in a predetermined area of the RAM of the main memory 102 (S1306). Steps S1301 to S1306 are repeated until the color conversion is performed on all the pixels of the image data based on the determination in step S1307.

図14は色域写像(S1304)を説明するフローチャートである。   FIG. 14 is a flowchart for explaining the color gamut mapping (S1304).

画像処理APは、Jch値を取得し(S1401)、取得したJch値がデスティネーションデバイスの色域の内か外かを判定(内外判定)する(S1402)。色域外の場合は、取得したJch値と同色相の距離が最小のデスティネーションデバイスの色域表面のJch値を算出する(S1403)。言い換えれば、取得したJch値を色域表面に写像する。なお、色域内の場合は写像(S1403)を行わない。そして、取得または算出したJCh値を色域写像結果として出力する(S1404)。   The image processing AP acquires the Jch value (S1401), and determines whether the acquired Jch value is within or outside the color gamut of the destination device (internal / external determination) (S1402). If it is out of the color gamut, the Jch value on the surface of the color gamut of the destination device having the smallest distance of the same hue as the acquired Jch value is calculated (S1403). In other words, the acquired Jch value is mapped onto the color gamut surface. Note that the mapping (S1403) is not performed in the color gamut. The acquired or calculated JCh value is output as a color gamut mapping result (S1404).

[プロファイルに記述する測色値の算出方法]
カラープロファイルは、デバイス特性の表現モデルによって決まるカラーパッチの測色値を記述する。カラーパッチの測色値は次のように算出する。
[Calculation method of colorimetric values described in profile]
The color profile describes colorimetric values of color patches determined by a device characteristic expression model. The color measurement value of the color patch is calculated as follows.

まず、プリンタなど、物体色に基づく表示装置に対するデバイスプロファイルの場合は次のとおりである。i番目のプロファイル値である分光反射率Ri(λ)に対するXYZ値は、照明の分光分布の実測値S(λ)、および、二度視野XYZ等色関数x(λ)y(λ)z(λ)により下式によって算出される。
Xi = ∫S(λ)Ri(λ)x(λ)dλ
Yi = ∫S(λ)Ri(λ)y(λ)dλ …(3)
Zi = ∫S(λ)Ri(λ)z(λ)dλ
なお、積分範囲は可視光の範囲である。
First, a device profile for a display device based on an object color such as a printer is as follows. The XYZ value for the spectral reflectance Ri (λ), which is the i-th profile value, is the measured value S (λ) of the spectral distribution of illumination, and the twice field XYZ color matching function x (λ) y (λ) z λ) is calculated by the following equation.
Xi = ∫S (λ) Ri (λ) x (λ) dλ
Yi = ∫S (λ) Ri (λ) y (λ) dλ (3)
Zi = ∫S (λ) Ri (λ) z (λ) dλ
The integration range is a visible light range.

また、モニタなど、光源色に基づく表示装置に対するデバイスプロファイルの場合は次のとおりである。i番目のプロファイル値である分光放射輝度Ri(λ)に対するXYZ値は、二度視野XYZ等色関数x(λ)y(λ)z(λ)により下式によって算出される。
Xi = ∫Ri(λ)x(λ)dλ
Yi = ∫Ri(λ)y(λ)dλ …(4)
Zi = ∫Ri(λ)z(λ)dλ
なお、積分範囲は可視光の範囲である。
A device profile for a display device such as a monitor based on the light source color is as follows. The XYZ value for the spectral radiance Ri (λ), which is the i-th profile value, is calculated by the following equation using the twice-field XYZ color matching function x (λ) y (λ) z (λ).
Xi = ∫Ri (λ) x (λ) dλ
Yi = ∫Ri (λ) y (λ) dλ (4)
Zi = ∫Ri (λ) z (λ) dλ
The integration range is a visible light range.

このように、第一の照明下の第一の環境の一方のデバイスの色再現特性を、第二の照明下の第二の環境におけるカラーマッチングのソース側デバイスの色再現特性に設定して、第二の環境においてカラーマッチングを行う。その結果、第一の環境において異なるデバイス間でカラーマッチングした画像の色の印象と、第二の環境において別の異なるデバイス間でカラーマッチングした同じ画像の色の印象の一致を図ることができる。   Thus, the color reproduction characteristic of one device in the first environment under the first illumination is set to the color reproduction characteristic of the source-side device for color matching in the second environment under the second illumination, Color matching is performed in the second environment. As a result, the color impression of the image color-matched between different devices in the first environment can be matched with the color impression of the same image color-matched between different devices in the second environment.

従って、様々な照明や様々なデバイスが組み合わされた複数の環境において、色の印象を一致させることが可能になり、例えば複数環境に跨ってCGの編集/確認作業を行う場合の環境によって色の印象が異なる問題を解決することができる。   Therefore, it is possible to match color impressions in multiple environments where various lighting and various devices are combined, for example, depending on the environment when editing / checking CG across multiple environments. Can solve problems with different impressions.

[他の実施例]
なお、本発明は、複数の機器(例えばコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置、制御装置など)に適用してもよい。
[Other embodiments]
Note that the present invention can be applied to a system constituted by a plurality of devices (for example, a computer, an interface device, a reader, a printer, etc.), but an apparatus (for example, a copier, a facsimile machine, a control device) composed of a single device. Etc.).

また、本発明の目的は、上記実施例の機能を実現するコンピュータプログラムを記録した記録媒体または記憶媒体をシステムまたは装置に供給する。そして、そのシステムまたは装置のコンピュータ(CPUやMPU)が前記コンピュータプログラムを実行することでも達成される。この場合、記録媒体から読み出されたソフトウェア自体が上記実施例の機能を実現することになり、そのコンピュータプログラムと、そのコンピュータプログラムを記憶する、コンピュータが読み取り可能な記録媒体は本発明を構成する。   Another object of the present invention is to supply a recording medium or a recording medium recording a computer program for realizing the functions of the above embodiments to a system or apparatus. This can also be achieved by the computer (CPU or MPU) of the system or apparatus executing the computer program. In this case, the software read from the recording medium itself realizes the functions of the above embodiments, and the computer program and the computer-readable recording medium storing the computer program constitute the present invention. .

また、前記コンピュータプログラムの実行により上記機能が実現されるだけではない。つまり、そのコンピュータプログラムの指示により、コンピュータ上で稼働するオペレーティングシステム(OS)および/または第一の、第二の、第三の、…プログラムなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。   Further, the above functions are not only realized by the execution of the computer program. That is, according to the instruction of the computer program, the operating system (OS) and / or the first, second, third,... This includes the case where the above function is realized.

また、前記コンピュータプログラムがコンピュータに接続された機能拡張カードやユニットなどのデバイスのメモリに書き込まれていてもよい。つまり、そのコンピュータプログラムの指示により、第一の、第二の、第三の、…デバイスのCPUなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。   The computer program may be written in a memory of a device such as a function expansion card or unit connected to the computer. That is, it includes the case where the CPU of the first, second, third,... Device performs part or all of the actual processing according to the instructions of the computer program, thereby realizing the above functions.

本発明を前記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応または関連するコンピュータプログラムが格納される。   When the present invention is applied to the recording medium, the recording medium stores a computer program corresponding to or related to the flowchart described above.

実施例のカラーマッチングシステムの構成例を示すブロック図、A block diagram showing a configuration example of a color matching system of an embodiment, 画像処理装置それぞれの構成例を示すブロック図、Block diagram showing a configuration example of each image processing device, 画像処理APが提供するダイアログの一例を示す図、The figure which shows an example of the dialog which image processing AP provides, ホストモード用のアプリケーションウィンドウの一例を示す図、Figure showing an example of an application window for host mode 画像処理APが提供するプロファイル設定用のダイアログの一例を示す図、The figure which shows an example of the dialog for the profile setting which image processing AP provides, クライアントモード用のアプリケーションウィンドウの一例を示す図、An example of an application window for client mode, ホストモードにおけるカラーマッチング処理を説明するフローチャート、A flowchart for explaining color matching processing in the host mode; デバイスプロファイルのデータ構造例を示す図、An example of device profile data structure デバイス白色点の色度座標と部分順応点の色度座標の関係を示す図である。It is a figure which shows the relationship between the chromaticity coordinate of a device white point, and the chromaticity coordinate of a partial adaptation point. CAMプロファイルのデータ構造例を示す図、An example of the data structure of a CAM profile 共有用の画像データのデータ構造例を示す図、The figure which shows the data structure example of the image data for sharing, クライアントモードにおけるカラーマッチング処理を説明するフローチャート、A flowchart for explaining color matching processing in the client mode; カラーマッチング処理を説明するフローチャート、A flowchart for explaining color matching processing; 色域写像を説明するフローチャートである。It is a flowchart explaining a color gamut mapping.

Claims (9)

ソース側のデバイスのデバイスプロファイルおよびデスティネーション側のデバイスのデバイスプロファイルから前記ソース側の画像を観察する際の部分順応点および前記デスティネーション側の画像を観察する際の部分順応点を算出する算出手段と、
前記部分順応点に基づき、前記ソース側のデバイスのカラーアピアランスモデルプロファイルおよび前記デスティネーション側のデバイスのカラーアピアランスモデルプロファイルを生成する生成手段と、
前記ソース側のデバイスの前記デバイスプロファイルと前記カラーアピアランスモデルプロファイルを画像データに付加する付加手段と、
前記デバイスプロファイルと前記カラーアピアランスを付加した画像データを他の色処理装置に供給する供給手段とを有することを特徴とする色処理装置。
Calculation means for calculating a partial adaptation point when observing the source-side image and a partial adaptation point when observing the destination-side image from the device profile of the source-side device and the device profile of the destination-side device When,
Generating means for generating a color appearance model profile of the source side device and a color appearance model profile of the destination side device based on the partial adaptation points;
Adding means for adding the device profile of the source device and the color appearance model profile to image data;
A color processing apparatus comprising: a supply unit configured to supply image data to which the device profile and the color appearance are added to another color processing apparatus.
さらに、前記デバイスプロファイルおよび前記カラーアピアランスモデルプロファイルを用いて、前記画像データにカラーアピアランスモデルに基づく色変換を施す色処理手段を有することを特徴とする請求項1に記載された色処理装置。   2. The color processing apparatus according to claim 1, further comprising color processing means for performing color conversion based on a color appearance model on the image data using the device profile and the color appearance model profile. さらに、前記画像データに基づく画像をモニタに表示させ、前記色変換された画像データに基づく画像をプリンタに印刷させる制御手段を有することを特徴とする請求項2に記載された色処理装置。   3. The color processing apparatus according to claim 2, further comprising control means for displaying an image based on the image data on a monitor and causing a printer to print an image based on the color-converted image data. 画像データを入力する入力手段と、
前記画像データに付加されたデバイスプロファイルとカラーアピアランスモデルプロファイルを抽出する抽出手段と、
モニタのデバイスプロファイルおよびプリンタのデバイスプロファイルから前記モニタの画像を観察する際の部分順応点および前記プリンタの画像を観察する際の部分順応点を算出する算出手段と、
前記部分順応点に基づき、前記モニタのカラーアピアランスモデルプロファイルおよび前記プリンタのカラーアピアランスモデルプロファイルを生成する生成手段と、
前記抽出したデバイスプロファイルとカラーアピアランスモデルプロファイルをソース側のプロファイルに設定し、前記モニタのデバイスプロファイルとカラーアピアランスモデルプロファイルをデスティネーション側のプロファイルに設定して、前記画像データにカラーアピアランスモデルに基づく色変換を施した画像データを生成する表示用の色処理手段と、
前記抽出したデバイスプロファイルとカラーアピアランスモデルプロファイルを前記ソース側のプロファイルに設定し、前記プリンタのデバイスプロファイルとカラーアピアランスモデルプロファイルを前記デスティネーション側のプロファイルに設定して、前記画像データに前記カラーアピアランスモデルに基づく色変換した画像データを生成する印刷用の色処理手段とを有することを特徴とする色処理装置。
Input means for inputting image data;
Extraction means for extracting a device profile and a color appearance model profile added to the image data;
A calculation means for calculating a partial adaptation point when observing the image of the monitor and a partial adaptation point when observing the image of the printer from the device profile of the monitor and the device profile of the printer;
Generating means for generating a color appearance model profile of the monitor and a color appearance model profile of the printer based on the partial adaptation points;
The extracted device profile and color appearance model profile are set as a source-side profile, the monitor device profile and color appearance model profile are set as a destination-side profile, and the image data is based on a color appearance model. Display color processing means for generating converted image data;
The extracted device profile and color appearance model profile are set as the source-side profile, the printer device profile and color appearance model profile are set as the destination-side profile, and the color appearance model is added to the image data. And a color processing means for printing that generates color-converted image data based on the above.
さらに、前記表示用の色処理手段によって色変換された画像データに基づく画像をモニタに表示させ、前記印刷用の色処理手段によって色変換された画像データに基づく画像をプリンタに印刷させる制御手段を有することを特徴とする請求項4に記載された色処理装置。   Further, a control means for causing an image based on the image data color-converted by the display color processing means to be displayed on a monitor, and causing the printer to print an image based on the image data color-converted by the printing color processing means. 5. The color processing apparatus according to claim 4, further comprising: ソース側のデバイスのデバイスプロファイルおよびデスティネーション側のデバイスのデバイスプロファイルから前記ソース側の画像を観察する際の部分順応点および前記デスティネーション側の画像を観察する際の部分順応点を算出し、
前記部分順応点に基づき、前記ソース側のデバイスのカラーアピアランスモデルプロファイルおよび前記デスティネーション側のデバイスのカラーアピアランスモデルプロファイルを生成し、
前記ソース側のデバイスの前記デバイスプロファイルと前記カラーアピアランスモデルプロファイルを画像データに付加し、
前記デバイスプロファイルと前記カラーアピアランスを付加した画像データを他の色処理装置に供給することを特徴とする色処理方法。
Calculating a partial adaptation point when observing the source side image and a partial adaptation point when observing the destination side image from the device profile of the source side device and the device profile of the destination side device;
Generating a color appearance model profile of the source device and a color appearance model profile of the destination device based on the partial adaptation points;
Adding the device profile of the source device and the color appearance model profile to image data;
A color processing method comprising: supplying image data to which the device profile and the color appearance are added to another color processing apparatus.
画像データを入力し、
前記画像データに付加されたデバイスプロファイルとカラーアピアランスモデルプロファイルを抽出し、
モニタのデバイスプロファイルおよびプリンタのデバイスプロファイルから前記モニタの画像を観察する際の部分順応点および前記プリンタの画像を観察する際の部分順応点を算出し、
前記部分順応点に基づき、前記モニタのカラーアピアランスモデルプロファイルおよび前記プリンタのカラーアピアランスモデルプロファイルを生成し、
前記抽出したデバイスプロファイルとカラーアピアランスモデルプロファイルをソース側のプロファイルに設定し、前記モニタのデバイスプロファイルとカラーアピアランスモデルプロファイルをデスティネーション側のプロファイルに設定して、前記画像データにカラーアピアランスモデルに基づく色変換を施した画像データを生成し、
前記抽出したデバイスプロファイルとカラーアピアランスモデルプロファイルを前記ソース側のプロファイルに設定し、前記プリンタのデバイスプロファイルとカラーアピアランスモデルプロファイルを前記デスティネーション側のプロファイルに設定して、前記画像データに前記カラーアピアランスモデルに基づく色変換を施した画像データを生成することを特徴とする色処理方法。
Enter the image data,
Extracting the device profile and color appearance model profile added to the image data,
Calculating a partial adaptation point when observing the image of the monitor and a partial adaptation point when observing the image of the printer from the device profile of the monitor and the device profile of the printer,
Generating a color appearance model profile of the monitor and a color appearance model profile of the printer based on the partial adaptation points;
The extracted device profile and color appearance model profile are set as a source-side profile, the monitor device profile and color appearance model profile are set as a destination-side profile, and the image data is based on a color appearance model. Generate converted image data,
The extracted device profile and color appearance model profile are set as the source-side profile, the printer device profile and color appearance model profile are set as the destination-side profile, and the color appearance model is added to the image data. A color processing method comprising: generating image data subjected to color conversion based on the method.
コンピュータ装置を制御して、請求項1から請求項5の何れか一項に記載された色処理装置の各手段として機能させることを特徴とするプログラム。   6. A non-transitory computer-readable storage medium storing a program for controlling a computer device to function as each unit of the color processing device according to claim 1. 請求項8に記載されたプログラムが記録されたことを特徴とするコンピュータが読み取り可能な記録媒体。   9. A computer-readable recording medium on which the program according to claim 8 is recorded.
JP2008280269A 2008-10-30 2008-10-30 Color processing apparatus and method thereof Withdrawn JP2010109752A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008280269A JP2010109752A (en) 2008-10-30 2008-10-30 Color processing apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008280269A JP2010109752A (en) 2008-10-30 2008-10-30 Color processing apparatus and method thereof

Publications (1)

Publication Number Publication Date
JP2010109752A true JP2010109752A (en) 2010-05-13

Family

ID=42298737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008280269A Withdrawn JP2010109752A (en) 2008-10-30 2008-10-30 Color processing apparatus and method thereof

Country Status (1)

Country Link
JP (1) JP2010109752A (en)

Similar Documents

Publication Publication Date Title
JP5116215B2 (en) Color management module
US7365754B2 (en) System and method for applying color management on captured images
JP4181814B2 (en) Color processing method and apparatus
US20100118008A1 (en) Color processing apparatus, color processing method, and storage medium
US7843605B2 (en) Color processing apparatus and method thereof
JP2010233221A (en) System and method for processing color data
JP2007013626A (en) Color processing method and device
JP2010148072A (en) Image processing apparatus, image processing method, and image processing program
JP2007208736A (en) Method and device for color processing
US7366346B2 (en) Color descriptor data structure
US9076367B2 (en) Color management for web server based applications
JP2004187289A (en) Method and program code for making color conversion
JP6780442B2 (en) Color processing equipment, color processing methods, color processing systems and programs
JP4356975B2 (en) Image processing apparatus and method
JP2007074557A (en) Image processing method, image processing apparatus, computer program, and storage medium
JP2015061128A (en) Image processing device, image processing method, and program
JP2010109752A (en) Color processing apparatus and method thereof
JP6895791B2 (en) Color processing equipment, color processing method
JP3840141B2 (en) Image processing apparatus, information input apparatus, and methods thereof
JP2004200938A (en) Image processor and image processing method
JP2006254369A (en) Color processing method and device thereof
JP2011130230A (en) Device and program for processing image
JP5849549B2 (en) Color processing apparatus and program
JP2009253467A (en) Color processing device and method thereof
JP2008283522A (en) Color processing device and method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120110