JP3805247B2 - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP3805247B2
JP3805247B2 JP2001395327A JP2001395327A JP3805247B2 JP 3805247 B2 JP3805247 B2 JP 3805247B2 JP 2001395327 A JP2001395327 A JP 2001395327A JP 2001395327 A JP2001395327 A JP 2001395327A JP 3805247 B2 JP3805247 B2 JP 3805247B2
Authority
JP
Japan
Prior art keywords
color
data
color space
xyz
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001395327A
Other languages
Japanese (ja)
Other versions
JP2002281338A (en
Inventor
学 大賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001395327A priority Critical patent/JP3805247B2/en
Publication of JP2002281338A publication Critical patent/JP2002281338A/en
Application granted granted Critical
Publication of JP3805247B2 publication Critical patent/JP3805247B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は画像処理装置およびその方法に関し、例えば、カラーマッチング処理に関する。
【0002】
【従来の技術】
図1は一般的なカラーマッチングの概念図である。
【0003】
RGBデータである入力データは、入力プロファイルによりデバイスに依存しない色空間のXYZデータに変換される。出力デバイスの色再現範囲外の色は出力デバイスにより表現することができないため、そのすべて色が出力デバイスの色再現範囲内に収まるように、デバイスに依存しない色空間のデータに変換された入力データに色空間圧縮が施される。そして、色空間圧縮が施された後、入力データはデバイスに依存しない色空間から出力デバイスに依存する色空間のCMYKデータへ変換される。
【0004】
カラーマッチングにおいて基準白色点および環境光は固定されている。例えば、International Color Consortium(ICC)によって規定されるプロファイルでは、プロファイルを結び付けるProfile Connection Space(PCS)がD50基準のXYZ値およびLab値である。このため、入力原稿やプリント出力はD50特性の光源下で観察する場合に正しい色再現が保証され、その他の特性の光源下では正しい色再現が保証されない。
【0005】
【発明が解決しようとする課題】
異なる光源下で同一サンプル(例えば画像)を観察した場合、観察されるサンプルに対するXYZ値は当然異なる。異なる光源下におけるXYZ値を予測するために、(1)比率変換、(2)Von Kries変換、(3)色知覚モデルによる予測式などの変換方式がある。
【0006】
比率変換は、基準白色点W1下でのXYZ値を基準白色点W2下のXYZ値に変換するために、W2/W1の比率変換を施す方法である。この方法を、Lab均等色空間に対して適用すると、W1下でのLab値とW2下でのLab値は一致する。例えば、W1(Xw1,Yw1,Zw1)下でのサンプルのXYZ値を(X1,Y1,Z1)、W2(Xw2,Yw2,Zw2)下でのサンプルのXYZ値を(X2,Y2,Z2)とするとき、比率変換によれば次の関係が得られる。
X2 = (Xw2 / Xw1)・X1
Y2 = (Yw2 / Yw1)・Y1 …(1)
Z2 = (Zw2 / Zw1)・Z1
【0007】
Von Kries変換は、W1下でのXYZ値をW2下のXYZ値に変換するために、人間の色知覚空間PQR上でW2'/W1'の比率変換を施す方法である。この方法をLabの均等色空間に対して適用すると、W1下でのLab値とW2下でのLab値は一致しない。例えば、W1(Xw1,Yw1,Zw1)下でのサンプルのXYZ値を(X1,Y1,Z1)、W2(Xw2,Yw2,Zw2)下でのサンプルのXYZ値を(X2,Y2,Z2)とするとき、Von Kries変換によれば次の関係が得られる。

Figure 0003805247
ただし、
Figure 0003805247
【0008】
色知覚モデルによる予測式は、観察条件VC1(W1を含む)下でのXYZ値を観察条件VC2(W2を含む)下のXYZ値に変換するために、例えばCIE CAM97sのような人間の色知覚空間QMH(またはJCH)を利用して変換する方法である。ここで、QMHのQはbrightness、Mはcolourfulness、Hはhuequadratureまたはhueangleを表し、JCHのJはlightness、Cはchroma、Hはhuequadratureまたはhueangleを表す。この変換方法をLabの均等色空間へ適用すると、Von Kreis変換と同様に、W1下でのLab値とW2下でのLab値は一致しない。例えば、W1(Xw1,Yw1,Zw1)下でのサンプルのXYZ値を(X1,Y1,Z1)、W2(Xw2,Yw2,Zw2)下でのサンプルのXYZ値を(X2,Y2,Z2)とするとき、Von Kries変換によれば次の変換が行われる。
(X1,Y1,Z1)→[CIE CAM97s順変換]→(Q,M,H)または(J,C,H)
→[CIE CAM97s逆変換]→(X2,Y2,Z2)
【0009】
つまり、比率変換によって異なる基準白色点下のXYZ値が変換できると仮定するならば、異なる基準白色点下のLab色空間における等色相線は常に一定であるが、Von Kreis変換や色知覚モデルによる予測式のように人間の色知覚を考慮した場合には、異なる基準白色点下のLab色空間における等色相線は基準白色点によって変化することになる。
【0010】
上記の理由から、異なる基準白色点下のカラーマッチングにおいて、同一のLab色空間で定義された色空間圧縮(色相保存)を適用した場合、人の視覚では色相が一定ではないと感じられる場合がある。
【0011】
また、現在のICCプロファイルでは、PCSがD50基準のXYZ値やLab値に限定されているため、環境光に対応したカラーマッチングを行うことができない。
【0012】
本発明は、上述の問題を個々にまたはまとめて解決するためのもので、観察条件に関らず、良好なカラーマッチングを行うことを目的とする。
【0013】
また、色空間圧縮処理を行う色知覚空間の種類によって色再現特性が異なることを考慮した画像処理を行うことを他の目的とする。
【0014】
さらに、カラーマッチング処理の目的に応じた色空間上で色空間圧縮処理を行うことで、良好なカラーマッチング処理結果を得ることを他の目的とする。
【0015】
【課題を解決するための手段】
本発明は、前記の目的を達成する一手段として、以下の構成を備える。
【0016】
本発明にかかる画像処理方法は、カラーマッチング処理を行う画像処理方法であって、色空間圧縮モードを設定し、入力デバイスに依存する色空間で示される入力データを、入力側の観察条件に基づくデバイスに依存しない色空間で示される第一のデータへ変換し、前記第一のデータに、前記入力側の観察条件に応じた色知覚モデルの順変換を施して、設定された色空間圧縮モードに応じた色知覚空間で示される第二のデータへ変換し、前記第二のデータに、出力デバイスの色再現領域に応じた色空間圧縮処理を施して第三のデータを求め、前記第三のデータに、出力側の観察条件に応じた色知覚モデルの逆変換を施して、前記出力側の観察条件に基づくデバイスに依存しない色空間で示される第四のデータを求め、前記第四のデータを、前記出力デバイスに依存する色空間で示される出力データへ変換する各ステップを有し、前記色空間圧縮モードには、相対的なカラーマッチングを行うモード、および、絶対的なカラーマッチングを行うモードが含まれることを特徴とする。
【0017】
本発明にかかる画像処理装置は、カラーマッチング処理を行う画像処理装置であって、色空間圧縮モードを設定する設定手段と、入力デバイスに依存する色空間で示される入力データを、入力側の観察条件に基づくデバイスに依存しない色空間で示される第一のデータへ変換する入力変換手段と、前記第一のデータに、前記入力側の観察条件に応じた色知覚モデルの順変換を施して、設定された色空間圧縮モードに応じた色知覚空間で示される第二のデータへ変換する順変換手段と、前記第二のデータに、出力デバイスの色再現領域に応じた色空間圧縮処理を施して第三のデータを求める色空間圧縮手段と、前記第三のデータに、出力側の観察条件に応じた色知覚モデルの逆変換を施して、前記出力側の観察条件に基づくデバイスに依存しない色空間で示される第四のデータを求める逆変換手段と、前記第四のデータを、前記出力デバイスに依存する色空間で示される出力データへ変換する出力変換手段とを有し、前記色空間圧縮モードには、相対的なカラーマッチングを行うモード、および、絶対的なカラーマッチングを行うモードが含まれることを特徴とする。
【0018】
【発明の実施の形態】
以下、本発明にかかる一実施形態の画像処理装置を図面を参照して詳細に説明する。
【0019】
まず、以下に説明する実施形態で使用する色知覚モデルについて図19を用いて説明する。
【0020】
人間の視覚系によって、知覚される色は、照明光の違い、刺激がおかれている背景などの条件によって、目に入ってくる光が同じであっても異なって見えることが知られている。
【0021】
例えば、白熱電球で照明された白色は、目に入ってくる光の特性ほどには赤く感じられなくて、白として知覚される。また、黒い背景におかれた白と、明るい背景に置かれた白とでは黒い背景に置かれた白の方が明るく感じられる。前者の現象は色順応、後者は対比として知られている。このためには、XYZではなく網膜状に分布している視細胞の生理的な活性度に対応する量で色を表示する必要があるが、このような目的に色知覚モデルが開発されている。CIEでは、CIE CAM97sの使用を推奨している。この色知覚モデルは色覚の生理的な三原色を用いており、例えばCIE CAM97sで計算される色知覚の相関量であるH(色相)、J(明度)およびC(クロマ)、あるいは、H(色相)、Q(ブライトネス)およびM(カラフルネス)の値が、観察条件に依存しない色の表示方法と考えられる。H、J、CまたはH、Q、Mの値がデバイス間で一致するように色再現することによって、入出力画像の観察条件の違いを解決することができる。
【0022】
入力画像を観察する際の観察条件に応じた補正処理(XYZをHJCまたはHQMに変換する処理)を行う色知覚モデルCIE CAM97sの順変換における処理内容を、図19を用いて説明する。
【0023】
まず、入力画像の観察条件情報としてステップS160で、順応視野の輝度(cd/平方メートル、通常、順応視野における白の輝度の20%が選らばれる)であるLA、光源条件における試料の相対三刺激値であるXYZ、光源条件における白色光の相対三刺激値であるXωYωZω、および、光源条件における背景の相対輝度であるYbが設定される。また、ステップS180で指定される観察条件のタイプに基づき、入力画像の観察条件情報として、ステップS170で周囲の影響の定数c、色誘導係数Nc、明度コントラスト係数FLLおよび順応度の係数Fが設定される。
【0024】
ステップS160およびS170で設定された入力画像観察条件情報に基づき、入力画像を示すXYZに対して以下のような処理が行われる。
【0025】
まず、人間の生理的な三原色として考えられているBradfordの三原色に基づき、XYZを変換してBradford錐体応答RGBが求められる(S100)。人間の視覚は常に観察光源に完全順応するわけではないので、輝度レベルと周囲条件(LAおよびF)に基づき順応度を示す変数Dを求め、この変数DおよびXωYωZωに基づき、RGBに対して不完全順応処理を行いRcGcBcに変換される(S110)。
【0026】
次に、人間の生理的な三原色として考えられているHunt-Pointer-Estevezの三原色に基づき、RcGcBcを変換してHunt-Pointer-Estevez錐体応答R'G'B'が求められる(S120)。このR'G'B'に対して刺激強度レベルによる順応度合いの推定が行われ、試料と白の両方に応じた順応後錐体応答R'aG'aB'aが求められる(S130)。なお、ステップS130では、順応視野の輝度LAに基づき求められる変数FLを用いて非線型応答圧縮が行われる。
【0027】
続いて、見えとの相関関係を求めるために、以下の処理が行われる。
【0028】
赤-緑および黄色-青の反対色応答abがR'aG'aB'aから求められ(S140)、反対色応答abおよび偏心係数から色相Hが求められる(S150)。
【0029】
また、Yωおよび背景の相対輝度Ybから求められる背景誘導係数nが求められ、この背景誘導係数nを用いて試料および白の両方に関する無彩色応答AおよびAωが求められ(S190)、背景誘導係数nおよび明度コントラスト係数FLLから求められる係数z、並びに、A、Aωおよびcに基づき明度Jが求められ(S151)、色誘導係数Ncから飽和度Sが求められ(S153)、飽和度Sおよび明度JからクロマCが求められ(S152)、明度Jおよび白の無彩色応答Aωから輝度Qが求められる(S154)。
【0030】
また、変数FLおよび周囲の影響の定数cからカラフルネスMが求められる(S155)。
【0031】
【第1実施形態】
観察条件に応じて動的にプロファイルを変更する第1実施形態を説明する。
【0032】
本発明の概念を説明する図2において、11は入力デバイスに依存するデータを、入力側の環境光の白色点基準に基づくデバイスに依存しない色空間データへ変換するための変換マトリクスまたは変換ルックアップテーブル(LUT)、12は変換LUT11から得られるデータを人間の色知覚色空間JChまたはQMhへ変換するための色知覚モデルの順変換部(CAM)、13は環境光の基準白色に相対的な色知覚空間であるJCh(またはJCH)、14は照度レベルによって大きさの変化する絶対的な色知覚空間であるQMh(またはQMH)、15は人間の色知覚空間JChまたはQMhから出力側の環境光の白色点基準に基づくデバイスに依存しない色空間データへ変換するための色知覚モデルの逆変換部、16は逆変換部15から得られるデータを出力デバイスに依存する色空間データヘ変換するための変換LUTである。
【0033】
一般に、観察条件における環境光の白色点は、カラーターゲットやカラーパッチなどの色票を測色した際の標準光源の白色点とは異なる。例えば、測色の際に使用される標準光源はD50やD65であるが、実際に画像を観察する場合の環境光はライトブースのD50やD65とは限らず、白熱電球や蛍光灯などの照明光であったり、照明光と太陽光とが混合した光になる場合が多い。以下の説明では、簡単化のために、観察条件における環境光の光源特性をD50、D65およびD93とするが、実際にはメディア上の白色点のXYZ値を白色点として設定する。
【0034】
図3は本実施形態の機能構成例を示すブロック図である。図3において、41は入力プロファイル42と入力側の観察条件1とから入力側の観察条件1に依存するデータを作成するデータ作成部、43はユーザによる指定またはプロファイルによる指定に基づき色空間圧縮をJCH色空間上で行うかQMH色空間上で行うかを選択する色空間圧縮モード選択部、44および45はそれぞれ出力プロファイル46に基づきJCHまたはQMH色知覚空間上でデータに色空間圧縮を施す色空間圧縮部、47は出力プロファイル46と出力側の観察条件2とから出力側の観察条件2に依存するデータを作成するデータ作成部、48は観察条件1に依存するデータ、色空間圧縮データ、観察条件2に依存するデータおよび色知覚モデルを利用してカラーマッチングを行うカラーマッチング部である。
【0035】
図18は図3に示される機能構成を実現する装置の構成例を示すブロック図であるが、図18に示すような装置は、例えばパーソナルコンピュータのような汎用のコンピュータ装置に、図3に示す機能を実現するソフトウェアを供給することによって実現されることは言うまでもない。その場合、本実施形態の機能を実現するソフトウェアは、コンピュータ装置のOS(基本システム)に含まれていても構わないし、OSとは別に例えば入出力デバイスのドライバソフトウェアに含まれていても構わない。
【0036】
同図において、CPU 100は、ROM 101およびハードディスク(HD)106などに格納されたプログラムに従い、RAM 102をワークメモリに利用して、装置全体の動作を司るとともに、上述したカラーマッチングに関連する処理をはじめとする各種の処理を実行する。入力インタフェイス103は入力デバイス104を接続するための、ハードディスクインタフェイス105はHD 106を接続するための、ビデオインタフェイス107はモニタ108を接続するための、出力インタフェイス109は出力デバイス110を接続するためのそれぞれインタフェイスである。
【0037】
なお、本実施形態が対象とする入力デバイスには、ディジタルスチルカメラおよびディジタルビデオカメラなどの撮影機器、並びに、イメージスキャナおよびフィルムスキャナなどイメージリーダをはじめとする各種の画像入力機器が含まれる。また、出力デバイスには、CRTやLCDなどのカラーモニタ、カラープリンタおよびフィルムレコーダなどの画像出力機器が含まれる。
【0038】
また、インタフェイスとして汎用のインタフェイスが利用できる。その用途に応じて、例えば、RS232C、RS422およびIEEE1394などのシリアルインタフェイス、並びに、SCSI、GPIBおよびセントロニクスなどのパラレルインタフェイスが利用可能である。
【0039】
また、カラーマッチングを行うための入出力プロファイルはHD 106に格納されるが、ハードディスクに限らず、MOなどの光ディスクを用いることもできる。
【0040】
以下では、入出力プロファイルを利用してカラーマッチングを行う例を説明する。
【0041】
[観察条件1に依存するデータの作成]
データ作成部41を用いて変換LUT 11を作成するが、変換LUT 11を作成する方法には、図4に一例を示すカラーターゲットのXYZ値(またはLab値)および入力デバイスのRGB値の関係から、環境光に対応する変換LUT 11を再構築する方法、並びに、図5に一例を示す入力プロファイル42内のデバイスRGB空間からXYZ空間へ変換するための変換LUTを環境光に対応する変換LUT 11へ更新する方法がある。
【0042】
図4は環境光に対応する変換LUT 11を再構築する処理例を示すフローチャートである。
【0043】
環境光に対応する変換LUT 11を再構築するために、ステップS51で入力プロファイル42からユーザにより指定されたプロファイルを読込む。入力プロファイル内には予めカラーターゲットのXYZ値(またはLab値)と、そのカラーターゲットをある入力デバイスで読んだときのデバイスRGB値を関連付けたXYZ→RGB関係データが格納されている。このXYZ→RGB関係データを、ステップS52でプロファイルから取り出す。プロファイル内には観察条件1も格納されているので、ステップS53で、観察条件1をプロファイルから取り出す。
【0044】
ステップS52で取り出されたXYZ→RGB関係データのXYZ値は、カラーターゲットを測色したときの基準光であるD50またはD65を基準とするデータであるから、測色光源基準のXYZ値を環境光基準のXYZ値に修正する必要がある。ステップS54では、色知覚モデルによって測色光源基準のXYZ値を、測色条件であるD50光源の白色点「D50基準の場合」、照度レベルおよび周囲光の状態等に基づき色知覚モデルにより人間の色知覚空間JCHへ変換し、測色条件とは異なる観察条件1である例えばD65光源の白色点、照度レベルおよび周囲光の状態などに基づき色知覚モデルを用いて再びXYZ値へ逆変換することにより、環境光基準のXYZ値を得る。これにより、環境光基準のXYZ値とデバイスRGB値との関係が得られたので、ステップS55でRGB→XYZ関係データに基づくRGB→XYZ変換マトリクスを作成し、反復法などで最適化すれば、環境条件1に対応する変換LUT 11を得ることができる。
【0045】
図5は環境光に対応する変換LUT 11へ更新する処理例を示すフローチャートである。なお、図4と同様の処理が実行されるステップには同一符号を付して、その詳細説明を省略する。
【0046】
一般的に、入力デバイス用のICCプロファイルにはRGB→XYZ変換を行うための変換マトリクス(colorant Tag)または変換LUT(AtoB0 Tag)が格納されているので、RGB→XYZ関係データを、ステップS62でプロファイルから取り出す。
【0047】
そして、ステップS54で環境光基準のXYZ値とデバイスRGB値との関係が得られた後、ステップS66でプロファイル内の変換マトリクス(colorant Tag)または変換LUT(AtoB0 Tag)を更新すれば、環境条件1に対応する変換LUT 11を得ることができる。
【0048】
なお、一般に、入力デバイス用のICCプロファイルには、RGB→XYZ変換を行うための変換マトリクス(colorant Tag)または変換LUT(AtoB0 Tag)が格納されている。また、図4および図5においてはRGB→XYZ関係データを利用する例を説明したが、これに限らず、RGB→Lab関係データなどの他のデバイス非依存色のデータを利用しても構わない。
【0049】
[色空間圧縮モードの選択および色空間圧縮]
色空間圧縮モードは、ユーザによりユーザインタフェイス経由で選択されるか、ソース側プロファイルのヘッダ内のRendering Intentによって自動的に選択される。プロファイルに基づき自動選択される場合は以下のようになる。
Perceptual JCH色空間上の色空間圧縮モード
Relative Colorimetric JCH色空間上の色空間圧縮モード
Saturation JCH色空間上の色空間圧縮モード
Absolute Colorimetric QMH色空間上の色空間圧縮モード
【0050】
つまり、相対的なカラーマッチングの場合はJCH空間13が選択され、絶対的なカラーマッチングの場合はQMH空間14が選択される。
【0051】
図6はJCH 13またはQMH 14上で色空間圧縮を行う処理例を示すフローチャートである。
【0052】
色知覚空間上で色空間圧縮を行うために、ステップS81で、出力プロファイル46からユーザに指定されたプロファイルを読込む。
【0053】
一般に、出力デバイス用ICCプロファイルには、色再現領域の内か外かを判定(以下「色再現領域の内外判定」と呼ぶ)するために、XYZ値またはLab値を入力する判定LUT(gamut Tag)が格納されている。しかし、そのXYZ値は測色光源の特性であるD50またはD65を基準にしているため、環境光に応じた色再現領域の内外判定に直接利用することはできない。従って、色再現領域の内外判定を行うLUT(gamut Tag)を利用する代わりに、プロファイルに格納されているCMYK→XYZ変換を行うための変換LUT(AtoB0 Tagなど)からCMYK→XYZ関係データを、ステップS82で取り出して利用する。出力プロファイルには観察条件2も格納されているので、ステップS83で観察条件2を出力プロファイルから取り出す。
【0054】
ステップS82で取り出されたCMYK→XYZ関係データのXYZ値は、測色光であるD50またはD65を基準とするデータであるから、環境光基準のXYZ値に修正する必要がある。ステップS84では、色知覚モデルによって測色光基準のXYZ値を、測色条件であるD50光源の白色点「D50基準の場合」、照度レベルおよび周囲光の状態などに基づき色知覚モデルを用いて、人間の色知覚空間JCHへ変換し、測色条件とは異なる観察条件2である例えばD65光源の白色点、照度レベルおよび周囲光の状態などに基づいて、再びXYZ値へ逆変換することにより、環境光基準のXYZ値を得る。このようにステップS84では、デバイスのCMYK値から環境光基準のXYZ値への関係を求める。ステップS85では、ステップS84で得られたCMYK→環境光XYZ関係データに基づきJCHまたはQMH色空間上における出力デバイスの色再現領域を求める。
【0055】
JCHまたはQMH色空間上における出力デバイスの色再現領域は、例えば、
Red (C:0%, M:100%, Y:100%, K:0%)
Yellow (C:0%, M:0%, Y:100%, K:0%)
Green (C:100%, M:0%, Y:100%, K:0%)
Cyan (C:100%, M:0%, Y:0%, K:0%)
Blue (C:100%, M:100%, Y:0%, K:0%)
Magenta(C:0%, M:100%, Y:0%, K:0%)
White (C:0%, M:0%, Y:0%, K:0%)
Black (C:0%, M:0%, Y:0%, K:100%)
【0056】
の八点に対する環境光基準のXYZ値を、ステップS84で求められたCMYK→環境光XYZ関係データを用いて求め、さらに色知覚モデルによって観察条件2に基づいて人間の色知覚空間JCHまたはQMHの座標値へ変換することで、図7に示されるような12面体によって近似することができる。
【0057】
12面体で近似される色再現領域において、色再現領域の内部の点、例えば無彩色軸上におけるWhiteとBlackの中間点と、内外判定対象の入力色信号の点(JCH値またはQMH値)とが、同じ側にあれば色再現範囲内にあると判断し、反対側にあれば色再現範囲外にあると判断する。
【0058】
ステップS85により得られる色再現領域に基づく内外判定の結果に基づき、ステップS86で色空間圧縮が行われる。図8はJCH色知覚空間における色空間圧縮の概念を、図9はQMH色知覚空間における色空間圧縮の概念をそれぞれ示す図である。上記の内外判定により出力デバイスの色再現範囲外であると判定された入力色信号は、JCH色知覚空間やQMH色知覚空間において、色相角h(またはH)が保存されるように、色再現範囲内へマッピングされる。そして、このマッピング結果は、相対的カラーマッチングの場合にはJCH色知覚空間を入出力色空間とするLUTへ、絶対的カラーマッチングの場合にはQMH色知覚空間を入出力色空間とするLUTへ格納される。
【0059】
図10は異なるデバイス間における色空間圧縮の概念を示す図で、破線は入力デバイスの色再現領域を、実線は出力デバイスの色再現領域をそれぞれ示している。JCH色知覚空間においては、J(lightness)の大きさが観察条件1および2の光源白色点(以下では「白色点1」「白色点2」と略す場合がある)によってそれぞれ正規化されるため、Jは環境条件1および2の照度レベル(以下では「照度レベル1」「照度レベル2」と略す場合がある)に依存しない。一方、QMH色知覚空間においては、Q(brightness)の大きさが照度レベル1および2によって変化する。従って、相対的カラーマッチングでは白色点1がそのまま白色点2になる。一方、絶対的カラーマッチングでは、照度レベル1>照度レベル2の場合には白色点1が白色点2ヘマッピングされる。また、照度レベル1<照度レベル2の場合には白色点1が白色点2より低いのでグレーとして出力される。
【0060】
[観察条件2に依存するデータの作成]
次に、データ作成部47を用いて変換LUT 16を作成する。
【0061】
図11は環境光に対応する変換LUT 16を再構築する処理例を示すフローチャートである。
【0062】
一般に、出力デバイス用のICCプロファイルには、XYZまたはLab値からデバイスのCMYKまたはRGB値への変換を行うためのLUT(BtoA0 Tagなど)が色空間圧縮も含めた形式で格納されている。しかし、LUTへ入力すべきXYZ値はD50またはD65を基準とするデータであるから、環境光に応じた変換LUTとして直接利用することはできない。
【0063】
そこで、色空間圧縮処理と同様に、ステップS71で、出力プロファイル46に格納されているCMYK→XYZ変換を行うための変換LUT(AtoB0 Tagなど)を読み込み、ステップS72で、変換LUTからCMYK→XYZ関係データを取り出す。なお、CMYK→XYZ関係データのCMYK値はRGB値など他のデバイス依存色であっても構わないし、XYZ値はLab値など他のデバイスに依存しない色であっても構わない。次に、ステップS73で、出力プロファイル46内に予め格納された観察条件2を取り出す。
【0064】
取り出されたCMYK→XYZ関係データのXYZ値はD50またはD65を基準とするデータであるから、ステップS74で測色光源基準のXYZ値を環境光基準のXYZ値に修正する。つまり、色知覚モデルによって測色光源基準のXYZ値を、その測色条件(D50光源の白色点「D50基準の場合」、照度レベル、周囲光の状態など)に基づいて、人間の色知覚空間JCHへ変換し、測色条件とは異なる観察条件2(D65光源の白色点、照度レベル、周囲光の状態など)に基づいて、再びXYZ値へ逆変換することにより、測色光源基準のXYZ値を環境光基準のXYZ値に変換することができる。これにより、デバイスCMYK値から環境光基準のXYZ値への関係が得られるので、ステップS75で、CMYK→環境光XYZ関係データを用いて、環境光XYZ→CMYK関係データを反復法などを用いて最適化すれば、所望の環境光に対応する変換LUT 16を得ることができる。
【0065】
[カラーマッチングの実行]
図12はカラーマッチング処理の概念を示す図である。11はデータ作成部41により観察条件1に基づき作成された変換LUT、132は色空間圧縮部44によりJCH色空間上で作成されたLUT、133は色空間圧縮部45によりQMH色空間上で作成されたLUT、16はデータ作成部47により観察条件2に基づき作成された変換LUTである。
【0066】
RGBまたはCMYKの入力色信号は、変換LUT 11により入力デバイスの色信号から観察条件1におけるデバイスに依存しない色信号であるXYZ信号へ変換される。次に、XYZ信号は、色知覚モデル順変換部134および135により観察条件1(D50光源の白色点、照度レベル、周囲光の状態など)に基づいて人間の知覚信号JCHまたはQMHへ変換される。相対的カラーマッチングの場合はJCH空間が、絶対的カラーマッチングの場合はQMH空間がそれぞれ選択される。
【0067】
色知覚信号JCHおよびQMHはLUT 132および133により出力デバイスの色再現範囲内へ圧縮される。色空間圧縮された色知覚信号JCHおよびQMHは、色知覚モデル逆変換部136および137により観察条件2(D65光源の白色点、照度レベル、周囲光の状態など)に基づいて観察条件2におけるデバイスに依存しない色信号であるXYZ信号へ変換される。そして、XYZ信号は変換LUT 134により観察条件2における出力デバイスに依存する色信号へ変換される。
【0068】
以上の処理によって得られたRGBまたはCMYK信号は出力デバイスへ送られて、その色信号によって示される画像がプリント出力される。そのプリントアウトを観察条件2の下で観察すれば、観察条件1の下で観察されるオリジナル原稿と、同じ色味に見える。
【0069】
【第2実施形態】
以下では、第2実施形態として、図13に示す入力プロファイルとモニタプロファイルとを利用してカラーマッチングを行う例を説明する。なお、第1実施形態と同様の構成および処理についてはその詳細説明を省略する。
【0070】
[観察条件1に依存するデータの作成]
まず、第1実施形態と同様の方法、つまり図4または図5に示す処理方法により、データ作成部41を用いて図13に示す変換LUT 21を作成する。
【0071】
[色空間圧縮モードの選択および色空間圧縮]
色空間圧縮モードの選択は、第1実施形態と同様であるからその詳細説明は省略する。
【0072】
図14は図13に示すJCH 23またはQMH 24上で色空間圧縮を行う処理例を示すフローチャートである。
【0073】
色知覚空間上で色空間圧縮を行うために、ステップS141で、モニタプロファイル142からユーザに指定されたプロファイルを読込む。
【0074】
一般に、モニタデバイス用ICCプロファイルには、色再現領域の内外判定を行うために、XYZ値またはLab値を入力する判定LUT(gamut Tag)が格納されている場合もあるが、そのXYZ値は測色光源の特性であるD50またはD65を基準にしているため、環境光に応じた色再現領域の内外判定に直接利用することはできない。従って、色再現領域の内外判定を行うLUT(gamut Tag)を利用する代わりに、プロファイルに格納されているRGB→XYZ変換を行うための変換マトリクス(colorant Tag)または変換LUT(AtoB0 Tagなど)からRGB→XYZ関係データを、ステップS142で取り出して利用する。モニタプロファイルにはモニタの観察条件4も格納されているので、ステップS143で観察条件4をモニタプロファイルから取り出す。なお、RGB→XYZ関係データのXYZ値は、Lab値など他のデバイスに依存しない色であっても構わない。
【0075】
ステップS142で取り出されたRGB→XYZ関係データのXYZ値は、測色光であるD50またはモニタの白色点を基準とするデータであるから、環境光基準のXYZ値に修正する必要がある。ステップS144では、色知覚モデルによって測色光源基準のXYZ値を、測色条件であるD50光源の白色点「D50基準の場合」、輝度レベルおよび周囲光の状態などに基づいて、人間の色知覚空間JCHへ変換し、測色条件とは異なる観察条件4である例えばD93光源の白色点、輝度レベルおよび周囲光の状態などに基づいて、再びXYZ値へ逆変換することにより、環境光基準のXYZ値を得る。これにより、デバイスのRGB値から環境光基準のXYZ値への関係が得られたので、ステップS145でJCHまたはQMH色空間上におけるモニタデバイスの色再現領域を求めることができる。
【0076】
モニタデバイスの色再現領域は、例えば、
Red (R:255, G:0, B:0)
Yellow (R:255, G:255, B:0)
Green (R:0, G:255, B:0)
Cyan (R:0, G:255, B:255)
Blue (R:0, G:0, B:255)
Magenta(R:255, G:0, B:255)
White (R:255, G:255, B:255)
Black (R:0, G:0, B:0)
【0077】
の八点に対する環境光基準のXYZ値を、ステップS144のXYZ基準条件の変換処理によって求め、さらに色知覚モデルによって観察条件4に基づいて人間の色知覚空間JCHまたはQMHの座標値へ変換することで、図7に示されるような12面体によって近似することができる。12面体で近似される色再現領域において、色再現領域の内部の点、例えば無彩色軸上におけるWhiteとBlackの中間点と、内外判定対象の入力色信号の点(JCH値またはQMH値)とが、同じ側にあれば色再現範囲内にあると判断し、反対側にあれば色再現範囲外にあると判断する。
【0078】
ステップS145により得られる色再現領域に基づく内外判定の結果に基づき、ステップS146で色空間圧縮が行われる。図8はJCH色知覚空間における色空間圧縮の概念を、図9はQMH色知覚空間における色空間圧縮の概念をそれぞれ示す図である。上記の内外判定により出力デバイスの色再現範囲外であると判定された入力色信号は、JCH色知覚空間やQMH色知覚空間において、色相角h(またはH)が保存されるように、色再現範囲内へマッピングされる。そして、ステップS146で得られた色再現領域は、相対的カラーマッチングの場合にはJCH色知覚空間を入出力色空間とするLUTへ、絶対的カラーマッチングの場合にはQMH色知覚空間を入出力色空間とするLUTへ格納される。
【0079】
図10は異なるデバイス間における色空間圧縮の概念を示す図で、破線は入力デバイスの色再現領域を、実線は出力デバイスの色再現領域をそれぞれ示している。JCH色知覚空間においては、J(lightness)の大きさが観察条件1および4の光源白色点(以下では「白色点1」「白色点4」と略す場合がある)によってそれぞれ正規化されるため、Jは環境条件1の照度レベルおよび環境条件4の輝度レベル(以下では「照度レベル1」「輝度レベル4」と略す場合がある)に依存しない。一方、QMH色知覚空間においては、Q(brightness)の大きさが照度レベル1および輝度レベル4によって変化する。従って、相対的カラーマッチングでは白色点1がそのまま白色点4になる。一方、絶対的カラーマッチングでは、照度レベル1>輝度レベル4の場合には白色点1が白色点4ヘマッピングされる。また、照度レベル1<輝度レベル4の場合には白色点1が白色点4より低いのでグレーとして出力される。
【0080】
[観察条件4に依存するデータの作成]
次に、データ作成部47を用いて図13に示す変換LUT 26を作成する。
【0081】
図15は環境光に対応する変換LUT 26を再構築する処理例を示すフローチャートである。
【0082】
モニタデバイス用のICCプロファイルには、XYZ値からデバイスのRGB値への変換を行うためのLUT(BtoA0 Tagなど)が色空間圧縮も含めた形式で格納されている場合もある。しかし、LUTへ入力すべきXYZ値はD50またはD65を基準とするデータであるから、環境光に応じた変換LUTとして直接利用することはできない。
【0083】
そこで、色空間圧縮処理と同様に、ステップS151で、モニタプロファイル142に格納されているRGB→XYZ変換を行うための変換マトリクス(colorant Tag)または変換LUT(AtoB0 Tagなど)を読み込み、ステップS152で、変換LUTからRGB→XYZ関係データを取り出す。なお、RGB→XYZ関係データのXYZ値はLab値など他のデバイスに依存しない色であっても構わない。次に、ステップS153で、モニタプロファイル142内に予め格納された観察条件4を取り出す。
【0084】
取り出されたRGB→XYZ関係データのXYZ値は、D50またはモニタの白色点を基準とするデータであるから、ステップS154で測色光源基準のXYZ値を環境光基準のXYZ値に修正する。つまり、色知覚モデルによって測色光源基準のXYZ値を、その測色条件(D50光源の白色点「D50基準の場合」、輝度レベル、周囲光の状態など)に基づいて、人間の色知覚空間JCHへ変換し、測色条件とは異なる観察条件4(D93光源の白色点、輝度レベル、周囲光の状態など)に基づいて、再びXYZ値へ逆変換することにより、測色光源基準のXYZ値を環境光基準のXYZ値に変換することができる。これにより、デバイスRGB値から環境光基準のXYZ値への関係が得られたので、ステップS155で、RGB→XYZ変換を変換マトリクスなどでモデル化し、反復法などを用いて最適化すれば、所望の環境光に対応する変換LUT 26を得ることができる。
【0085】
[カラーマッチングの実行]
図12はカラーマッチングの概念を示す図である。21はデータ作成部41により観察条件1に基づき作成された変換LUT、132は色空間圧縮部44によりJCH色空間上で作成されたLUT、133は色空間圧縮部45によりQMH色空間上で作成されたLUT、26はデータ作成部47により観察条件4に基づき作成された変換LUTである。
【0086】
RGBの入力色信号は、変換LUT 21により入力デバイスの色信号から観察条件1におけるデバイスに依存しない色信号であるXYZ信号へ変換される。次に、XYZ信号は、色知覚モデル順変換部134および135により観察条件1(D50光源の白色点、照度レベル、周囲光の状態など)に基づいて人間の知覚信号JCHまたはQMHへ変換される。相対的カラーマッチングの場合はJCH空間が、絶対的カラーマッチングの場合はQMH空間がそれぞれ選択される。
【0087】
色知覚信号JCHおよびQMHはLUT 132および133によりモニタデバイスの色再現範囲内へ圧縮される。色空間圧縮された色知覚信号JCHおよびQMHは、色知覚モデル逆変換部136および137により観察条件4(D93光源の白色点、輝度レベル、周囲光の状態など)に基づいて観察条件4におけるデバイスに依存しない色信号であるXYZ信号へ変換される。そして、XYZ信号は変換LUT 26により観察条件4におけるモニタデバイスに依存する色信号へ変換される。
【0088】
以上の処理によって得られたRGB信号はモニタデバイスへ送られて、その色信号によって示される画像が表示される。その表示を観察条件4の下で観察すれば、観察条件1の下で観察されるオリジナル原稿と、同じ色味に見える。
【0089】
【第3実施形態】
以下では、第3実施形態として、図16に示すモニタプロファイルと出力プロファイルとを利用してカラーマッチングを行う例を説明する。なお、第1および第2実施形態と同様の構成および処理についてはその詳細説明を省略する。
【0090】
[観察条件4に依存するデータの作成]
まず、データ作成部41を用いて図16に示す変換LUT 31を作成する。
【0091】
図17は環境光に対応させるために変換LUT 31を更新する処理例を示すフローチャートである。
【0092】
環境光に対応する変換LUT 31に更新するために、ステップS161でモニタプロファイル142からユーザにより指定されたプロファイルを読込む。
【0093】
モニタ用のICCプロファイルにはRGB→XYZ変換を行うための変換マトリクス(colorant Tag)または変換LUT(AtoB0 Tag)が格納されているので、ステップS162でRGB→XYZ関係データを取り出す。プロファイル内には観察条件4も格納されているので、ステップS163で観察条件4をプロファイルから取り出す。ここで、RGB→XYZ関係データのXYZ値はLab値など他のデバイスに依存しない色であっても構わない。
【0094】
取り出されたRGB→XYZ関係データのXYZ値は、D50またはモニタの白色点を基準とするデータであるから、ステップS164で測色光源基準のXYZ値を環境光基準のXYZ値に修正する。つまり、色知覚モデルによって測色光源基準のXYZ値を、その測色条件(D50光源の白色点「D50基準の場合」、輝度レベル、周囲光の状態など)に基づいて、人間の色知覚空間JCHへ変換し、測色条件とは異なる観察条件4(D93光源の白色点、輝度レベル、周囲光の状態など)に基づいて、再びXYZ値へ逆変換することにより、測色光源基準のXYZ値を環境光基準のXYZ値に変換することができる。これにより、デバイスRGB値から環境光基準のXYZ値への関係が得られたので、ステップS165で、モニタプロファイル142内の変換マトリクス(colorant Tag)または変換LUT(AtoB0 Tag)を更新すれば、所望の環境光に対応する変換LUT
31を得ることができる。
【0095】
[色空間圧縮モードの選択および色空間圧縮]
色空間圧縮モードの選択は、第1実施形態と同様であるからその詳細説明は省略する。また、色空間圧縮も第1実施形態の図6に示す処理と同様であるからその詳細説明を省略する。
【0096】
[観察条件2に依存するデータの作成]
次に、データ作成部47を用いて変換LUT 36を作成するが、この処理も第1実施形態の図11に示す処理と同様であるからその詳細説明を省略する。
【0097】
[カラーマッチングの実行]
図12はカラーマッチングの概念を示す図である。31はデータ作成部41により観察条件4に基づき作成された変換LUT、132は色空間圧縮部44によりJCH色空間上で作成されたLUT、133は色空間圧縮部45によりQMH色空間上で作成されたLUT、36はデータ作成部47により観察条件2に基づき作成された変換LUTである。
【0098】
RGBの入力色信号は、変換LUT 31によりモニタデバイスの色信号から観察条件4におけるデバイスに依存しない色信号であるXYZ信号へ変換される。次に、XYZ信号は、色知覚モデル順変換部134および135により観察条件4(D93光源の白色点、輝度レベル、周囲光の状態など)に基づいて人間の知覚信号JCHまたはQMHへ変換される。相対的カラーマッチングの場合はJCH空間が、絶対的カラーマッチングの場合はQMH空間がそれぞれ選択される。
【0099】
色知覚信号JCHおよびQMHはLUT 132および133により出力デバイスの色再現範囲内へ圧縮される。色空間圧縮された色知覚信号JCHおよびQMHは、色知覚モデル逆変換部136および137により観察条件2(D65光源の白色点、照度レベル、周囲光の状態など)に基づいて観察条件2におけるデバイスに依存しない色信号であるXYZ信号へ変換される。そして、XYZ信号は変換LUT 36により観察条件2における出力デバイスに依存する色信号へ変換される。
【0100】
以上の処理によって得られたCMYK信号は出力デバイスへ送られて、その色信号によって示される画像がプリント出力される。そのプリントアウトを観察条件2の下で観察すれば、観察条件4の下で観察される画像と、同じ色味に見える。
【0101】
【第4実施形態】
上述した各実施形態においては、カラーマッチングモジュールCMMがD50またはD65を基準とする測色値から作成されたプロファイルを、観察条件に依存するプロファイルヘ動的に変換する処理例を説明したが、予め静的な観察条件に依存するプロファイルを作成しておくことによって、環境光に対応するカラーマッチングを行うこともできる。
【0102】
以下では、観察条件に応じた複数の静的プロファイルから対応するプロファイルを選択するための観察条件に依存するプロファイルの作成方法を第4実施形態として説明する。
【0103】
[ソース側の観察条件に依存するプロファイルの作成]
図3に示したソース側の観察条件に依存するデータを作成するデータ作成部41の処理と同様の処理により、D50またはD65を基準とする測色値から作成されたプロファイルを基に、ソース側の観察条件に依存する変換LUT用のデータ11を作成する。データ11は、既にデバイスRGB(またはCMYK)値を、ソース側の観察条件に基づいたXYZ(またはLab)値へ変換するための変換マトリクスまたは変換LUTであるので、データ11をそのままプロファイルヘ格納すればソース側の観察条件に依存するプロファイルを作成することができる。
【0104】
[デスティネーション側の観察条件に依存するプロファイルの作成]
図3に示した色空間圧縮部44、色空間圧縮部45およびデータ作成部47の処理と同様の処理により、D50またはD65を基準とする測色値から作成されたプロファイルを基に、デスティネーション側の観察条件に依存するJCHおよびQMH色空間で圧縮処理を行うためのデータ132および133、並びに、デスティネーション側の観察条件に依存する変換LUT用のデータ16を作成する。
【0105】
データ132は、入出力色空間がJCH色空間であるから、入力色空間をデスティネーション側の観察条件に基づくXYZ(またはLab)値にする必要がある。デスティネーション側の観察条件に基づいたXYZ値を、デバイスのCMYK(またはRGB)値へ変換するための変換LUTを作成するためには、入力になるデスティネーション側の観察条件に基づいたXYZ値に対するデバイスのCMYK値を求めればよい。つまり、デスティネーション側の観察条件に基づいたXYZ値を、人間の色知覚モデル順変換を用いて、デスティネーション側の観察条件に基づく色知覚JCH値へ変換し、データ132によりJCH色空間で圧縮した後、人間の色知覚モデル逆変換を用いて、色知覚JCH値を再びデスティネーション側の観察条件に基づくXYZ値へ戻し、最後にデータ134に基づく変換を行えば、所望するデバイスのCMYK値が求められる。LUTの格子点を、逐次、求めれば変換LUTを作成することができる。
【0106】
同様に、データ133は、入出力色空間がQMH色空間であるから、入力色空間をデスティネーション側の観察条件に基づくXYZ値にする必要がある。デスティネーション側の観察条件に基づいたXYZ値を、デバイスのCMYK値へ変換するための変換LUTを作成するためには、入力になるデスティネーション側の観察条件に基づいたXYZ値に対するデバイスのCMYK値を求めればよい。つまり、デスティネーション側の観察条件に基づいたXYZ値を、人間の色知覚モデル順変換を用いて、デスティネーション側の観察条件に基づいた色知覚QMH値へ変換し、データ133によりQMH色空間で圧縮した後、人間の色知覚モデル逆変換を用いて、色知覚QMH植を再びデスティネーション側の観察条件に基づくXYZ値へ戻し、最後にデータ134に基づく変換を行えば、所望するデバイスCMYK値が求められる。LUTの格子点を、逐次、求めれば変換LUTを作成することができる。
【0107】
データ132を含むLUTは相対的なカラーマッチングに用いられるLUTで、データ133を含むLUTは絶対的なカラーマッチングに用いられるLUTである。これらを一つのプロファイルヘ格納すれば、デスティネーション側の観察条件に依存するプロファイルを作成することができる。ここで、相対的カラーマッチングに用いられるLUTは、JCH色空間上における色空間圧縮方式(lightnesss保存、chroma保存など)によって複数作成し格納することが可能である。同様に、絶対的カラーマッチングに用いられるLUTもQMH色空間上における色空間圧縮方式(brlightnesss保存、colourfulness保存など)によって複数作成し格納することが可能である。
【0108】
[カラーマッチングの実行]
観察条件に依存するプロプロファイルを用いるカラーマッチングにおいては、色空間圧縮がデスティネーション側のプロファイルに含まれているため、上述した各実施形態のように、JCH色空間やQMH色空間において色空間圧縮を行う必要がない。
【0109】
観察条件に依存するプロファイルを用いた場合のカラーマッチングを図2、図13および図16を用いて説明する。
【0110】
入力色信号を、ソース側の観察条件に依存するプロファイルにより、デバイスRGB(またはCMYK)値からソース側の観察条件に基づいたXYZ(またはLab)値へ変換する。
【0111】
次に、人間の色知覚モデル順変換により、ソース側の観察条件に基づいたXYZ値をJCH色空間またはQMH色空間へ変換し、色知覚モデル逆変換でデスティネーション側の観察条件に基づいたXYZ値へ変換する。ここで、JCHまたはQMH色空間の選択は、色空間圧縮モードの選択によって決定され、相対的カラーマッチングの際はJCH色空間が、絶対的カラーマッチングの際はQMH色空間が選択される。また、XYZ値からJCHまたはQMH色空間への変換は、ソース側のプロファイル内に格納されたソース側の観察条件(光源の白色点、照度または輝度レベル、周囲光の状態など)を利用し、逆変換にはデスティネーション側のプロファイル内に格納されたデスティネーション側の観察条件(光源の白色点、照度または輝度レベル、周囲光の状態など)を利用する。変換されたデスティネーション側の観察条件に基づくXYZ(またはLab)値は、デスティネーション側の観察条件に依存するプロファイルによってデバイスのCMYK(またはRGB)値へ変換される。
【0112】
このように、第4実施形態における観察条件に依存するプロファイルを用いるカラーマッチング処理は、第1から第3実施形態と等価である。
【0113】
【第5実施形態】
以上の各実施形態では、予めプロファイル内に格納された一種類の測色値から観察条件に依存したプロファイルを作成していたが、よりマッチング精度を高めるためには、プロファイル内に複数の光源下の測色データを格納しておき、その中から実際の観察条件に最も近い測色データを選択して、観察条件に基づく測色データへ変換し、観察条件に依存したプロファイルを作成した方がよい。
【0114】
図20は異なる光源の白色点のXYZ値、色票のデバイスに依存したRGB値および各光源下の色票に対するXYZ値をプロファイル191内へ格納した場合の概念図である。
【0115】
色票は、入力デバイスの場合には例えばIT8のカラーターゲットとなり、出力デバイスの場合には例えば9×9×9のRGBカラーパッチになる。例えば、192は色票のRGB値とA光源(109.85, 100.0, 35.58)下のXYZ値、193は色票のRGB値とD65光源(95.05, 100.0, 108.88)下のXYZ値、194は色票のRGB値とD50(96.42, 100.0, 82.49)光源下のXYZ値、195は色票のRGB値とF2(99.20, 100.0, 67.40)光源下のXYZ値というようになる。これら異なる光源下の色票のXYZ値は、各光源の分光分布および各色票の分光反射率から求めることができる。従って、各XYZ値の代わりに、各光源の分光分布および各色票の分光反射率をプロファイル191内へ格納することもできる。ここで、各プロファイルで使用する色票が固定されていれば色票のRGB値や分光反射率のデータは各光源に対して共通であるので、各光源間で色票に関するデータを共有することができる。
【0116】
図21は標準光源の分光分布を示す図で、201はA光源に対する分光分布、202はD65光源に対する分光分布である。実際の観察条件における光源の分光分布を測定することができれば、より精度の高い観察条件に依存したプロファイルを作成することができる。
【0117】
図20に示すように、A、D65、D50およびF2などの複数の標準光源下のXYZ値がプロファイル内に格納されている場合、実際の観察条件に最も近い標準光源に対するXYZ値から観察条件に対するXYZ値へ変換される。観察条件により近い光源下のXYZ値を選択するために、プロファイル内に格納された光源の白色点のXYZ値を検索に用いる。例えば、各光源の白色点をXwYwZwとすると、その色度(xw, yw)は式(7)によって求めることができる。
xw = Xw/(Xw + Yw + Zw)
yw = Yw/(Xw + Yw + Zw) …(7)
【0118】
同様に、観察条件における白色点の色度(x, y)を式(8)から求めると、各光源の白色点と観察条件における白色点の距離dwは、例えば、式(9)により評価することができる。
x = X/(X + Y + Z)
y = Y/(X + Y + Z) …(8)
dw = √{(x - xw)(x - xw) + (y - yw)(y - yw)} …(9)
【0119】
この結果から、実際の観察条件に最も近い測色データを選択すれば、より精度の良い観察条件に対するXYZ値を得ることができる。ここで、プロファイル内に格納されたXYZ値を観察条件に基づくXYZ値へ変換する方法は、先述した実施形態と同様に、色知覚モデルによって測色光源基準のXYZ値を、その測色条件に基づいて、人間の色知覚空間JCHへ変換し、測色条件とは異なる観察条件に基づいて再びXYZ値へ逆変換する方法を用いる。また、各光源の白色点と観察条件における白色点の距離dwがゼロの場合には、その測色データを観察条件に対するXYZ値として利用することができる。その他、各光源の白色点の色温度Twと観察条件における白色点の色温度Tの差分によって距離を評価しても良い。
【0120】
図22は複数光源下の測色データからの測色値の推測する場合の処理を示すフローチャートである。ここで、ステップS211は、図4に示したステップS44、図5に示したステップS54、図6に示したステップS64、図7に示したステップS74、図14に示したステップS144、図15に示したステップS154および図17に示したステップS174に相当する。
【0121】
[観察条件に応じたプロファイルデータのキャッシュ]
先述したように、観察条件に依存したプロファイルを作成する処理は比較的複雑であるため、マッチング等を試みるたびに再計算していたのでは時間がかかってしまう。通常の使用において、ソース側の観察条件やデスティネーション側の観察条件は一度設定してしまえば、その設定のまま使用する場合が多いため、観察条件に基づくデバイスに依存しない色空間とデバイスに依存する色空間を相互に変換するLUT等をキャッシングしておけば処理の効率を高めることができる。
【0122】
観察条件はソース側、デスティネーション側で独立に設定できるため、観察条件に基づくデバイスに依存しない色空間とデバイスに依存する色空間を相互に変換するLUT等は、各プロファイル毎にキャッシュされる。キャッシュ先は、各プロファイル又は他のキャッシュ・ファイルとなる。キャッシュされるLUTは現在使用している観察条件に基づいたLUTだけでも良いし、複数の観察条件に基づいたLUTを各観察条件毎にキャッシュしても良い。
【0123】
例えば、ICCプロファイルを利用した場合には、各プロファイルのAtoBx Tag、BtoAx Tag、又はgamut Tag等に相当する観察条件に基づいたLUTをプライベートタグとして格納する。
【0124】
図23に、観察条件に基づくデバイスに依存しない色空間と、デバイスに依存する色空間とを相互に変換するLUTを、ICCプロファイルへ格納した場合の一例を示す。キャッシュされたLUTを含むプロファイル221は、AtoB0 Tag 222、AtoB1 Tag 223、AtoB2 Tag 224、BtoA0 Tag 225、BtoA1 Tag 226、BtoA2 Tag 227およびgamut Tag 228をパブリックタグとして格納している。ここで、パブリックタグとして格納されるLUTは、D50基準のデバイスに依存しない色空間と、デバイスに依存する色空間とを変換するためのものである。さらに、プロファイル228は、プライベートタグとして、パブリックタグ222から227に相当する、観察条件に基づくデバイスに依存しない色空間と、デバイスに依存する色空間とを相互に変換するLUT 229から2215を含んでいる。プライベートタグへは、キャッシュされたLUTとは別に、キャッシュ時の観察条件2216が格納される。
【0125】
図24はキャッシングの処理フローの一例を示す図である。以下に説明する処理は、ソース側およびデスティネーション側において独立な処理である。
【0126】
先ず、ユーザ設定等から観察条件VCを取得する。次に、プロファイル232からキャッシュされているLUTの観察条件VC0を取得する。観察条件VCおよび観察条件VC0において、例えば光源の白色点の比較等により、観察条件を比較する。観察条件が一致すれば、前回LUTをキャッシュしたときと同一観察条件とみなせるので、キャッシュされたLUTをカラーマッチング等に使用する。一方、観察条件が一致しないならば、カラーマッチング等において必要なLUTを観察条件に基づいて作成する。
【0127】
観察条件に基づくLUTの作成方法は、図4、図6、図7、図12および図13を用いて説明した方法と同じである。キャッシュされるLUTは、ソース側ならば図12に示されるような変換LUT 11、デスティネーション側ならば図12に示されるLUT 132と変換LUT 16とを合成したLUTになる(つまり、図13における変換LUT 21や26と等価である)。LUT作成時の観察条件、および、その観察条件に基づいたLUTはカラーマッチング等に利用された後、プライベートタグとしてプロファイルに格納される。
【0128】
以上説明した各実施形態によれば、次の効果を得ることができる。
【0129】
(1)画像データのソース側およびデスティネーション側にそれぞれ異なる観察条件(環境光白色点や照明レベルなど)を設定することができ、例えばネットワーク接続された遠隔地の環境下における色再現をシミュレートすることができる。
【0130】
(2)人間の色知覚モデルを用いて、ソース側の環境光を基準とするXYZ値を、ソース側の観察条件(環境光白色点や照度レベルなど)に基づき、JCH色空間やQMH色空間に変換し、さらに、デスティネーション側の観察条件(環境光白色点や照度レベルなど)に基づき、デスティネーション側の環境光を基準とするXYZ値へ逆変換することにより、ソース側およびデスティネーション側の観察条件を独立に設定してカラーマッチングを行うことができる。
【0131】
(3)人間の色知覚空間であるQMH(またはJCH)色空間上で色空間圧縮を行うことにより、等色相線などの人間の色知覚特性を色空間圧縮に反映することができるとともに、環境光に応じた最適なカラーマッチングを行うことができる。
【0132】
(4)色空間圧縮を、QMH色空間で行う絶対的カラーマッチングと、JCH色空間で行う相対的カラーマッチングとの二つのモードにおけるカラーマッチングを選択可能にすることで、出力側の色再現領域において可能な限り絶対的なカラーマッチングを試みることや、出力側の色再現領域のダイナミックレンジを最大限に利用する相対的なカラーマッチングを試みて、出力側の色再現領域に最適なカラーマッチングを行うことができる。
【0133】
(5)人間の色知覚モデルを用いて、カラーターゲットやカラーパッチの測色値(XYZまたはLab値)を、測色条件(測色光源の白色点や照度レベルなど)に基づいて、JCH色空間の値へ変換し、さらに、観察条件(環境光白色点や照度レベルなど)に基づいて、再びXYZ(またはLab)値へ逆変換することにより、測色光源を基準とするXYZ値を環境光を基準とするXYZ値へ変換することができる。
【0134】
(6)標準光源の下で測色したカラーターゲットのデバイスに依存しないデータと、そのカラーターゲットのデータを入力したデバイスに依存するデータとの関係データを入力プロファイルに格納し、入力側の観察条件(環境光白色点や照度レベルなど)に応じて、デバイスに依存するデータからデバイスに依存しないデータへの変換マトリクスまたは変換LUTを動的に作成することにより、入力側の環境光に応じたカラーマッチングを行うことができる。また、入力プロファイルに格納されたデバイスに依存するデータを、デバイスに依存しないデータ(標準光源基準)へ変換するための変換マトリクスまたは変換LUTを、入力側の観察条件(環境光白色点や照度レベルなど)に応じて動的に更新することにより、入力側の環境光に応じたカラーマッチングを行うことができる。
【0135】
(7)モニタプロファイルに格納されたデバイスに依存するデータを、デバイスに依存しないデータ(モニタ白色点基準または標準光源基準)へ変換するための変換マトリクスまたは変換LUTを、モニタの観察条件(環境光白色点や輝度レベルなど)に応じて動的に更新することにより、モニタの環境光に応じたカラーマッチングを行うことができる。
【0136】
(8)カラーパッチのデバイスに依存するデータと、そのカラーパッチを出力した際のプリント出力を標準光源下で測色したデバイスに依存しないデータとの関係を出力プロファイルに格納し、出力側の観察条件(環境光白色点や照度レベルなど)に応じて、デバイスに依存しないデータからデバイスに依存するデータへ変換するための変換LUTを動的に作成することにより、出力側の環境光に応じたカラーマッチングを行うことができる。
【0137】
【第6実施形態】
第6実施形態では、上記各実施形態における観察条件(例えば、図2におけるViewing Condition 1および2)をマニュアルで設定するためのグラフィカルユーザインタフェイス(GUI)の一例を説明する。
【0138】
図25に本実施形態における観察条件のパラメータを設定するためのGUI 191を示す。
【0139】
192は入力側の視対象における輝度を入力するためのテキストボックス、193は入力側の視対象における白色点の種類を選択するためのドロップダウンコンボボックス、194は入力側の周囲条件を選択するためのドロップダウンコンボボックス、195は入力側の色順応度合いを入力するためのテキストボックス、196は出力側の視対象における輝度を入力するためのテキストボックス、197は出力側の視対象における白色点を選択するためのドロップダウンコンボボックス、198は出力側の周囲条件を選択するためのドロップダウンコンボボックス、および、199は出力側の色順応度合いを入力するためのテキストボックスである。
【0140】
なお、輝度は図19に示したCIE CAM97SにおけるLAに関係し、光源はXwYwZwに関係し、周囲光はc、Nc、FLLおよびFに関係し、順応度合いはDに関係する。図19に示したCIE CAM97Sでは、LAとFとに基づきDを求めているが、本実施形態ではDをマニュアルで制御できるようにする。
【0141】
視対象における輝度は、通常、白色点の20%程度を入力する。視対象における白色点の種類は、本来、視対象における白色点のXYZ値を必要とするが、ここでは簡易化するために、使用するメディアにおいて反射率100%の白色点が存在すると仮定して光源の白色点を利用する。さらに、実際の観察条件における光源の白色点を利用した方がよいが、ここでは標準光源の種類を選択するものとする。標準光源の種類としてはA光源、C光源、D65光源、D50光源、D93光源、F2光源、F8光源およびF11光源などがある。背景の相対輝度に関しては画像を対象とするので、仮に20%程度と仮定する。周囲条件としては、周囲の相対輝度が背景の相対輝度として仮定した20%以上である場合には「平均的な明るさ」とし、それ以下の場合は「薄暗い」、ほとんど0%の場合には「暗い」とする。色順応度合いは1.0のときに完全順応に、0.0のときに順応なしになるように値を調整する。
【0142】
【第7実施形態】
第6実施形態の観察条件のパラメータ設定は、値を直接入力する必要があるため、カラーの専門家ではない一般のユーザにとって非常に扱い難い面がある。そこで、第7実施形態では、第6実施形態のGUI 191を改良して使い勝手を向上させる。
【0143】
本実施形態に特徴的な構成は以下のとおりである。
(1) ユーザのレベルに応じてパラメータ設定の表示を切替える。
(2) ユーザがソース側視対象とデスティネーション側視対象の間隔を指定することで、色順応度合いを調整する。
(3) ユーザがソース側視対象とデスティネーション側視対象における色順応度合いのバランスを調整する。
(4) ユーザがソース側視対象とデスティネーション側視対象における色順応度合いのバランスを保ちながら、絶対的な色順応度合いを調整する。
【0144】
図26はユーザレベルが設定可能なGUI 201の一例を示し、同図ではユーザレベルとして「一般ユーザ」が選択されている。GUI 201では、ユーザがパラメータを直接入力する必要がなく、選択およびスライドバーによってすべての環境条件の設定ができる。さらに、各選択内容も一般ユーザが理解し易い表現になっている。
【0145】
図26において、202はユーザレベルを選択するためのドロップダウンコンボボックス、203は入力側の視対象を選択するためのドロップダウンコンボボックス、204は入力側の視対象における輝度レベルを選択するためのドロップダウンコンボボックス、205は入力側の視対象における白色点の種類を選択するためのドロップダウンコンボボックス、206は入力側の周囲条件を選択するためのドロップダウンコンボボックス、207は出力側の視対象を選択するためのドロップダウンコンボボックス、208は出力側の視対象における輝度レベルを選択するためのドロップダウンコンボボックス、209は出力側の視対象における白色点の種類を選択するためのドロップダウンコンボボックス、2010は出力側の周囲条件を選択するためのドロップダウンコンボボックス、2011は観察間隔設定における入力側視対象を示すアイコン、および、2012は観察間隔設定における出力側視対象を示すアイコンである。
【0146】
ユーザレベルを選択するためのドロップダウンコンボボックス202を指定することにより、例えば図27に示すように、表示されるユーザレベルが切替わる。視対象の選択は項目として「モニタ」「原稿」「プリント」などが選択可能になっており、選択された項目によって選択メニューの項目やその項目に応じて設定される実際の値が異なってくる。視対象における輝度レベルの選択は一般ユーザ向けのため「明るい」「やや明るい」「平均」「やや暗い」などの感覚的な選択項目になっている。視対象における白色点の選択も、一般ユーザ向けにD93やF2といった表現を使わずに、モニタ向けには「青白い」「白色」「橙白色」、原稿やプリント向けには「白色蛍光灯」「昼白色蛍光灯」「白熱灯」「屋外晴天」「屋外曇天」などの表現になっている。
【0147】
観察間隔設定は、例えばモニタとプリントを直接並べて比較する場合と、離れた位置で比較する場合といった視対象の間隔をスライドバーで調整するものであり、色順応度合い値の決定に関係する。ユーザが感覚的に捉えやすいように、視対象をアイコン化し、そのアイコン間の距離をスライドバーで調整する。
【0148】
CIE CAM97sにおいて色順応度合いは以下の式によって定義される。
完全順応:D = 1.0
順応なし:D = 0.0
不完全順応:D = F - F/{1 + 2・La1/4 + (La2)/300}
【0149】
ここで、Dは色順応の度合い。Fは周囲条件によって変化する定数で、平均的な明るさでは1.0、薄暗いや暗いは0.9。Laは視対象における輝度である。また、色順応の度合いDは、入力側と出力側で独立に設定することができる。
【0150】
本実施形態では、色順応の度合いが入力側視対象と出力側視対象の間隔(観察距離)によって変化するように入力側および出力側の色順応の度合いを定義する。観察距離が無限大のときに完全順応に近くなると仮定すれば、例えば以下のように定義することができる。
Ds0 = Fs - Fs/{1 + 2・Las1/4 + (Las2)/300}
Dd0 = Fd - Fd/{1 + 2・Lad1/4 + (Lad2)/300}
Ds = Ds0・VD + Ds0・VD0・(1.0 - VD)
Dd = Dd0・VD + Dd0・VD0・(1.0 - VD)
【0151】
ここで、Ds0は輝度レベルと周囲条件とで決まる入力側の色順応度合い。Fsは入力側の周囲条件によって変化する定数。Lasは入力側の視対象における輝度。Dd0は輝度レベルと周囲条件とで決まる出力側の色順応度合い。Fdは出力側の周囲条件によって変化する定数。Ladは出力側の視対象における輝度。Dsは観察距離、輝度レベル、周囲条件で決まる入力側の色順応度合い。Ddは観察距離、輝度レベル、周囲条件で決まる出力側の色順応度合い。VDは観察距離を示すスライドバーの位置で、観察距離がゼロの場合には最小値0.0、観察距離が無限大の場合には最大値1.0。VD0は観察距離がゼロのときの色順応度合いを決定する定数である。
【0152】
図27はユーザレベルが「プロフェッショナル」に指定された場合のGUI 211の一例を示している。対象が専門家であるため、パラメータの直接入力ができるとともに、表現も専門的になっている。
【0153】
ここで、2111は入力側観察条件の色順応度合い値を表示するためのスタティックテキスト、2112は出力側観察条件の色順応度合い値を表示するためのスタティックテキスト、2113は入力側視対象と出力側視対象における色順応度合いのバランスを調整するためのスライドバー、2114は入力側視対象と出力側視対象における色順応度合いのバランスを保ちながら、絶対的な色順応度合いを調整するためのスライドバーである。
【0154】
色順応度合いをバランスおよび絶対強度によって調整できるように以下のように入力側および出力側の色順応度合いを定義する。
Ds0 = 1.0 - BL
Dd0 = BL
Ds = Ds0/MAX(Ds0,Dd0)×VL
Dd = Dd0/MAX(Ds0,Dd0)×VL
【0155】
ここで、Ds0は色順応度合いのバランス調整により決まる入力側の色順応度合い。Dd0は色順応度合いのバランス調整により決まる出力側の色順応度合い。BLはバランスを示すスライドバーの位置で、入力側が100%の場合には最小値0.0、出力側が100%の場合には最大値1.0、センタは0.5である。Dsは色順応度合いのバランスと絶対強度調整とで決まる入力側の色順応度合い。Ddは色順応度合いのバランスと絶対強度調整とで決まる出力側の色順応度合い。VLは絶対強度を示すスライドバーの位置で、強度ゼロの場合は最小値0.0、強度最大の場合には最大値1.0である。なお、関数MAX()は、()内の最大値をとる関数である。
【0156】
バランス調整はバランス強度が大きい方が完全順応になるように調整され、絶対強度はそのバランスを保ったまま全体を調整するようになっている。つまり、バランスがセンタで絶対強度が最大ならば入力側と出力側の色順応度合いは両方とも完全順応になる。
【0157】
【他の実施形態】
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
【0158】
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0159】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0160】
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
【0161】
以上説明した実施形態によれば、異なる観察条件の下においても人の視覚で色相が一定であると感じられるカラーマッチングを行うことができる。また、特定の光源を基準とするデバイスに依存しない色空間のデータに限定されることなく、環境光に対応したカラーマッチングを精度良く、かつ高速に行うことができる。また、カラーマッチング処理の目的に応じた色空間上で色空間圧縮処理を行うことで、良好なカラーマッチング処理結果を得ることができる。また、カラーマッチング処理の目的に応じた色空間上で色空間圧縮処理を行うことで、良好なカラーマッチング処理結果を得ることができる。
【0162】
【発明の効果】
以上説明したように、本発明によれば、観察条件に関らず、良好なカラーマッチングを行うことができる。
【0163】
また、色空間圧縮処理を行う色知覚空間の種類によって色再現特性が異なることを考慮した画像処理を行うことができる。
【0164】
さらに、カラーマッチング処理の目的に応じた色空間上で色空間圧縮処理を行うことで、良好なカラーマッチング処理結果を得ることができる。
【図面の簡単な説明】
【図1】一般的なカラーマッチングの概念図、
【図2】本発明の概念を説明する図、
【図3】第1実施形態の機能構成例を示すブロック図
【図4】環境光に対応する変換LUTを再構築する処理例を示すフローチャート、
【図5】環境光に対応する変換LUTへ更新する処理例を示すフローチャート、
【図6】 JCHまたはQMH色空間上で色空間圧縮を行う処理例を示すフローチャート、
【図7】色再現領域を近似する12面体を示す図、
【図8】 JCH色知覚空間における色空間圧縮の概念を示す図、
【図9】 QMH色知覚空間における色空間圧縮の概念を示す図、
【図10】異なるデバイス間における色空間圧縮の概念を示す図、
【図11】環境光に対応する変換LUTを再構築する処理例を示すフローチャート、
【図12】カラーマッチング処理の概念を示す図、
【図13】第2実施形態におけるカラーマッチングを示す図、
【図14】第2実施形態におけるJCHまたはQMH色空間上で色空間圧縮を行う処理例を示すフローチャート、
【図15】第2実施形態における環境光に対応する変換LUTを再構築する処理例を示すフローチャート、
【図16】第3実施形態におけるカラーマッチングを示す図、
【図17】第2実施形態において環境光に対応させるために変換LUTを更新する処理例を示すフローチャート、
【図18】図3に示される機能構成を実現する装置の構成例を示すブロック図、
【図19】本発明にかかる実施形態で使用する色知覚モデルについて説明する図、
【図20】異なる光源の白色点のXYZ値、色票のデバイスに依存したRGB値および各光源下の色票に対するXYZ値をプロファイル内へ格納した場合の概念図、
【図21】標準光源の分光分布を示す図、
【図22】複数光源下の測色データからの測色値の推測する場合の処理を示すフローチャート、
【図23】観察条件に基づくデバイスに依存しない色空間と、デバイスに依存する色空間とを相互に変換するLUTを、ICCプロファイルへ格納した場合の一例を示す図、
【図24】キャッシングの処理フローの一例を示す図、
【図25】第6実施形態における観察条件のパラメータを設定するためのGUIを示す図、
【図26】ユーザレベルが設定可能なGUIの一例を示す図、
【図27】図26に示すGUIにおいて、ユーザレベルが「プロフェッショナル」に指定された場合の一例を示す図である。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and method, for example, color matching processing.
[0002]
[Prior art]
FIG. 1 is a conceptual diagram of general color matching.
[0003]
The input data that is RGB data is converted into XYZ data in a color space that does not depend on the device by the input profile. Since colors outside the color gamut of the output device cannot be expressed by the output device, the input data converted to data in a device-independent color space so that all of the colors fall within the color gamut of the output device. Is subjected to color space compression. After color space compression, the input data is converted from a device-independent color space to CMYK data in a color space that depends on the output device.
[0004]
In color matching, the reference white point and the ambient light are fixed. For example, in a profile defined by International Color Consortium (ICC), Profile Connection Space (PCS) for linking profiles is the D50 standard XYZ value and Lab value. For this reason, correct color reproduction is guaranteed when the input document or print output is observed under a light source having D50 characteristics, and correct color reproduction is not guaranteed under a light source having other characteristics.
[0005]
[Problems to be solved by the invention]
When the same sample (for example, an image) is observed under different light sources, the XYZ values for the observed sample are naturally different. In order to predict XYZ values under different light sources, there are conversion methods such as (1) ratio conversion, (2) Von Kries conversion, and (3) a prediction formula based on a color perception model.
[0006]
Ratio conversion is a method of performing ratio conversion of W2 / W1 in order to convert an XYZ value under the reference white point W1 into an XYZ value under the reference white point W2. When this method is applied to the Lab uniform color space, the Lab value under W1 matches the Lab value under W2. For example, the XYZ value of the sample under W1 (Xw1, Yw1, Zw1) is (X1, Y1, Z1), and the XYZ value of the sample under W2 (Xw2, Yw2, Zw2) is (X2, Y2, Z2). Then, according to the ratio conversion, the following relationship is obtained.
X2 = (Xw2 / Xw1) ・ X1
Y2 = (Yw2 / Yw1) ・ Y1 (1)
Z2 = (Zw2 / Zw1) ・ Z1
[0007]
Von Kries conversion is a method of performing W2 ′ / W1 ′ ratio conversion on the human color perception space PQR in order to convert XYZ values under W1 into XYZ values under W2. When this method is applied to the Lab uniform color space, the Lab value under W1 does not match the Lab value under W2. For example, the XYZ value of the sample under W1 (Xw1, Yw1, Zw1) is (X1, Y1, Z1), and the XYZ value of the sample under W2 (Xw2, Yw2, Zw2) is (X2, Y2, Z2). Then, according to Von Kries transformation, the following relation is obtained.
Figure 0003805247
However,
Figure 0003805247
[0008]
The prediction formula based on the color perception model is for human color perception such as CIE CAM97s to convert XYZ values under viewing condition VC1 (including W1) to XYZ values under viewing condition VC2 (including W2). This is a conversion method using space QMH (or JCH). Here, Q in QMH represents brightness, M represents colourfulness, H represents huequadrature or hueangle, J in JCH represents lightness, C represents chroma, and H represents huequadrature or hueangle. When this conversion method is applied to the Lab uniform color space, the Lab value under W1 and the Lab value under W2 do not match, as in the Von Kreis conversion. For example, the XYZ value of the sample under W1 (Xw1, Yw1, Zw1) is (X1, Y1, Z1), and the XYZ value of the sample under W2 (Xw2, Yw2, Zw2) is (X2, Y2, Z2). Then, according to the Von Kries conversion, the following conversion is performed.
(X1, Y1, Z1) → [CIE CAM97s forward conversion] → (Q, M, H) or (J, C, H)
→ [CIE CAM97s reverse conversion] → (X2, Y2, Z2)
[0009]
In other words, if it is assumed that XYZ values under different reference white points can be converted by ratio conversion, the equi-hue lines in Lab color space under different reference white points are always constant, but according to Von Kreis conversion and color perception model When human color perception is considered as in the prediction formula, the equi-hue line in the Lab color space under a different reference white point changes depending on the reference white point.
[0010]
For the above reasons, when color space compression (hue preservation) defined in the same Lab color space is applied in color matching under different reference white points, it may be felt that the hue is not constant in human vision. is there.
[0011]
In the current ICC profile, PCS is limited to XYZ values and Lab values based on D50, so color matching corresponding to ambient light cannot be performed.
[0012]
The present invention is for solving the above-mentioned problems individually or collectively, and an object thereof is to perform good color matching regardless of viewing conditions.
[0013]
Another object of the present invention is to perform image processing considering that the color reproduction characteristics differ depending on the type of color perception space on which color space compression processing is performed.
[0014]
Furthermore, another object is to obtain a good color matching processing result by performing color space compression processing on a color space according to the purpose of color matching processing.
[0015]
[Means for Solving the Problems]
The present invention has the following configuration as one means for achieving the above object.
[0016]
An image processing method according to the present invention is an image processing method for performing color matching processing, which sets a color space compression mode, and inputs input data indicated by a color space depending on an input device based on an observation condition on an input side. A color space compression mode that has been set by converting the first data represented in a device-independent color space and performing forward conversion of the color perception model in accordance with the observation conditions on the input side. Is converted into second data represented by a color perception space corresponding to the second data, and the second data is subjected to color space compression processing according to the color reproduction region of the output device to obtain third data, and the third data is obtained. The fourth data represented by a device-independent color space based on the output-side observation condition is obtained by performing inverse transformation of the color perception model according to the output-side observation condition to the data of Data before Each step of converting to output data represented in a color space depending on the output device, and the color space compression mode includes a mode for performing relative color matching and a mode for performing absolute color matching. It is characterized by that.
[0017]
An image processing apparatus according to the present invention is an image processing apparatus that performs a color matching process, and includes setting means for setting a color space compression mode and input data indicated by a color space depending on an input device on the input side. Input conversion means for converting to first data shown in a device-independent color space based on the conditions, and forward conversion of the color perception model according to the observation conditions on the input side to the first data, Forward conversion means for converting to second data indicated by a color perception space corresponding to the set color space compression mode, and color space compression processing corresponding to the color reproduction region of the output device is applied to the second data. Color space compression means for obtaining third data, and applying a reverse transformation of the color perception model in accordance with the output-side observation conditions to the third data, depending on the device based on the output-side observation conditions. Na Inverse conversion means for obtaining fourth data shown in a color space; and output conversion means for converting the fourth data into output data shown in a color space depending on the output device, and the color space The compression mode includes a mode for performing relative color matching and a mode for performing absolute color matching.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.
[0019]
First, a color perception model used in the embodiment described below will be described with reference to FIG.
[0020]
It is known that the color perceived by the human visual system looks different even if the light entering the eye is the same, depending on the conditions of the illumination light, the background where the stimulus is placed, etc. .
[0021]
For example, white illuminated by an incandescent bulb does not feel as red as the characteristics of light entering the eye, and is perceived as white. In addition, white placed on a black background and white placed on a light background feel brighter on white placed on a black background. The former phenomenon is known as chromatic adaptation, and the latter is known as contrast. For this purpose, it is necessary to display the color in an amount corresponding to the physiological activity of photoreceptor cells distributed in the retinal form instead of XYZ, and a color perception model has been developed for such purpose. . CIE recommends using CIE CAM97s. This color perception model uses the physiological three primary colors of color vision. For example, H (hue), J (lightness) and C (chroma), or H (hue), which are correlation amounts of color perception calculated by CIE CAM97s. ), Q (brightness) and M (colorfulness) values are considered to be a color display method independent of viewing conditions. By reproducing the colors so that the values of H, J, C or H, Q, and M match between the devices, the difference in the observation conditions of the input / output images can be solved.
[0022]
The processing contents in the forward conversion of the color perception model CIE CAM97s for performing the correction processing (processing for converting XYZ into HJC or HQM) according to the observation conditions when observing the input image will be described with reference to FIG.
[0023]
First, in step S160 as input image observation condition information, LA, which is the luminance of the adaptation field (cd / square meter, usually 20% of white luminance in the adaptation field) is selected, and the relative tristimulus value of the sample under the light source condition XYZ, XωYωZω, which is a relative tristimulus value of white light under the light source condition, and Yb, which is the relative luminance of the background under the light source condition. Based on the type of viewing condition specified in step S180, the ambient condition constant c, color induction coefficient Nc, brightness contrast coefficient FLL, and adaptation coefficient F are set as viewing condition information for the input image in step S170. Is done.
[0024]
Based on the input image observation condition information set in steps S160 and S170, the following processing is performed on XYZ indicating the input image.
[0025]
First, Bradford cone response RGB is obtained by converting XYZ based on Bradford's three primary colors considered as human's physiological three primary colors (S100). Since human vision is not always fully adapted to the observation light source, a variable D indicating the degree of adaptation is obtained based on the luminance level and ambient conditions (LA and F), and based on this variable D and XωYωZω, it is not suitable for RGB. A complete adaptation process is performed and converted to RcGcBc (S110).
[0026]
Next, RcGcBc is converted based on the three primary colors of Hunt-Pointer-Estevez, which are considered to be human physiological three primary colors, and a Hunt-Pointer-Estevez cone response R′G′B ′ is obtained (S120). An adaptation degree based on the stimulus intensity level is estimated for R′G′B ′, and a post-adaptation cone response R′aG′aB′a corresponding to both the sample and white is obtained (S130). In step S130, nonlinear response compression is performed using the variable FL obtained based on the luminance LA of the adaptation field of view.
[0027]
Subsequently, in order to obtain a correlation with appearance, the following processing is performed.
[0028]
Red-green and yellow-blue opposite color responses ab are determined from R'aG'aB'a (S140), and hue H is determined from the opposite color response ab and the eccentricity coefficient (S150).
[0029]
Also, the background induction coefficient n obtained from Yω and the relative luminance Yb of the background is obtained, and using this background induction coefficient n, achromatic responses A and Aω for both the sample and white are obtained (S190), and the background induction coefficient n is obtained from the coefficient z obtained from the lightness contrast coefficient FLL, and A, Aω and c (S151), the saturation S is obtained from the color induction coefficient Nc (S153), the saturation S and the lightness Chroma C is obtained from J (S152), and luminance Q is obtained from lightness J and white achromatic response Aω (S154).
[0030]
Further, the colorfulness M is obtained from the variable FL and the ambient influence constant c (S155).
[0031]
[First Embodiment]
A first embodiment will be described in which a profile is dynamically changed according to observation conditions.
[0032]
In FIG. 2, which illustrates the concept of the present invention, 11 is a conversion matrix or conversion lookup for converting input device dependent data into device independent color space data based on the white point criterion of ambient light on the input side. Table (LUT), 12 is the color conversion model forward conversion part (CAM) for converting the data obtained from the conversion LUT11 to human color perception color space JCh or QMh, 13 is relative to the reference white of ambient light JCh (or JCH) which is a color perception space, 14 is QMh (or QMH) which is an absolute color perception space whose size changes depending on the illuminance level, and 15 is the output environment from the human color perception space JCh or QMh Inverse conversion unit of color perception model for conversion to device-independent color space data based on white point criterion of light, 16 for converting data obtained from inverse conversion unit 15 into color space data depending on output device Strange It is a LUT.
[0033]
In general, the white point of ambient light under viewing conditions is different from the white point of a standard light source when color charts such as color targets and color patches are measured. For example, the standard light source used for colorimetry is D50 or D65, but the ambient light when actually observing the image is not limited to D50 or D65 in the light booth, such as incandescent bulbs and fluorescent lights In many cases, it is light or a mixture of illumination light and sunlight. In the following description, for simplification, the light source characteristics of the ambient light under the observation conditions are set to D50, D65, and D93, but actually, the XYZ values of the white point on the medium are set as the white point.
[0034]
FIG. 3 is a block diagram showing a functional configuration example of the present embodiment. In FIG. 3, 41 is a data creation unit that creates data depending on the input-side observation condition 1 from the input profile 42 and the input-side observation condition 1, and 43 is a color space compression based on the designation by the user or the designation by the profile. Color space compression mode selection unit for selecting whether to perform in JCH color space or QMH color space, 44 and 45 are colors that perform color space compression on data in JCH or QMH color perception space based on output profile 46, respectively Spatial compression unit 47 is a data creation unit that creates data depending on output-side observation condition 2 from output profile 46 and output-side observation condition 2, 48 is data dependent on observation condition 1, color space compression data, This is a color matching unit that performs color matching using data and a color perception model depending on viewing condition 2.
[0035]
18 is a block diagram showing a configuration example of a device that implements the functional configuration shown in FIG. 3. The device shown in FIG. 18 is a general-purpose computer device such as a personal computer. Needless to say, this is realized by supplying software that realizes functions. In that case, the software that realizes the functions of the present embodiment may be included in the OS (basic system) of the computer apparatus, or may be included in the driver software of the input / output device, for example, separately from the OS. .
[0036]
In the figure, the CPU 100 uses the RAM 102 as a work memory in accordance with programs stored in the ROM 101 and the hard disk (HD) 106, etc. to control the operation of the entire apparatus, and processes related to the color matching described above. Various processes including the above are executed. The input interface 103 connects the input device 104, the hard disk interface 105 connects the HD 106, the video interface 107 connects the monitor 108, and the output interface 109 connects the output device 110. Each interface to do.
[0037]
The input devices targeted by the present embodiment include various image input devices such as image readers such as image scanners such as image scanners and image scanners and film scanners, and digital still cameras and digital video cameras. Output devices include image output devices such as color monitors such as CRT and LCD, color printers, and film recorders.
[0038]
A general-purpose interface can be used as the interface. Depending on the application, serial interfaces such as RS232C, RS422, and IEEE1394, and parallel interfaces such as SCSI, GPIB, and Centronics can be used.
[0039]
An input / output profile for color matching is stored in the HD 106, but not only a hard disk but also an optical disk such as an MO can be used.
[0040]
Hereinafter, an example in which color matching is performed using an input / output profile will be described.
[0041]
[Create data depending on observation condition 1]
The conversion LUT 11 is created using the data creation unit 41. The method of creating the conversion LUT 11 is based on the relationship between the XYZ values (or Lab values) of the color target and the RGB values of the input device as shown in FIG. , A method for reconstructing the conversion LUT 11 corresponding to the ambient light, and the conversion LUT 11 for converting from the device RGB space to the XYZ space in the input profile 42 shown in FIG. 5 as an example. There is a way to update to.
[0042]
FIG. 4 is a flowchart showing an example of processing for reconstructing the conversion LUT 11 corresponding to ambient light.
[0043]
In order to reconstruct the conversion LUT 11 corresponding to the ambient light, the profile specified by the user is read from the input profile 42 in step S51. In the input profile, XYZ → RGB relationship data in which an XYZ value (or Lab value) of a color target is associated with a device RGB value when the color target is read by an input device is stored. This XYZ → RGB related data is extracted from the profile in step S52. Since the observation condition 1 is also stored in the profile, the observation condition 1 is extracted from the profile in step S53.
[0044]
The XYZ values in the XYZ → RGB-related data extracted in step S52 are data based on D50 or D65, which is the reference light when the color target is colorimetrically measured. It is necessary to correct it to the standard XYZ value. In step S54, the XYZ values of the colorimetric light source reference are obtained from the color perception model, the white point of the D50 light source, which is the colorimetric condition (in the case of D50 reference), the illuminance level, the ambient light condition, etc. Convert to color perception space JCH, and reversely convert back to XYZ values using a color perception model based on the observation condition 1 that is different from the colorimetry condition, such as the white point of the D65 light source, the illuminance level, and the ambient light condition. To obtain the XYZ values of the ambient light reference. As a result, the relationship between the XYZ value of the ambient light standard and the device RGB value was obtained.In step S55, an RGB → XYZ conversion matrix based on the RGB → XYZ relationship data is created and optimized by an iterative method, A conversion LUT 11 corresponding to environmental condition 1 can be obtained.
[0045]
FIG. 5 is a flowchart showing an example of processing for updating to the conversion LUT 11 corresponding to ambient light. Note that steps in which the same processing as in FIG. 4 is executed are denoted by the same reference numerals, and detailed description thereof is omitted.
[0046]
Generally, since the conversion matrix (colorant tag) or conversion LUT (AtoB0 Tag) for RGB → XYZ conversion is stored in the ICC profile for input devices, RGB → XYZ related data is stored in step S62. Remove from profile.
[0047]
Then, after the relationship between the XYZ value of the ambient light reference and the device RGB value is obtained in step S54, if the conversion matrix (colorant Tag) or conversion LUT (AtoB0 Tag) in the profile is updated in step S66, the environmental conditions A conversion LUT 11 corresponding to 1 can be obtained.
[0048]
In general, an ICC profile for an input device stores a conversion matrix (colorant Tag) or conversion LUT (AtoB0 Tag) for performing RGB → XYZ conversion. 4 and 5, the example of using the RGB → XYZ relation data has been described. However, the present invention is not limited to this, and other device-independent color data such as RGB → Lab relation data may be used. .
[0049]
[Select color space compression mode and color space compression]
The color space compression mode is selected by the user via the user interface or automatically by the Rendering Intent in the header of the source side profile. When automatic selection is performed based on the profile, it is as follows.
Color space compression mode on Perceptual JCH color space
Color space compression mode on Relative Colorimetric JCH color space
Color space compression mode on Saturation JCH color space
Color space compression mode on Absolute Colorimetric QMH color space
[0050]
That is, the JCH space 13 is selected for relative color matching, and the QMH space 14 is selected for absolute color matching.
[0051]
FIG. 6 is a flowchart showing an example of processing for performing color space compression on JCH 13 or QMH 14.
[0052]
In order to perform color space compression on the color perception space, a profile designated by the user is read from the output profile 46 in step S81.
[0053]
In general, an ICC profile for output devices determines whether the color reproduction area is inside or outside (hereinafter referred to as “color reproduction area inside / outside determination”), and a decision LUT (gamut Tag) that inputs an XYZ value or Lab value. ) Is stored. However, since the XYZ values are based on D50 or D65, which are the characteristics of the colorimetric light source, they cannot be directly used for the inside / outside determination of the color reproduction area according to the ambient light. Therefore, instead of using the LUT (gamut Tag) for determining the inside / outside of the color reproduction area, CMYK → XYZ related data from the conversion LUT (AtoB0 Tag etc.) for performing the CMYK → XYZ conversion stored in the profile, It is taken out and used in step S82. Since observation condition 2 is also stored in the output profile, observation condition 2 is extracted from the output profile in step S83.
[0054]
Since the XYZ value of the CMYK → XYZ relation data extracted in step S82 is data based on D50 or D65 which is colorimetric light, it needs to be corrected to the XYZ value based on ambient light. In step S84, the XYZ values of the colorimetric light reference by the color perception model, the color perception model using the color perception model based on the white point of the D50 light source that is the colorimetry condition (in the case of D50 standard), the illuminance level, the ambient light state, etc. By converting to human color perception space JCH and back to XYZ values again based on the observation condition 2 that is different from the colorimetric condition, such as the white point of the D65 light source, the illuminance level, and the ambient light state, Get XYZ value of ambient light standard. Thus, in step S84, the relationship from the CMYK value of the device to the XYZ value of the ambient light reference is obtained. In step S85, the color reproduction region of the output device in the JCH or QMH color space is obtained based on the CMYK → environment light XYZ relationship data obtained in step S84.
[0055]
The color reproduction area of the output device on the JCH or QMH color space is, for example,
Red (C: 0%, M: 100%, Y: 100%, K: 0%)
Yellow (C: 0%, M: 0%, Y: 100%, K: 0%)
Green (C: 100%, M: 0%, Y: 100%, K: 0%)
Cyan (C: 100%, M: 0%, Y: 0%, K: 0%)
Blue (C: 100%, M: 100%, Y: 0%, K: 0%)
Magenta (C: 0%, M: 100%, Y: 0%, K: 0%)
White (C: 0%, M: 0%, Y: 0%, K: 0%)
Black (C: 0%, M: 0%, Y: 0%, K: 100%)
[0056]
The XYZ values of the ambient light reference for the eight points are obtained using the CMYK → ambient light XYZ relation data obtained in step S84, and further based on the observation condition 2 by the color perception model, the human color perception space JCH or QMH By converting to a coordinate value, it can be approximated by a dodecahedron as shown in FIG.
[0057]
In the color reproduction area approximated by a dodecahedron, the points inside the color reproduction area, for example, the intermediate point of White and Black on the achromatic color axis, and the point (JCH value or QMH value) of the input color signal to be judged inside / outside If they are on the same side, it is determined that they are within the color reproduction range, and if they are on the opposite side, they are determined to be outside the color reproduction range.
[0058]
Based on the result of the inside / outside determination based on the color reproduction region obtained in step S85, color space compression is performed in step S86. FIG. 8 is a diagram showing the concept of color space compression in the JCH color perception space, and FIG. 9 is a diagram showing the concept of color space compression in the QMH color perception space. The input color signal determined to be out of the color reproduction range of the output device by the above internal / external determination is reproduced so that the hue angle h (or H) is preserved in the JCH color perception space or QMH color perception space. Mapped into range. This mapping result is converted to an LUT that uses the JCH color perception space as the input / output color space in the case of relative color matching, and to an LUT that uses the QMH color perception space as the input / output color space in the case of absolute color matching. Stored.
[0059]
FIG. 10 is a diagram showing the concept of color space compression between different devices. The broken line indicates the color reproduction area of the input device, and the solid line indicates the color reproduction area of the output device. In JCH color perception space, the size of J (lightness) is normalized by the light source white point under observation conditions 1 and 2 (hereinafter sometimes abbreviated as “white point 1” and “white point 2”). , J does not depend on the illuminance levels of environmental conditions 1 and 2 (hereinafter sometimes referred to as “illuminance level 1” or “illuminance level 2”). On the other hand, in the QMH color perception space, the magnitude of Q (brightness) varies depending on the illuminance levels 1 and 2. Therefore, in relative color matching, the white point 1 becomes the white point 2 as it is. On the other hand, in absolute color matching, when illuminance level 1> illuminance level 2, white point 1 is mapped to white point 2. When illuminance level 1 <illuminance level 2, since white point 1 is lower than white point 2, it is output as gray.
[0060]
[Create data depending on observation condition 2]
Next, the conversion LUT 16 is created using the data creation unit 47.
[0061]
FIG. 11 is a flowchart showing an example of processing for reconstructing the conversion LUT 16 corresponding to ambient light.
[0062]
In general, an ICC profile for an output device stores an LUT (BtoA0 Tag or the like) for converting from an XYZ or Lab value to a CMYK or RGB value of the device in a format including color space compression. However, since the XYZ values to be input to the LUT are data based on D50 or D65, they cannot be directly used as a conversion LUT corresponding to ambient light.
[0063]
Therefore, as in the color space compression processing, in step S71, a conversion LUT (AtoB0 Tag, etc.) for CMYK → XYZ conversion stored in the output profile 46 is read, and in step S72, CMYK → XYZ is converted from the conversion LUT. Retrieve relationship data. Note that the CMYK value of the CMYK → XYZ relationship data may be another device-dependent color such as an RGB value, or the XYZ value may be a color that does not depend on other devices such as an Lab value. Next, in step S73, the observation condition 2 stored in advance in the output profile 46 is taken out.
[0064]
Since the XYZ value of the extracted CMYK → XYZ relation data is data based on D50 or D65, the XYZ value based on the colorimetric light source is corrected to the XYZ value based on the ambient light in step S74. In other words, based on the color perception model, the XYZ values of the colorimetric light source reference are based on the colorimetric conditions (the white point of the D50 light source “D50 standard”, illuminance level, ambient light condition, etc.) Convert to JCH and convert back to XYZ values again based on observation condition 2 (white point of D65 light source, illuminance level, ambient light condition, etc.) that is different from the colorimetric conditions. The value can be converted to an ambient light reference XYZ value. As a result, the relationship from the device CMYK value to the XYZ value of the ambient light reference is obtained, so in step S75, the CMYK → environment light XYZ relationship data is used, and the ambient light XYZ → CMYK relationship data is used using an iterative method or the like. If optimized, the conversion LUT 16 corresponding to the desired ambient light can be obtained.
[0065]
[Perform color matching]
FIG. 12 is a diagram showing the concept of color matching processing. 11 is a conversion LUT created based on observation condition 1 by the data creation unit 41, 132 is a LUT created on the JCH color space by the color space compression unit 44, and 133 is created on the QMH color space by the color space compression unit 45 The LUT 16 is a conversion LUT created based on the observation condition 2 by the data creation unit 47.
[0066]
The input color signal of RGB or CMYK is converted by the conversion LUT 11 from the color signal of the input device into an XYZ signal that is a device-independent color signal in the observation condition 1. Next, the XYZ signal is converted into a human perception signal JCH or QMH by the color perception model forward conversion units 134 and 135 based on the observation condition 1 (white point of D50 light source, illuminance level, ambient light state, etc.). . The JCH space is selected for relative color matching, and the QMH space is selected for absolute color matching.
[0067]
The color perception signals JCH and QMH are compressed by the LUTs 132 and 133 into the color reproduction range of the output device. The color space-compressed color perception signals JCH and QMH are obtained by the color perception model inverse transform units 136 and 137 based on the observation condition 2 (D65 light source white point, illuminance level, ambient light condition, etc.). It is converted into an XYZ signal that is a color signal independent of. Then, the XYZ signal is converted by the conversion LUT 134 into a color signal depending on the output device in the observation condition 2.
[0068]
The RGB or CMYK signal obtained by the above processing is sent to an output device, and an image indicated by the color signal is printed out. If the printout is observed under the observation condition 2, it looks the same color as the original document observed under the observation condition 1.
[0069]
Second Embodiment
Hereinafter, as the second embodiment, an example in which color matching is performed using the input profile and the monitor profile illustrated in FIG. 13 will be described. Note that detailed description of the same configuration and processing as in the first embodiment is omitted.
[0070]
[Create data depending on observation condition 1]
First, the conversion LUT 21 shown in FIG. 13 is created using the data creation unit 41 by the same method as in the first embodiment, that is, the processing method shown in FIG. 4 or FIG.
[0071]
[Select color space compression mode and color space compression]
Since the selection of the color space compression mode is the same as that in the first embodiment, the detailed description thereof is omitted.
[0072]
FIG. 14 is a flowchart showing an example of processing for performing color space compression on JCH 23 or QMH 24 shown in FIG.
[0073]
In order to perform color space compression on the color perception space, the profile designated by the user is read from the monitor profile 142 in step S141.
[0074]
Generally, a determination LUT (gamut tag) for inputting an XYZ value or Lab value may be stored in an ICC profile for a monitor device in order to make an internal / external determination of the color reproduction area. The XYZ value is measured. Since it is based on D50 or D65, which is the characteristic of the color light source, it cannot be directly used for the inside / outside determination of the color reproduction area according to the ambient light. Therefore, instead of using the LUT (gamut Tag) that performs the inside / outside determination of the color reproduction area, from the conversion matrix (colorant Tag) or conversion LUT (AtoB0 Tag, etc.) for RGB → XYZ conversion stored in the profile The RGB → XYZ relation data is extracted and used in step S142. Since the monitor profile also stores the observation condition 4 of the monitor, the observation condition 4 is extracted from the monitor profile in step S143. Note that the XYZ value of the RGB → XYZ relation data may be a color that does not depend on other devices, such as an Lab value.
[0075]
Since the XYZ value of the RGB → XYZ relation data extracted in step S142 is data based on the colorimetric light D50 or the white point of the monitor, it needs to be corrected to the ambient light reference XYZ value. In step S144, the color perception model determines the XYZ values of the colorimetric light source standard based on the white point of the D50 light source that is the colorimetric condition (in the case of D50 standard), the brightness level, the ambient light condition, etc. Converted to space JCH, and based on the observation condition 4 that is different from the colorimetric condition, for example, based on the white point of the D93 light source, the luminance level, and the ambient light condition, etc. Get the XYZ value. Thereby, since the relationship from the RGB value of the device to the XYZ value of the ambient light reference is obtained, the color reproduction region of the monitor device in the JCH or QMH color space can be obtained in step S145.
[0076]
The color reproduction area of the monitor device is, for example,
Red (R: 255, G: 0, B: 0)
Yellow (R: 255, G: 255, B: 0)
Green (R: 0, G: 255, B: 0)
Cyan (R: 0, G: 255, B: 255)
Blue (R: 0, G: 0, B: 255)
Magenta (R: 255, G: 0, B: 255)
White (R: 255, G: 255, B: 255)
Black (R: 0, G: 0, B: 0)
[0077]
The XYZ values of the ambient light reference for the eight points are obtained by the conversion processing of the XYZ reference conditions in step S144, and further converted to the coordinate values of the human color perception space JCH or QMH based on the observation condition 4 by the color perception model Thus, it can be approximated by a dodecahedron as shown in FIG. In the color reproduction area approximated by a dodecahedron, the points inside the color reproduction area, for example, the intermediate point of White and Black on the achromatic color axis, and the point (JCH value or QMH value) of the input color signal to be judged inside / outside If they are on the same side, it is determined that they are within the color reproduction range, and if they are on the opposite side, it is determined that they are outside the color reproduction range.
[0078]
Based on the result of the inside / outside determination based on the color reproduction region obtained in step S145, color space compression is performed in step S146. FIG. 8 is a diagram showing the concept of color space compression in the JCH color perception space, and FIG. 9 is a diagram showing the concept of color space compression in the QMH color perception space. The input color signal determined to be out of the color reproduction range of the output device by the above internal / external determination is reproduced so that the hue angle h (or H) is preserved in the JCH color perception space or QMH color perception space. Mapped into range. The color reproduction area obtained in step S146 is input / output to / from the LUT that uses the JCH color perception space as the input / output color space for relative color matching, and the QMH color perception space for absolute color matching. Stored in the color space LUT.
[0079]
FIG. 10 is a diagram showing the concept of color space compression between different devices. The broken line indicates the color reproduction area of the input device, and the solid line indicates the color reproduction area of the output device. In JCH color perception space, the size of J (lightness) is normalized by the light source white point under observation conditions 1 and 4 (hereinafter sometimes abbreviated as “white point 1” and “white point 4”). , J does not depend on the illuminance level of environmental condition 1 and the luminance level of environmental condition 4 (hereinafter sometimes abbreviated as “illuminance level 1” or “luminance level 4”). On the other hand, in the QMH color perception space, the magnitude of Q (brightness) varies depending on the illuminance level 1 and the luminance level 4. Therefore, in relative color matching, the white point 1 becomes the white point 4 as it is. On the other hand, in absolute color matching, when illuminance level 1> luminance level 4, white point 1 is mapped to white point 4. When illuminance level 1 <luminance level 4, white point 1 is lower than white point 4 and is output as gray.
[0080]
[Create data depending on observation condition 4]
Next, the conversion LUT 26 shown in FIG.
[0081]
FIG. 15 is a flowchart showing an example of processing for reconstructing the conversion LUT 26 corresponding to ambient light.
[0082]
In an ICC profile for a monitor device, an LUT (BtoA0 Tag or the like) for converting an XYZ value into a device RGB value may be stored in a format including color space compression. However, since the XYZ values to be input to the LUT are data based on D50 or D65, they cannot be directly used as a conversion LUT corresponding to ambient light.
[0083]
Therefore, in the same manner as the color space compression processing, in step S151, a conversion matrix (colorant Tag) or conversion LUT (AtoB0 Tag, etc.) for RGB → XYZ conversion stored in the monitor profile 142 is read, and in step S152 Then, RGB → XYZ relation data is extracted from the conversion LUT. Note that the XYZ values of the RGB → XYZ relation data may be colors that do not depend on other devices such as Lab values. Next, in step S153, the observation condition 4 stored in advance in the monitor profile 142 is taken out.
[0084]
Since the extracted XYZ value of the RGB → XYZ relation data is data based on D50 or the white point of the monitor, the XYZ value based on the colorimetric light source is corrected to the XYZ value based on the ambient light in step S154. In other words, based on the color perception model, the XYZ values based on the colorimetric light source are determined based on the colorimetric conditions (white point of D50 light source “D50 standard”, brightness level, ambient light condition, etc.) Convert to JCH and convert back to XYZ values again based on the observation condition 4 (D93 light source white point, brightness level, ambient light condition, etc.) that is different from the colorimetric conditions. The value can be converted to an ambient light reference XYZ value. As a result, the relationship from the device RGB value to the XYZ value of the ambient light reference is obtained. In step S155, if the RGB → XYZ conversion is modeled with a conversion matrix or the like and optimized using an iterative method or the like, the desired value can be obtained. The conversion LUT 26 corresponding to the ambient light can be obtained.
[0085]
[Perform color matching]
FIG. 12 is a diagram showing the concept of color matching. 21 is a conversion LUT created based on observation condition 1 by the data creation unit 41, 132 is a LUT created in the JCH color space by the color space compression unit 44, and 133 is created in the QMH color space by the color space compression unit 45 The LUT 26 is a conversion LUT created based on the observation condition 4 by the data creation unit 47.
[0086]
The RGB input color signal is converted by the conversion LUT 21 from the color signal of the input device into an XYZ signal that is a device-independent color signal in the observation condition 1. Next, the XYZ signal is converted into a human perception signal JCH or QMH by the color perception model forward conversion units 134 and 135 based on the observation condition 1 (white point of D50 light source, illuminance level, ambient light state, etc.). . The JCH space is selected for relative color matching, and the QMH space is selected for absolute color matching.
[0087]
The color perception signals JCH and QMH are compressed by the LUTs 132 and 133 into the color reproduction range of the monitor device. The color space-compressed color perception signals JCH and QMH are obtained by the color perception model inverse transform units 136 and 137 based on the observation condition 4 (D93 light source white point, luminance level, ambient light condition, etc.) It is converted into an XYZ signal that is a color signal independent of. Then, the XYZ signal is converted by the conversion LUT 26 into a color signal depending on the monitor device in the observation condition 4.
[0088]
The RGB signal obtained by the above processing is sent to the monitor device, and an image indicated by the color signal is displayed. If the display is observed under the observation condition 4, it looks the same color as the original document observed under the observation condition 1.
[0089]
[Third Embodiment]
Hereinafter, as a third embodiment, an example in which color matching is performed using the monitor profile and output profile shown in FIG. 16 will be described. Detailed description of the same configurations and processes as those in the first and second embodiments will be omitted.
[0090]
[Create data depending on observation condition 4]
First, the conversion LUT 31 shown in FIG.
[0091]
FIG. 17 is a flowchart showing an example of a process for updating the conversion LUT 31 to cope with ambient light.
[0092]
In order to update the conversion LUT 31 corresponding to the ambient light, a profile designated by the user is read from the monitor profile 142 in step S161.
[0093]
Since the monitor ICC profile stores a conversion matrix (colorant tag) or conversion LUT (AtoB0 Tag) for performing RGB → XYZ conversion, RGB → XYZ-related data is extracted in step S162. Since the observation condition 4 is also stored in the profile, the observation condition 4 is extracted from the profile in step S163. Here, the XYZ value of the RGB → XYZ relation data may be a color that does not depend on other devices, such as an Lab value.
[0094]
Since the extracted XYZ value of the RGB → XYZ relation data is data based on D50 or the white point of the monitor, the XYZ value of the colorimetric light source reference is corrected to the XYZ value of the ambient light reference in step S164. In other words, the color perception model determines the XYZ values of the colorimetric light source standard based on the colorimetric conditions (the white point of the D50 light source “in the case of D50 standard”, brightness level, ambient light condition, etc.) Convert to JCH and convert back to XYZ values again based on the observation condition 4 (D93 light source white point, brightness level, ambient light condition, etc.) that is different from the colorimetric conditions. The value can be converted to an ambient light reference XYZ value. As a result, since the relationship from the device RGB value to the XYZ value of the ambient light reference is obtained, if the conversion matrix (colorant Tag) or conversion LUT (AtoB0 Tag) in the monitor profile 142 is updated in step S165, the desired value can be obtained. Conversion LUT for environmental light
You can get 31.
[0095]
[Select color space compression mode and color space compression]
Since the selection of the color space compression mode is the same as that in the first embodiment, the detailed description thereof is omitted. Further, since the color space compression is the same as the processing shown in FIG. 6 of the first embodiment, detailed description thereof is omitted.
[0096]
[Create data depending on observation condition 2]
Next, the conversion LUT 36 is created by using the data creation unit 47. Since this process is also the same as the process shown in FIG. 11 of the first embodiment, detailed description thereof is omitted.
[0097]
[Perform color matching]
FIG. 12 is a diagram showing the concept of color matching. 31 is a conversion LUT created based on viewing condition 4 by the data creation unit 41, 132 is a LUT created on the JCH color space by the color space compression unit 44, and 133 is created on the QMH color space by the color space compression unit 45 The LUT 36 is a conversion LUT created based on the observation condition 2 by the data creation unit 47.
[0098]
The RGB input color signal is converted by the conversion LUT 31 from the color signal of the monitor device into an XYZ signal which is a color signal independent of the device in the observation condition 4. Next, the XYZ signal is converted into a human perception signal JCH or QMH by the color perception model forward conversion units 134 and 135 based on the observation condition 4 (white point of D93 light source, luminance level, ambient light state, etc.). . The JCH space is selected for relative color matching, and the QMH space is selected for absolute color matching.
[0099]
The color perception signals JCH and QMH are compressed by the LUTs 132 and 133 into the color reproduction range of the output device. The color space-compressed color perception signals JCH and QMH are obtained by the color perception model inverse transform units 136 and 137 based on the observation condition 2 (D65 light source white point, illuminance level, ambient light condition, etc.). It is converted into an XYZ signal that is a color signal independent of. Then, the XYZ signal is converted by the conversion LUT 36 into a color signal depending on the output device in the observation condition 2.
[0100]
The CMYK signal obtained by the above processing is sent to the output device, and an image indicated by the color signal is printed out. If the printout is observed under the observation condition 2, it looks the same color as the image observed under the observation condition 4.
[0101]
[Fourth Embodiment]
In each of the above-described embodiments, the color matching module CMM has described a processing example in which a profile created from colorimetric values based on D50 or D65 is dynamically converted to a profile that depends on viewing conditions. By creating a profile that depends on static observation conditions, color matching corresponding to ambient light can be performed.
[0102]
In the following, a method for creating a profile that depends on an observation condition for selecting a corresponding profile from a plurality of static profiles according to the observation condition will be described as a fourth embodiment.
[0103]
[Create a profile that depends on the observation conditions on the source side]
Based on the profile created from the colorimetric values based on D50 or D65 by the same process as the data creation unit 41 that creates data that depends on the viewing conditions on the source side shown in Fig. 3, the source side The data 11 for the conversion LUT depending on the observation conditions is created. Since data 11 is already a conversion matrix or conversion LUT for converting device RGB (or CMYK) values to XYZ (or Lab) values based on the source-side observation conditions, data 11 is stored in the profile as it is. For example, a profile depending on the observation conditions on the source side can be created.
[0104]
[Create a profile that depends on the viewing conditions on the destination side]
Destination based on profile created from colorimetric values based on D50 or D65 by the same processing as the processing of color space compression unit 44, color space compression unit 45, and data creation unit 47 shown in FIG. Data 132 and 133 for performing compression processing in the JCH and QMH color spaces depending on the viewing conditions on the side, and data 16 for the conversion LUT depending on the viewing conditions on the destination side are created.
[0105]
Since the input / output color space of the data 132 is the JCH color space, the input color space needs to be an XYZ (or Lab) value based on the viewing condition on the destination side. In order to create a conversion LUT to convert XYZ values based on the destination-side observation conditions to CMYK (or RGB) values of the device, the XYZ values based on the input-side observation conditions are used. Find the CMYK value of the device. In other words, XYZ values based on the destination-side viewing conditions are converted into color-perceived JCH values based on the destination-side viewing conditions using human color perception model forward conversion, and compressed in the JCH color space using data 132 Then, using the human color perception model inverse transform, return the color perception JCH value back to the XYZ value based on the destination-side observation conditions, and finally perform the conversion based on the data 134 to obtain the CMYK value of the desired device. Is required. A conversion LUT can be created by obtaining the LUT lattice points sequentially.
[0106]
Similarly, since the input / output color space of the data 133 is the QMH color space, the input color space needs to be an XYZ value based on the viewing condition on the destination side. In order to create a conversion LUT for converting XYZ values based on the observation conditions on the destination side to CMYK values on the device, the CMYK values of the device relative to the XYZ values based on the input observation conditions on the destination side You can ask for. In other words, the XYZ values based on the viewing conditions on the destination side are converted into color perceived QMH values based on the viewing conditions on the destination side using human color perception model forward conversion, and the data 133 is used in the QMH color space. After compression, the human color perception model inverse transform is used to return the color perception QMH plant back to the XYZ value based on the destination-side viewing conditions, and finally the conversion based on the data 134, the desired device CMYK value Is required. A conversion LUT can be created by obtaining the LUT lattice points sequentially.
[0107]
The LUT including the data 132 is an LUT used for relative color matching, and the LUT including the data 133 is an LUT used for absolute color matching. If these are stored in one profile, a profile depending on the observation condition on the destination side can be created. Here, a plurality of LUTs used for relative color matching can be created and stored by a color space compression method (lightnesss storage, chroma storage, etc.) on the JCH color space. Similarly, a plurality of LUTs used for absolute color matching can be created and stored by a color space compression method (brlightnesss storage, colourfulness storage, etc.) on the QMH color space.
[0108]
[Perform color matching]
In color matching using a professional profile that depends on viewing conditions, color space compression is included in the destination-side profile, so color space compression in the JCH color space and QMH color space as in the above-described embodiments. There is no need to do.
[0109]
Color matching when using a profile that depends on viewing conditions will be described with reference to FIGS. 2, 13, and 16. FIG.
[0110]
The input color signal is converted from a device RGB (or CMYK) value to an XYZ (or Lab) value based on the viewing condition on the source side by a profile depending on the viewing condition on the source side.
[0111]
Next, the XYZ values based on the source-side observation conditions are converted to the JCH color space or QMH color space by human color perception model forward conversion, and the XYZ based on the destination-side observation conditions is converted by inverse color perception model. Convert to value. Here, the selection of the JCH or QMH color space is determined by the selection of the color space compression mode, and the JCH color space is selected for relative color matching, and the QMH color space is selected for absolute color matching. The conversion from XYZ values to JCH or QMH color space uses the source-side observation conditions (white point of light source, illuminance or luminance level, ambient light status, etc.) stored in the source-side profile, For the inverse conversion, the destination-side observation conditions (white point of light source, illuminance or luminance level, ambient light state, etc.) stored in the destination-side profile are used. The converted XYZ (or Lab) value based on the destination-side viewing condition is converted to the CMYK (or RGB) value of the device by a profile that depends on the destination-side viewing condition.
[0112]
As described above, the color matching process using the profile depending on the viewing condition in the fourth embodiment is equivalent to the first to third embodiments.
[0113]
[Fifth Embodiment]
In each of the above embodiments, a profile depending on the observation condition is created from one type of colorimetric value stored in advance in the profile. However, in order to further improve matching accuracy, a plurality of light sources are included in the profile. It is better to store the colorimetric data, and select the colorimetric data that is closest to the actual viewing conditions, convert it to colorimetric data based on the viewing conditions, and create a profile that depends on the viewing conditions. Good.
[0114]
FIG. 20 is a conceptual diagram in the case where the XYZ value of the white point of a different light source, the RGB value depending on the device of the color chart, and the XYZ value for the color chart under each light source are stored in the profile 191.
[0115]
The color chart is, for example, an IT8 color target in the case of an input device, and is a 9 × 9 × 9 RGB color patch in the case of an output device. For example, 192 is the RGB value of the color chart and the XYZ values under the A light source (109.85, 100.0, 35.58), 193 is the RGB value of the color chart and the XYZ value under the D65 light source (95.05, 100.0, 108.88), and 194 is the color chart. RGB value and XYZ value under D50 (96.42, 100.0, 82.49) light source, 195 is RGB value of color chart and XYZ value under F2 (99.20, 100.0, 67.40) light source. The XYZ values of the color charts under these different light sources can be obtained from the spectral distribution of each light source and the spectral reflectance of each color chart. Accordingly, the spectral distribution of each light source and the spectral reflectance of each color chart can be stored in the profile 191 instead of each XYZ value. Here, if the color chart used in each profile is fixed, the RGB data and spectral reflectance data of the color chart are common to each light source. Can do.
[0116]
FIG. 21 is a diagram showing the spectral distribution of the standard light source, where 201 is the spectral distribution for the A light source and 202 is the spectral distribution for the D65 light source. If the spectral distribution of the light source under actual observation conditions can be measured, a more accurate profile depending on the observation conditions can be created.
[0117]
As shown in Figure 20, when XYZ values under multiple standard light sources such as A, D65, D50 and F2 are stored in the profile, the XYZ values for the standard light source closest to the actual observation conditions Converted to XYZ value. In order to select an XYZ value under a light source that is closer to the observation condition, the XYZ value of the white point of the light source stored in the profile is used for the search. For example, assuming that the white point of each light source is XwYwZw, the chromaticity (xw, yw) can be obtained by Equation (7).
xw = Xw / (Xw + Yw + Zw)
yw = Yw / (Xw + Yw + Zw)… (7)
[0118]
Similarly, when the chromaticity (x, y) of the white point under the observation condition is obtained from Expression (8), the distance dw between the white point of each light source and the white point under the observation condition is evaluated by, for example, Expression (9) be able to.
x = X / (X + Y + Z)
y = Y / (X + Y + Z)… (8)
dw = √ {(x-xw) (x-xw) + (y-yw) (y-yw)}… (9)
[0119]
From this result, if the colorimetric data closest to the actual viewing condition is selected, the XYZ values for the viewing condition with higher accuracy can be obtained. Here, the method for converting the XYZ values stored in the profile into the XYZ values based on the observation conditions is based on the color measurement light source reference XYZ values based on the color perception model, as in the previous embodiment. Based on this, a method is used in which the image is converted into a human color perception space JCH, and is converted back to XYZ values again based on viewing conditions different from the colorimetric conditions. Further, when the distance dw between the white point of each light source and the white point in the viewing condition is zero, the colorimetric data can be used as the XYZ value for the viewing condition. In addition, the distance may be evaluated based on the difference between the color temperature Tw of the white point of each light source and the color temperature T of the white point under the observation conditions.
[0120]
FIG. 22 is a flowchart showing a process for estimating a colorimetric value from colorimetric data under a plurality of light sources. Here, step S211 includes step S44 shown in FIG. 4, step S54 shown in FIG. 5, step S64 shown in FIG. 6, step S74 shown in FIG. 7, step S144 shown in FIG. This corresponds to step S154 shown and step S174 shown in FIG.
[0121]
[Caching profile data according to observation conditions]
As described above, since the process of creating a profile depending on the observation condition is relatively complicated, it takes time if recalculation is performed every time matching is attempted. In normal use, once the source-side and destination-side viewing conditions are set, they are often used as they are, so they depend on the device-independent color space and device. Processing efficiency can be improved by caching LUTs that convert color spaces to each other.
[0122]
Since the viewing condition can be set independently on the source side and the destination side, the LUT that mutually converts the device-dependent color space and the device-dependent color space based on the viewing condition is cached for each profile. The cache destination is each profile or another cache file. The LUT to be cached may be only the LUT based on the currently used observation condition, or the LUT based on a plurality of observation conditions may be cached for each observation condition.
[0123]
For example, when an ICC profile is used, an LUT based on an observation condition corresponding to the AtoBx Tag, BtoAx Tag, gamut Tag, or the like of each profile is stored as a private tag.
[0124]
FIG. 23 shows an example of a case where an LUT that mutually converts a device-dependent color space and a device-dependent color space based on viewing conditions is stored in an ICC profile. A profile 221 including a cached LUT stores AtoB0 Tag 222, AtoB1 Tag 223, AtoB2 Tag 224, BtoA0 Tag 225, BtoA1 Tag 226, BtoA2 Tag 227 and gamut Tag 228 as public tags. Here, the LUT stored as a public tag is for converting a color space that does not depend on the D50 standard device and a color space that depends on the device. Further, the profile 228 includes, as private tags, LUTs 229 to 2215 that convert the device-independent color space corresponding to the public tags 222 to 227 and the device-dependent color space to each other. Yes. In the private tag, an observation condition 2216 at the time of caching is stored separately from the cached LUT.
[0125]
FIG. 24 is a diagram showing an example of a processing flow of caching. The processing described below is independent processing on the source side and the destination side.
[0126]
First, the observation condition VC is acquired from user settings or the like. Next, the observation condition VC0 of the LUT cached from the profile 232 is acquired. In the observation condition VC and the observation condition VC0, the observation conditions are compared, for example, by comparing the white point of the light source. If the viewing conditions match, it can be regarded as the same viewing conditions as when the previous LUT was cached, so the cached LUT is used for color matching or the like. On the other hand, if the viewing conditions do not match, an LUT necessary for color matching or the like is created based on the viewing conditions.
[0127]
The LUT creation method based on the observation conditions is the same as the method described with reference to FIG. 4, FIG. 6, FIG. 7, FIG. The cached LUT is a conversion LUT 11 as shown in FIG. 12 on the source side, and a LUT obtained by combining the LUT 132 and the conversion LUT 16 shown in FIG. 12 on the destination side (that is, in FIG. 13). Conversion is equivalent to LUT 21 or 26). The observation conditions at the time of LUT creation and the LUT based on the observation conditions are stored in the profile as private tags after being used for color matching or the like.
[0128]
According to each embodiment described above, the following effects can be obtained.
[0129]
(1) Different viewing conditions (such as the ambient light white point and illumination level) can be set on the source and destination sides of image data, for example, to simulate color reproduction in a remote environment connected to a network. can do.
[0130]
(2) Using the human color perception model, the XYZ values based on the source side ambient light are based on the source side observation conditions (such as the ambient light white point and illuminance level), and the JCH color space and QMH color space. In addition, the source side and destination side are converted back to XYZ values based on the destination side ambient light based on the destination side observation conditions (such as the ambient light white point and illuminance level). Color matching can be performed by independently setting the viewing conditions.
[0131]
(3) By performing color space compression on the QMH (or JCH) color space, which is the human color perception space, human color perception characteristics such as equi-hue lines can be reflected in the color space compression and the environment. Optimal color matching according to light can be performed.
[0132]
(4) The color reproduction area on the output side can be selected by selecting color matching in two modes: absolute color matching performed in the QMH color space and relative color matching performed in the JCH color space. Try to make the color matching as optimal as possible in the output side, or try the relative color matching that makes the best use of the dynamic range of the output side color reproduction area. It can be carried out.
[0133]
(5) Using the human color perception model, the color measurement values (XYZ or Lab values) of the color target and color patch are determined based on the color measurement conditions (white point or illuminance level of the color measurement light source, etc.) By converting back to XYZ values based on the colorimetric light source by converting back to XYZ (or Lab) values again based on the observation conditions (environmental light white point, illuminance level, etc.) It can be converted into XYZ values based on light.
[0134]
(6) The input target viewing condition is stored in the input profile as the relationship between the device-independent data of the color target measured under the standard light source and the data dependent on the device that input the color target data. Depending on the ambient light white point, illuminance level, etc., a conversion matrix or conversion LUT from device-dependent data to device-independent data is dynamically created, so that the color according to the ambient light on the input side Matching can be performed. In addition, a conversion matrix or conversion LUT for converting device-dependent data stored in the input profile into device-independent data (standard light source standard) can be used for input-side observation conditions (ambient light white point and illuminance level). Etc.), it is possible to perform color matching according to the ambient light on the input side.
[0135]
(7) A conversion matrix or conversion LUT for converting device-dependent data stored in the monitor profile into device-independent data (monitor white point reference or standard light source reference), and monitor observation conditions (ambient light) Color matching according to the ambient light of the monitor can be performed.
[0136]
(8) Store the relationship between the data depending on the device of the color patch and the data independent of the device that measured the print output under the standard light source when the color patch was output in the output profile, and observe the output side Depending on the conditions (white point of ambient light, illuminance level, etc.), a conversion LUT for dynamically converting device-independent data to device-dependent data can be created to match the output side ambient light. Color matching can be performed.
[0137]
[Sixth Embodiment]
In the sixth embodiment, an example of a graphical user interface (GUI) for manually setting the observation conditions (for example, Viewing Condition 1 and 2 in FIG. 2) in each of the above embodiments will be described.
[0138]
FIG. 25 shows a GUI 191 for setting observation condition parameters in the present embodiment.
[0139]
192 is a text box for inputting the luminance in the visual target on the input side, 193 is a drop-down combo box for selecting the type of white point in the visual target on the input side, and 194 is for selecting the ambient condition on the input side Drop-down combo box, 195 is a text box for inputting the degree of chromatic adaptation on the input side, 196 is a text box for inputting the luminance in the visual target on the output side, and 197 is a white point in the visual target on the output side. A drop-down combo box for selecting, 198 is a drop-down combo box for selecting ambient conditions on the output side, and 199 is a text box for inputting the degree of chromatic adaptation on the output side.
[0140]
Note that the luminance is related to LA in the CIE CAM97S shown in FIG. 19, the light source is related to XwYwZw, the ambient light is related to c, Nc, FLL and F, and the degree of adaptation is related to D. In CIE CAM97S shown in FIG. 19, D is obtained based on LA and F, but in this embodiment, D can be controlled manually.
[0141]
Normally, about 20% of the white point is input as the luminance of the visual target. The type of white point in the visual target originally requires the XYZ value of the white point in the visual target, but for the sake of simplification, it is assumed here that there is a white point with a reflectance of 100% in the media used. Use the white point of the light source. Furthermore, it is better to use the white point of the light source under actual observation conditions, but here, the type of the standard light source is selected. Standard light source types include A light source, C light source, D65 light source, D50 light source, D93 light source, F2 light source, F8 light source and F11 light source. Since the relative luminance of the background is the image, it is assumed that it is about 20%. The ambient condition is `` average brightness '' if the surrounding relative brightness is 20% or more assumed as the relative brightness of the background, `` dim '' if it is less, and if it is almost 0% “Dark”. Adjust the value so that the degree of chromatic adaptation is 1.0 for perfect adaptation and 0.0 for no adaptation.
[0142]
[Seventh embodiment]
The parameter setting of the viewing conditions in the sixth embodiment requires a direct input of values, and thus is very difficult to handle for general users who are not color experts. Therefore, in the seventh embodiment, the GUI 191 of the sixth embodiment is improved to improve usability.
[0143]
A characteristic configuration of the present embodiment is as follows.
(1) Switch the parameter setting display according to the user level.
(2) The user adjusts the degree of chromatic adaptation by specifying the distance between the source side target and the destination side target.
(3) The user adjusts the balance of the degree of chromatic adaptation in the source side view target and the destination side view target.
(4) The user adjusts the absolute degree of chromatic adaptation while maintaining the balance of the degree of chromatic adaptation in the source side view target and the destination side view target.
[0144]
FIG. 26 shows an example of the GUI 201 in which the user level can be set. In FIG. 26, “general user” is selected as the user level. In the GUI 201, it is not necessary for the user to directly input parameters, and all environmental conditions can be set by selection and a slide bar. Furthermore, each selection content is also expressed in an easy-to-understand manner for general users.
[0145]
In FIG. 26, 202 is a drop-down combo box for selecting a user level, 203 is a drop-down combo box for selecting a viewing object on the input side, and 204 is for selecting a luminance level in the viewing object on the input side. A drop-down combo box, 205 is a drop-down combo box for selecting the type of white point in the input-side object, 206 is a drop-down combo box for selecting the input-side ambient conditions, and 207 is an output-side view. A drop-down combo box for selecting an object, 208 is a drop-down combo box for selecting a luminance level in an output-side visual target, and 209 is a drop-down for selecting a type of white point in an output-side visual object. Combo box, 2010 is a drop-down combo box for selecting ambient conditions on the output side 2011 icon indicating the input-side visual object in the observation interval setting, and 2012 are icons indicating output side visual object in the observation interval setting.
[0146]
By specifying the drop-down combo box 202 for selecting the user level, the displayed user level is switched as shown in FIG. 27, for example. The item to be viewed can be selected from items such as “monitor”, “document”, and “print”, and the items in the selection menu and the actual values set in accordance with the selected items vary depending on the selected item. . The selection of the luminance level in the visual target is a sensual selection item such as “bright”, “slightly bright”, “average”, “slightly dark” for general users. The white point in the visual target can also be selected for general users without using expressions such as D93 and F2, "white-white", "white", "orange-white" for monitors, and "white fluorescent light" for documents and prints. It is expressed as “lunch white fluorescent light”, “incandescent light”, “outdoor clear sky”, “outdoor cloudy”.
[0147]
In the observation interval setting, for example, the interval of the visual object is adjusted with a slide bar, for example, when the monitor and the print are directly aligned and compared at a distant position, and is related to the determination of the chromatic adaptation degree value. The visual target is converted into an icon so that the user can easily perceive it, and the distance between the icons is adjusted with a slide bar.
[0148]
In CIE CAM97s, the degree of chromatic adaptation is defined by the following equation.
Full adaptation: D = 1.0
No adaptation: D = 0.0
Incomplete adaptation: D = F-F / {1 + 2 · La 1/4 + (La 2 ) / 300}
[0149]
Where D is the degree of chromatic adaptation. F is a constant that changes according to the ambient conditions, 1.0 for average brightness and 0.9 for dim or dark. La is the luminance in the visual target. The degree of chromatic adaptation D can be set independently on the input side and the output side.
[0150]
In the present embodiment, the degree of chromatic adaptation on the input side and the output side is defined so that the degree of chromatic adaptation changes depending on the interval (observation distance) between the input side viewing object and the output side viewing object. If it is assumed that when the observation distance is infinite, it becomes close to perfect adaptation, for example, it can be defined as follows.
Ds0 = Fs-Fs / {1 + 2 ・ Las 1/4 + (Las 2 ) / 300}
Dd0 = Fd-Fd / {1 + 2 ・ Lad 1/4 + (Lad 2 ) / 300}
Ds = Ds0 ・ VD + Ds0 ・ VD0 ・ (1.0-VD)
Dd = Dd0 ・ VD + Dd0 ・ VD0 ・ (1.0-VD)
[0151]
Here, Ds0 is the degree of chromatic adaptation on the input side determined by the luminance level and ambient conditions. Fs is a constant that varies depending on the ambient conditions on the input side. Las is the brightness of the visual target on the input side. Dd0 is the degree of chromatic adaptation on the output side determined by the brightness level and ambient conditions. Fd is a constant that varies depending on the ambient conditions on the output side. Lad is the luminance of the visual target on the output side. Ds is the degree of chromatic adaptation on the input side determined by the viewing distance, brightness level, and ambient conditions. Dd is the degree of chromatic adaptation on the output side determined by the viewing distance, luminance level, and ambient conditions. VD is the position of the slide bar that shows the observation distance. The minimum value is 0.0 when the observation distance is zero, and the maximum value is 1.0 when the observation distance is infinite. VD0 is a constant that determines the degree of chromatic adaptation when the observation distance is zero.
[0152]
FIG. 27 shows an example of the GUI 211 when the user level is designated as “professional”. Since the subject is an expert, the parameters can be directly input and the expression is also specialized.
[0153]
Here, 2111 is a static text for displaying the chromatic adaptation degree value of the input side viewing condition, 2112 is a static text for displaying the chromatic adaptation degree value of the output side viewing condition, and 2113 is the input side viewing target and the output side A slide bar 2114 for adjusting the balance of the chromatic adaptation level in the visual target, 2114 is a slide bar for adjusting the absolute chromatic adaptation level while maintaining the balance of the chromatic adaptation level in the input side visual target and the output side visual target It is.
[0154]
The degree of chromatic adaptation on the input side and the output side is defined as follows so that the degree of chromatic adaptation can be adjusted by balance and absolute intensity.
Ds0 = 1.0-BL
Dd0 = BL
Ds = Ds0 / MAX (Ds0, Dd0) × VL
Dd = Dd0 / MAX (Ds0, Dd0) × VL
[0155]
Here, Ds0 is the degree of chromatic adaptation on the input side determined by balance adjustment of the degree of chromatic adaptation. Dd0 is the degree of chromatic adaptation on the output side determined by adjusting the balance of the degree of chromatic adaptation. BL is the position of the slide bar indicating the balance. When the input side is 100%, the minimum value is 0.0, when the output side is 100%, the maximum value is 1.0, and the center is 0.5. Ds is the degree of chromatic adaptation on the input side determined by the balance of chromatic adaptation and the absolute intensity adjustment. Dd is the degree of color adaptation on the output side determined by the balance of the degree of color adaptation and the absolute intensity adjustment. VL is the position of the slide bar indicating the absolute intensity. The minimum value is 0.0 when the intensity is zero, and the maximum value is 1.0 when the intensity is maximum. The function MAX () is a function that takes the maximum value in ().
[0156]
The balance adjustment is adjusted so that the larger the balance strength is, the perfect adjustment is made, and the absolute strength is adjusted while keeping the balance. That is, if the balance is the center and the absolute intensity is maximum, the chromatic adaptation levels on the input side and the output side are both completely adapted.
[0157]
[Other Embodiments]
Note that the present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, and a printer), and a device (for example, a copying machine and a facsimile device) including a single device. You may apply to.
[0158]
Another object of the present invention is to supply a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and the computer (or CPU or CPU) of the system or apparatus. Needless to say, this can also be achieved by the MPU) reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
[0159]
Furthermore, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
[0160]
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.
[0161]
According to the embodiment described above, it is possible to perform color matching in which a hue is felt to be constant by human vision even under different observation conditions. Further, color matching corresponding to ambient light can be performed with high accuracy and at high speed without being limited to data in a color space that does not depend on a device based on a specific light source. In addition, by performing color space compression processing on a color space according to the purpose of color matching processing, a good color matching processing result can be obtained. In addition, by performing color space compression processing on a color space according to the purpose of color matching processing, a good color matching processing result can be obtained.
[0162]
【The invention's effect】
As described above, according to the present invention, good color matching can be performed regardless of viewing conditions.
[0163]
Further, it is possible to perform image processing taking into consideration that color reproduction characteristics differ depending on the type of color perception space in which color space compression processing is performed.
[0164]
Furthermore, a satisfactory color matching process result can be obtained by performing the color space compression process on the color space according to the purpose of the color matching process.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram of general color matching;
FIG. 2 is a diagram for explaining the concept of the present invention;
FIG. 3 is a block diagram showing a functional configuration example of the first embodiment.
FIG. 4 is a flowchart showing a processing example for reconstructing a conversion LUT corresponding to ambient light;
FIG. 5 is a flowchart showing an example of processing for updating to a conversion LUT corresponding to ambient light;
FIG. 6 is a flowchart showing a processing example for performing color space compression on a JCH or QMH color space;
FIG. 7 is a diagram showing a dodecahedron approximating a color reproduction area;
FIG. 8 is a diagram showing the concept of color space compression in the JCH color perception space;
FIG. 9 is a diagram showing the concept of color space compression in the QMH color perception space;
FIG. 10 is a diagram showing the concept of color space compression between different devices;
FIG. 11 is a flowchart showing a processing example for reconstructing a conversion LUT corresponding to ambient light;
FIG. 12 is a diagram showing the concept of color matching processing;
FIG. 13 is a diagram showing color matching in the second embodiment;
FIG. 14 is a flowchart showing an example of processing for performing color space compression on the JCH or QMH color space in the second embodiment;
FIG. 15 is a flowchart showing a processing example for reconstructing a conversion LUT corresponding to ambient light in the second embodiment;
FIG. 16 is a diagram showing color matching in the third embodiment;
FIG. 17 is a flowchart showing an example of processing for updating a conversion LUT to correspond to ambient light in the second embodiment;
18 is a block diagram showing a configuration example of an apparatus that implements the functional configuration shown in FIG.
FIG. 19 is a diagram for explaining a color perception model used in the embodiment according to the invention;
FIG. 20 is a conceptual diagram when the XYZ values of the white point of different light sources, the RGB values depending on the device of the color chart, and the XYZ values for the color chart under each light source are stored in the profile;
FIG. 21 is a diagram showing a spectral distribution of a standard light source;
FIG. 22 is a flowchart showing processing when estimating colorimetric values from colorimetric data under a plurality of light sources;
FIG. 23 is a diagram showing an example of a case where an LUT that mutually converts a device-independent color space based on an observation condition and a device-dependent color space is stored in an ICC profile;
FIG. 24 is a diagram showing an example of a processing flow of caching;
FIG. 25 is a diagram showing a GUI for setting the observation condition parameters in the sixth embodiment;
FIG. 26 is a diagram showing an example of a GUI in which the user level can be set;
FIG. 27 is a diagram showing an example when the user level is designated as “professional” in the GUI shown in FIG. 26;

Claims (6)

カラーマッチング処理を行う画像処理方法であって、
色空間圧縮モードを設定し、
入力デバイスに依存する色空間で示される入力データを、入力側の観察条件に基づくデバイスに依存しない色空間で示される第一のデータへ変換し、
前記第一のデータに、前記入力側の観察条件に応じた色知覚モデルの順変換を施して、設定された色空間圧縮モードに応じた色知覚空間で示される第二のデータへ変換し、
前記第二のデータに、出力デバイスの色再現領域に応じた色空間圧縮処理を施して第三のデータを求め、
前記第三のデータに、出力側の観察条件に応じた色知覚モデルの逆変換を施して、前記出力側の観察条件に基づくデバイスに依存しない色空間で示される第四のデータを求め、
前記第四のデータを、前記出力デバイスに依存する色空間で示される出力データへ変換する各ステップを有し、
前記色空間圧縮モードには、相対的なカラーマッチングを行うモード、および、絶対的なカラーマッチングを行うモードが含まれることを特徴とする画像処理方法。
An image processing method for performing color matching processing,
Set the color space compression mode,
Converting input data represented in a color space depending on an input device into first data represented in a device-independent color space based on an observation condition on the input side;
The first data is subjected to forward conversion of a color perception model according to the observation condition on the input side, and converted to second data shown in a color perception space according to a set color space compression mode,
The second data is subjected to color space compression processing according to the color reproduction area of the output device to obtain third data,
The third data is subjected to inverse transformation of the color perception model according to the output-side observation conditions to obtain fourth data shown in a device-independent color space based on the output-side observation conditions,
Each step of converting the fourth data into output data represented in a color space depending on the output device;
The image processing method, wherein the color space compression mode includes a mode for performing relative color matching and a mode for performing absolute color matching.
前記色知覚空間には、環境光の基準白色に相対的な色知覚空間および照度レベルによって大きさが変化する絶対的な色知覚空間が含まれ、
前記相対的なカラーマッチングを行うモードが設定された場合、前記第二のデータは前記環境光の基準白色に相対的な色知覚空間で示され、
前記絶対的なカラーマッチングを行うモードが設定された場合、前記第二のデータは前記照度レベルによって大きさが変化する絶対的な色知覚空間で示されることを特徴とする請求項1に記載された画像処理方法。
The color perception space includes a color perception space relative to the reference white color of ambient light and an absolute color perception space whose size changes depending on the illumination level.
When the mode for performing the relative color matching is set, the second data is represented in a color perception space relative to the reference white color of the ambient light,
2. The method according to claim 1, wherein when the mode for performing the absolute color matching is set, the second data is represented in an absolute color perception space whose size changes according to the illuminance level. Image processing method.
前記第二のデータに前記色空間圧縮処理を施す際に用いる色空間圧縮データ、および、前記第四のデータを前記出力データへ変換する際に用いる変換データは、前記出力デバイスのプロファイルから求められることを特徴とする請求項1に記載された画像処理方法。  The color space compressed data used when the second data is subjected to the color space compression process and the conversion data used when converting the fourth data into the output data are obtained from the profile of the output device. 2. The image processing method according to claim 1, wherein: 前記色空間圧縮モードは、前記入力デバイスのプロファイルの情報に基づき自動的に選択されることを特徴とする請求項1に記載された画像処理方法。  2. The image processing method according to claim 1, wherein the color space compression mode is automatically selected based on profile information of the input device. 画像処理装置を制御して、請求項 1 から請求項 4 の何れかに記載された画像処理を実行するプログラムが記録されたことを特徴とするコンピュータが読み取り可能な記憶媒体。 5. A computer-readable storage medium having recorded thereon a program for controlling the image processing apparatus and executing the image processing according to any one of claims 1 to 4 . カラーマッチング処理を行う画像処理装置であって、
色空間圧縮モードを設定する設定手段と、
入力デバイスに依存する色空間で示される入力データを、入力側の観察条件に基づくデバイスに依存しない色空間で示される第一のデータへ変換する入力変換手段と、
前記第一のデータに、前記入力側の観察条件に応じた色知覚モデルの順変換を施して、設定された色空間圧縮モードに応じた色知覚空間で示される第二のデータへ変換する順変換手段と、
前記第二のデータに、出力デバイスの色再現領域に応じた色空間圧縮処理を施して第三のデータを求める色空間圧縮手段と、
前記第三のデータに、出力側の観察条件に応じた色知覚モデルの逆変換を施して、前記出力側の観察条件に基づくデバイスに依存しない色空間で示される第四のデータを求める逆変換手段と、
前記第四のデータを、前記出力デバイスに依存する色空間で示される出力データへ変換する出力変換手段とを有し、
前記色空間圧縮モードには、相対的なカラーマッチングを行うモード、および、絶対的なカラーマッチングを行うモードが含まれることを特徴とする画像処理装置。
An image processing apparatus that performs color matching processing,
Setting means for setting the color space compression mode;
Input conversion means for converting input data shown in a color space depending on the input device into first data shown in a device-independent color space based on the observation condition on the input side;
An order in which the first data is subjected to a forward conversion of a color perception model according to the observation condition on the input side, and converted to second data indicated by a color perception space according to a set color space compression mode. Conversion means;
Color space compression means for obtaining third data by performing color space compression processing according to the color reproduction area of the output device on the second data;
Inverse transformation for obtaining fourth data represented in a device-independent color space based on the output-side viewing condition by performing inverse transformation of the color perception model according to the output-side viewing condition on the third data Means,
Output conversion means for converting the fourth data into output data represented by a color space depending on the output device;
The image processing apparatus characterized in that the color space compression mode includes a mode for performing relative color matching and a mode for performing absolute color matching.
JP2001395327A 2001-12-26 2001-12-26 Image processing apparatus and method Expired - Fee Related JP3805247B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001395327A JP3805247B2 (en) 2001-12-26 2001-12-26 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001395327A JP3805247B2 (en) 2001-12-26 2001-12-26 Image processing apparatus and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP20994598A Division JP3305265B2 (en) 1998-07-24 1998-07-24 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2002281338A JP2002281338A (en) 2002-09-27
JP3805247B2 true JP3805247B2 (en) 2006-08-02

Family

ID=19188961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001395327A Expired - Fee Related JP3805247B2 (en) 2001-12-26 2001-12-26 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP3805247B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4968882B2 (en) * 2005-06-03 2012-07-04 キヤノン株式会社 Image search apparatus, image search method, and program
JP4684030B2 (en) * 2005-07-06 2011-05-18 株式会社リコー Image processing apparatus and image processing method
JP4944413B2 (en) * 2005-09-12 2012-05-30 キヤノン株式会社 Information processing method, computer program, computer-readable storage medium, and information processing apparatus
US8111430B2 (en) 2005-09-13 2012-02-07 Canon Kabushiki Kaisha Color conversion apparatus and method
JP4652937B2 (en) * 2005-09-13 2011-03-16 キヤノン株式会社 Image processing apparatus and method
JP2008048314A (en) 2006-08-21 2008-02-28 Fuji Xerox Co Ltd Image processor, image processing program and image processing method
US8068255B2 (en) 2006-11-17 2011-11-29 Microsoft Corporation Gamut mapping spectral content to reduce perceptible differences in color appearance
JP4910860B2 (en) 2007-04-20 2012-04-04 富士ゼロックス株式会社 Image file creation device, image processing device, image processing system, and program
JP4863498B2 (en) * 2007-04-27 2012-01-25 キヤノン株式会社 Color processing apparatus and method
JP5012336B2 (en) * 2007-09-03 2012-08-29 コニカミノルタビジネステクノロジーズ株式会社 Device link profile creation apparatus, method and program thereof, and color conversion processing apparatus
JP5153566B2 (en) * 2008-10-24 2013-02-27 キヤノン株式会社 Image processing system, image processing apparatus, and image processing method
JP5598045B2 (en) * 2010-03-25 2014-10-01 株式会社ニコン Image processing apparatus, image processing program, imaging apparatus, and image display apparatus

Also Published As

Publication number Publication date
JP2002281338A (en) 2002-09-27

Similar Documents

Publication Publication Date Title
JP3634633B2 (en) Image processing apparatus and method
JP3305265B2 (en) Image processing apparatus and method
JP3291259B2 (en) Image processing method and recording medium
JP4592090B2 (en) Color processing method and apparatus
EP0974934B1 (en) Image processing apparatus and method
JP4522346B2 (en) Color processing method and apparatus
JP2007081586A (en) Image processing unit and image processing method, program thereof, and recording medium
EP1085749B1 (en) Image processing method and apparatus
JP3805247B2 (en) Image processing apparatus and method
US8115978B2 (en) Information processing method and information processing apparatus for simulating a result output from a first output device based on input data represented in a color space that is dependent on the input device by a second output device
JP3305266B2 (en) Image processing method
JP2007174126A (en) Image processing apparatus and method
JP2001309198A (en) Image processing method
JP2009071618A (en) Image processor, image processing method and program, and recording medium
JP3311295B2 (en) Image processing apparatus and method
JP4533291B2 (en) Color processing method and apparatus
JP2006238335A (en) Information processing method
JP3667171B2 (en) Image processing method, apparatus, and recording medium
JP3535778B2 (en) Image processing method, apparatus and recording medium
JP2002077652A (en) Image processing method and recording medium
JP2008177782A (en) Color conversion device and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050916

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060509

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100519

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100519

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110519

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120519

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120519

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130519

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140519

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees