JP5361283B2 - 色処理装置およびその方法 - Google Patents

色処理装置およびその方法 Download PDF

Info

Publication number
JP5361283B2
JP5361283B2 JP2008213224A JP2008213224A JP5361283B2 JP 5361283 B2 JP5361283 B2 JP 5361283B2 JP 2008213224 A JP2008213224 A JP 2008213224A JP 2008213224 A JP2008213224 A JP 2008213224A JP 5361283 B2 JP5361283 B2 JP 5361283B2
Authority
JP
Japan
Prior art keywords
image
color
input
output
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008213224A
Other languages
English (en)
Other versions
JP2010050744A (ja
Inventor
学 大賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008213224A priority Critical patent/JP5361283B2/ja
Priority to US12/534,508 priority patent/US8411944B2/en
Publication of JP2010050744A publication Critical patent/JP2010050744A/ja
Application granted granted Critical
Publication of JP5361283B2 publication Critical patent/JP5361283B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6083Colour correction or control controlled by factors external to the apparatus
    • H04N1/6088Colour correction or control controlled by factors external to the apparatus by viewing conditions, i.e. conditions at picture output

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は、異なる観察条件の間の空間的カラーマッチングを行う色処理に関する。
図1は色知覚モデルにおける人間の視野の定義を示す図である。
色知覚モデルは、視野角二度の色票が与えられた場合に、人間の色の見えを正しく予測するように設計されている。一般に、CIE1931測色標準観察者は、一度から四度の視野角の範囲で適用可能であり、この視野角領域を二度以内の刺激領域61、四度以内の隣接領域62に区別する。そして、隣接領域62の外側の視野角四度から10度までの領域を背景領域63と呼び、背景領域63の周囲の領域を周囲領域64と呼ぶ。さらに、刺激領域61、隣接領域62、背景領域63および周囲領域64をすべて含む視領域を順応領域と呼ぶ。
代表的な色知覚モデルにCIECAM02があり、このモデルは、以下の観察条件パラメータを設定することができる。
La:順応領域の絶対輝度[cd/m2]
(通常、順応領域における白色点の絶対輝度Lwの20%)、
XYZ:色票の相対XYZ値、
XwYwZw:白色点の相対XYZ値、
Yb:背景領域の相対輝度、
周囲条件:平均的(Average Surround)、ほの暗い(Dim Surround)、暗い(Dark Surround)
なお、周囲条件は、周囲領域における相対輝度が、順応領域における白色点の20%以上ならばAverage、20%未満ならばDim、殆ど0%ならばDarkになる。
色知覚モデルが単色の色票を利用した実験結果から導出されたことから、複数の色が混在する画像に対して、どのような観察条件パラメータを適用すればよいかは確立されていない。ニュートラルなグレーが白色点の輝度の20%であることから、順応領域における白色点の絶対輝度Lwの20%を背景領域の相対輝度Ybとして設定するのが一般的である。
また、画像に色知覚モデルを適用する場合、全画素に一つの観察条件パラメータを適用するのが一般的である。しかし、全画素に一つの観察条件パラメータを適用すれば、ラスタライズ後の画像上で表現される単色と背景の視覚効果をカラーマッチング結果に反映させることができないという課題も残されている。
言い換えれば、従来は、入力側の画像解像度および観察距離と、出力側の画像解像度および観察距離を考慮した空間的カラーマッチングを行っていたとは言えない。このような課題に対して、Fairchildが提案するiCAM、特許文献1、2において、周囲画素の影響を考慮した空間的カラーマッチングが提案されている。
iCAMは、実験的に入力画像サイズの1/4程度をローパスフィルタとして定義するだけで、入力側と出力側の観察距離を考慮せず、出力側の画像解像度も考慮しない。特許文献1の技術は、入力画像に対して出力側の10度視野に相当する領域を定義して出力側の画像解像度および観察距離は考慮するが、入力側の画像解像度および観察距離を出力側と同じ値に設定する。また、特許文献2の技術は、入力画像に対して入力側の10度視野に相当する領域を定義して入力側の画像解像度および観察距離を考慮するが、出力側の画像解像度および観察距離は考慮しない。また、iCAM、特許文献1、2の技術の何れも出力側デバイスの色再現範囲を考慮した空間的カラーマッチングではない。
特開2002-042132公報 特開2006-215756公報
本発明は、入力画像の解像度と出力画像の解像度を考慮した空間的カラーマッチングを行うことを目的とする。
また、出力デバイスの色再現範囲を考慮した色域マッピングを含む空間的カラーマッチングを行うことを他の目的とする。
本発明は、前記の目的を達成する一手段として、以下の構成を備える。
本発明にかかる色処理は、入力側観察条件の下の入力側の画像を出力側観察条件の下の出力側の画像に変換する空間的カラーマッチングを行う色処理方法であって、視野角に基づき入力画像上の領域サイズを決定するパラメータである前記入力画像の解像度を含む前記入力側観察条件に基づいて、前記入力側の画像を人間の色知覚空間の画像に順変換し、出力デバイスの色再現範囲に応じた色域マッピングにより、前記色知覚空間の画像を前記出力デバイスの色再現範囲内の色知覚空間の画像に変換し、視野角に基づき出力画像上の領域サイズを決定するパラメータである前記出力画像の、前記入力画像の解像度と異なる解像度を含む前記出力側観察条件に基づいて、前記出力デバイスの色再現範囲内の色知覚空間の画像を前記出力側の画像に逆変換することを特徴とする。
本発明によれば、入力画像の解像度と出力画像の解像度を考慮した空間的カラーマッチングを行うことができる。
また、出力デバイスの色再現範囲を考慮した色域マッピングを含む空間的カラーマッチングを行うことができる。
以下、本発明にかかる実施例の色処理を図面を参照して詳細に説明する。
一般に、観察条件における環境光の白色点は、カラーターゲットやカラーパッチ測色時の標準光源の白色点とは異なる。例えば、測色の際に使用される標準光源はD50やD65であるが、実際に画像を観察する際の環境光は、ライトブースのD50やD65とは限らず、白熱電球であったり、蛍光灯であったり、それらの光が太陽光と混合した光である場合が多い。以下では、簡単化のために、観察条件における環境光の光源をD50、D65として説明するが、実用上は環境光の白色点および環境光下のXYZ値を使用する。
[装置の構成]
図2は実施例の色処理装置の構成例を示すブロック図である。
CPU101は、メインメモリ102のRAMをワークメモリとして、メインメモリ102のROMおよびハードディスクドライブ(HDD)105に格納されたオペレーティングシステム(OS)や各種プログラムを実行する。そして、PCI (peripheral component interconnect)バスなどのシステムバス114を介して各構成を制御する。さらに、後述するカラーマッチング処理を含む各種プログラムを実行する。
CPU101は、システムバス114およびシリアルATAインタフェイス(SATA I/F)103を介してHDD105にアクセスする。また、ネットワークI/F104を介してローカルエリアネットワーク(LAN)などのネットワーク115にアクセスする。
また、CPU101は、シリアルバスインタフェイス(I/F)108とUSBやIEEE1394などのシリアルバス110に接続されたデバイスと通信を行う。そして、カラーマッチング処理対象の画像データをカードリーダを含む画像入力デバイス113から取得したり、画像データをプリンタ109に出力して、例えばユーザが指示する画像を印刷する。なお、カラーマッチング処理対象の画像データは、HDD105やネットワーク115上のサーバから読み出してもよい。
また、CPU101は、後述する処理のユーザインタフェイスや処理結果をグラフィックアクセラレータ106を介してモニタ107に表示し、ユーザ指示をシリアルバス110に接続されたキーボード111、マウス112を介して入力する。
[カラーマッチング処理の構成]
図3は実施例1のカラーマッチング処理を説明するブロック図である。実施例1のカラーマッチング処理は、入力側の画像解像度および観察距離と、出力側の画像解像度および観察距離を考慮した空間的カラーマッチングの一例である。
XYZデータ11は、入力側の環境光の白色点基準のデバイス非依存データである。XYZデータ11は、入力デバイス10に依存したデータに、例えば、入力デバイス10のICCプロファイルやWCS(Windows(登録商標)Color System)プロファイルから作成したデバイスモデルの順変換を施したデータである。
一方、XYZデータ24は、出力側の環境光の白色点基準のデバイス非依存データである。XYZデータ24は、例えば、出力デバイス30のICCプロファイルやWCSプロファイルから作成したデバイスモデルの逆変換を施すことにより、出力デバイス30に依存したデータへ変換することができる。
なお、入力デバイス10と出力デバイス30は、RGBやCMY(K)といったデバイス色空間には限定されず、ディジタルカメラ、ディジタルビデオ、スキャナ、モニタ、プロジェクタ、プリンタといった任意の入出力デバイスである。
入力側観察条件パラメータ14は、XYZデータ11に、空間的色知覚モデルの順変換(空間的CAM)15を適用するために必要なパラメータである。また、出力側観察条件パラメータ21は、人間の色知覚空間上の出力側の画像データ(JChデータ)20に、空間的色知覚モデルの逆変換(空間的CAM-1)23を適用するために必要なパラメータである。色知覚モデルとして、例えばCIECAM02を適用する場合、入力側観察条件パラメータ14と出力側観察条件パラメータ21は次のようになる。
La:順応領域の絶対輝度[cd/m2]
(順応領域におけるLwをYbで割った値)、
XYZ:色票の相対XYZ値、
XwYwZw:白色点の相対XYZ値、
Yb:背景領域の相対輝度、
周囲条件:Average Surround、Dim Surround、Dark Surround.
なお、色知覚モデルは、CIECAM02に限定されず、CIECAM97s、納谷モデル、Huntモデル、RLABモデルなどの他の色知覚モデルであっても構わない。
人間の色知覚空間として、入力側の環境光の基準白色に相対的な色知覚空間であるJCh(またはJCH)空間、または、照度レベルによって大きさが変化する絶対的な色知覚空間であるQMh(またはQMH)空間を適用することができる。何れの色空間を適用するかの選択は、カラーマッチングの用途が相対的なカラーマッチングか、絶対的なカラーマッチングかに応じて切り替える。ここでは、一例としてJCh空間を適用した例を説明する。
図3において、入力側観察条件パラメータ12は、視野角に基づいて入力画像上の領域サイズを決定するためのパラメータである。出力側観察条件パラメータ17は、視野角に基づいて出力画像上の領域サイズを決定するためのパラメータである。
ローパスフィルタ(Y LOW-PASS)13は、入力側観察条件パラメータ12から決定されるローパスフィルタであり、XYZデータ11の輝度画像データをローパスフィルタ処理する。
解像度変換部18は、入力側観察条件パラメータ12と出力側観察条件パラメータ17が示す解像度に基づき、XYZデータ11の輝度画像データを、XYZデータ24の解像度(出力側解像度)の輝度画像データに変換する。
ローパスフィルタ(Y LOW-PASS)22は、出力側観察条件パラメータ17から決定されるローパスフィルタであり、解像度変換部18によって出力側解像度に変換された輝度画像データをローパスフィルタ処理する。
空間的CAM15は、XYZデータ11にY LOW-PASS13が出力する輝度画像データと入力側観察条件パラメータ14を適用して、XYZデータ11をJCh空間の画像データ(JChデータ)16に変換する。解像度変換部19は、解像度変換部18と同等の解像度変換によって、JChデータ16を拡大または縮小処理して出力側解像度に合わせたJChデータ20を生成する。空間的CAM-123は、JChデータ20にLOW-PASS22が出力する輝度画像データと出力側観察条件パラメータ21を適用して、JChデータ20をXYZデータ24に変換する。
●空間的CAMの順変換部
図4は空間的CAM15の詳細な構成例を示すブロック図である。
算出部207は、XYZデータ11の注目画素と同位置の、Y LOW-PASS13が出力する輝度画像データ(入力側ローパス画像)の画素値Yから、入力側背景領域の相対輝度Ybを算出する。算出部208は、入力側観察条件パラメータ14の白色点の輝度Lwと、入力側背景領域の相対輝度Ybから、下式により入力側順応領域の絶対輝度Laを算出する。
Yb = Y
La = Lw/Yb …(1)
算出部204は、下表に示す入力側観察条件パラメータ14の周囲条件に対応する順応度合のファクタFを用いて、下式により色順応度合ファクタDを算出する。
表1
────┬────
Surround│ F
────┼────
Avarage │ 1.0
Dim │ 0.9
Dark │ 0.8
────┴────
D = f1(La, Surround) = F[1 - (1/3.6)exp{(-La-42)/92}] …(2)
算出部205は、入力側順応領域の絶対輝度Laから、下式により輝度レベル順応ファクタFLを算出する。
FL = f2(La) = 0.2k4(5La) + 0.1(1 - k4)2(5La)1/3 …(3)
ここで、k = 1/(5La + 1).
算出部206は、入力側背景領域の相対輝度Ybから、下式により背景誘導ファクタn、誘導ファクタNbbとNcb、基本指数非線形性zを算出する。
n = f7(Yb) = Yb/Yw
Nbb = Ncb = f3(Yb) = 0.725(1/n)0.2 …(4)
z = f5(Yb) = 1.48 + √n
また、算出部206は、入力側観察条件パラメータ14の周囲条件から、下表に示すように周囲効果c、色誘導Ncを決定する。
表2
────┬───┬───
Surround│ c │ Nc
────┼───┼───
Avarage │ 0.69 │ 1.0
Dim │ 0.59 │ 0.9
Dark │ 0.52 │ 0.8
────┴───┴───
色順応変換部201は、色順応度合ファクタDを使用して、視覚ホワイトバランスに相当するCIECAM02色順応変換の順変換を行う。
錐体応答変換部202は、輝度レベル順応ファクタFLを使用して、視覚受容体に相当するCIECAM02錐体応答変換の順変換を行う。
知覚属性変換部203は、背景誘導ファクタn、誘導ファクタNbbとNcb、基本指数非線形性z、周囲効果c、色誘導Ncを使用して、視覚神経に相当するCIECAM02知覚属性変換の順変換を行う。
知覚属性変換部203は、色順応変換部201と錐体応答変換部202の順変換により、XYZデータ11の注目画素(X, Y, Z)から得られる錐体応答(Ra', Ga', Ba')と、入力側観察条件パラメータ14の白色点(Xw, Yw, Zw)から得られる錐体応答(Rw', Gw', Bw')を入力する。そして、順変換結果として注目画素に対するJChデータを出力する。
ここで、色順応変換部201においても、入力側観察条件パラメータ14の白色点(Xw, Yw, Zw)から算出された錐体応答(Rw', Gw', Bw')を用いる。また、中間の観察条件パラメータとして利用される入力側背景領域の相対輝度Ybと、入力側順応領域の絶対輝度Laは、XYZデータ11の全画素に対して固定ではなく、周辺画素の値に応じて変化する。
●空間的CAMの逆変換部
図5は空間的CAM-123の詳細な構成例を示すブロック図である。
算出部307は、解像度変換部19が出力するJChデータ20の注目画素と同位置の、LOW-PASS22が出力する出力側解像度の輝度画像データ(出力側ローパス画像)の画素値から、出力側背景領域の相対輝度Ybを算出する。算出部308は、出力側観察条件パラメータ21の白色点の輝度Lwと、出力側背景領域の相対輝度Ybから、式(1)により出力側順応領域の絶対輝度Laを算出する。
算出部304は、出力側背景領域の相対輝度Ybから、式(4)により背景誘導ファクタn、誘導ファクタNbbとNcb、基本指数非線形性zを算出する。さらに、表2を用いて、入力側観察条件パラメータ21の周囲条件から周囲効果c、色誘導Ncを決定する。
算出部305は、出力側順応領域の絶対輝度Laから、式(3)により輝度レベル順応ファクタFLを算出する。
算出部306は、表1に示す出力側観察条件パラメータ21の周囲条件に対応する順応度合のファクタFを用いて、式(2)により色順応度合ファクタDを算出する。
知覚属性変換部301は、背景誘導ファクタn、誘導ファクタNbbとNcb、基本指数非線形性z、周囲効果c、色誘導Ncを使用して、視覚神経に相当するCIECAM02知覚属性変換の逆変換を行う。
錐体応答変換部302は、輝度レベル順応ファクタFLを使用して、視覚受容体に相当するCIECAM02錐体応答変換の逆変換を行う。
色順応変換部303は、色順応度合ファクタDを使用して、視覚ホワイトバランスに相当するCIECAM02色順応変換の逆変換を行う。
つまり、解像度変換部19は、空間的CAM15の順変換によって得られた入力側のJChデータ16を出力側のJChデータ20に変換する。そして、色順応変換部303は、知覚属性変換部301と錐体応答変換部302の逆変換により、JChデータ20の注目画素(J, c, h)から得られる錐体逆応答(X', Y', Z')と、出力側観察条件パラメータ21の白色点(Xw, Yw, Zw)から得られる錐体逆応答(Xw', Yw', Zw')を入力する。そして、逆変換結果として注目画素に対する出力側デバイス非依存データであるXYZデータ24を出力する。
ここで、色順応変換部303においても、出力側観察条件パラメータ21の白色点(Xw, Yw, Zw)から算出された錐体逆応答(Xw', Yw', Zw')を用いる。また、中間の観察条件パラメータとして利用される出力側背景領域の相対輝度Ybと、出力側順応領域の絶対輝度Laは、出力側のJChデータ20の全画素に対して固定ではなく、周辺画素の値に応じて変化する。
[処理の流れ]
●順変換
図6は本実施例のカラーマッチング処理を説明するフローチャートであり、CPU101が実行する処理である。なお、図6は入力画像データを、同じ解像度のJChデータへ変換する処理を示している。
まず、CPU101は、入力画像と観察者の距離Dを入力する(S101)。例えば、図8に示すように、モニタ画面や、印刷物と観察者の距離は0.4から0.7mであるが、ユーザは、任意の距離Dを入力することができる。ここでは、D=0.5mを用いる。また、後述するように、画像と観察者の距離は、入力側と出力側で異なる値を設定することができる。
次に、CPU101は、視野角に基づき入力側領域を算出する(S102)。つまり、入力画像と観察者の距離Dから刺激領域61、隣接領域62、背景領域63の直径を計算する。図9に示すように、視線は画像の表面にほぼ垂直に交わると考えることができる。従って、刺激領域61、隣接領域62、背景領域63の直径を下式によって計算する。なお、D=0.5[m]の場合、Da=17[mm]、Dp=35[mm]、Db=87[mm]である。
Da = 2×D×tan(1°) [m]
Dp = 2×D×tan(2°) [m] …(5)
Db = 2×D×tan(5°) [m]
ここで、Daは視野角二度以内の刺激領域61の直径、
Dpは視野角四度以内の隣接領域62の直径、
Dbは視野角10度以内の背景領域63の直径。
次に、CPU101は、入力画像の解像度R[ppi]を入力する(S103)。入力画像が、例えば、モニタに表示された画像(以下、モニタ画像)であればR=72ppi、印刷画像であればプリンタの解像度R=400ppiなどである。実際には、アプリケーションやデバイスドライバが指定する解像度、または、ズーム比率に依存する。
次に、CPU101は、下式により、刺激領域61、隣接領域62、背景領域63の直径に相当する画像上の画素数を算出して、入力側のローパスフィルタ(Y LOW-PASS)13を設定する(S104)。つまり、入力側のY LOW-PASS13の通過範囲に関する画素数を計算する。
Dap = Da×R/0.0254 [pixels]
Dpp = Dp×R/0.0254 [pixels] …(6)
Dbp = Db×R/0.0254 [pixels]
ここで、Dapは刺激領域61の直径画素数、
Dppは隣接領域62の直径画素数、
Dbpは背景領域63の直径画素数。
D=0.5m、R=72ppiの場合、Dap=48.2 pixels、Dpp=99.0 pixels、Dbp=246.6 pixelsになるが、ここでは、簡略化のため、背景領域63の直径画素数Dbpが下式の2σに等しくなるように入力側のY LOW-PASS13の関数f(x, y)を動的に決定する。なお、2σ=Dbpにするが、σは距離Dと解像度Rによって変化し、入力側と出力側で異なる値を設定することができる。
f(x, y) = 1/(2πσ2)・exp[-{(x-μ)2+(y-μ)2}/2σ2] …(7)
ここで、μはフィルタの中心値に相当しμ=0とする。
次に、CPU101は、入力側観察条件を入力する(S105)。入力側観察条件は、シリアルバス110に接続された計測器(不図示)の指示値を入力してもよいし、ユーザがマニュアル入力してもよい。
入力する入力側観察条件は、順応領域の白色点のXYZ値(Xw, Yw, Zw)、順応領域の白色点の絶対輝度Lw[cd/m2]、周囲領域64の絶対輝度Ls[cd/m2]である。順応領域の白色点は、モニタ画像の場合はモニタ白色点であり、印刷物の場合は印刷物の下地の白色のXYZ値と、(印刷物上の照度[lux]/π)によって計算する。
一方、周囲領域64の絶対輝度Lsは、厳密に言えば、注目画素に対して視野角10度の外側の領域の絶対輝度であるが、簡単化のため、モニタ画像の場合はモニタ周囲の絶対輝度、印刷物の場合は印刷物周囲の絶対輝度にする。なお、絶対輝度は、入力側と出力側の観察条件に応じて異なる値を設定することができる。
次に、CPU101は、入力側の周囲条件を決定する(S106)。周囲条件の決定は、例えば、以下に従う。
if (0.2 ≦ Ls/Lw) Average Surround;
if (0.06 < Ls/Lw < 0.2) Dim Surround;
if (Ls/Lw ≦ 0.06) Dark Surround;
なお、LsとLwが入力側と出力側で異なる場合は、周囲条件を入力側と出力側で独立に決定する。また、周囲条件が既知の場合、ユーザのマニュアル入力によって、直接、周囲条件を指定することができる。
次に、CPU101は、入力画像を入力して、入力デバイス10のICCプロファイルやWCSプロファイルから作成したデバイスモデルの順変換により入力側のXYZデータ11を生成する(S107)。そして、XYZデータ11のY成分(輝度成分)に、Y LOW-PASS13によるフィルタ処理を施して、入力側ローパス画像を生成する(S108)。
次に、CPU101は、XYZデータ11の注目画素を設定し(S109)、例えばラスタスキャン順に、画素に以下の処理を施す。
まず、算出部207、208により、入力側ローパス画像における注目画素の輝度値Yを取得して、式(1)により、注目画素に対する背景領域63の相対輝度Ybと、順応領域の絶対輝度Laを算出する(S110)。次に、算出部204、205、206により、順変換に用いるパラメータを算出し(S111)、空間的CAM15により、XYZデータ11の注目画素のXYZ値をJCh値に順変換する(S112)。
そして、CPU101は、XYZデータ11の全画素にステップS110からS112の処理を施したか否かを判定し(S113)、未了の場合は処理をステップS109に戻す。また、終了の場合は、図6に示す処理を終了する。なお、処理が終了した時点でJChデータ16が完成する。
なお、入力側観察距離、入力側解像度、入力側観察条件は、入力側プロファイルから取得してもよい。
●逆変換
図7は本実施例のカラーマッチング処理の逆変換を説明するフローチャートであり、CPU101が実行する処理である。なお、図7は入力側デバイスと同じ解像度のJChデータを、解像度が異なる出力画像データに変換する処理を示している。
まず、CPU101は、ステップS101からS106の処理と同様に、出力画像と観察者の距離Dを入力し(S114)、視野角に基づき出力側領域を算出し(S115)、出力画像の解像度R[ppi]を入力する(S116)。そして、出力側のローパスフィルタ(Y LOW-PASS)22を設定し(S117)、出力側観察条件を入力し(S118)、出力側の周囲条件を決定する(S118)。なお、距離D、解像度R、出力側順応領域の各パラメータは、入力側と出力側で異なる値を設定することができる。
次に、CPU101は、解像度変換部18により、XYZデータ11の解像度を出力側解像度に変換する(S120)。解像度変換部18は、XYZデータ11の注目画素のY値と、入力側ローパス画像の注目画素のY値を比較して解像度の変換方法を変更する。例えば、XYZデータ11のY値と入力側ローパス画像のY値が等しい場合はニアレストネイバ法を用い、それらY値が異なる場合はバイキュービック法を用いて、処理の高速化と、解像度変換後の画像の画質向上を図る。解像度変換方法の組み合わせは、ニアレストネイバ法とバイキュービック法に限らず、バイリニア法などの他の解像度変換方法を組み合わせても構わないし、上記のY値の比較を行わず、単一の解像度変換方法を用いても構わない。
次に、CPU101は、解像度変換部18が出力する画像のY成分(輝度成分)に、Y LOW-PASS22によるフィルタ処理を施して、出力側ローパス画像を生成する(S121)。そして、解像度変換部19により、解像度変換部19が使用した解像度変換方法と同じ解像度変換方法を用いて、JChデータ16の解像度を出力側解像度に変換したJChデータ20を生成する(S122)。
次に、CPU101は、JChデータ20の注目画素を設定し(S123)、例えばラスタスキャン順に、画素に以下の処理を施す。
まず、算出部307、308により、出力側ローパス画像における注目画素の輝度値Yを取得して、式(1)により、注目画素に対する背景領域63の相対輝度Ybと、順応領域の絶対輝度Laを算出する(S124)。次に、算出部304、305、306により、逆変換に用いるパラメータを算出する(S125)。そして、空間的CAM-123により、JChデータ20の注目画素のJCh値をXYZ値に逆変換する(S126)。
そして、CPU101は、JChデータ20の全画素にステップS124からS126の処理を施したか否かを判定し(S127)、未了の場合は処理をステップS123に戻す。また、終了の場合は、図7に示す処理を終了する。なお、処理が終了した時点でXYZデータ24が完成する。
このように、入力側の画像解像度および観察距離と、出力側の画像解像度および観察距離を考慮した空間的カラーマッチングを実現することができる。
上記では、簡単化のため、入力側のデバイスと出力側のデバイスといった、二つのデバイス間の空間的カラーマッチングを説明した。しかし、上記の空間的カラーマッチングが適用可能なデバイスの組み合わせは二つに限定されず、入力側のデバイス、ターゲットデバイス、出力側のデバイスのように、三つ以上のデバイスの組み合わせでも構わない。
[観察距離の入力]
ステップS101、S114における観察距離Dの入力は、測距センサを用いることにより自動化することができる。
図10に示すように、測距センサ31を、モニタ32や観察ボックス33の上部へ設置する。そして、例えば、測距センサ31から赤外線を放射して、観察者から反射した赤外線が測距センサ31に到達するまでの時間を測り、赤外線の放射から反射が到達するまでの時間を観察距離Dに換算する。
図11は観察条件を入力するユーザインタフェイスの一例を示す図であり、モニタ107に表示されるユーザインタフェイスである。
ユーザは、測距センサ31の使用する場合、「センサを使用する」チェックボックスをチェックする。また、測距センサ31を使用しない場合は、入力ボックス41、42に観察距離Dの数値を直接入力するか、スライダ43、44を操作して観察距離Dを入力する。
また、ユーザインタフェイスには解像度の入力ボックスがないが、入力画像の付加情報、アプリケーションやデバイスドライバによって指定されている解像度、ズーム比率などによって、解像度は自動的に決定される。
以下、本発明にかかる実施例2の色処理を説明する。なお、実施例2において、実施例1と略同様の構成については、同一符号を付して、その詳細説明を省略する。
図12は実施例2のカラーマッチング処理を説明するブロック図である。実施例2のカラーマッチング処理は、入力側および出力側の色再現範囲を考慮した色域マッピングを含む空間的カラーマッチングの一例である。
IGBD(Image Specific Gamut Boundary Description)1001は、入力画像から生成される入力画像の色再現範囲を示す情報である。DGBD(Device Gamut Boundary Description)1002は、出力デバイス30の情報から生成される出力側の色再現範囲を示す情報である。GMA(Gamut Mapping Algorithm)部1003は、IGBD1001とDGBD1002を考慮した色域マッピングを行う。
IGBD1001は、入力側のJChデータ16の全画素のJCh値に対して、例えば、JCh空間上で三次元凸包(convex hull)を作成することによって求める。入力側のJChデータ16は、入力側ローパス画像に依存して画素ごとに決まるパラメータが既に考慮されているため、入力画像の色再現範囲は、入力画像と入力側観察条件が決まれば一意に決定することができる。
DGBD1002の生成は次のように行う。まず、出力デバイス30のデバイス空間(RGBやCMYKなど)を均等に分割する複数個のカラーパッチを出力デバイス30に出力させて、それらカラーパッチを測色してXYZ値を取得する。次に、注目画素に対する出力側ローパス画像の輝度値と出力側観察条件によって決まる出力側のパラメータ(Yb、Laなど)に基づき、XYZ値をCIECAM02の順変換によりJCh値へ変換する。そして、カラーパッチ数のJCh値に対して、例えば、JCh空間上で三次元凸包を作成して、DGBD1002を生成する。
なお、カラーパッチは、デバイス空間に均等に配分するとは限らず、デバイス空間を非均等に分割するカラーパッチや、デバイス空間の境界を表すカラーパッチを用いても構わない。また、なお、入力画像の色再現範囲、および、出力デバイス30の色再現範囲の生成は、三次元凸包に限るわけではなく、凹部分を考慮する方法でも構わない。
また、カラーパッチ数のXYZ値は出力デバイス30に対して一意に決定されるが、カラーパッチ数のJCh値は注目画素に対して決定するため、DGBD1002は画素ごとに求める必要がある。つまり、画素ごとにJCh空間上のデバイスの色再現範囲が異なる。図13はsRGBの色再現範囲をJCh空間上の三次元凸包で示す図、図14はプリンタの色再現範囲をJCh空間上の三次元凸包で示す図である。
GMA部1003は、出力側解像度に変換されたJChデータ20の注目画素のJCh値を、IGBD1001と、注目画素に対応するDGBD1002の色再現範囲を参照して、出力デバイス30の色再現範囲のJCh値へマッピングする。なお、色域マッピングの方法は、知覚的(perceptual)、測色的(colorimetric)、サチュレーション(saturation)など複数用意され、入力画像の種類や出力画像の用途に応じてユーザが選択可能である。
図15は実施例2のカラーマッチング処理の逆変換を説明するフローチャートであり、CPU101が実行する処理である。なお、実施例2における順変換は、図6に示した実施例1の処理と同様である。
距離Dの入力(S114)から出力側解像度のJChデータ20の生成(S122)までの処理は、図7に示す実施例1の処理と同様である。
次に、CPU101は、IGBD1001から入力画像の色再現範囲を取得してGMA部1003に設定し(S131)、JChデータ20の注目画素を設定して(S132)、例えばラスタスキャン順に、画素に以下の処理を施す。
まず、算出部307、308により、出力側ローパス画像における注目画素の輝度値Yを取得して、式(1)により、注目画素に対する背景領域63の相対輝度Ybと、順応領域の絶対輝度Laを算出する(S133)。次に、算出部304、305、306により、逆変換に用いるパラメータを算出する(S134)。
そして、DGBD1002から注目画素に対応する色再現範囲を取得してGMA部1003に設定する(S135)。そして、GMA部1003により注目画素のJCh値に色域マッピングを施して、出力デバイス30の色再現範囲内のJCh値にマッピングする(S136)。その後、空間的CAM-123により、色域マッピング後の注目画素のJCh値をXYZ値に逆変換する(S137)。
そして、CPU101は、JChデータ20の全画素にステップS133からS137の処理を施したか否かを判定し(S138)、未了の場合は処理をステップS132に戻す。また、終了の場合は、図15に示す処理を終了する。なお、処理が終了した時点でXYZデータ24が完成する。
このように、入力側の画像解像度および観察距離と、出力側の画像解像度および観察距離に加えて、入力側および出力側の色再現範囲を考慮した空間的カラーマッチングを実現することができる。
上記では、入力側の色再現範囲として入力画像の色再現範囲を用いる例を説明したが、入力側の色再現範囲として入力デバイス10の色再現範囲を用いることもできる。この場合、出力デバイス30の色再現範囲と同様、画素ごとにJCh空間上の入力デバイス10の色再現範囲が異なる。従って、画素ごとに、入力デバイス10の色再現範囲を求め、GMA部1003に入力側の色再現範囲を設定する必要がある。
また、上記では、解像度変換部19の解像度変換を、GMA部1003の色域マッピングの前処理として行う例を説明した。しかし、解像度変換は色域マッピングの前処理に限るわけではなく、色域マッピング処理内で行ってもよいし、色域マッピングの後処理として行っても構わない。
上記の実施例によれば、入力側と出力側の画像において、視野角に基づく画像上の領域サイズを定義することにより、入力側と出力側で解像度や観察距離が異なる観察条件の下での空間的カラーマッチングが可能になる。
また、JCh(またはQMh)空間上で解像度変換を行うことにより、入力画像の解像度と出力画像の解像度を独立に設定することができ、入力側と出力側の各解像度に最適な処理を行うことができる。
さらに、入力側のXYZ画像の輝度値と、入力側ローパス画像の輝度値の比較結果に応じて、解像度の変換方法を切り替えることにより、解像度変換の高速化、解像度変換後の画像の画質向上を図ることができる。
[他の実施例]
なお、本発明は、複数の機器(例えばコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置、制御装置など)に適用してもよい。
また、本発明の目的は、上記実施例の機能を実現するコンピュータプログラムを記録した記録媒体または記憶媒体をシステムまたは装置に供給する。そして、そのシステムまたは装置のコンピュータ(CPUやMPU)が前記コンピュータプログラムを実行することでも達成される。この場合、記録媒体から読み出されたソフトウェア自体が上記実施例の機能を実現することになり、そのコンピュータプログラムと、そのコンピュータプログラムを記憶する、コンピュータが読み取り可能な記録媒体は本発明を構成する。
また、前記コンピュータプログラムの実行により上記機能が実現されるだけではない。つまり、そのコンピュータプログラムの指示により、コンピュータ上で稼働するオペレーティングシステム(OS)および/または第一の、第二の、第三の、…プログラムなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。
また、前記コンピュータプログラムがコンピュータに接続された機能拡張カードやユニットなどのデバイスのメモリに書き込まれていてもよい。つまり、そのコンピュータプログラムの指示により、第一の、第二の、第三の、…デバイスのCPUなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。
本発明を前記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応または関連するコンピュータプログラムが格納される。
色知覚モデルにおける人間の視野の定義を示す図、 実施例の色処理装置の構成例を示すブロック図、 実施例1のカラーマッチング処理を説明するブロック図、 空間的CAMの詳細な構成例を示すブロック図、 空間的CAM-1の詳細な構成例を示すブロック図、 本実施例のカラーマッチング処理を説明するフローチャート、 本実施例のカラーマッチング処理の逆変換を説明するフローチャート、 観察距離を説明する図、 刺激領域、隣接領域、背景領域の直径の計算を説明する図、 測距センサを用いた観察距離の入力の自動化を示す図、 観察条件を入力するユーザインタフェイスの一例を示す図、 実施例2のカラーマッチング処理を説明するブロック図、 sRGBの色再現範囲をJCh空間上の三次元凸包で示す図、 プリンタの色再現範囲をJCh空間上の三次元凸包で示す図、 実施例2のカラーマッチング処理の逆変換を説明するフローチャートである。

Claims (16)

  1. 入力側観察条件の下の入力側の画像を出力側観察条件の下の出力側の画像に変換する空間的カラーマッチングを行う色処理方法であって、
    視野角に基づき入力画像上の領域サイズを決定するパラメータである前記入力画像の解像度を含む前記入力側観察条件に基づいて、前記入力側の画像を人間の色知覚空間の画像に順変換し、
    出力デバイスの色再現範囲に応じた色域マッピングにより、前記色知覚空間の画像を前記出力デバイスの色再現範囲内の色知覚空間の画像に変換し、
    視野角に基づき出力画像上の領域サイズを決定するパラメータである前記出力画像の、前記入力画像の解像度と異なる解像度を含む前記出力側観察条件に基づいて、前記出力デバイスの色再現範囲内の色知覚空間の画像を前記出力側の画像に逆変換することを特徴とする色処理方法。
  2. 前記入力側の画像の輝度画像に前記入力側観察条件に基づくローパスフィルタ処理を施し、前記ローパスフィルタ処理を施した輝度画像から算出される輝度に関する第一のパラメータに基づき前記順変換を行うことを特徴とする請求項1に記載された色処理方法。
  3. 前記第一のパラメータは、入力側背景領域の相対輝度および入力側順応領域の絶対輝度であることを特徴とする請求項2に記載された色処理方法。
  4. 前記入力画像の解像度および前記出力画像の解像度に基づき前記入力側の画像の輝度画像を解像度変換し、前記解像度変換後の輝度画像に前記出力側観察条件に基づくローパスフィルタ処理を施し、前記ローパスフィルタ処理を施した輝度画像から算出される輝度に関する第二のパラメータに基づき前記逆変換を行うことを特徴とする請求項1から請求項3の何れか一項に記載された色処理方法。
  5. 前記第二のパラメータは、出力側背景領域の相対輝度および出力側順応領域の絶対輝度であることを特徴とする請求項4に記載された色処理方法。
  6. 前記視野角に基づき入力画像上の領域サイズを決定するためのパラメータは、さらに、前記入力画像の観察距離を含むことを特徴とする請求項1から請求項5の何れか一項に記載された色処理方法。
  7. 前記視野角に基づき出力画像上の領域サイズを決定するためのパラメータは、さらに、前記出力画像の観察距離を含むことを特徴とする請求項1から請求項5の何れか一項に記載された色処理方法。
  8. さらに、前記人間の色知覚空間の画像に、前記入力画像の解像度から前記出力画像の解像度への解像度変換を施すことを特徴とする請求項1から請求項7の何れか一項に記載された色処理方法。
  9. 前記人間の色知覚空間はJCh(またはJCH)空間、あるいは、QMh(またはQMH)空間であることを特徴とする請求項1から請求項8の何れか一項に記載された色処理方法。
  10. さらに、前記出力側観察条件に基づいて、前記出力デバイスの色再現範囲を画素ごとに決定することを特徴とする請求項1に記載された色処理方法。
  11. 前記入力画像の色再現範囲、または、前記入力画像の入力デバイスの色再現範囲に応じて前記色域マッピングを行うことを特徴とする請求項1に記載された色処理方法。
  12. 入力側観察条件の下の入力側の画像を出力側観察条件の下の出力側の画像に変換する空間的カラーマッチングを行う色処理装置であって、
    視野角に基づき入力画像上の領域サイズを決定するパラメータである前記入力画像の解像度を含む前記入力側観察条件に基づいて、前記入力側の画像を人間の色知覚空間の画像に順変換する順変換手段と、
    出力デバイスの色再現範囲に応じた色域マッピングにより、前記色知覚空間の画像を前記出力デバイスの色再現範囲内の色知覚空間の画像に変換するマッピング手段と、
    視野角に基づき出力画像上の領域サイズを決定するパラメータである前記出力画像の、前記入力画像の解像度と異なる解像度を含む前記出力側観察条件に基づいて、前記出力デバイスの色再現範囲内の色知覚空間の画像を前記出力側の画像に逆変換する逆変換手段とを有することを特徴とする色処理装置。
  13. 前記順変換手段は、前記入力側の画像の輝度画像に前記入力側観察条件に基づくローパスフィルタ処理を施し、前記ローパスフィルタ処理を施した輝度画像から算出される輝度に関する第一のパラメータに基づき前記順変換を行うことを特徴とする請求項12に記載された色処理装置。
  14. 前記逆変換手段は、前記入力画像の解像度および前記出力画像の解像度に基づき前記入力側の画像の輝度画像を解像度変換し、前記解像度変換後の輝度画像に前記出力側観察条件に基づくローパスフィルタ処理を施し、前記ローパスフィルタ処理を施した輝度画像から算出される輝度に関する第二のパラメータに基づき前記逆変換を行うことを特徴とする請求項12または請求項13に記載された色処理装置。
  15. コンピュータに請求項1から請求項11の何れか一項に記載された色処理を実行させるためのプログラム。
  16. 請求項15に記載されたプログラムが記録されたコンピュータが読み取り可能な記録媒体。
JP2008213224A 2008-08-21 2008-08-21 色処理装置およびその方法 Expired - Fee Related JP5361283B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008213224A JP5361283B2 (ja) 2008-08-21 2008-08-21 色処理装置およびその方法
US12/534,508 US8411944B2 (en) 2008-08-21 2009-08-03 Color processing apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008213224A JP5361283B2 (ja) 2008-08-21 2008-08-21 色処理装置およびその方法

Publications (2)

Publication Number Publication Date
JP2010050744A JP2010050744A (ja) 2010-03-04
JP5361283B2 true JP5361283B2 (ja) 2013-12-04

Family

ID=41696457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008213224A Expired - Fee Related JP5361283B2 (ja) 2008-08-21 2008-08-21 色処理装置およびその方法

Country Status (2)

Country Link
US (1) US8411944B2 (ja)
JP (1) JP5361283B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8847972B2 (en) * 2010-01-20 2014-09-30 Intellectual Ventures Fund 83 Llc Adapting display color for low luminance conditions
JP5761491B2 (ja) * 2010-12-24 2015-08-12 富士ゼロックス株式会社 色処理装置及び色処理プログラム
JP5577278B2 (ja) * 2011-02-28 2014-08-20 京セラドキュメントソリューションズ株式会社 画像形成装置及び色値補正方法
EP2518719B1 (en) 2011-04-08 2016-05-18 Dolby Laboratories Licensing Corporation Image range expansion control methods and apparatus
JP5845912B2 (ja) * 2012-01-16 2016-01-20 株式会社ニコン 撮像装置および画像処理プログラム
US9715862B2 (en) * 2014-03-28 2017-07-25 Canon Kabushiki Kaisha Image processing apparatus and control method thereof
KR102525159B1 (ko) * 2018-03-19 2023-04-25 삼성전자주식회사 전자 장치, 전자 장치의 이미지 처리 방법 및 컴퓨터 판독 가능 매체
JP7104575B2 (ja) * 2018-06-29 2022-07-21 キヤノン株式会社 画像処理装置、制御方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4652535B2 (ja) * 2000-07-25 2011-03-16 キヤノン株式会社 画像処理装置およびその方法
JP2002204372A (ja) * 2000-12-28 2002-07-19 Canon Inc 画像処理装置およびその方法
JP2006215756A (ja) 2005-02-02 2006-08-17 Dainippon Ink & Chem Inc 画像処理装置および画像処理方法ならびにそのプログラム
JP4944413B2 (ja) * 2005-09-12 2012-05-30 キヤノン株式会社 情報処理方法及びコンピュータプログラム及びコンピュータ可読記憶媒体、並びに情報処理装置
JP4652937B2 (ja) * 2005-09-13 2011-03-16 キヤノン株式会社 画像処理装置及び方法
JP2007174126A (ja) * 2005-12-20 2007-07-05 Canon Inc 画像処理装置及び方法

Also Published As

Publication number Publication date
US8411944B2 (en) 2013-04-02
JP2010050744A (ja) 2010-03-04
US20100046834A1 (en) 2010-02-25

Similar Documents

Publication Publication Date Title
JP5361283B2 (ja) 色処理装置およびその方法
JP3890211B2 (ja) 画像処理方法、画像処理装置、プログラム、記憶媒体
JP5795548B2 (ja) 拡張rgb空間へのトーンマッピングを用いた高ダイナミックレンジ画像の処理方法
JP7105737B2 (ja) 画像処理装置、画像処理方法、及びプログラム
EP2965499B1 (en) Image processing apparatus, image processing system, and image processing method
US20120019843A1 (en) Color processing device, color processing method, and computer readable medium storing program
JP2009159580A (ja) 画質評価装置及びその方法
JP2003018416A (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JPH1084487A (ja) 画像処理装置および方法
JP2008244613A (ja) 画像出力機器の色変換定義の作成方法、そのプログラム及び記録媒体、ならびに画像出力機器および画像処理装置
US7379208B2 (en) Hybrid gamut mapping
JP2006211093A (ja) 色補正装置、色補正方法、プログラムおよび記録媒体
JP2008048314A (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
US20100156929A1 (en) Ridge-based color gamut mapping
JP5562005B2 (ja) 画像処理装置及び画像処理方法
US20020021833A1 (en) Image processing apparatus and method
JP2008177783A (ja) 色変換装置及びプログラム
JP6780442B2 (ja) 色処理装置、色処理方法、色処理システムおよびプログラム
US20110109943A1 (en) Outputting gray color values in color-managed cmyk to cmyk color conversions based on input gray color values
JP2007174126A (ja) 画像処理装置及び方法
JP2007074557A (ja) 画像処理方法、画像処理装置、コンピュータプログラム、記憶媒体
Lee et al. Design and implementation of color correction system for images captured by digital camera
JP2018137642A (ja) 画像処理装置、画像処理方法
JP2011205467A (ja) 色処理装置及びプログラム
JP2010268138A (ja) 色調整装置、色調整方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120713

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121022

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130903

R151 Written notification of patent or utility model registration

Ref document number: 5361283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees