JP4261720B2 - Image processing apparatus, image processing method, and recording medium - Google Patents

Image processing apparatus, image processing method, and recording medium Download PDF

Info

Publication number
JP4261720B2
JP4261720B2 JP2000040876A JP2000040876A JP4261720B2 JP 4261720 B2 JP4261720 B2 JP 4261720B2 JP 2000040876 A JP2000040876 A JP 2000040876A JP 2000040876 A JP2000040876 A JP 2000040876A JP 4261720 B2 JP4261720 B2 JP 4261720B2
Authority
JP
Japan
Prior art keywords
color
lut
discrete data
achromatic
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000040876A
Other languages
Japanese (ja)
Other versions
JP2001230943A (en
JP2001230943A5 (en
Inventor
章弘 松谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000040876A priority Critical patent/JP4261720B2/en
Publication of JP2001230943A publication Critical patent/JP2001230943A/en
Publication of JP2001230943A5 publication Critical patent/JP2001230943A5/ja
Application granted granted Critical
Publication of JP4261720B2 publication Critical patent/JP4261720B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Color Image Communication Systems (AREA)
  • Color, Gradation (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理方法、詳しくは入力されたカラー画像を特定の色信号に置き換えて、原稿を複製する画像処理方法に関する。
【0002】
【従来の技術】
従来、カラー画像処理装置、特にカラー複写機では、入力原稿に忠実な色再現を施すべく、プリンタのデバイス特性に最適なマスキング処理を行ってフルカラー出力を行っている。また、このような処理構成を用いて、たとえば入力原稿を赤、青、緑色等、特定の色だけで再現する処理も実現されている。
【0003】
このような特定色で出力する処理を実現する場合、従来は、マスキング処理される前に、特定色の色相に入力信号を変換するように信号処理されていた。たとえば、特定色として赤色で再現する場合には、RGB空間における赤色(色相)との寄与比率を算出し、その算出比率の大きさによって、特定色への信号レベルを変更したり、CIE1976における均等色空間L***において、特定の色相への寄与分を算出することによって変更する等のものがある。
【0004】
しかし、上記のように、入力原稿を赤の色相を用いて表現するような処理では、滑らかな階調再現が難しく、また入力信号に対して非線型な処理を伴うので、ソフトウェアで実現するには、計算コストの増大が否めず、またハードウェアでは、処理の複雑さから計算精度を犠牲にせざるを得ない。
【0005】
そこで上記問題を改善する目的から、特定に色味を表現する色剤の配合比率に着目し、この配合比率をフルカラー用に生成されたマスキング係数と演算して新しいマスキング係数を算出することによって、従来のハード構成を変えず、しかも簡易的な処理で、特定の色味で入力原稿を再現する手法が提案されている。
【0006】
図9〜図12は、上記提案されている画像処理手法を説明する図である。
【0007】
たとえば、表現したい赤色としてマンセル色票空間の5R4/14等を選択したとすると、その色度と同じ色度になるように各色剤の配合比率を求めることになる。
【0008】
本提案例では、最適な色剤の配合比率を求めるために、ターゲット色と色剤とが混色して再現される色差が、最小になるようにする。色度を求めるための空間としては、たとえばCIE1976L***空間を用いて、表現する色剤の色再現範囲、分光特性、色剤(トナー)ののり量を考慮して、色差が最小になるように決定する。
【0009】
ここでは、マゼンタとイエローとのみによって、マンセル色票空間の5R4/14を再現するものとし、そのための最適化演算式として、
E=Σ{(Lt*−Ln*2+(at*−an*2+(bt*−bn*2
によって示される評価関数Eを導入し、評価関数Eが最小になるように各色剤の配合比率を計算する。
【0010】
上記評価関数Eにおいて、Lt*、at*、bt*は、ターグット色の色度を示し、Ln*、an*、bn*は、色剤をプリンタ特性にあわせて変化させたときの色度を示す。
【0011】
上記提案例では、CIE1976L***空間を用いたが、最適化する空間はこれに限定するものではない。また、最適化手法として、最小2乗法を用いたが、本手法では初期値の与え方によって、ローカルミニマムが必ずしも良好な解を示さないので、他の最適化手法によって実現するようにしてもよい。
【0012】
ステップS1102で、フルカラー用に作成されたマスキング係数(図9)を基に、図10(1)に示す(a)、(b)、(c)、(d)各列方向の和をとり、この和に配合比率を掛け合わせて、図10(2)に示す係数を算出する。
【0013】
本説明では、CMYKだけでマスキング演算を示しているが、良好な色再現を求めるには、高次の項を演算に用いるようにしてもよい。本説明では原理を説明することに留め、高次の項は扱っていない。
【0014】
図10(1)のC’、M’、Y、K’は、出力信号であり、C、M、Y、Kは、入力信号である。
【0015】
たとえば、ターゲットの赤色をマゼンタとイエローとで算出するような条件で、配合比率を求めたとすると、マゼンタの比率:α(0≦α<1)、イエローの比率:1−αとなり、マゼンタに寄与する係数(ベクトルの要素):b00、b01、b02、b03は、
b00=α×(a00+a10+a20+a30)
である。その他の成分も、上記と同様に求まる。
【0016】
また、イエローに寄与する係数(ベクトルの要素):b10、b11、b12、b13は、
b10=(1−α)×(a00+a10+a20+a30)
である。他の成分も、上記と同様に求まる。
【0017】
最後に、ステップS1103において、赤色に寄与しない色剤の成分に係る係数として、「0」をセットし、係数の算出を終了する。
【0018】
以上の処理の結果、セットされたマスキング係数で演算することによって、入力原稿は、特定の色味成分で複製することができる。
【0019】
【発明が解決しようとする課題】
入力原稿を単に、特定の色相で表現するには、上記の手法は有用である。しかし、入力原稿中の有彩色の部分を特定の色味で表現し、無彩色領域を黒で表現しても、複写物の特徴をアピールする出力画像を望んだ場合には、必ずしも良好な結果が得られるとは限らないという問題がある。
【0020】
次に、無彩色領域を黒色で表現する説明は除き、有彩色を特定の色味で表現する場合における上記問題の原理的説明を行う。また、以下の説明は、無彩色成分を黒色で表現する場合にも当てはまる。
【0021】
図10に示すマスキング係数に注目すべきである。図10−3の係数によって、2次色(赤色)が入力された場合と、1次色(シアン)が入力された場合との出力値について考える。
【0022】
入力が2次色(赤色)である場合には、理想的にはM、Yのみに値が存在するので、その出力信号は、
M’=M×b01+Y×b02
Y’=M×b11+Y×b12
である。
【0023】
また、入力が1次色(シアン)である場合、その出力信号は
M’=C×b00
Y’=C×b10
である。
【0024】
このときに、2次色の場合は、b01とb02、b11とb12のように、各色ともに2つ分の係数が寄与し、1次色の場合は、1つ分の係数しか寄与しない。
【0025】
一般に、色剤の配合比率に基づいて、フルカラー用のマスキング係数を演算し、特定色用の係数を作成すると、図10−3に見られる係数は、正の値をもち(例外はある)、先に示した入力色が、1次色で表現されるか、2次色で表現されるかによって、出力される色味の濃度が変わる。よって、原稿中の有彩色部分を強調し、赤色等で出力したい場合には、原理的に、1次色成分の原稿中の文字は、薄く出力される可能性がある。
【0026】
本発明は、原稿中の有彩色成分を特定の色味で表現する場合に、色相毎に、出力濃度に差が生じることを防止し、原稿中の有彩色文字等が、出力時にくっきり表現される画像処理方法を提供することを目的とするものである。
【0027】
具体的には、カラー入力原稿中の有彩色成分を特定の色味(たとえば赤色)で表現し、無彩色成分を黒色で表現する場合に、原稿中の黒い文字部分は黒く、有彩色で強調された部分を赤く再現することができる画像処理方法を提供することを目的とするものである。
【0028】
【課題を解決するための手段】
本発明は、入力信号内の有彩色信号を特定の色で表現し、無彩色信号を無彩色成分で表現する画像処理を行なうためのLUTを作成するLUT作成装置であって、上記特定の色を表現するために用いる色剤の配合比率を求める配合比率演算手段と、上記配合比率演算手段から得られた配合比率に基づいて、上記特定の色を再現する係数を得て該係数を用いマスキング演算し、特定の色を表現するために用いる離散データを算出する離散データ算出手段と、上記離散データ算出手段が得た離散データの無彩色軸の離散データを100%UCRとなるデータとし、無彩色から2次色成分の最明度に向かう離散データを用いて補間演算結果を上記無彩色から1次色成分の最明度に向かう離散データとして上記LUTを作成するLUT作成手段とを有することを特徴とするLUT作成装置である
【0029】
【発明の実施の形態および実施例】
[第1の実施例]
図20は、本発明の第1の実施例であるカラー複写機CC1の構造断面図である。
【0030】
イメージスキャナ部201は、原稿を読み取り、その原稿画像に対してディジタル処理を行う部分である。また、プリンタ部200は、イメージスキャナ部201で読み取った原稿画像に対応した画像を形成し、記録用紙上にプリント出力する部分である。
【0031】
イメージスキャナ部201において、原稿圧板202と、原稿台硝子(プラテン硝子)203とが設けられている。原稿204は、その記録面を図中、下方に向けて載置され、原稿圧板202によってその位置が固定される。ランプ205は、蛍光ランプ、ハロゲンランプ、またはキセノンランプであり、この原稿204を照射する。原稿204からの反射光は、ミラー206、207に導かれ、レンズ208によって収束され、リニアCCDイメージセンサ(以下、CCDという)210の受光面上に結像される。CCD210は、原稿からの光を、赤(R)、緑(G)、青(B)の各色に分解して読み取り、画像処理部209へ送る。
【0032】
CCD210は、約7500画素の受光画素が1ラインに並び、RGBそれぞれで、計3ライン分で構成され、A3サイズの原稿の短手方向297mmを、600dpi(ドット/インチ)で読み取ることが可能である。同様に、A3サイズの原稿の短手方向297mmを、400dpiで読み取るためには、RGBそれぞれ約5000画素の1次元イメージセンサであれば足りる。
【0033】
なお、蛍光ランプ205、ミラー206が速度vで、ミラー207がv/2で、副走査方向(CCD210の並びに直交する方向)に機械的に移動することによって、反射光は、一定の距離を経てCCD210に結像され、読み取られる。
【0034】
均一な色度を有する基準白色板211は、レンズ208によるシェーデイングムラやCCDセンサの各画素の感度ムラを補正するための基準色度値を提供する。
【0035】
画像処理部209は、CCDセンサ210で読み取られた信号を、ディジタル信号に変換し、印刷の際のインク色に対応したイエロー(Y)、マゼンタ(M)、シアン(C)、ブラック(Bk)の各色成分画像を形成し、プリンタ部200へ送出する。
【0036】
また、イメージスキャナ部201における1回の原稿スキャン(1回の副走査に相当)につき、Y、M、C、Bk内の1つの色成分画像がプリンタ部200に送出され、したがって4回スキャンを行い、各スキャンで得られた記録色成分の画像信号を、順次プリンタ部200に送出することによって、1回のプリント処理が完了する。
【0037】
なお、画像処理部209内に必要十分なメモリがあれば、1回の走査読取結果をそのメモリに格納させることによって、4回の読み取りを不要にしてもよい。
【0038】
このようにして、画像処理部209から送出されたY、M、C、Bkの画像信号は、プリンタ部200内のレーザドライバ212へ送られる。レーザドライバ212は、各画素の画像信号に応じて、レーザダイオードを発光させることによって、レーザ光を出力する。上記レーザ光は、ポリゴンミラー214、f−θレンズ215、ミラー216を介して、感光ドラム217上を走査する。
【0039】
現像器219〜222は、イエロー、マゼンタ、シアン、ブラックによって、それぞれ現像を行う。4個の現像器219〜222が、順次感光ドラム217に当接し、上記レーザ光照射によって形成された感光ドラム静電潜像に対して、対応する色トナーで現像を行う。
【0040】
転写ドラム223は、用紙カセット224または225から給紙された記録用紙を静電気の作用で巻き付け、感光ドラム217上で現像されたトナー像を、この記録用紙上に転写する。4色成分を使用した記録処理では、この転写ドラム223が4回転することによって、各色成分のトナーが重畳記録される。そして、最後に、剥離爪によって記録用紙を転写ドラム223から剥離させ、定着ユニット226に向けて搬送し、定着させ、装置外部へ排紙させる。
【0041】
以上の動作が、上記実施例におけるカラー複写機の動作概要である。
【0042】
なお、記録紙の裏面、多重記録を行うために、図示のように、排紙口に分岐搬送路が設けられている。この搬送路を介して、装置に再度取り込むことによって、裏面への記録と多重記録等を行うことができる。
【0043】
次に、通常のカラー複写動作における画像処理シーケンスについて説明する。
【0044】
図1は、主に、画像処理部209の機能を示すブロック図である。
【0045】
CPU121は、ROM122に格納されたプログラムとデータとに従って、RAM123をワークメモリとして装置全体を制御する。
【0046】
カラー画像入力手段101(図20におけるイメージスキャナ部201に対応する)によって読み取られたカラー画像の3色分解信号R1、G1、B1の1つであるG1信号は、文字/画像判定手段111に入力され、その画素が、文字や線画等の線画像か、または、写真や印刷画像等の階調画像であるかを判定し、この判定結果を、文字/画像判定信号TIとして出力する。
【0047】
なお、文字/画像判定手段111は、たとえば3×3程度(読取解像度で適宜変更してもよい)のG成分信号を取り出し、その中の最大値と最小値との差分を算出し、その差分が特定以上であるか否かを判定する処理を行う。文字や線画のエッジ付近では、上記差分(輝度変化)が大きな値になり、逆に、中間調画像の場合には、差分が小さいという現象を利用している。また、印刷画像と区別するためには、上記3×3の領域を拡張し、画像の特徴と空間周波数特性との対応関係から判別するようにしている。
【0048】
さらに、文字/画像判定信号TIは、空間フィルタ係数記憶手段112に供給される。空間フィルタ係数記憶手段112は、たとえばROM等で構成され、注目画素が文字や線画を示す場合(たとえばTI=‘1’)には、文字用の空間フィルタ係数が選択され出力され、階調(中間調画像)を示す場合(たとえばTI=‘0’)は、階調画像用空間フィルタ係数が選択され出力される。
【0049】
図2(1)、(2)は、文字用の空間フィルタ係数と階調画像用の空間フィルタ係数Kijの一例を示す図である。
【0050】
文字用の空間フィルタと階調画像用の空間フィルタとの直流成分は、「1」であるのに対して、上記実施例における文字用の空間フィルタまたは階調画像用の空間フィルタは、図2(1)、(2)に示すように、その直流成分を「0」にしている。
【0051】
すなわち、エッジ成分のない画像平坦部について、従来の空間フィルタリング後の出力信号は、入力画像値そのままであるのに対して、上記実施例において、空間フィルタ処理後の出力値は「0」である。
【0052】
一方、カラー画像の3色分解信号R1、G1、B1の3信号は、第1の色空間変換手段102に入力され、明るさを表す明度信号L1と、色味を表す色度信号Ca1,Cb1とに変換される。明度信号L1と色度信号Ca1,Cb1とは、測色的に、CIE1976(L***)色空間の3変数L*、a*、b*や、CIE1976(L**v*)色空間の3変数L*、u*、v*でもよく、さらに簡易的に決められた任意の色空間でもよい。
【0053】
次の式(1)は、3色分解信号R、G、Bを、明度信号L1と、色度信号、Ca1、Cb1とに、簡易的に変換する変換式の一例であり、その演算が非常に簡易であるので、上記実施例では、式(1)を用いている。
【0054】
L=(R+2G+B)/4
Ca=(R−G)/2
Cb=(R+G−2B)/4……式(1)
第1の色空間変換手段102によって変換された明度信号L1と、色度信号Ca1,Cb1とは、遅延手段103に入力され、明度信号L1に対して、Nライン分の信号が記憶され、色度信号Ca1,Cb1に対して、(N/2)ライン分の信号が記憶される。
【0055】
より具体的には、5×5画素の空間フィルタ処理を行うときに、明度信号Liに対して、4ライン分の明度信号L1と、現ラインの明度信号L1との、計5ライン分のデータが、エッジ強調抽出手段113に入力される。
【0056】
エッジ強調量抽出手段113は、空間フィルタ係数記憶手段112が出力した空間フィルタ係数Kij(文字/画像判定信号TIに依存する)によって、5×5の画素ブロック内の明度信号をそれぞれ演算し、注目画素(5×5画素ブロックにおける中心位置の画素)のエッジ強調量εを算出し、出力する。
【0057】
5×5の明度信号をL1ij(i=1〜5、j=1〜5)で表すと、エッジ強調量εは、次のとおりである。
【0058】
ε=(ΣL1ij*Kij)/C
ここで、*は、乗算を示し、Cは、エッジ強調された成分を正規化する正規化定数である。
【0059】
上記エッジ強調量εは、エッジ強調量分配手段116に供給される。エッジ強調量分配手段116は、このエッジ強調量εと、彩度量抽出手段114が出力した彩度信号Sと、後述する無彩色/有彩色判定手段115が出力した判定信号KCとに基づいて、明度信号L1のエッジ強調量ε1と、色度信号Ca1,Cb1のエッジ強調補正量εCとを生成し、エッジ強調手段104に出力する。
【0060】
遅延手段103によって遅延された色度信号Ca1,Cb1は、図1では示していないが、実際には、遅延された2ラインと、現在のラインとの、計3ライン分のデータとなって、彩度量抽出手段114に入力される。これを受け、彩度量抽出手段114は、上記のように、色の鮮やかさを表す彩度信号Sを生成し、出力する。
【0061】
次に、色度信号Ca1,Cb1に基づいて、彩度信号Sを生成する方法について簡単に説明する。
【0062】
色度信号Ca1,Cb1が、上述のCIE1976(L*,a*,b*)色空間における信号(a*、b*)や、CIE1976(L*、u*、v*)色空間における信号(u*、v*)であるときに、彩度信号Sは、次の式(2)によって決められる。なお記号「^」は、べき乗を表すものである。
【0063】
S=(Ca1^2+Cb1^2)^0.5……式(2)
さらに、簡易的には、彩度信号Sは、次の式(3)によって決められるようにしてもよい。
【0064】
S=MAX(Ca1,Cb1)……式(3)
ここで、関数MAX(A,B)は、変数A、Bの絶対値のうちの大きな値を出力するものである。
【0065】
さて、エッジ強調量分配手段116には、上記のように、エッジ強調量εと彩度信号Sとの他に、後述する無彩色/有彩色判定手段115が出力する判定信号KCも入力される。
【0066】
無彩色/有彩色判定手段115は、その画素が、白黒(無彩色)であるかカラー(有彩色)であるかを判定し、判定信号KCを出力する。上記実施例では、無彩色/有彩色判定手段115への入力信号は、色の鮮やかさを表す彩度信号Sであり、この彩度信号Sによって、無彩色/有彩色を判定する。
【0067】
ただし、上記のように、彩度信号Sは、遅延手段103によって遅延された3ライン分の色度信号Ca1,Cb1に基づいて、彩度量抽出手段114が生成するものであるので、無彩色/有彩色判定手段115への入力信号は、彩度信号Sと、そのもとの信号である色度信号Ca1,Cb1とを入力するようにしてもよい。この場合、図1に示す彩度量抽出部114へ引かれたCa1,Cb1信号線は、彩度信号Sとともに、無彩色/有彩色判定部115へ延長される。
【0068】
次に、上記実施例における遅延手段103と、その周辺部であるエッジ強調量抽出手段113、彩度量抽出手段114、無彩色/有彩色判定手段115とについて、詳細に説明する。
【0069】
図8は、上記実施例における遅延手段103と、エッジ強調量抽出手段113と、彩度量抽出手段114と、無彩色/有彩色判定手段115とを示す図である。
【0070】
第1の色空間変換手段102から出力された明度信号L1と、色度信号Ca1,Cb1とは、遅延手段103のラインメモリ801〜804によって、明度信号の中心画素に同期させるために、色度信号Ca1に対して2ラインと、色度信号Cb1に対して2ラインとの信号が、ラインメモリ805、806に記憶される。
【0071】
ここで、中心ラインをjラインとすると、明度に対しては、j−2、j−1、j、j+1、j+2ラインが記憶され、現在のラインj+2ラインを含めた5ライン分の明度信号が、エッジ強調量抽出手段113に入力される。
【0072】
エッジ量強調手段113は、遅延手段103から5×5の明度信号と、空間フィルタ係数記憶手段112からの5×5のフィルタ係数にと基づいて、エッジ強調後のデータ(エッジ強調量ε)を作成するので、単純に考えて、乗算器25個、加算器24個あれば足りる。
【0073】
一方、色度信号Ca1に対しては、遅延手段103のラインメモリ805、806によって、j、j+1ラインが記憶され、現在のラインj+2を含めた3ライン分の色度信号Ca1が、彩度量抽出手段114、無彩色/有彩色判定手段115に供給される。
【0074】
さらに、上記実施例では、彩度信号S、無彩色/有彩色判定信号KCを算出する場合、上記式(2)や式(3)を用いた算出方法を、j、j+1、j+2の3ライン分のデータを用いて、空間的な処理を行うことも考えられる。たとえば、彩度信号Sは、3×3サイズの隣接画素の彩度信号を平均し、その平均値を彩度信号Sとして代表することもできるし、無彩色/有彩色判定信号KCも、上記と同様に、3×3サイズの隣接画素の判定結果を統計的に処理し、この結果を、無彩色/有彩色判定信号の代表値KCとすることもできる。
【0075】
次に、求められた彩度信号Sによって、無彩色/有彩色判定信号KCを算出する方法について説明する。
【0076】
今、彩度信号Sが小さいときは、その画素が白黒(無彩色)であり、彩度信号Sが大きいときは、その画素がカラー(有彩色)であるとする。よって、簡易的には、無彩色/有彩色判定信号KCは、予め決められた閾値ρを用いて、次の式(4)によって決められる。
【0077】
S<ρであれば、KC=無彩色
S≧ρであれば、KC=有彩色……式(4)
次に、エッジ強調量分配手段116に入力されたエッジ強調量εと、彩度信号Sと、無彩色/有彩色判定信号KCに基づいて、エッジ強調補正量ε1、εCを生成するプロセスについて説明する。
【0078】
まず、明度信号L1に対するエッジ強調補正量εの分配を多くし、無彩色信号画素に対しては、全エッジ強調量εをε1に割り当てる。また、予め決められた閾値以上に彩度を有する画素に対しては、明度信号に対するエッジ補正を行わない。
【0079】
図3は、上記実施例において、エッジ強調量分配手段116に入力されたエッジ強調量εと、彩度信号Sと、無彩色/有彩色判定信号KCに基づいて、エッジ強調補正量ε1、εCを生成する動作を示すフローチャートである。
【0080】
図4は、上記実施例において、エッジ強調量分配手段116に入力されたエッジ強調量εと、彩度信号Sと、無彩色/有彩色判定信号KCに基づいて、エッジ強調補正量ε1、εCを生成する動作の模式図である。
【0081】
図3に示すステップS1において、注目画素は、無彩色/有彩色判定信号KCに従い分岐する。
【0082】
判定信号KCが無彩色であるときに(ステップS1の判定がYESである場合)、全エッジ強調量をε1に割り当てるために、ステップS2で、乗算係数γに“1”を割り当て、ステップS5で、1=γε、つまり、ε1にεが割り当てられる。
【0083】
また、有彩色であると判断した場合には、彩度信号Sが、所定値ηよりも大きいか否かを判断し、所定値ηよりも大きいと判断した場合、乗算係数γに“0”を割り当て、ステップS6で、1にγε、つまり“0”を割り当てる。
【0084】
一方、彩度Sが7以下である場合には、注目画素が有彩色か無彩色かの判断が困難なことになるので、ステップS5、S6に進み、乗算係数γ、さらには、エッジ強調補正量ε1を、次の式(5)で決定する。
【0085】
γ=(1−(S−α)/(ηα))
εl=(1−(S−α)/(η−α))ε……式(5)
上記処理を行うと、αと、所定値ηと、乗算係数γとの関係は、図4に示すとおりになる。
【0086】
すなわち、実質的に無彩色であると判断してもよい場合、乗算係数γは“1”になり、有彩色であると判断できる場合、乗算係数γは“0”になる。そして、その中間状態では、図示のように、彩度信号Sに応じて、0〜1の値(つまり、小数点)をとる。
【0087】
次に、色度信号Ca1,Cb1に対するエッジ強調補正量εcについて説明する。
【0088】
色度信号に対しては、基本的に、明度信号のそれとは逆に、彩度が高い(鮮やかな色)程、色度信号に対するエッジ強調量εの分配を多くし、無彩色信号画素に対しては、エッジ補正を行わず、さらには対象画素の色度信号も除去する。
【0089】
カラー複写機等における画像処理装置の場合、黒い文字等の複写画像に色成分が残ると、視覚的に画像品位が悪くなるからである。換言すれば、このような画素には、色成分をカットし、完全な無彩色信号に色補正する必要がある。
【0090】
これを、図5のフローチャートと図6の模式図とを用いて説明する。
【0091】
図5のステップS11において、まず、対象画素に対する処理を、無彩色/有彩色判定信号KCに従って切り替える。すなわち、判定信号KCが無彩色を示すとき(図中のステップS11がYESの場合)、上記のように、エッジ強調量εを“0”にするために、ステップS12で、乗算係数γに“0”をセットし、ステップS18の演算を行うことによって、エッジ強調補正量εCを“0”にさせる。
【0092】
また、ステップS11の判断がNOである場合には、ステップS13に進み、彩度信号Sと閾値λ2とを比較する。S>λ2である場合には、ステップS14で乗算係数γを“1”にし、ステップS18の演算を行い、エッジ強調補正量εCをγ(1−ε/κ)の値にさせる。
【0093】
また、ステップS13で、S>λ2であると判断した場合には、ステップS15に進み、彩度Sとλ1とを比較し、S<λ1であるか否かを判断する。この不等式を満足する場合には、注目画素は、無彩色であると判断してよいので、乗算係数γを“0”にする。
【0094】
そして、ステップS15で、S<λ1であると判断した場合には、乗算係数γを、彩度信号Sに応じた値(“0”と“1”間の値)にするために、ステップS17で、次の式(6)から、乗算係数γを決定する。
【0095】
γ=(S−λ1)/(λ2λ−λ1)……式(6)
そして、ステップS18で、色度信号に対するエッジ強調補正量εcを、式(7)に従って求める。
【0096】
εc=γ(1−ε/κ)……式(7)
ここでκは、正規化定数である。
【0097】
上記の結果、乗算係数γは、図6に示すように、色度信号Sに応じた値をとるようになる。つまり、乗算係数γは、彩度値(閾値λ1)まで、γは“0”の値をとり、エッジ強調補正量εc=0となる。
【0098】
また、彩度Sが、閾値λ1からλ2までは、γ=(S−λ1)/(λ2−λ1)となり、彩度Sが高くなるに従い、連続的に増加する。そして、彩度Sが閾値λ2よりも高いときに、γ=1にとなるので、エッジ強調補正量εc=1−ε/κとなる。
【0099】
以上説明したように、生成されたエッジ強調補正量ε1、εcは、明度信号L、色度信号Ca、Cbとともに、エッジ強調手段104に供給される。
【0100】
エッジ強調手段104は、遅延手段103からの明度信号Lに対しては、エッジ強調補正量ε1を加算し、遅延手段103からの色度信号Ca、Cbに対しては、エッジ強調補正量εcを乗算する処理を行い、L2、Ca2、Cb2を生成する。すなわち、
L2=εl+L1
Ca2=εc*Ca1
Cb2=εc*Cb1……式(8)
となる。
【0101】
式(8)から分かるように、明度信号Lに対しては、エッジ補正量ε1を加算することによって、彩度が高く、明度にエッジ強調したくない画素では(εl=0)、明度は保存される。一方、色度信号Ca、Cbに対しては、エッジ補正量εcを乗算することによって、彩度が低く無彩色に近い程、エッジ補正量εcが徐々に小さな値になり、実質的に無彩色となった場合には、エッジ補正量εc=0となる。つまり、彩度の値が低いほど、対象画素そのものの色度成分が除去されやすく制御することになる。
【0102】
次に、色度信号のエッジ強調に対する色味(色相)の保存性について説明する。
【0103】
図7は、色度信号Ca1,Cb1方向を座標軸とする色度座標を示す図である。
【0104】
説明を簡単にするために、CaおよびCb軸は、CIE1976(L*,a*,b*)色空間におけるa*、b*軸であるとする。
【0105】
また、a*、b*軸の交点0は、無彩色を表し、交点0から離れる程、彩度が高く、a*軸となす角が色味(色相)を表す。また、紙面に垂直な方向が明度L*になる。
【0106】
ここで、対象画素が色度信号Ca1(702)、Cb1(703)であるときに、この色は、色度座標上でベクトル701で表される。式(8)に従い、色度信号Ca1,Cb1にエッジ補正量εcを乗算し、生成されるエッジ強調後の信号Ca2,Cb2は、εcCa1,εcCb1になるので、色度座標上でベクトル704で表されるが、図のようにa*軸とのなす角は変わらず、色味の変化はないことを表している。すなわち強調によって、鮮やかさは強調されるが、色味の変化には、実質的に影響がない。
【0107】
さて、上記のように、エッジ強調処理がなされると、その信号L2、Ca2、Cb2は、第2色空間変換手段105に供給され、ここでR、G、Bの値に逆変換される。
【0108】
次の式(9)は、明度信号L2と、色度信号Ca2、Cb2とを、3色分解信号R2、G2、B2に変換する変換式の一例を示すものであり、先に説明した式(1)から求めることができるものである。
【0109】
R2=(4L+5Ca+2Cb)/4
G2=(4L−3Ca+2Cb)/4
B2=(4L+Ca−6Cb)/4……式(9)
以下、信号R2、G2、B2に逆変換された3色分解信号は、輝度/濃度変換手段106に入力され、濃度信号C1、M1、Y1に変換される。なお、RGBからCMY表色系への変換自体は、公知であるので、ここでは説明しない。
【0110】
さて、濃度信号C1、M1、Y1は、次に色補正手段107によって、下地除去(UCR処理)を行い、黒成分信号Kの生成や、下色除去、色補正等の色処理がなされ、濃度信号C2、M2、Y2、K2が出力される。
【0111】
上記実施例において、色補正手段107は、黒文字/色文字/画像判定信号発生手段117からのTC信号に従って、この処理を行う。
【0112】
黒文字/色文字/画像判定信号発生手段117は、上記無彩色/有彩色判定手段115の判定結果である色判定信号KCと、文字/画像判定手段111の判定結果であるTI信号とを入力し、TC信号を生成する。
【0113】
たとえば、画像信号に対しては、ハイライトの色再現性を重視した色補正を行い、色文字や黒文字信号に対しては、下地色を飛ばし、ハイライト再現を除去した色補正を行う。これと同様に、2値化手段108、平滑化/解像度変換手段109も、文字/画像判定手段111の判定結果である判定信号TIを参照しながら、それぞれの処理を実施し、カラー画像出力手段110でカラー画像が印字記録される。
【0114】
図1に示す原稿種別判定手段118は、入力原稿がカラー原稿かモノクロ原稿かを判別する処理ブロックであり、通常は、複写動作の前に行われるプレスキャン、またはバックスキャンにおいて読み取られた画像の無彩色/有彩色判別信号に基づいて、原稿の認識を行い、実際に複写するシーケンスが始まる前に認識した結果に応じて、CPU121によって、各画像処理パラメータを設定する。以上が、通常行われるカラー複写機の動作シーケンスである。
【0115】
上記実施例で特徴とされる画像処理は、入力されるカラー画像中の有彩色成分を特定の色味で再現し、無彩色成分は無彩色(ブラック)をもって再現するものである。上記実施例では、特定の色味として赤色で入力画像信号を再生する処理について説明し、無彩色成分と有彩色成分の中間の色味成分に関しては、ブラックと赤色とを表現する色剤との混色で表現するものである。
【0116】
まず、上記実施例における色補正手段107の構成について説明する。
【0117】
従来、色補正、主に、プリンタの色剤の色再現範囲を有効に利用してフルカラー色を再現する場合に、行列演算によって実施する場合が多い。たとえば、図9に示すような4×4の行列演算の形で実施される。行列演算の場合、入力されるCMY信号からUCR処理処理を介してK(ブラック)信号を生成されたCMYK信号を演算に用いる。
【0118】
また、原稿との色味のマッチングを重視したい場合には、行列の係数をさらに高次元まで対応したものを用いれば、信号レベルにおける色味のマッチング精度は上がる。
【0119】
しかし、色味の精度を向上させるために次数をあげることは、ハードウェア規模を膨らませることになり、またプリンタエンジンの特性によっては、次数をあげる効果はあまり期待できない場合もあり、次数をあげて処理することは、一概に高画質を生成できるとは言えない。
【0120】
上記実施例における色補正手段107では、行列演算によってマスキング処理ではなく、予め高次元を使った演算によって、理論的にマッチング精度の高いデータをLUT(ルックアップテーブル)としてもたせ、この離散データと入力信号レベルとの関係から補間演算して濃度信号を生成する。
【0121】
LUTによって補間演算して得られる濃度信号は、従来の行列演算によって生成される濃度信号に比べて、比較的簡易な回路構成で理論的な色味のマッチング精度を向上できるというメリットをもつ。図14は、色補正手段107によって実現される処理ブロックの入出力を示す図である。
【0122】
図14に示すように、入力は、C1、M1、Y1各8ビット信号で、3次元入力信号に対する出力信号Sをテーブル変換によって実行する。ただし、全ての入力信号に対する変換データをテーブル化すると、テーブルの容量だけで256×256×256=16MByteが必要となるので、離散格子点+線形補間による演算を行う。
【0123】
図14に示すブロックは、出力される色剤(S)が(C’、M、Y’、K’)毎に別々に計算された離散データ(LUT)がセットされている。
【0124】
図15は、離散データと入力される信号との関係を示す図である。
【0125】
図15において、黒丸、白抜き丸が、各格子点上の離散データを示す。繰り返すが、この格子点に存在するデータは、色差が最小となるように予め最適化されたマスキング演算後のデータである。
【0126】
入力は、C1、M1、Y1となっており、N個の離散データでLUTを実現していることから、各軸(C1、M1、Y1軸)は、N個の格子点をもつ。
【0127】
今、入力データ(中心がグレーの丸)が、図に示す入力値であったとする。すると、上記実施例では、入力データが存在する立方体の中からもっとも近い4点(白抜きの丸)を参照して、次式の補間演算を実行する。
【0128】
S=(A0×C0+A1×C1+A2×C2+A3×C3)/N
によって、色剤S(シアン、マゼンタ、イエロー、ブラックのいずれか)の出力濃度信号が演算される。
【0129】
ここで、C0は、格子点のアドレス(Ci、Mi、Yi:iは格子点アドレス)を示し、C3は、(Ci+1、Mi+1、Yi+1)を示す。C1、C2は、入力信号の上位ビットのデータを利用して求められる格子点アドレスである。
【0130】
A0、A1、A2、A3は、上位ビットによって選択された各格子点との位置関係から決まる補間係数を示す。上記実施例では、4点補間によって、出力の濃度信号を求めたが、他の補間処理によって、出力の濃度信号を求めるようにしてもよい。
【0131】
以上の処理を、色味を表現する各色剤毎に用意されたLUTを使って補間処理し、最終的な色味が決定される。
【0132】
続いて、入力信号の色味に影響を受けずに、有彩色領域を、特定の色味で再現し、無彩色領域を、無彩色で再現する方法について、図16〜19を用いて説明する。
【0133】
図16は、本発明の特徴である色再現を実現するLUTを作成する手順を示すフローチャートである。
【0134】
ステップS1601は、図11で示したのと同様に、有彩色を表現するための色剤の配合比率を決定する。ステップS1602では、ステップS1601で得られた配合比率を、図13に示すようなフルカラー用に作成された(a)〜(d)列までの行列係数を用いてマゼンタに寄与する係数(ベクトルの要素):b00、b01、b02、b03のうちのb00を、
b00=α×(a00+a10+a20)
で求め、その他の係数も、上記と同様に求める。
【0135】
また、イエローに寄与する係数(ベクトルの要素):b10、b11、b12、b13のうちのb10を、
b10=(1−α)×(a00+a10+a20)
で求め、他の係数も、上記と同様に求める(図13−2参照)。
【0136】
続いてステップS1603において、ステップS1602で計算した係数b00、b01、b02、b03、b10、b11、b12、b13と、もともとフルカラー用に作成された(e)列成分とを用いて、図13−3に示すように、有彩色領域は、赤色の色相で処理されるマスキング係数が生成され、無彩色領域は、無彩色で処理されるマスキング係数が生成される。
【0137】
ステップS1604では、ステップS1603で得られたマスキング係数に基づいて、サンプリング間隔Nの離散データを作成する。
【0138】
この状態で作成されたLUTを用いたマスキング処理では、従来の問題点で述べたとおり、入力がシアン、マゼンタ、イエローのような従来の色剤では1次色で再現される信号が薄くなって生成されてしまう。さらには、原稿中の無彩色領域に赤色が混在してしまう。
【0139】
よって、まず、ステップS1605において、LUTにおける無彩色軸(図15においてC1=M1=Y1となる格子点アドレス)に、100%UCRとなるデータを、従来のLUTと入れ替える。具体的には、100%UCR用に作成されたマスキング係数に基づいて作成されたLUTデータの無彩色軸のデータを入れ替える。
【0140】
つまり、K用のLUTでは、無彩色軸に100%UCR用のデータが入り、K以外のLUTでは、全て「0」が挿入される。
【0141】
ここで、フルカラー用に作成されたマスキング係数が100%UCRで作成されていたならば、ステップS1605は省略される。
【0142】
次にステップS1606では、ステップS1605で作成されたLUTデータを用いて、LUTの表面にある格子点データのうちで、無彩色から2次色に繋がる格子点データを用いて、無彩色から1次色に繋がる格子点データを、補間演算によって求める。この様子を、図17を用いて説明する。
【0143】
図17は、LUT(C用、M用、Y用、K用のいずれか)における最明色を表している。
【0144】
Wは、入力濃度値(C1、M1、Y1)が0であった場合で、そのときは白色、つまり、色剤は出力紙に全く印字されず、Kは、入力濃度(C1、M1、Y1)がいずれも255であった場合を示す。LUT内の他の頂点は、最明色R、G、B、C、M、Yを示す。
【0145】
ステップS1606では、図17中の破線で示した無彩色(K、W)から2次色成分の最明色に向かう格子点データを用いて、無彩色(K、W)から、1次色成分の最明色成分のデータ(実線)を補間演算することによって求める。
【0146】
ここで、Wから最明色Yまでの実線部分の格子点データP(0,0,M:0≦M≦N−1)として表現し、括弧内は、シアン、マゼンタ、イエロー各軸における格子点アドレスを表す。
【0147】
格子点Pの離散データは、注目する軸に面する離散データを用いて補間演算して求める。
【0148】
図17に示すように、格子点P(0,0,M)では、この軸を共有するWCGY面内のWG軸にあるq1(M,0,M)、WMRY面内のWR軸にあるq2(0,M,M)の離散データを参照する。
【0149】
P(0,0,M)=β×q1(M,0,M)+(1−β)q2(0,M,M)}
(ただし、0≦β≦1)
上述する補間式を使って、0≦M≦N−1までを計算し、WY軸の離散データを計算する。
【0150】
上記と同様に、WC軸とWY軸との離散データと上記補間式とを使って、WG軸の離散データを求め、WG軸とWR軸との離散データと上記補間式とを使って、WM軸の離散データを求め、KG軸とKR軸との離散データと上記補間式とを使って、KY軸の離散データを求め、KB軸とKG軸との離散データと上記補間式とを使って、KC軸の離散データを求め、KR軸とKB軸との離散データと上記補間式とを使って、KM軸の離散データを求める。
【0151】
以上述べたステップによって、LUTの表面にある無彩色〜最明色に繋がる各軸上離散データができあがる。
【0152】
続いて、ステップS1607では、得られた軸上のデータを用いて残りのLUT表面内の離散データを求める。その様子を、図18を用いて説明する。
【0153】
図18の破線は、ステップS1606で求めた離散データが存在する軸を示し、求める内部の格子点は、黒丸(T1、T2)で示し、参照する軸上のデータを白丸で示す。
【0154】
黒丸のデータT1は、参照する2点(p1、p2)の白丸との空間的な距離の比率(α、1−α:ただし0≦α≦1)を用いて次式の補間演算によって求め、黒丸のデータT2は、参照する2点(p3、p2)の白丸との空間的な距離の比率(β、1−β:ただし0≦β≦1)を用いて次式の補間演算によって求める。
【0155】
なお、参照する格子点p1〜p4は、Tと各軸が直行したときに交わる格子点データである。
【0156】
T1=α×p1+(1−α)×p2
T2=β×p3+(1−β)×p2
以上の処理を、WCBM面、WMRY面、KBMR面、KRYG面、KGCB面についても行う。
【0157】
以上の処理の結果、LUT内の表面上の離散データを全て求めることができる。
【0158】
最後に、ステップS1608で、LUT内部の離散データを求める。
【0159】
この様子を、図19を用いて説明する。
【0160】
図19の破線は、ステップS1606で求めた離散データが存在する軸を示し、求めるLUT内部の格子点を黒丸Uで示し、参照するデータを白丸で示す。
【0161】
求める黒丸Uの離散データは、図19に示すように、黒丸を含む面1901と面1902に存在するWK軸と、LUTの表面データのうちの最も近い6点(q1、q2、q3、q4、q5、q6)との離散データを、空間的な距離の比率(L1、L2、L3、L4、L5、L6)に応じて、次式の補間演算によって求める。
【0162】
U=(L1×q1+L2×q2+L3×q3+L4×q4+L5×q5+L6×q6)
(ここで、L1+L2+L3+L4+L5+L6=1)
図19を見ても分かるように、参照する点のうちで、少なくとも1つは、無彩色軸を参照する。上記実施例では、面1902上の無彩色データを参照して求めているが、これを面1901上の無彩色データを参照するようにしてもよい。
【0163】
この場合は、点q6はWMRY面のデータを参照し、KRYG面で参照していたq5は、WK軸上のデータとなる。
【0164】
また、計算コストを滅らすため、面1902内の4点、あるいは、面1901内の4点を参照して、補間して求めるようにしてもよい。
【0165】
面1902のみのデータで補間する場合、離散データUは、
U=(L1×q1+L3×q3+L4×q4+L6×q6)
である。(ここで、L1+L3+L4+L6=1)
面1901のみのデータで補間する場合、離散データUは、
U=(L1×q1+L2×q2+L4×q4+L5×q5)
である。(ここで、L1+L2+L4+L5=1)
無彩色軸を参照することによって、LUTを使って生成される画像の階調飛びを抑えることができる。
【0166】
以上の処理結果を、内部の格子点データ全てに施すことによって、有彩色領域は、赤色で表現されるLUTデータが完成し、無彩色領域は、無彩色で表現されるLUTデータが完成する。
【0167】
以上の処理によって作成されたLUTを、色補正手段107において使用することによって、簡単に原稿中の有彩色、無彩色を、特定の色味とブラックとを用いた画像を出力できる。
【0168】
なお、上記実施例を、複数の機器(たとえば、ホストコンピュータ、インタフェース機器、リーダ、プリンタ等)から構成されるシステムに適用しても、1つの機器からなる装置(たとえば複写機、ファクシミリ装置等)に適用するようにしてもよい。
【0169】
また、本発明の目的は、実施例の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(CPUまたはMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成される。
【0170】
この場合、記録媒体から読み出されたプログラムコード自体が上述した実施例の機能を実現することになり、そのプログラムコードを記録した記録媒体は、本発明を構成することになる。
【0171】
プログラムコードを供給するための記録媒体としては、たとえば、フロッピーディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。
【0172】
また、コンピュータが読み出したプログラムコードを実行することによって、上述した実施例の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーテイングシステム)等が実際の処理の一部または全部を行い、その処理によって上述して実施例の機能が実現される場合も含まれる。
【0173】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって上述した実施例の機能が実現される場合も含まれる。
【0174】
【発明の効果】
本発明によれば、入力のカラー原稿中の有彩色領域を、特定の色で出力し、無彩色領域を、ブラックで出力したい場合に、入力原稿の色相の影響を受けずに特定色に変換できるので、シアン、マゼンタ、イエロー等の1次色も、レッド、ブルー、グリーン等の2次色と同等の濃度で再生することができるという効果を奏し、また、再生するために用いたLUTは、最明色と無彩色とを構成するデータに基づいて補間演算で作成されるので、階調がなめらかに再現されるという効果を奏する。
【図面の簡単な説明】
【図1】主に、画像処理部209の機能を示すブロック図である。
【図2】文字用の空間フィルタ係数と階調画像用の空間フィルタ係数Kijの一例を示す図である。
【図3】上記実施例において、エッジ強調量分配手段116に入力されたエッジ強調量εと、彩度信号Sと、無彩色/有彩色判定信号KCに基づいて、エッジ強調補正量ε1、εCを生成する動作を示すフローチャートである。
【図4】上記実施例において、エッジ強調量分配手段116に入力されたエッジ強調量εと、彩度信号Sと、無彩色/有彩色判定信号KCに基づいて、エッジ強調補正量ε1、εCを生成する動作の模式図である。
【図5】上記実施例において、黒い文字等の複写画像に対して、色成分をカットし、完全な無彩色信号に色補正する動作を示すフローチャートである。
【図6】上記実施例において、黒い文字等の複写画像に対して、色成分をカットし、完全な無彩色信号に色補正する動作説明図である。
【図7】上記実施例において、色度信号Ca1、Cb1方向を座標軸とする色度座標を示す図である。
【図8】上記実施例における遅延手段103と、エッジ強調量抽出手段113と、彩度量抽出手段114と、無彩色/有彩色判定手段115とを示す図である。
【図9】行列演算によるマスキング演算式を示す図である。
【図10】上記実施例において、フルカラー用のマスキング係数から、1色用に用いるマゼンタとイエローとの係数を演算によって求める様子を示す図である。
【図11】入力原稿を1色で再現するためのマスキング演算係数を求めるフローチャートである。
【図12】図11に示すマスキング係数算出フローチャート内における色剤に配合比率を求めるための最適化の概念を示す図である。
【図13】第2の実施例における2色用のマスキング係数を作成する過程を示す図である。
【図14】第2の実施例における処理動作を示すフローチャートである。
【図15】離散データと入力される信号との関係を示す図である。
【図16】本発明の特徴である色再現を実現するLUTを作成する手順を示すフローチャートである。
【図17】LUT(C用、M用、Y用、K用のいずれか)における最明色を表している。
【図18】図16に示すフローチャートの説明図である。
【図19】図16に示すフローチャートの説明図である。
【図20】本発明の第1の実施例であるカラー複写機CC1の構造断面図である。
【符号の説明】
CC1…カラー複写機、
101…カラー画像入力手段、
102…第1の色空間変換手段、
103…遅延手段、
104…エッジ強調手段、
111…文字/画像判定手段、
112…空間フィルタ係数記憶手段、
113…エッジ強調抽出手段、
114…彩度量抽出手段、
115…無彩色/有彩色判定手段、
116…エッジ強調量分配手段、
117…黒文字/色文字/画像判定信号発生手段、
118…原稿種別判定手段、
121…CPU、
L1…明度信号、
Ca1、Cb…色度信号、
ε…エッジ強調量、
S…彩度信号。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing method, and more particularly to an image processing method for copying a document by replacing an input color image with a specific color signal.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a color image processing apparatus, particularly a color copying machine, performs full color output by performing masking processing optimal for the device characteristics of a printer in order to perform faithful color reproduction on an input document. In addition, using such a processing configuration, for example, a process of reproducing an input original with only a specific color such as red, blue, or green is realized.
[0003]
In the case of realizing such a process of outputting with a specific color, conventionally, the signal processing is performed so as to convert the input signal into the hue of the specific color before the masking process. For example, when red is reproduced as the specific color, the contribution ratio with red (hue) in the RGB space is calculated, and the signal level to the specific color is changed or the CIE 1976 equality is calculated depending on the size of the calculated ratio. Color space L * a * b * Are changed by calculating a contribution to a specific hue.
[0004]
However, as described above, the process of expressing the input document using the red hue is difficult to achieve smooth gradation reproduction and is accompanied by a non-linear process for the input signal. However, the increase in calculation cost cannot be denied, and in hardware, calculation accuracy must be sacrificed due to the complexity of processing.
[0005]
Therefore, for the purpose of improving the above problem, paying attention to the blending ratio of the colorant that specifically expresses the color tone, calculating this masking coefficient with the masking coefficient generated for full color, and calculating a new masking coefficient, There has been proposed a method for reproducing an input document with a specific color by a simple process without changing the conventional hardware configuration.
[0006]
9 to 12 are diagrams for explaining the proposed image processing method.
[0007]
For example, if 5R4 / 14 or the like in the Munsell color chart space is selected as the red color to be expressed, the blending ratio of each colorant is obtained so as to have the same chromaticity as that chromaticity.
[0008]
In the proposed example, in order to obtain the optimum blending ratio of the colorant, the color difference that is reproduced by mixing the target color and the colorant is minimized. As a space for obtaining chromaticity, for example, CIE1976L * a * b * The space is used to determine the color difference to be minimized in consideration of the color reproduction range of the colorant to be expressed, spectral characteristics, and the amount of colorant (toner) paste.
[0009]
Here, it is assumed that 5R4 / 14 of the Munsell color chart space is reproduced only by magenta and yellow.
E = Σ {(Lt * -Ln * ) 2 + (At * -An * ) 2 + (Bt * -Bn * ) 2 }
Is introduced, and the blending ratio of each colorant is calculated so that the evaluation function E is minimized.
[0010]
In the evaluation function E, Lt * , At * , Bt * Indicates the chromaticity of the target color, Ln * , An * , Bn * Indicates the chromaticity when the colorant is changed in accordance with the printer characteristics.
[0011]
In the above proposed example, CIE1976L * a * b * Although space is used, the space to be optimized is not limited to this. Further, the least square method is used as the optimization method. However, in this method, the local minimum does not necessarily show a good solution depending on the method of giving the initial value, and may be realized by another optimization method. .
[0012]
In step S1102, based on the masking coefficient created for full color (FIG. 9), (a), (b), (c) and (d) shown in FIG. The coefficient shown in FIG. 10 (2) is calculated by multiplying this sum by the blending ratio.
[0013]
In this description, the masking operation is shown only by CMYK. However, in order to obtain good color reproduction, higher-order terms may be used for the operation. In this explanation, only the principle is explained, and higher-order terms are not dealt with.
[0014]
In FIG. 10 (1), C ′, M ′, Y, and K ′ are output signals, and C, M, Y, and K are input signals.
[0015]
For example, if the blending ratio is calculated under the condition that the target red is calculated for magenta and yellow, the magenta ratio: α (0 ≦ α <1) and the yellow ratio: 1-α contribute to magenta. Coefficients (vector elements): b00, b01, b02, b03
b00 = α × (a00 + a10 + a20 + a30)
It is. Other components can be obtained in the same manner as described above.
[0016]
Further, coefficients (vector elements) contributing to yellow: b10, b11, b12, b13 are as follows:
b10 = (1-α) × (a00 + a10 + a20 + a30)
It is. Other components are obtained in the same manner as described above.
[0017]
Finally, in step S1103, “0” is set as the coefficient relating to the component of the colorant that does not contribute to red, and the calculation of the coefficient ends.
[0018]
As a result of the above processing, the input original can be duplicated with a specific color component by calculating with the set masking coefficient.
[0019]
[Problems to be solved by the invention]
The above method is useful for simply representing an input document with a specific hue. However, even if the chromatic color part in the input document is expressed with a specific color and the achromatic area is expressed in black, it is not always a good result if an output image that appeals the characteristics of the copy is desired. There is a problem that is not always obtained.
[0020]
Next, the principle of the above problem in the case where the chromatic color is expressed with a specific color will be described, except for the description that the achromatic color region is expressed in black. The following description also applies to the case where the achromatic color component is expressed in black.
[0021]
Note the masking coefficients shown in FIG. Consider the output values when the secondary color (red) is input and when the primary color (cyan) is input by the coefficients in FIG.
[0022]
If the input is a secondary color (red), ideally only values exist for M and Y, so the output signal is
M ′ = M × b01 + Y × b02
Y ′ = M × b11 + Y × b12
It is.
[0023]
If the input is the primary color (cyan), the output signal is
M ′ = C × b00
Y ′ = C × b10
It is.
[0024]
At this time, in the case of a secondary color, two coefficients contribute to each color, as in b01 and b02, and b11 and b12. In the case of a primary color, only one coefficient contributes.
[0025]
In general, when a masking coefficient for full color is calculated based on the blending ratio of colorants and a coefficient for a specific color is created, the coefficient seen in FIG. 10-3 has a positive value (with exceptions), Depending on whether the input color shown above is expressed by a primary color or a secondary color, the density of the output color changes. Therefore, when it is desired to emphasize the chromatic color portion in the document and output it in red or the like, in principle, the characters in the document of the primary color component may be lightly output.
[0026]
The present invention prevents a difference in output density for each hue when a chromatic color component in a document is expressed with a specific color, and chromatic color characters in the document are clearly expressed at the time of output. It is an object of the present invention to provide an image processing method.
[0027]
Specifically, when a chromatic color component in a color input document is expressed in a specific color (for example, red) and an achromatic color component is expressed in black, the black character portion in the document is black and emphasized with a chromatic color. It is an object of the present invention to provide an image processing method capable of reproducing a recorded portion in red.
[0028]
[Means for Solving the Problems]
The present invention is an LUT creation apparatus for creating an LUT for performing image processing for expressing a chromatic color signal in an input signal with a specific color and expressing an achromatic color signal with an achromatic color component. Based on the blending ratio obtained from the blending ratio computing means, the blending ratio calculating means for obtaining the blending ratio of the colorant used to express the color is obtained, and the coefficient for reproducing the specific color is obtained and masked using the coefficient Discrete data calculation means for calculating discrete data used to calculate and express a specific color, and the discrete data of the achromatic color axis of the discrete data obtained by the discrete data calculation means as 100% UCR data, LUT creation means for creating the LUT as discrete data from the achromatic color toward the maximum brightness of the primary color component using the discrete data from the chromatic color toward the maximum brightness of the secondary color component. Is LUT creation apparatus according to claim Rukoto .
[0029]
BEST MODE FOR CARRYING OUT THE INVENTION
[First embodiment]
FIG. 20 is a sectional view of the structure of a color copying machine CC1 according to the first embodiment of the present invention.
[0030]
The image scanner unit 201 reads a document and performs digital processing on the document image. The printer unit 200 is a part that forms an image corresponding to the original image read by the image scanner unit 201 and prints it out on a recording sheet.
[0031]
In the image scanner unit 201, a document pressure plate 202 and a document table glass (platen glass) 203 are provided. The document 204 is placed with its recording surface facing downward in the figure, and its position is fixed by the document pressure plate 202. The lamp 205 is a fluorescent lamp, a halogen lamp, or a xenon lamp, and irradiates the original 204. Reflected light from the original 204 is guided to mirrors 206 and 207, converged by a lens 208, and imaged on a light receiving surface of a linear CCD image sensor (hereinafter referred to as CCD) 210. The CCD 210 separates and reads the light from the document into red (R), green (G), and blue (B) colors, and sends the light to the image processing unit 209.
[0032]
The CCD 210 has light receiving pixels of about 7500 pixels arranged in one line and is composed of a total of 3 lines for each of RGB, and can read 297 mm in the short direction of an A3 size document at 600 dpi (dots / inch). is there. Similarly, a one-dimensional image sensor of about 5000 pixels for each of RGB is sufficient for reading 297 mm in the short direction of an A3 size document at 400 dpi.
[0033]
The fluorescent lamp 205 and the mirror 206 are moved at a speed v and the mirror 207 is v / 2 and mechanically moved in the sub-scanning direction (a direction orthogonal to the CCD 210), so that the reflected light passes through a certain distance. The image is formed on the CCD 210 and read.
[0034]
The reference white plate 211 having uniform chromaticity provides a reference chromaticity value for correcting shading unevenness by the lens 208 and sensitivity unevenness of each pixel of the CCD sensor.
[0035]
The image processing unit 209 converts the signal read by the CCD sensor 210 into a digital signal, and yellow (Y), magenta (M), cyan (C), and black (Bk) corresponding to the ink color at the time of printing. Are formed and sent to the printer unit 200.
[0036]
In addition, for each document scan (corresponding to one sub-scan) in the image scanner unit 201, one color component image in Y, M, C, and Bk is sent to the printer unit 200, and therefore four scans are performed. The printing color component image signals obtained in each scan are sequentially sent to the printer unit 200, thereby completing one printing process.
[0037]
If there is a necessary and sufficient memory in the image processing unit 209, four scans may be unnecessary by storing the result of one scan reading in the memory.
[0038]
In this way, the Y, M, C, and Bk image signals sent from the image processing unit 209 are sent to the laser driver 212 in the printer unit 200. The laser driver 212 outputs laser light by causing a laser diode to emit light according to the image signal of each pixel. The laser beam scans on the photosensitive drum 217 via the polygon mirror 214, the f-θ lens 215, and the mirror 216.
[0039]
The developing units 219 to 222 perform development with yellow, magenta, cyan, and black, respectively. Four developing devices 219 to 222 sequentially come into contact with the photosensitive drum 217 to develop the photosensitive drum electrostatic latent image formed by the laser light irradiation with the corresponding color toner.
[0040]
The transfer drum 223 winds the recording paper fed from the paper cassette 224 or 225 by the action of static electricity, and transfers the toner image developed on the photosensitive drum 217 onto the recording paper. In the recording process using four color components, toner of each color component is superimposed and recorded by rotating the transfer drum 223 four times. Finally, the recording paper is peeled off from the transfer drum 223 by the peeling claw, conveyed toward the fixing unit 226, fixed, and discharged outside the apparatus.
[0041]
The above operation is the outline of the operation of the color copying machine in the above embodiment.
[0042]
In addition, in order to perform multiple recording on the back side of the recording paper, as shown in the figure, a branch conveyance path is provided at the paper discharge port. By taking in the apparatus again through this conveyance path, recording on the back surface, multiple recording, and the like can be performed.
[0043]
Next, an image processing sequence in a normal color copying operation will be described.
[0044]
FIG. 1 is a block diagram mainly showing functions of the image processing unit 209.
[0045]
The CPU 121 controls the entire apparatus using the RAM 123 as a work memory in accordance with the program and data stored in the ROM 122.
[0046]
A G1 signal that is one of the three color separation signals R1, G1, and B1 of the color image read by the color image input unit 101 (corresponding to the image scanner unit 201 in FIG. 20) is input to the character / image determination unit 111. Then, it is determined whether the pixel is a line image such as a character or a line drawing, or a gradation image such as a photograph or a print image, and the determination result is output as a character / image determination signal TI.
[0047]
For example, the character / image determination unit 111 extracts a G component signal of about 3 × 3 (which may be changed as appropriate depending on the reading resolution), calculates a difference between the maximum value and the minimum value, and calculates the difference. A process of determining whether or not is greater than a specific value is performed. In the vicinity of the edge of a character or line drawing, the difference (luminance change) takes a large value, and conversely, in the case of a halftone image, the phenomenon that the difference is small is used. Further, in order to distinguish from the print image, the above 3 × 3 area is expanded and discriminated from the correspondence relationship between the feature of the image and the spatial frequency characteristic.
[0048]
Further, the character / image determination signal TI is supplied to the spatial filter coefficient storage unit 112. The spatial filter coefficient storage means 112 is constituted by, for example, a ROM or the like, and when the target pixel indicates a character or a line drawing (for example, TI = '1'), the spatial filter coefficient for the character is selected and output, and the gradation ( When a halftone image is indicated (for example, TI = '0'), a spatial filter coefficient for gradation image is selected and output.
[0049]
FIGS. 2A and 2B are diagrams illustrating examples of a spatial filter coefficient for characters and a spatial filter coefficient Kij for a gradation image.
[0050]
The DC component of the spatial filter for characters and the spatial filter for gradation images is “1”, whereas the spatial filter for characters or the spatial filter for gradation images in the above-described embodiment is shown in FIG. As shown in (1) and (2), the DC component is set to “0”.
[0051]
That is, for the image flat portion having no edge component, the output signal after the conventional spatial filtering is the input image value as it is, whereas in the above embodiment, the output value after the spatial filtering is “0”. .
[0052]
On the other hand, three signals of the three color separation signals R1, G1, and B1 of the color image are input to the first color space conversion unit 102, and the lightness signal L1 representing brightness and the chromaticity signals Ca1 and Cb1 representing color are obtained. And converted to The lightness signal L1 and the chromaticity signals Ca1 and Cb1 are colorimetrically determined according to CIE1976 (L * a * b * ) Three variables of color space L * , A * , B * And CIE 1976 (L * u * v *) 3 variables L of color space * , U * , V * Alternatively, an arbitrary color space determined more simply may be used.
[0053]
The following equation (1) is an example of a conversion equation for simply converting the three-color separation signals R, G, and B into the lightness signal L1 and the chromaticity signals, Ca1 and Cb1, and the calculation is very Therefore, in the above embodiment, the formula (1) is used.
[0054]
L = (R + 2G + B) / 4
Ca = (R−G) / 2
Cb = (R + G−2B) / 4 (1)
The lightness signal L1 converted by the first color space conversion means 102 and the chromaticity signals Ca1 and Cb1 are input to the delay means 103, and signals for N lines are stored for the lightness signal L1. For the degree signals Ca1 and Cb1, signals for (N / 2) lines are stored.
[0055]
More specifically, when 5 × 5 pixel spatial filter processing is performed, a total of five lines of data of the lightness signal L1 for four lines and the lightness signal L1 for the current line with respect to the lightness signal Li. Is input to the edge enhancement extraction means 113.
[0056]
The edge enhancement amount extraction unit 113 calculates the brightness signal in the 5 × 5 pixel block based on the spatial filter coefficient Kij (which depends on the character / image determination signal TI) output from the spatial filter coefficient storage unit 112, and The edge enhancement amount ε of the pixel (the pixel at the center position in the 5 × 5 pixel block) is calculated and output.
[0057]
When a 5 × 5 brightness signal is represented by L1ij (i = 1 to 5, j = 1 to 5), the edge enhancement amount ε is as follows.
[0058]
ε = (ΣL1ij * Kij) / C
Here, * indicates multiplication, and C is a normalization constant that normalizes the edge-emphasized component.
[0059]
The edge enhancement amount ε is supplied to the edge enhancement amount distribution unit 116. The edge enhancement amount distribution unit 116 is based on the edge enhancement amount ε, the saturation signal S output from the saturation amount extraction unit 114, and the determination signal KC output from the achromatic / chromatic color determination unit 115 described later. The edge enhancement amount ε1 of the lightness signal L1 and the edge enhancement correction amount εC of the chromaticity signals Ca1, Cb1 are generated and output to the edge enhancement unit 104.
[0060]
Although not shown in FIG. 1, the chromaticity signals Ca1 and Cb1 delayed by the delay unit 103 are actually data for a total of three lines of the delayed two lines and the current line. This is input to the saturation amount extraction means 114. In response to this, the saturation amount extraction unit 114 generates and outputs a saturation signal S representing the vividness of the color as described above.
[0061]
Next, a method for generating the saturation signal S based on the chromaticity signals Ca1 and Cb1 will be briefly described.
[0062]
The chromaticity signals Ca1 and Cb1 are the above-mentioned CIE1976 (L * , A * , B *) signal in color space (a * , B * ) And CIE 1976 (L * , U * , V * ) Signal in color space (u * , V * ), The saturation signal S is determined by the following equation (2). The symbol “^” represents a power.
[0063]
S = (Ca1 ^ 2 + Cb1 ^ 2) ^ 0.5 (2)
Furthermore, for simplicity, the saturation signal S may be determined by the following equation (3).
[0064]
S = MAX (Ca1, Cb1) (3)
Here, the function MAX (A, B) outputs a large value among the absolute values of the variables A and B.
[0065]
Now, in addition to the edge enhancement amount ε and the saturation signal S, the determination signal KC output from the achromatic / chromatic color determination unit 115 described later is also input to the edge enhancement amount distribution unit 116 as described above. .
[0066]
The achromatic / chromatic color determination means 115 determines whether the pixel is black and white (achromatic color) or color (chromatic color), and outputs a determination signal KC. In the above embodiment, the input signal to the achromatic / chromatic color determining means 115 is the saturation signal S representing the vividness of the color, and the achromatic / chromatic color is determined based on the saturation signal S.
[0067]
However, as described above, the saturation signal S is generated by the saturation amount extraction unit 114 based on the chromaticity signals Ca1 and Cb1 for three lines delayed by the delay unit 103. As the input signal to the chromatic color determination means 115, the saturation signal S and the chromaticity signals Ca1 and Cb1 which are the original signals may be input. In this case, the Ca1 and Cb1 signal lines drawn to the saturation amount extraction unit 114 illustrated in FIG. 1 are extended to the achromatic / chromatic color determination unit 115 together with the saturation signal S.
[0068]
Next, the delay means 103, the edge enhancement amount extraction means 113, the saturation amount extraction means 114, and the achromatic / chromatic color determination means 115, which are the peripheral parts thereof, in the above embodiment will be described in detail.
[0069]
FIG. 8 is a diagram showing the delay unit 103, the edge enhancement amount extraction unit 113, the saturation amount extraction unit 114, and the achromatic / chromatic color determination unit 115 in the above embodiment.
[0070]
The lightness signal L1 output from the first color space conversion means 102 and the chromaticity signals Ca1 and Cb1 are synchronized with the central pixel of the lightness signal by the line memories 801 to 804 of the delay means 103. Signals of two lines for the signal Ca1 and two lines for the chromaticity signal Cb1 are stored in the line memories 805 and 806.
[0071]
Here, assuming that the center line is j line, j-2, j-1, j, j + 1, j + 2 lines are stored for lightness, and lightness signals for five lines including the current line j + 2 line are stored. Are input to the edge enhancement amount extraction means 113.
[0072]
The edge amount emphasizing unit 113 generates edge-enhanced data (edge enhancement amount ε) based on the 5 × 5 brightness signal from the delay unit 103 and the 5 × 5 filter coefficient from the spatial filter coefficient storage unit 112. Since it is created, it is sufficient to simply consider 25 multipliers and 24 adders.
[0073]
On the other hand, for the chromaticity signal Ca1, the line memories 805 and 806 of the delay means 103 store the j and j + 1 lines, and the chromaticity signal Ca1 for three lines including the current line j + 2 is extracted as the saturation amount. The information is supplied to the means 114 and the achromatic / chromatic color determination means 115.
[0074]
Further, in the above embodiment, when the saturation signal S and the achromatic / chromatic color determination signal KC are calculated, the calculation method using the above equations (2) and (3) is used as three lines j, j + 1, and j + 2. It is also possible to perform spatial processing using minute data. For example, the saturation signal S averages the saturation signals of adjacent pixels of 3 × 3 size, and the average value can be represented as the saturation signal S. The achromatic / chromatic color determination signal KC is Similarly to the above, it is possible to statistically process the determination result of the adjacent pixels of 3 × 3 size, and use the result as the representative value KC of the achromatic / chromatic color determination signal.
[0075]
Next, a method for calculating the achromatic / chromatic color determination signal KC from the obtained saturation signal S will be described.
[0076]
Now, when the saturation signal S is small, the pixel is black and white (achromatic color), and when the saturation signal S is large, the pixel is color (chromatic color). Therefore, simply, the achromatic / chromatic color determination signal KC is determined by the following equation (4) using a predetermined threshold ρ.
[0077]
If S <ρ, KC = achromatic color
If S ≧ ρ, KC = chromatic color (Equation (4))
Next, a process for generating the edge enhancement correction amounts ε1 and εC based on the edge enhancement amount ε, the saturation signal S, and the achromatic / chromatic color determination signal KC input to the edge enhancement amount distribution unit 116 will be described. To do.
[0078]
First, the distribution of the edge enhancement correction amount ε for the lightness signal L1 is increased, and the total edge enhancement amount ε is assigned to ε1 for achromatic signal pixels. Further, edge correction for the brightness signal is not performed for pixels having a saturation equal to or higher than a predetermined threshold.
[0079]
FIG. 3 shows the edge enhancement correction amounts ε1, εC based on the edge enhancement amount ε, the saturation signal S, and the achromatic / chromatic color determination signal KC input to the edge enhancement amount distribution means 116 in the above embodiment. It is a flowchart which shows the operation | movement which produces | generates.
[0080]
FIG. 4 shows the edge enhancement correction amounts ε1, εC based on the edge enhancement amount ε, the saturation signal S, and the achromatic / chromatic color determination signal KC input to the edge enhancement amount distribution means 116 in the above embodiment. It is a schematic diagram of the operation | movement which produces | generates.
[0081]
In step S1 shown in FIG. 3, the target pixel branches according to the achromatic / chromatic color determination signal KC.
[0082]
When the determination signal KC is achromatic (when the determination in step S1 is YES), in order to allocate the total edge enhancement amount to ε1, in step S2, “1” is allocated to the multiplication coefficient γ, and in step S5. 1 = γε, that is, ε is assigned to ε1.
[0083]
If it is determined that the color is a chromatic color, it is determined whether the saturation signal S is larger than the predetermined value η. If it is determined that the saturation signal S is larger than the predetermined value η, the multiplication coefficient γ is set to “0”. In step S6, 1 is assigned to γε, that is, “0”.
[0084]
On the other hand, when the saturation S is 7 or less, it is difficult to determine whether the pixel of interest is a chromatic color or an achromatic color, so that the process proceeds to steps S5 and S6, and the multiplication coefficient γ and further the edge enhancement correction are performed. The quantity ε1 is determined by the following equation (5).
[0085]
γ = (1− (S−α) / (ηα))
.epsilon.l = (1- (S-.alpha.) / (. eta .-. alpha.)). epsilon. (5)
When the above processing is performed, the relationship among α, the predetermined value η, and the multiplication coefficient γ is as shown in FIG.
[0086]
That is, when it can be determined that the color is substantially achromatic, the multiplication coefficient γ is “1”, and when it can be determined that the color is chromatic, the multiplication coefficient γ is “0”. In the intermediate state, a value of 0 to 1 (that is, a decimal point) is taken according to the saturation signal S as shown in the figure.
[0087]
Next, the edge enhancement correction amount εc for the chromaticity signals Ca1 and Cb1 will be described.
[0088]
For chromaticity signals, basically, contrary to that of lightness signals, the higher the saturation (brilliant colors), the more the edge enhancement amount ε is distributed to the chromaticity signals, so that On the other hand, edge correction is not performed, and the chromaticity signal of the target pixel is also removed.
[0089]
This is because in the case of an image processing apparatus in a color copying machine or the like, if a color component remains in a copied image such as a black character, the image quality is visually deteriorated. In other words, for such a pixel, it is necessary to cut the color component and correct the color to a complete achromatic signal.
[0090]
This will be described with reference to the flowchart of FIG. 5 and the schematic diagram of FIG.
[0091]
In step S11 of FIG. 5, first, the process for the target pixel is switched according to the achromatic / chromatic color determination signal KC. That is, when the determination signal KC indicates an achromatic color (when step S11 in the figure is YES), as described above, in order to set the edge enhancement amount ε to “0”, the multiplication coefficient γ is set to “ By setting “0” and performing the calculation in step S18, the edge enhancement correction amount εC is set to “0”.
[0092]
If the determination in step S11 is NO, the process proceeds to step S13, and the saturation signal S is compared with the threshold value λ2. If S> λ2, the multiplication coefficient γ is set to “1” in step S14, the calculation in step S18 is performed, and the edge enhancement correction amount εC is set to a value of γ (1−ε / κ).
[0093]
If it is determined in step S13 that S> λ2, the process proceeds to step S15, where the saturation S and λ1 are compared to determine whether S <λ1. If this inequality is satisfied, the pixel of interest may be determined to be achromatic, so the multiplication coefficient γ is set to “0”.
[0094]
If it is determined in step S15 that S <λ1, the multiplication coefficient γ is set to a value corresponding to the saturation signal S (a value between “0” and “1”). Thus, the multiplication coefficient γ is determined from the following equation (6).
[0095]
γ = (S−λ1) / (λ2λ−λ1) (6)
In step S18, an edge enhancement correction amount εc for the chromaticity signal is obtained according to the equation (7).
[0096]
εc = γ (1-ε / κ) (7)
Here, κ is a normalization constant.
[0097]
As a result, the multiplication coefficient γ takes a value corresponding to the chromaticity signal S as shown in FIG. That is, the multiplication coefficient γ takes a value of “0” until the saturation value (threshold value λ1), and the edge enhancement correction amount εc = 0.
[0098]
The saturation S is γ = (S−λ1) / (λ2−λ1) from the threshold λ1 to λ2, and increases continuously as the saturation S increases. When the saturation S is higher than the threshold value λ2, γ = 1, so that the edge enhancement correction amount εc = 1−ε / κ.
[0099]
As described above, the generated edge enhancement correction amounts ε1 and εc are supplied to the edge enhancement unit 104 together with the lightness signal L and the chromaticity signals Ca and Cb.
[0100]
The edge enhancement unit 104 adds the edge enhancement correction amount ε1 to the brightness signal L from the delay unit 103, and the edge enhancement correction amount εc to the chromaticity signals Ca and Cb from the delay unit 103. Multiply processing is performed to generate L2, Ca2, and Cb2. That is,
L2 = εl + L1
Ca2 = εc * Ca1
Cb2 = εc * Cb1 Equation (8)
It becomes.
[0101]
As can be seen from the equation (8), for the lightness signal L, by adding the edge correction amount ε1, the lightness is preserved in a pixel that has high saturation and does not want edge enhancement in the lightness (εl = 0). Is done. On the other hand, by multiplying the chromaticity signals Ca and Cb by the edge correction amount εc, the edge correction amount εc gradually becomes smaller as the saturation is lower and closer to an achromatic color. In this case, the edge correction amount εc = 0. That is, the lower the saturation value, the easier the removal of the chromaticity component of the target pixel itself is controlled.
[0102]
Next, the preservability of the hue (hue) with respect to edge enhancement of the chromaticity signal will be described.
[0103]
FIG. 7 is a diagram showing chromaticity coordinates with the chromaticity signals Ca1 and Cb1 directions as coordinate axes.
[0104]
For ease of explanation, the Ca and Cb axes are CIE 1976 (L * , A * , B * A) in color space * , B * Suppose that it is an axis.
[0105]
A * , B * The axis intersection point 0 represents an achromatic color, and the further away from the intersection point 0, the higher the saturation, * The angle formed with the axis represents the color (hue). The direction perpendicular to the paper surface is the lightness L * become.
[0106]
Here, when the target pixel is the chromaticity signals Ca1 (702) and Cb1 (703), this color is represented by a vector 701 on the chromaticity coordinates. The edge-corrected signals Ca2 and Cb2 generated by multiplying the chromaticity signals Ca1 and Cb1 by the edge correction amount εc according to the equation (8) are εcCa1 and εcCb1, and are represented by a vector 704 on the chromaticity coordinates. As shown, a * The angle with the axis does not change, indicating that there is no change in color. That is, the vividness is enhanced by the emphasis, but the change in color is not substantially affected.
[0107]
Now, as described above, when edge enhancement processing is performed, the signals L2, Ca2, and Cb2 are supplied to the second color space conversion means 105, where they are inversely converted to R, G, and B values.
[0108]
The following equation (9) is an example of a conversion equation for converting the lightness signal L2 and the chromaticity signals Ca2 and Cb2 into the three-color separation signals R2, G2, and B2, and the equation ( It can be obtained from 1).
[0109]
R2 = (4L + 5Ca + 2Cb) / 4
G2 = (4L-3Ca + 2Cb) / 4
B2 = (4L + Ca-6Cb) / 4 (9)
Hereinafter, the three-color separation signals inversely converted into signals R2, G2, and B2 are input to the luminance / density conversion means 106 and converted into density signals C1, M1, and Y1. Note that conversion from RGB to the CMY color system itself is well-known and will not be described here.
[0110]
The density signals C1, M1, and Y1 are then subjected to background removal (UCR processing) by the color correction means 107, and are subjected to color processing such as generation of a black component signal K, undercolor removal, and color correction. Signals C2, M2, Y2, and K2 are output.
[0111]
In the above embodiment, the color correction unit 107 performs this processing in accordance with the TC signal from the black character / color character / image determination signal generation unit 117.
[0112]
The black character / color character / image determination signal generation means 117 inputs the color determination signal KC, which is the determination result of the achromatic / chromatic color determination means 115, and the TI signal, which is the determination result of the character / image determination means 111. , TC signal is generated.
[0113]
For example, color correction is performed with emphasis on highlight color reproducibility for image signals, and background color is skipped for color characters and black character signals, and color correction is performed with highlight reproduction removed. Similarly, the binarization unit 108 and the smoothing / resolution conversion unit 109 also perform the respective processes while referring to the determination signal TI which is the determination result of the character / image determination unit 111, and the color image output unit At 110, a color image is printed and recorded.
[0114]
A document type determination unit 118 shown in FIG. 1 is a processing block for determining whether an input document is a color document or a monochrome document. Usually, an image read in a pre-scan or back-scan performed before a copying operation is performed. Based on the achromatic / chromatic color discrimination signal, the document is recognized, and each image processing parameter is set by the CPU 121 according to the recognition result before the actual copying sequence starts. The operation sequence of the color copying machine that is normally performed is as described above.
[0115]
The image processing featured in the above embodiment reproduces a chromatic component in an input color image with a specific color, and reproduces an achromatic component with an achromatic color (black). In the above embodiment, a process for reproducing an input image signal in red as a specific color is described. For a color component intermediate between an achromatic color component and a chromatic color component, a colorant that expresses black and red is used. It is expressed in a mixed color.
[0116]
First, the configuration of the color correction unit 107 in the above embodiment will be described.
[0117]
Conventionally, color correction is mainly performed by matrix calculation when a full color color is reproduced mainly by effectively using the color reproduction range of a colorant of a printer. For example, it is implemented in the form of a 4 × 4 matrix operation as shown in FIG. In the case of matrix operation, a CMYK signal obtained by generating a K (black) signal from an input CMY signal through UCR processing is used for the operation.
[0118]
In addition, when importance is attached to the color matching with the original, the color matching accuracy at the signal level can be improved by using matrix coefficients corresponding to higher dimensions.
[0119]
However, increasing the order to improve the color accuracy will increase the hardware scale, and depending on the characteristics of the printer engine, the effect of increasing the order may not be expected so much. Processing cannot be said to generally produce high image quality.
[0120]
In the color correction unit 107 in the above-described embodiment, data having a theoretically high matching accuracy is provided as an LUT (look-up table) by a calculation using a high dimension in advance instead of a masking process by a matrix operation. A density signal is generated by interpolation calculation from the relationship with the signal level.
[0121]
The density signal obtained by performing the interpolation operation using the LUT has an advantage that the theoretical color matching accuracy can be improved with a relatively simple circuit configuration as compared with the density signal generated by the conventional matrix operation. FIG. 14 is a diagram showing input / output of processing blocks realized by the color correction unit 107.
[0122]
As shown in FIG. 14, the input is an 8-bit signal for each of C1, M1, and Y1, and an output signal S for a three-dimensional input signal is executed by table conversion. However, if conversion data for all input signals is tabulated, 256 × 256 × 256 = 16 MByte is required only for the capacity of the table, and therefore, calculation is performed by discrete lattice points + linear interpolation.
[0123]
In the block shown in FIG. 14, discrete data (LUT) calculated separately for each output colorant (S) (C ′, M, Y ′, K ′) is set.
[0124]
FIG. 15 is a diagram illustrating the relationship between discrete data and an input signal.
[0125]
In FIG. 15, black circles and white circles indicate discrete data on each lattice point. Again, the data present at this grid point is data after a masking operation that has been optimized in advance to minimize the color difference.
[0126]
The inputs are C1, M1, and Y1, and since the LUT is realized by N discrete data, each axis (C1, M1, and Y1 axes) has N lattice points.
[0127]
Now, it is assumed that the input data (centered gray circle) is the input value shown in the figure. Then, in the above-described embodiment, the interpolation operation of the following equation is executed with reference to the nearest four points (outlined circles) from the cube in which the input data exists.
[0128]
S = (A0 * C0 + A1 * C1 + A2 * C2 + A3 * C3) / N
Thus, an output density signal of the colorant S (any one of cyan, magenta, yellow, and black) is calculated.
[0129]
Here, C0 indicates a grid point address (Ci, Mi, Yi: i is a grid point address), and C3 indicates (Ci + 1, Mi + 1, Yi + 1). C1 and C2 are lattice point addresses obtained using the upper bit data of the input signal.
[0130]
A0, A1, A2, and A3 indicate interpolation coefficients determined from the positional relationship with each grid point selected by the higher-order bits. In the above embodiment, the output density signal is obtained by four-point interpolation, but the output density signal may be obtained by other interpolation processing.
[0131]
The above process is interpolated using the LUT prepared for each colorant expressing the color, and the final color is determined.
[0132]
Next, a method of reproducing a chromatic color area with a specific color and reproducing an achromatic color area with an achromatic color without being affected by the color of the input signal will be described with reference to FIGS. .
[0133]
FIG. 16 is a flowchart showing a procedure for creating an LUT that realizes color reproduction, which is a feature of the present invention.
[0134]
In step S1601, the blending ratio of the colorant for expressing the chromatic color is determined in the same manner as shown in FIG. In step S1602, the blending ratio obtained in step S1601 is calculated by using the matrix coefficients (a) to (d) created for full color as shown in FIG. ): B00 out of b00, b01, b02, b03,
b00 = α × (a00 + a10 + a20)
The other coefficients are obtained in the same manner as described above.
[0135]
Further, the coefficient (vector element) contributing to yellow: b10 out of b10, b11, b12, b13,
b10 = (1-α) × (a00 + a10 + a20)
The other coefficients are obtained in the same manner as described above (see FIG. 13-2).
[0136]
Subsequently, in step S1603, using the coefficients b00, b01, b02, b03, b10, b11, b12, b13 calculated in step S1602 and the (e) column component originally created for full color, FIG. As shown in FIG. 6, a masking coefficient processed with a red hue is generated in the chromatic color area, and a masking coefficient processed with an achromatic color is generated in the achromatic color area.
[0137]
In step S1604, discrete data with a sampling interval N is created based on the masking coefficient obtained in step S1603.
[0138]
In the masking process using the LUT created in this state, as described in the conventional problem, the signal reproduced in the primary color is thinned with the conventional colorants such as cyan, magenta, and yellow. Will be generated. Furthermore, red is mixed in the achromatic region in the document.
[0139]
Therefore, first, in step S1605, data with 100% UCR is replaced with the conventional LUT on the achromatic axis in the LUT (the grid point address where C1 = M1 = Y1 in FIG. 15). Specifically, the achromatic color axis data of the LUT data created based on the masking coefficient created for 100% UCR is replaced.
[0140]
That is, in the LUT for K, 100% UCR data is entered on the achromatic color axis, and “0” is inserted in all other LUTs.
[0141]
If the masking coefficient created for full color is created with 100% UCR, step S1605 is omitted.
[0142]
Next, in step S1606, using the LUT data created in step S1605, out of the grid point data on the surface of the LUT, the grid point data connected from the achromatic color to the secondary color is used to convert the achromatic color to the primary color. The grid point data connected to the color is obtained by interpolation calculation. This will be described with reference to FIG.
[0143]
FIG. 17 shows the brightest color in the LUT (C, M, Y, or K).
[0144]
W is the case where the input density value (C1, M1, Y1) is 0. At that time, white, that is, no colorant is printed on the output paper, and K is the input density (C1, M1, Y1). ) Shows a case where all are 255. The other vertices in the LUT indicate the brightest colors R, G, B, C, M, and Y.
[0145]
In step S1606, from the achromatic color (K, W) to the primary color component using the grid point data from the achromatic color (K, W) to the brightest color of the secondary color component indicated by the broken line in FIG. Is obtained by interpolation calculation of the data of the brightest color component (solid line).
[0146]
Here, it is expressed as grid point data P (0, 0, M: 0 ≦ M ≦ N−1) of the solid line portion from W to the brightest color Y, and the brackets are grids on the cyan, magenta, and yellow axes. Represents a point address.
[0147]
The discrete data of the grid point P is obtained by performing an interpolation operation using the discrete data facing the axis of interest.
[0148]
As shown in FIG. 17, at lattice point P (0, 0, M), q1 (M, 0, M) on the WG axis in the WCGY plane sharing this axis and q2 on the WR axis in the WMRY plane Reference is made to discrete data of (0, M, M).
[0149]
P (0,0, M) = β × q1 (M, 0, M) + (1-β) q2 (0, M, M)}
(However, 0 ≦ β ≦ 1)
Using the above-described interpolation formula, 0 ≦ M ≦ N−1 is calculated, and discrete data on the WY axis is calculated.
[0150]
Similarly to the above, the discrete data of the WC axis and the WY axis and the above interpolation formula are used to obtain the discrete data of the WG axis, and the discrete data of the WG axis and the WR axis and the above interpolation formula are used to determine the WM axis. Discrete data of axes is obtained, discrete data of KG axes and KR axes and the above interpolation formula are used to obtain discrete data of KY axes, and discrete data of KB and KG axes and the above interpolation formula are used. , KC-axis discrete data is obtained, and KM-axis discrete data is obtained using the KR-axis and KB-axis discrete data and the above interpolation formula.
[0151]
Through the steps described above, discrete data on each axis connected to the achromatic color to the brightest color on the surface of the LUT is completed.
[0152]
Subsequently, in step S1607, discrete data in the remaining LUT surface is obtained using the obtained data on the axis. This will be described with reference to FIG.
[0153]
The broken lines in FIG. 18 indicate the axes on which the discrete data obtained in step S1606 exists, the internal lattice points to be obtained are indicated by black circles (T1, T2), and the data on the referenced axes are indicated by white circles.
[0154]
The black circle data T1 is obtained by interpolation calculation of the following equation using the spatial distance ratio (α, 1-α: where 0 ≦ α ≦ 1) between the two points (p1, p2) to be referenced and the white circle: The black circle data T2 is obtained by interpolation calculation of the following equation using the ratio of the spatial distance between the two points (p3, p2) to be referenced and the white circle (β, 1-β: where 0 ≦ β ≦ 1).
[0155]
The grid points p1 to p4 to be referred to are grid point data that intersect when T and each axis are orthogonal.
[0156]
T1 = α × p1 + (1−α) × p2
T2 = β × p3 + (1−β) × p2
The above processing is also performed on the WCBM surface, the WMRY surface, the KBMR surface, the KRYG surface, and the KGCB surface.
[0157]
As a result of the above processing, all the discrete data on the surface in the LUT can be obtained.
[0158]
Finally, in step S1608, discrete data inside the LUT is obtained.
[0159]
This will be described with reference to FIG.
[0160]
The broken lines in FIG. 19 indicate the axes where the discrete data obtained in step S1606 exists, the lattice points inside the LUT to be obtained are indicated by black circles U, and the data to be referenced are indicated by white circles.
[0161]
As shown in FIG. 19, the discrete data of the black circle U to be obtained is the nearest six points (q1, q2, q3, q4, WK axis existing on the surface 1901 including the black circle, the surface 1902, and the surface data of the LUT. Discrete data with q5, q6) is obtained by interpolation calculation of the following equation according to the spatial distance ratio (L1, L2, L3, L4, L5, L6).
[0162]
U = (L1 × q1 + L2 × q2 + L3 × q3 + L4 × q4 + L5 × q5 + L6 × q6)
(Here L1 + L2 + L3 + L4 + L5 + L6 = 1)
As can be seen from FIG. 19, at least one of the reference points refers to the achromatic axis. In the embodiment described above, the achromatic color data on the surface 1902 is referred to. However, the achromatic color data on the surface 1901 may be referred to.
[0163]
In this case, the point q6 refers to data on the WMRY plane, and q5 referred to on the KRYG plane is data on the WK axis.
[0164]
Further, in order to reduce the calculation cost, it may be obtained by interpolation with reference to four points in the surface 1902 or four points in the surface 1901.
[0165]
When interpolating with only the data of the surface 1902, the discrete data U is
U = (L1 × q1 + L3 × q3 + L4 × q4 + L6 × q6)
It is. (Here, L1 + L3 + L4 + L6 = 1)
When interpolating with only the data of the surface 1901, the discrete data U is
U = (L1 × q1 + L2 × q2 + L4 × q4 + L5 × q5)
It is. (Here, L1 + L2 + L4 + L5 = 1)
By referring to the achromatic color axis, it is possible to suppress gradation skip of an image generated using the LUT.
[0166]
By applying the above processing results to all the internal grid point data, LUT data expressed in red is completed in the chromatic color area, and LUT data expressed in achromatic color is completed in the achromatic color area.
[0167]
By using the LUT created by the above processing in the color correction means 107, it is possible to easily output an image using chromatic colors and achromatic colors in a document using specific colors and black.
[0168]
Even if the above embodiment is applied to a system composed of a plurality of devices (for example, a host computer, interface device, reader, printer, etc.), a device (for example, a copier, a facsimile machine, etc.) composed of a single device. You may make it apply to.
[0169]
In addition, an object of the present invention is to supply a recording medium recording software program codes for realizing the functions of the embodiments to a system or apparatus, and the computer (CPU or MPU) of the system or apparatus is stored in the recording medium. It is also achieved by reading and executing the program code.
[0170]
In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiments, and the recording medium on which the program code is recorded constitutes the present invention.
[0171]
As a recording medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
[0172]
Further, by executing the program code read out by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code, etc. Includes a case where part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing.
[0173]
Further, after the program code read from the storage medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. This includes a case where the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
[0174]
【The invention's effect】
According to the present invention, when a chromatic color area in an input color document is output in a specific color and an achromatic color area is output in black, it is converted into a specific color without being affected by the hue of the input document. As a result, the primary colors such as cyan, magenta, and yellow can be reproduced with the same density as the secondary colors such as red, blue, and green, and the LUT used for reproduction is Since it is created by the interpolation calculation based on the data constituting the brightest color and the achromatic color, there is an effect that the gradation is reproduced smoothly.
[Brief description of the drawings]
FIG. 1 is a block diagram mainly showing functions of an image processing unit 209. FIG.
FIG. 2 is a diagram illustrating an example of a spatial filter coefficient for characters and a spatial filter coefficient Kij for a gradation image.
FIG. 3 shows that in the embodiment, the edge enhancement correction amounts ε1, εC based on the edge enhancement amount ε, the saturation signal S, and the achromatic / chromatic determination signal KC input to the edge enhancement amount distribution means 116; It is a flowchart which shows the operation | movement which produces | generates.
4 is a diagram illustrating an example of edge enhancement correction amounts ε1, εC based on the edge enhancement amount ε, the saturation signal S, and the achromatic / chromatic color determination signal KC input to the edge enhancement amount distribution unit 116 in the embodiment. FIG. It is a schematic diagram of the operation | movement which produces | generates.
FIG. 5 is a flowchart showing an operation of cutting a color component of a copy image such as a black character and performing color correction to a complete achromatic signal in the embodiment.
FIG. 6 is an operation explanatory diagram for cutting a color component and performing color correction to a complete achromatic signal for a copy image such as a black character in the embodiment.
FIG. 7 is a diagram showing chromaticity coordinates with the chromaticity signals Ca1 and Cb1 directions as coordinate axes in the embodiment.
FIG. 8 is a diagram illustrating a delay unit 103, an edge enhancement amount extraction unit 113, a saturation amount extraction unit 114, and an achromatic / chromatic color determination unit 115 in the embodiment.
FIG. 9 is a diagram illustrating a masking operation expression by matrix operation.
FIG. 10 is a diagram illustrating a state in which magenta and yellow coefficients used for one color are obtained by calculation from full-color masking coefficients in the embodiment.
FIG. 11 is a flowchart for obtaining a masking calculation coefficient for reproducing an input document in one color.
12 is a diagram showing an optimization concept for obtaining a blending ratio of a colorant in the masking coefficient calculation flowchart shown in FIG.
FIG. 13 is a diagram illustrating a process of creating masking coefficients for two colors in the second embodiment.
FIG. 14 is a flowchart showing a processing operation in the second embodiment.
FIG. 15 is a diagram illustrating a relationship between discrete data and an input signal.
FIG. 16 is a flowchart showing a procedure for creating an LUT that realizes color reproduction, which is a feature of the present invention.
FIG. 17 illustrates the brightest color in the LUT (any one of C, M, Y, and K).
FIG. 18 is an explanatory diagram of the flowchart shown in FIG. 16;
FIG. 19 is an explanatory diagram of the flowchart shown in FIG. 16;
FIG. 20 is a sectional view showing the structure of a color copying machine CC1 according to the first embodiment of the present invention.
[Explanation of symbols]
CC1 ... Color copier,
101 ... Color image input means,
102: First color space conversion means,
103 ... delay means,
104 ... edge enhancement means,
111... Character / image determining means,
112: Spatial filter coefficient storage means,
113 ... Edge emphasis extraction means,
114 ... saturation amount extraction means,
115 ... achromatic / chromatic color determining means,
116: Edge enhancement amount distribution means,
117... Black character / color character / image determination signal generating means,
118: Document type determination means,
121 ... CPU,
L1: Lightness signal,
Ca1, Cb ... chromaticity signal,
ε: Edge enhancement amount,
S: Saturation signal.

Claims (9)

入力信号内の有彩色信号を特定の色で表現し、無彩色信号を無彩色成分で表現する画像処理を行なうためのLUTを作成するLUT作成装置であって、
上記特定の色を表現するために用いる色剤の配合比率を求める配合比率演算手段と;
上記配合比率演算手段から得られた配合比率に基づいて、上記特定の色を再現する係数を得て該係数を用いマスキング演算し、特定の色を表現するために用いる離散データを算出する離散データ算出手段と;
上記離散データ算出手段が得た離散データの無彩色軸の離散データを100%UCRとなるデータとし、無彩色から2次色成分の最明度に向かう離散データを用いて補間演算結果を上記無彩色から1次色成分の最明度に向かう離散データとして上記LUTを作成するLUT作成手段と;
を有することを特徴とするLUT作成装置
An LUT creation device for creating an LUT for performing image processing for expressing a chromatic color signal in an input signal with a specific color and expressing an achromatic color signal with an achromatic color component ,
A blending ratio calculating means for obtaining a blending ratio of a colorant used for expressing the specific color;
Discrete data that obtains a coefficient for reproducing the specific color based on the blend ratio obtained from the blend ratio calculation means, performs a masking operation using the coefficient, and calculates discrete data used to express the specific color Calculating means;
The discrete data of the achromatic color axis of the discrete data obtained by the discrete data calculation means is set to 100% UCR data, and the interpolation calculation result is obtained using the discrete data from the achromatic color toward the maximum brightness of the secondary color component. LUT creating means for creating the LUT as discrete data from the first color component toward the maximum brightness of the primary color component;
A LUT creation device characterized by comprising:
請求項1において、
上記離散データ算出手段は、上記特定の色を構成する場合に寄与しない色剤に係る係数を0にセットする手段であることを特徴とするLUT作成装置
In claim 1,
The LUT creation apparatus according to claim 1, wherein the discrete data calculation means is means for setting a coefficient relating to a colorant that does not contribute to constituting the specific color to 0.
請求項1において、
上記配合比率演算手段は、上記特定色の色度と、色剤の色度とが、色再現範囲内で最小になる配合比率を求める手段であることを特徴とするLUT作成装置
In claim 1,
The LUT creation apparatus , wherein the blending ratio calculating means is a means for obtaining a blending ratio at which the chromaticity of the specific color and the chromaticity of the colorant are minimized within a color reproduction range.
請求項1において、
上記LUT作成手段は、無彩色から2次色成分の最明度に向かう離散データと上記無彩色から1次色成分の最明度に向かう離散データとを、上記LUTの軸上の離散データとした場合、上記LUTの複数軸により決まる面内の離散データを、上記LUTの複数軸の離散データの補間処理で求めることを特徴とするLUT作成装置。
In claim 1,
When the LUT creation means uses discrete data from the achromatic color toward the maximum brightness of the secondary color component and discrete data from the achromatic color to the maximum brightness of the primary color component as discrete data on the axis of the LUT An LUT creation apparatus, wherein in-plane discrete data determined by a plurality of axes of the LUT is obtained by interpolation processing of discrete data of the plurality of axes of the LUT.
請求項1において、
上記LUT作成手段は、上記LUTの内部の離散データを、上記無彩色軸のデータとその他の上記LUTの離散データとによる補間演算により算出することを特徴とするLUT作成装置。
In claim 1,
The LUT creation means, wherein the LUT creation means calculates discrete data inside the LUT by an interpolation operation using the achromatic color axis data and other discrete data of the LUT.
入力信号内の有彩色信号を特定の色で表現し、無彩色信号を無彩色成分で表現する画像処理を行なうためのLUTを作成するLUT作成方法であって、
上記特定の色を表現するために用いる色剤の配合比率を求める配合比率演算段階と;
上記配合比率演算段階で得られた配合比率に基づいて、上記特定の色を再現する係数を得て該係数を用いマスキング演算し、特定の色を表現するために用いる離散データを算出する離散データ算出段階と;
上記離散データ算出段階で得た離散データの無彩色軸の離散データを100%UCRとなるデータとし、無彩色から2次色成分の最明度に向かう離散データを用いて補間演算結果を上記無彩色から1次色成分の最明度に向かう離散データとして上記LUTを作成するLUT作成段階と;
を有することを特徴とするLUT作成方法
An LUT creation method for creating an LUT for performing image processing for representing a chromatic signal in an input signal with a specific color and representing an achromatic signal with an achromatic component ,
A blending ratio calculation step for obtaining a blending ratio of the colorant used for expressing the specific color;
Discrete data that obtains a coefficient for reproducing the specific color based on the blend ratio obtained in the blend ratio calculation step, performs a masking operation using the coefficient, and calculates discrete data used to express the specific color A calculation stage;
The discrete data of the achromatic color axis of the discrete data obtained in the discrete data calculation stage is set as 100% UCR data, and the interpolation calculation result is obtained using the discrete data from the achromatic color toward the maximum brightness of the secondary color component. A LUT creation stage for creating the LUT as discrete data from the first to the primary color component brightness level;
A LUT creation method characterized by comprising :
請求項6において、
上記離散データ算出段階は、上記特定の色を構成する場合に寄与しない色剤に係る係数を0にセットする段階であることを特徴とするLUT作成方法
In claim 6,
The discrete data calculation step is a step of setting a coefficient relating to a colorant that does not contribute to the case of constituting the specific color to 0, wherein the LUT creation method is characterized.
請求項6において、
上記LUT作成段階は、無彩色から2次色成分の最明度に向かう離散データと上記無彩色から1次色成分の最明度に向かう離散データとを、上記LUTの軸上の離散データとした場合、上記LUTの複数軸により決まる面内の離散データを、上記LUTの複数軸の離散データの補間処理で求めることを特徴とするLUT作成方法。
In claim 6,
In the LUT creation stage, discrete data from the achromatic color to the maximum brightness of the secondary color component and discrete data from the achromatic color to the maximum brightness of the primary color component are used as discrete data on the axis of the LUT. A method for creating an LUT, comprising: obtaining discrete data in a plane determined by a plurality of axes of the LUT by interpolation processing of discrete data of the plurality of axes of the LUT.
請求項6において、
上記LUT作成段階は、上記LUTの内部の離散データを、上記無彩色軸のデータとその他の上記LUTの離散データとによる補間演算により算出することを特徴とするLUT作成方法。
In claim 6,
In the LUT creation step, the discrete data inside the LUT is calculated by an interpolation operation using the achromatic color axis data and the other discrete data of the LUT.
JP2000040876A 2000-02-18 2000-02-18 Image processing apparatus, image processing method, and recording medium Expired - Fee Related JP4261720B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000040876A JP4261720B2 (en) 2000-02-18 2000-02-18 Image processing apparatus, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000040876A JP4261720B2 (en) 2000-02-18 2000-02-18 Image processing apparatus, image processing method, and recording medium

Publications (3)

Publication Number Publication Date
JP2001230943A JP2001230943A (en) 2001-08-24
JP2001230943A5 JP2001230943A5 (en) 2007-04-05
JP4261720B2 true JP4261720B2 (en) 2009-04-30

Family

ID=18564193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000040876A Expired - Fee Related JP4261720B2 (en) 2000-02-18 2000-02-18 Image processing apparatus, image processing method, and recording medium

Country Status (1)

Country Link
JP (1) JP4261720B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5031694B2 (en) * 2008-08-04 2012-09-19 株式会社リコー Image processing apparatus, image processing method, and computer-readable recording medium storing program for executing the method

Also Published As

Publication number Publication date
JP2001230943A (en) 2001-08-24

Similar Documents

Publication Publication Date Title
US7148997B2 (en) Image processing apparatus and method
US5729360A (en) Color image processing method and system
EP0348145B1 (en) Image forming and processing apparatus
JP3209402B2 (en) Image processing device
EP0929190B1 (en) Method and apparatus for correcting luminance and chrominance data in digital color images
JP3256982B2 (en) Image processing device
US20070030499A1 (en) Color processing method and apparatus
US20090116046A1 (en) Image processing apparatus, image processing method, and program
US5844688A (en) Image processing system for converting a color processing command into a control signal using an external controller
JPH1117963A (en) Image processing unit
JP2004350240A (en) Image processing apparatus and image processing method
JP4261720B2 (en) Image processing apparatus, image processing method, and recording medium
JP2006238024A (en) Image processor, image processing method and program, and recording medium
JP3772610B2 (en) Image forming apparatus and control method thereof
JP3787393B2 (en) Image processing apparatus and method
JPH09261469A (en) Device and method for processing image
JPH10224648A (en) Picture processor and picture processing method
JPH1040373A (en) Image processor and method therefor
JP2001352456A (en) Image-processing method and image-processing unit, and image-forming device provided with them
JPH10200774A (en) Image processing unit
JPH1042151A (en) Image processing unit and its method
JP2001320593A (en) Image processing unit, and image forming device provided with it, and image processing method
JP2001119591A (en) Color image processing unit
JPH10336433A (en) Image processing method and system therefor
JP2003069829A (en) Image processor and method thereof

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080502

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090123

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4261720

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140220

Year of fee payment: 5

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

LAPS Cancellation because of no payment of annual fees