JP3784577B2 - Image processing method, color correction table, image processing apparatus, and image forming apparatus - Google Patents

Image processing method, color correction table, image processing apparatus, and image forming apparatus Download PDF

Info

Publication number
JP3784577B2
JP3784577B2 JP12695799A JP12695799A JP3784577B2 JP 3784577 B2 JP3784577 B2 JP 3784577B2 JP 12695799 A JP12695799 A JP 12695799A JP 12695799 A JP12695799 A JP 12695799A JP 3784577 B2 JP3784577 B2 JP 3784577B2
Authority
JP
Japan
Prior art keywords
data
color
image data
color correction
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP12695799A
Other languages
Japanese (ja)
Other versions
JP2000324348A (en
Inventor
牧生 後藤
達哉 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP12695799A priority Critical patent/JP3784577B2/en
Publication of JP2000324348A publication Critical patent/JP2000324348A/en
Application granted granted Critical
Publication of JP3784577B2 publication Critical patent/JP3784577B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Record Information Processing For Printing (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、ディジタルカラー画像形成装置やカラーマネージメントシステム等において実行されるテーブル参照(ルックアップテーブル:Look Up Table 、以下、LUTと略記する。)法により画像データを変換する画像処理方法、この画像処理方法に直接使用される色補正テーブル、並びに、この画像処理方法を実行する画像処理装置及び画像形成装置に関し、色補正処理や色空間変換処理の好適化に関する。
【0002】
【従来の技術】
フルカラー複写機等のディジタルカラー画像形成装置において、画像入力装置からの入力画像データを色補正された出力画像データに変換する色補正方法や入力画像データを均等色空間信号に変換する色座標変換方法については、従来より多数の方法が提案されている。このような方法として、色彩科学ハンドブック新編第1137〜1149頁(日本色彩学会偏、東京大学出版会刊行)には、線形マスキング法、非線形マスキング法及びLUT法が挙げられている。
【0003】
例えば、スキャナ等の画像入力装置からの加色混合の3原色であるR(赤)・G(緑)・B(青)の各入力画像データを、カラープリンタ等の画像出力装置に対する減色混合の3原色であるC(シアン)・M(マゼンタ)・Y(イエロー)の各出力画像データに変換する場合、線形マスキング法では下記第1式が用いられ、非線形マスキング法では下記第2式が用いられる。
【0004】
【数1】

Figure 0003784577
上記第1式及び第2式の変換式は、加算及び乗算のみによって表されるため、線形マスキング法及び非線形マスキング法では、比較的単純な回路構成を用いて高速に処理することができる。
【0005】
また、LUT法の一つである直接変換法では、全ての入力画像データの組合せに対する色補正データ又は色変換データを予め算出しておき、この算出結果を格納した色変換テーブルを作成し、入力画像データに対するテーブル値を色変換テーブルから読み出す。この直接変換法では、色変換テーブルにアクセスするものであり、簡単な回路構成によって実現することができるとともに、比較的高速に処理することができ、入力画像データと出力画像データとの関係がどのような非線形特性を有する場合にも適用することができる。
【0006】
さらに、別のLUT法である3次元補間法では、選択的された一部の入力画像データについての組合せに対するテーブル値を予め計算して色変換テーブルを作成し、色変換テーブル内にテーブル値が格納されている入力画像データの近傍の入力画像データについては色変換テーブルに格納されているテーブル値を用いた3次元補間演算によって算出する。一例として、図10に示すように入力画像データの色空間を512個の立方体に分割し、総数729個の各立方体の格子点pi(i=0,1,・・・,7)に入力画像データのテーブル値を格納した色変換テーブルを作成する。任意の入力画像データpの各格子内における格子幅に対する相対比を(a,b,c)とした場合、8点補間(立方体補間)での補間値f(p)は、格子点piにおけるテーブル値をf(pi)として、下記第3式によって求められる。
【0007】
【数2】
Figure 0003784577
この3次元補間法では、予めテーブル値を算出しておくべき入力画像データ数を限定した場合にも全ての入力画像データの組合せについて補正値又は変換値を求めることができ、色変換テーブルのサイズを小型化できる。
【0008】
【発明が解決しようとする課題】
しかしながら、上記従来の画像処理方法のうち、線形マスキング法及び非線形マスキング法では、入力画像データと出力画像データとの関係を最大2次の変換式によって近似的に表すものであるため、非線形性の強い入出力装置に対して処理を行う場合や均等色空間内の色信号を出力画像データに変換する場合のように入力画像データと出力画像データとの関係が複雑な非線形特性を有する場合には、入力画像データを正確に変換することができず、変換精度が低下する問題がある。
【0009】
また、LUT法のうち直接変換法では、入力画像データ及び出力画像データが任意の非線形特性を有する場合にも高い変換精度を得ることはできるが、全ての入力画像データについてのテーブル値を色変換テーブルに格納しておく必要があり、色変換テーブルのテーブルサイズが過大になる問題がある。例えば、8ビット3色の入力画像データについては48Mバイト、10ビット4色の入力画像データについては4Gバイトのテーブルサイズが必要になり、コストの上昇を招く問題がある。また、テーブルサイズの大型化にともなってアクセス時間が長時間化し、変換処理の高速化に対応することができない問題がある。
【0010】
この点で、LUT法のうち3次元補間法では、全入力画像データのうちの一部の入力信号のみについてのテーブル値によってメモリテーブルを構成するものであるためテーブルサイズが大型化することはないが、3次元補間演算処理及びこの処理のための回路が別途必要になり、処理速度が長時間化するとともに、回路構成が複雑化する問題がある。
【0011】
この発明の目的は、色補正処理及び色座標変換処理において入力画像データの下位ビットが変化しても補正又は変換後の出力画像データに与える影響が殆どないことを考慮してなされたものであり、入力画像データにおいて変換精度に影響を与えない下位ビットを除く所定の上位ビット数を予め決定しておき、入力画像データにおける所定の上位ビット数に対するテーブル値のみによってメモリテーブル(色補正テーブル)を構成し、入力信号において決定した上位ビットを除く下位ビットに対する補間演算等の後処理を実行しなくても、変換精度の低下を招くことなくメモリ容量の削減及び回路構成の簡略化を実現できる画像処理方法、色補正テーブル画像処理装置及び画像形成装置を提供することにある。
【0012】
【課題を解決するための手段】
この発明は、上記の課題を解決するための手段として、以下の構成を備えている。
【0013】
(1) 第1表色系の入力画像データを第2表色系の出力画像データに変換する色補正処理を含む画像処理方法において、
前記色補正処理は、
出力画像データの階調性に応じて決定された所定ビット数の上位ビットデータを色補正テーブルのアドレスデータとして入力画像データから抽出するアドレスデータ抽出処理と、
前記アドレスデータを前記上位ビットデータを除く下位ビットデータのビット数分だけ上位側にシフトして全ての組み合わせの下位ビットデータを付加した複数の演算データを作成し、この複数の演算データを、入力画像データ及び出力画像データの間の特性に基づいて変換して求めた色補正データと前記アドレスデータとの関係を記憶した色補正テーブルから、入力画像データのアドレスデータに対応する色補正データを読み出す色補正データ読み出し処理と、
から構成されていることを特徴とする(請求項1)。
【0014】
この構成においては、出力画像データの階調性に応じて決定された所定ビット数の上位ビットデータを入力画像データから抽出したアドレスデータと色補正データとの関係が色補正テーブルに記憶されている。色補正データは、1)アドレスデータを入力画像データから除かれる下位ビットデータのビット数分だけシフトさせ、2)このデータに、全ての組み合わせの下位ビットデータを付加して演算データを作成し、3)演算データを、入力画像データと出力画像データとの間の特性に基づいて変換することにより求められる。上記において、演算データはあらゆる組み合わせの下位ビットデータを考慮に入れた入力画像データを意味している。入力画像データが入力されると、入力画像データから所定ビット数の上位ビットデータがアドレスデータとして抽出され、抽出されたアドレスデータに対応する色補正データが色補正テーブルから読み出される。色補正テーブルには入力画像データのうち出力画像データの階調性に応じて決定された所定ビット数の上位ビットデータに対応する色補正データのみが記憶されているので、テーブルサイズが小型化されるとともに、入力画像データの下位ビットデータを用いた補間処理を行うことなく出力画像データにおける階調性が確保され、入力画像データを十分な階調性のある出力画像データに変換するための処理が短時間化される。
【0015】
(2) 前記アドレスデータ抽出処理は、出力画像データにおける第2表色系の各色の特性に応じて、第1表色系の色毎に予め決定されたビット数の上位ビットデータを第1表色系の各色の入力画像データからアドレスデータとして抽出する処理であることを特徴とする(請求項2)。
【0016】
この構成においては、出力画像データを表現する第2表色系の各色の特性に応じて、入力画像データを表現する第1表色系の色毎に個別に決定されたビット数の入力画像データに対してLUT法による色補正が行われる。したがって、出力画像データの階調性等の特性が色毎に相違する場合にも、各色の特性に応じて変換精度を維持しつつ最小限のテーブルサイズの色補正テーブルを用いた色補正処理が行われる。
【0017】
(3) 前記アドレスデータ抽出処理は、出力画像データに黒色のデータを含む場合に、第1表色系の各色のうち出力画像データの明度に対する寄与率の高い色の入力画像データに対して他の色の入力画像データよりも多いビット数の上位ビットデータを抽出する処理であることを特徴とする(請求項3)。
【0018】
この構成においては、入力画像データを表現する第1表色系の各色のうちで出力画像データの明度に与える影響が高い色の入力画像データについてのアドレスデータのビット数が、他の色の入力画像データについてのアドレスデータのビット数よりも多く抽出される。したがって、最小限のテーブルサイズの色補正テーブルを用いて、効率良く黒色の出力画像データが作成される。
【0019】
(4) 前記アドレスデータ抽出処理は、入力画像データを明度及び色度によって構成される均等色空間座標におけるデータに変換する座標変換処理を含み、座標変換処理による変換後における入力画像データの明度データに対して色度データよりも多いビット数の上位ビットデータを抽出す処理であることを特徴とする(請求項4)。
【0020】
この構成においては、第1表色系によって表現される入力画像データが明度及び色度によって構成される均等色空間座標におけるデータに変換され、変換後の入力画像データにおける明度データに対してのアドレスデータのビット数が、色度データについてのアドレスデータのビット数よりも多く抽出される。したがって、第1表色系で表現された入力画像データは均等色空間座標系に変換された後、明度について色度より詳細に第2表色系で表現される出力画像データに変換されるので、最小限のテーブルサイズの色補正テーブルを用いて、トーンギャップ等の欠陥の少ない自然な状態の出力画像データが得られる。
【0021】
(5) 第1表色系の入力画像データを第2表色系の出力画像データに変換する色補正処理を含む画像処理方法に使用される色補正テーブルであって、
入力画像データから抽出された上位ビットデータを前記上位ビットデータを除く下位ビットデータのビット数分だけ上位側にシフトして第1演算データを作成するとともに、第1演算データに入力画像データとして取り得る全ての組み合わせの下位ビットデータを付加して複数の第2演算データを作成し、複数の第2演算データを、入力画像データ及び出力画像データの間の特性に基づいて変換して色補正データを求め、この色補正データの階調性に応じて決定された所定ビット数の上位ビットデータを入力画像データから抽出して得られるアドレスデータに対応づけて格納したことを特徴とする(請求項5)。
【0022】
この構成においては、第1表色系の入力画像データを第2表色系の出力画像データに変換する際に参照される色補正テーブルが、色補正データと入力画像データの上位ビットデータであるアドレスデータとの関係を記憶している。色補正データは、出力画像データの階調性に応じて入力画像データから抽出された所定ビット数の上位ビットデータを除かれる下位ビットデータのビット数分シフトした第1演算データに入力画像データとして取り得る全ての組み合わせの下位ビットデータを付加して作成された第2演算データを入力画像データ及び出力画像データの間の特性に基づいて変換することにより求められる。したがって、色補正テーブルが出力画像データの階調性を確保することができる最小のテーブルサイズに構成される。
【0023】
(6) 前記第2演算データは、第1演算データに対して複数の下位ビットデータを順に付加することにより複数作成されるとともに、前記色補正データは、複数の第2演算データそれぞれを変換して求められる複数の中間補正データの最大値と予め定められた高濃度側の閾値との比較結果に基づいて設定される複数の中間補正データの平均値に所定値を加算したデータ、複数の中間補正データの最小値と予め定められた低濃度側の閾値との比較結果に基づいて設定された上記平均値から所定値を減算したデータ又は該平均値そのもののデータのいずれかであることを特徴とする(請求項6)。
【0024】
この構成においては、入力画像データの濃度レベルを3段階に分類し、各濃度レベルに応じて所定値によって調整した色補正データが色補正テーブルに記憶される。したがって、出力画像の高濃度部分における濃度の低下、低濃度部分における下地の発生やトーンギャップの発生等による画質の劣化が防止される。
【0025】
(7) 前記第2演算データは、第1演算データに対して複数の下位ビットデータを順に付加することにより複数作成されるとともに、前記色補正データは、複数の第2演算データそれぞれを変換して求められる複数の中間補正データの平均値、中央値、最大値又は最小値のうち出力画像データの特性に応じて選択されたいずれかのデータであることを特徴とする(請求項7)。
【0026】
この構成においては、入力画像データのそれぞれについて、所定ビット数の上位ビットデータに複数の下位ビットデータを順に付加することによって作成される複数の第2の演算データを基に複数の中間補正データが算出され、各入力データに対しての中間補正データの平均値、中央値、最大値又は最小値のいずれかが、出力データの特性に応じて選択的に色補正テーブルに記憶される。したがって、入力画像データから除かれた下位ビットデータを反映して色補正データが求められているので、下位ビットデータを除外することによる高濃度部分の濃度低下、低濃度部分の下地の発生やトーンギャップの発生が防止される。
【0027】
(8) 第1表色系の入力画像データを第2表色系の出力画像データに変換する画像処理装置において、
入力画像データから出力画像データの階調性に応じて決定された所定ビット数の上位ビットデータを色補正テーブルのアドレスデータとして抽出する上位ビット抽出部と、
前記アドレスデータを前記上位ビットデータを除く下位ビットデータのビット数分だけ上位側にシフトして全ての組み合わせの下位ビットデータを付加して複数の演算データを作成し、この複数の演算データを、入力画像データ及び出力画像データの間の特性に基づいて変換して求めた色補正データと前記アドレスデータとの関係を記憶した色補正テーブルを備え、色補正テーブルの記憶内容を参照して入力画像データのアドレスデータに対応する色補正データを出力するテーブルアクセス部と、
を出力画像データを表現する第2表色系の色毎に設けたことを特徴とする(請求項8)。
【0028】
この構成においては、入力画像データが入力された際に、上位ビット抽出部によって入力画像データから所定ビット数の上位ビットデータがアドレスデータとして抽出され、抽出されたアドレスデータに対応する色補正データが、テーブルアクセス部により、色補正テーブルから読み出される。色補正テーブルには、出力画像データの階調性に応じて決定された所定ビット数の上位ビットデータを入力画像データから抽出したアドレスデータと、このアドレスデータを除かれる下位ビットデータ数分シフトさせ、全ての組み合わせの下位ビットデータを付加することにより得られる演算データを、入力画像データ及び出力画像データの間の特性に基づいて変換した色補正データとの関係が記憶されている。したがって、入力画像データの下位ビットデータを用いた補間処理を行うことなく出力画像データにおける階調性が確保され、入力画像データを十分な階調性のある出力画像データに変換するための処理が短時間化される。
【0029】
(9) (8) の構成において、出力画像データを表現する第2表色系に黒色を含み、前記上位ビット抽出部及びテーブルアクセス部を、黒色を含む第2表色系の色毎に設けたものとすることができる。
【0030】
この構成においては、黒色の出力画像データについても、予め作成された色補正テーブルを参照して入力画像データから抽出された所定ビット数の上位ビットデータに対応する黒色の出力画像データが読み出される。したがって、入力画像データは、短時間の処理にて十分な濃度を有する出力画像を形成するための黒色を含む出力画像データに変換される。
(10) 原稿の画像を読み取って信号を出力する画像読取部、及び、画像データに基づいて用紙に画像を形成する画像形成部を備えた画像形成装置であって、
(8) に記載の画像処理装置をさらに備え、前記画像読取部から出力された信号に基づく画像データを前記画像処理装置において所定の画像処理を施して前記画像形成部に出力することを特徴とする。
【0031】
【実施の形態】
図1は、この発明の実施形態に係る画像処理方法が適用される画像処理装置を含む画像形成装置の構成を示す図である。画像形成装置本体1の上面には、原稿台111及び図外の操作パネル部が設けられている。原稿台111の上面には、両面自動原稿送り装置(RADF:Reversing Automatic Document Feeder )112が装着されており、上記原稿第111に対して開閉可能な状態で支持されている。画像形成装置本体1の内部には、画像読取部110及び画像形成部210が設けられている。
【0032】
上記両面自動原稿送り装置112は、両面原稿に対応しており、原稿トレイにセットされた単一又は複数枚の原稿のそれぞれについて、一方の画像面のみを原稿台111の上面に対向させる片面搬送動作、又は、表裏面を反転させることによって表裏両方の画像面を原稿台111の上面に対向させる両面搬送動作を、操作者の選択に応じて選択的に実行する。この原稿搬送動作及び原稿の表裏面の反転動作は、画像形成装置本体1の動作に関連して制御される。
【0033】
画像読取部110は、原稿台111上に対向する原稿の画像面から画像を読み取る。画像読取部110は、光源及び第1ミラーを搭載した第1ミラーベース113、第2及び第3ミラーを搭載した第2ミラーベース114、レンズ115及び光電変換素子116を備えている。第1ミラーベース113は所定の速度で原稿台111の下面に沿って往復移動し、第2ミラーベース114は第1ミラーベースと一定の速度関係を保って原稿台111の下面に沿って往復移動する。これによって、光源により照射された原稿の画像面における反射光が、第1〜第3ミラーを介してレンズ115に入射される。レンズ115は、原稿の画像面からの反射光を光電変換素子116の受光面に結像する。光電変換素子116は、受光面における反射光の受光量に応じた電圧を受光信号として出力する。光電変換素子116から出力された受光信号は、図外の画像処理部において所定の処理を施され、画像データとして後述する書込ユニットに入力される。
【0034】
画像形成部210は、駆動ローラ214と従動ローラ215との間に張架された転写搬送ベルト213、転写搬送ベルト213の上方に並列して配置された画像形成ステーションPa〜Pd、及び、転写搬送ベルト213の駆動ローラ214側に近接して配置された定着装置217等を備えている。転写搬送ベルト213は、矢印Z方向に回転し、画像形成装置本体1の内部において画像形成部210の下方に配置された給紙部211から給紙された用紙(記録媒体)Pを上面に載置した状態で画像形成ステーションPa〜Pdのそれぞれに順に対向させ、定着装置217側に搬送する。なお、用紙Pはレジストローラ212により、画像形成ステーションPaの動作に同期して転写搬送ベルト213上に搬送される。また、用紙Pは帯電ローラ228から電荷の付与を受け、転写搬送ベルト216の表面に静電吸着する。
【0035】
各画像形成ステーションPa〜Pdは、同一の構成を備えている。一例として、画像形成ステーションPaは、感光体ドラム222a・帯電器223a・現像器224a・転写部材225a・クリーニング装置226a及び書込ユニット227aによって構成されている。感光体ドラム222aは表面に光導電層が形成されており、所定の速度で矢印F方向に回転する。帯電器223aは、例えば、コロナ放電によって感光体ドラム222aの表面に単一極性の電荷を均一に帯電させる。書込ユニット227aは、画像処理部から入力された画像データに基づいて変調されたレーザ光をポリゴンミラー240a・fθレンズ241a及びミラー242a,242bを介して感光体ドラム222aの表面に照射する。
【0036】
これによって、感光体ドラム222aの表面には光導電作用により静電潜像が形成される。現像器224aはレーザ光により露光された感光体ドラム222aの表面に現像剤を供給し、感光体ドラム222aの表面に形成されている静電潜像を現像剤画像に顕像化する。転写部材225aは、感光体ドラム222aの表面に担持された現像剤画像を用紙Pの表面に転写する。現像剤画像の転写工程を終了した感光体ドラム222aは、クリーニング装置226aにより表面の残留現像剤が除去された後、帯電器223aによる電荷・書込ユニット227aによる静電潜像及び現像器224aによる現像剤画像の形成に繰り返し使用される。画像形成ステーションPa〜Pdに備えられた現像器224a〜224dのそれぞれには、イエロー・マゼンタ・シアン及びブラックの各色の現像剤が収納されている。また、画像形成ステーションPa〜Pdに備えられた書込ユニット227a〜227dのそれぞれには、画像処理部からイエロー・マゼンタ・シアン及びブラックの各色に色分解された画像データが入力される。したがって、画像形成ステーションPa〜Pdのそれぞれにおいて、イエロー・マゼンタ・シアン及びブラックの各色の現像剤画像が形成され、転写搬送ベルト216によって搬送される用紙Pの表面に順次重ね合わされる。このようにして用紙Pの表面に、イエロー・マゼンタ・シアン及びブラックの各色の現像剤画像の混色によるフルカラー画像が形成される。
【0037】
フルカラー画像を構成する各色の現像剤画像が転写された用紙Pは、剥離器229によって転写搬送ベルト216の表面に対する静電吸着力を除去された後、定着装置217に搬送される。定着装置217は、用紙Pを加熱及び加圧し、現像剤画像は溶融して用紙Pに定着する。用紙Pの片面に画像を形成する片面画像形成モード時には、定着装置217を通過した用紙Pは、排紙ローラ219によって排紙トレイ220に排出される。用紙Pの両面に画像を形成する両面画像形成モード時には、片面に現像剤画像を転写された用紙Pは、搬送方向切り換えゲート218を介してスイッチバック搬送路221において表裏面を反転された後、再度転写搬送ベルト216の上面に搬送され、画像形成部210により前述した画像形成プロセスが行われる。
【0038】
図2は、上記画像形成装置に適用される画像処理装置の構成を示すブロック図である。画像読取部110及び画像形成部210を含む画像形成装置に適用される画像処理装置10は、画像読取部110及び画像形成部210を含む画像形成装置内の各部の動作を制御する、ROM(Read Only Memory)32及びRAM(Random Access Memory)33を備えたCPU31によって制御される。なお、画像読取部を含まないプリンタに適用される画像処理装置10も、同様にプリンタの制御部を構成するCPUによって制御される。また、画像処理装置10は、パーソナルコンピュータ等の画像読取部及び画像形成部を含まない装置に適用することもできる。この場合には、記録媒体を介して後述するこの発明の画像処理方法のプログラムをインストールすることにより、パーソナルコンピュータ等の装置を画像処理装置10として動作させることができる。
【0039】
画像処理装置10は、画像読取部110のCCD(Charge Coupled Device )116が出力したR(赤),G(緑),B(青)の各色の受光信号に対して所定の画像処理を施し、画像形成部210の書込ユニット227a〜227dにC(シアン),M(マゼンタ),Y(イエロー),K(ブラック)の各色の画像データとして出力する。このため、画像処理装置10は、A/D(アナログ/ディジタル)変換部11、シェーディング補正部12、入力階調補正部13、色補正/黒生成部14、空間フィルタ処理部15、出力階調補正部16及び階調再現処理部17を含む。
【0040】
A/D変換部11は、画像読取部110から入力されたR,G,Bの各色の受光信号をディジタルデータに変換する。シェーディング補正部12は、A/D変換部11から入力されたR,G,Bの各色のデータから画像読取部110の光源、ミラー、レンズ115及びCCD116において画像に生じる各種の歪みを除去する処理を行う。入力階調補正部13は、シェーディング補正部12から出力されたR,G,Bの各色のデータに対してカラーバランスを調整するとともに、濃度データ等の後の処理に適合したデータに変換する処理を行う。
【0041】
色補正/黒生成部14は、色再現の忠実化のため、不要吸収成分を含むC,M,Yの現像剤の分光特性に基づいて色の濁りを取り除く処理を行うとともに、色補正後のC,M,Yの3色のデータからK(ブラック)のデータを生成し、R,G,Bの各色のデータをC,M,Y,Kの各色のデータに変換する。空間フィルタ処理部15は、出力画像のボヤケや粒状性劣化を防止するために、C,M,Y,Kの各色のデータに対してディジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正する。出力階調補正部16は、濃度データを画像形成部210の特性値である網点面積率に変換する出力階調補正処理を行う。階調再現処理部17は、画像を画素に分割してそれぞれの階調を再現できるように中間調を生成する。
【0042】
なお、画像処理装置10が画像読取部110及び画像形成部210を含まない装置に適用される場合には、画像処理装置10には画像読取部110に代えてスキャナ等の画像出力装置、及び、画像形成部210に代えてプリンタ等の画像形成装置が接続される。
【0043】
図3は、この発明の第1の実施形態に係る画像処理方法を実行する画像処理装置に含まれる色補正/黒生成部14の構成を示す図である。画像処理装置10の色補正/黒生成部14は、色補正処理部21及び黒生成/下色除去部22によって構成されている。さらに、色補正処理部21は、C,M,Yの各色についての上位ビット抽出部23a〜23c及びC,M,Yの各色についてのテーブルアクセス部24a〜24cによって構成されている。色補正処理部21の上位ビット抽出部23a〜23cのそれぞれにおいては、入力階調補正部13から入力されたデータ(色補正処理部21における処理前の3原色のデータであり、以下に第1表色系データという。)の各色のデータから所定のビット数の上位ビットを抽出してアドレスデータを作成する。このアドレスデータは、テーブルアクセス部24a〜24cに入力される。
【0044】
以下に、図3を用いて、この発明の実施形態に係る画像処理方法における要部の処理手順を説明する。
【0045】
上位ビット抽出部23a〜23cが第1表色系データから抽出する上位ビットのビット数は、画像の種類に応じて異なる第2表色系データ(定義は後述)の階調性に応じて、形成された画像品位に影響を与えることのない下位のビット数を除いた値に予め設定されている。例えば、第1表色系データがCMYデータである場合には、テーブルアクセス部が処理を行う色と同じ色のデータに対する抽出ビット数を他の色のデータに対する抽出ビット数よりも高く設定するか、又は、同じ色のデータに対する抽出ビット数にのみ第1表色系データの全ビット数を設定する。例えば、第1表色系データが8×3ビットのCMYデータである場合、C(シアン)のテーブルアクセス部24aに入力されるアドレスデータは、C(シアン)について8ビット、M(マゼンタ)について6ビット、Y(イエロー)について6ビットとすることができる。
【0046】
一方、図3に示すように、第1表色系データがRGBデータである場合には、補色成分(例えば、RについてはC)のデータを他の入力信号よりも高く設定する。例えば図3では、第1表色系データが8×3ビットのRGBデータであり、C(シアン)のテーブルアクセス部24aに入力されるアドレスデータは、R(赤)について7ビット、G(緑)について6ビット、B(青)について6ビットとされており、上位ビット抽出部23a〜23cのそれぞれは総数19ビットの上位ビットを抽出する。なお、上位ビット抽出部23a〜23cのそれぞれが抽出する上位ビット数は、第1表色系データの特性に応じて、総数が24ビット未満となる他の組合せを設定することもできる。
【0047】
上位ビット抽出部23a〜23cは、第1表色系データから抽出した所定数の上位ビットによって作成したアドレスデータ(R′G′B′データ)を、それぞれの色毎のテーブルアクセス部24a〜24cに入力する。テーブルアクセス部24a〜24cは、予め計算された第1表色系データに対する色補正データ(色補正処理部21における処理後の複数色のデータであり、以下に第2表色系データという。)を格納したLUT(メモリテーブル)を備えており、アドレスデータに対応するアドレスに格納されている色補正データをLUTから読み出して出力する。
【0048】
色補正処理部21から出力されたC,M,Yの各色の補正データは、黒生成/下色除去部22に入力され、黒生成処理及び下色除去処理が実行される。この黒生成/下色除去部22で実行される処理は、一例として、一般的なスケルトンブラックを用いた方法によるものとすることができる。図4は、この黒生成処理に用いられるスケルトンカーブの一例を示す図である。スケルトンカーブの入力特性がy=f(x)で表され、入力データをC,M,Y、出力データをC′,M′,Y′,K′とし、UCR(Under Color Removal)率をα(0<α<1)とすると、黒生成/下色除去処理は下記第4式によって表される。
【0049】
【数3】
Figure 0003784577
このようにして、色補正処理部21及び黒生成/下色除去部22によって構成された色補正/黒生成部14において、RGBデータである第1表色系データがCMYデータ(Kを含む)である第2表色系データに変換され、空間フィルタ処理部15に入力される。
【0050】
上記のように、この発明の実施形態に係る画像処理方法では、第1表色系データ(図3ではRGBデータ)を第2表色系データ(図3ではCMYデータ)に変換する際に、第1表色系データのうち所定数の上位ビットを抽出してアドレスデータ(図3ではR′G′B′データ)を作成し(アドレスデータ抽出処理)、第2表色系データの3原色のそれぞれの色に対応したLUTにおいて、アドレスデータによって特定されるアドレスに格納されている色補正データを読み出し(色補正データ読み出し処理)、読み出した色補正データからK(黒色)データを生成するとともに、下色を除去した後に3色の色補正データ及びKデータを第2表色系データとして出力する。
【0051】
これによって、LUTに格納すべき色補正データの総数は、第1表色系データから所定数の下位ビットを除いて抽出された上位ビットのみの組み合わせの数に一致し、LUTに格納するためのメモリ容量が削減される。また、下位ビットのデータを用いた補間演算を行う必要がないため、処理時間が短縮されるとともに、回路構成が簡略化される。
【0052】
図5は、この発明の第2の実施形態に係る画像処理方法を実行する画像処理装置に含まれる色補正/黒生成部の構成を示すブロック図である。この実施形態に係る画像処理装置の色補正/黒生成部14は、図3に示した構成における黒生成/下色除去部22に代えて、色補正処理部21内にK(ブラック)の上位ビット抽出部23d及びテーブルアクセス部24dを備えている。この場合、第1表色系データに応じた黒生成処理の結果を格納したLUTをテーブルアクセス部24dに設けるとともに、テーブルアクセス部24a〜24cが有するLUTには、下色除去処理を施した色補正データを格納しておく。
【0053】
図5に示すように構成された色補正/黒生成部14では、図3の構成の場合と比較してテーブルアクセス部24a〜24cがLUTから読み出した色補正データに基づく黒生成処理、及び、テーブルアクセス部24a〜24cがLUTから読み出した色補正データに対する下色除去処理が不要になり、処理時間がさらに短縮される。
【0054】
また、テーブルアクセス部24dに入力されるRGBデータである第1表色系データの上位ビット数Rb,Gb,Bbは、明度成分に対する寄与度に対応して、Bb≦Rb≦Gbとなるように設定する。このように、設定することにより、限られたサイズのテーブル内に最も効率的に黒色のLUTを作成することができる。図5に示す例では、Rについて6ビット、Gについて7ビット、Bについて6ビットに設定されている。
【0055】
図6は、この発明の第3の実施形態に係る画像処理方法を実行する画像処理装置に含まれる色補正/黒生成部14の構成を示すブロック図である。この実施形態に係る画像処理装置の色補正/黒生成部14は、図3に示した構成における上位ビット抽出部23a〜23cに代えて、色座標変換部25、色変換/データ処理部26及び上位ビット抽出部27を備えている。色座標変換部25は、RGBデータである第1表色系データを均等色空間であるCIE(Commision Internationale de l'Eclairage :国際照明委員会)L* a ** データ(L* は明度、a * ,b* は色度)に変換する。
【0056】
この色座標変換方法は、(1) 画像入力装置(画像読取部110)の特性を求めるためにカラーチャート原稿の各色パッチを測色器で測色してL* ,a * ,b* の値を求め、(2) 測色に用いたカラーチャート原稿を画像読取部110から読み取ってRGBデータを獲得し、(3) 測色したL* ,a * ,b* の値と読み取ったR,G,Bのデータ値とを対応付けるべくニューラルネットワークやマスキング演算係数決定法によりL* ,a * ,b* の値と読み取ったR,G,Bのデータ値との間の係数を求めて画像読取部110の入力特性を定義し、(4) 得られた係数に基づいて、マトリクスによるマスキング演算、3次元補間によるLUT法、又は、この発明のLUT法等の任意の方法により色座標変換を行う。
【0057】
上記の色座標変換処理によって得られたL* a ** データは、色変換/データ処理部26に入力され、画像編集による色変換処理、色再現領域補間による明度及び彩度圧縮等のデータ処理を施される。このデータ処理を施されたL′* a ′* b′* データは、上位ビット抽出部27に入力され、各信号の上位ビット信号が抽出される。このとき、色度信号(a ′* ,b′* )の上位ビット数よりも明度信号(L′* )の上位ビット数を多く抽出するよう設定しておくことにより、LUTとして限られたメモリ容量で最も精度が高く、トーンギャップの少ない自然な画像を形成することができる。図6に示す例では、L″* 信号については7ビット、a ″* 信号については6ビット、b″* 信号については6ビットが設定されている。
【0058】
なお、図6に示す例では、色補正処理後に黒生成/下色除去部22において黒生成処理及び下色除去処理を行うようにしているが、前述したように黒生成/下色除去部22に代えてK(黒色)のテーブルアクセス部を設けることもできる。この発明の実施形態に係る画像処理方法に用いるLUTの作成処理について説明する前に、先ず、一般的な方法によるLUTの作成処理を図7のフローチャートを用いて説明する。C,M,Yの各色に係るLUTは全て同一の手順によって作成することができる。そこで、一例として、C(シアン)のLUTの作成方法について説明する。この方法では、入力されたRGBデータである第1表色系データの各色のデータの上位ビットを、アドレスデータRi′,Gi′,Bi′として抽出し(ステップ1。以下、ステップをsと記す。)、次いで、第1表色系データにおける上位ビットを、第1表色系データから除かれる下位ビット数分シフトすることによって上位ビットを抽出する前の第1表色系データRi,Gi,Biを求め(s2)、さらに、第1表色系データRi,Gi,Biに対するシアン色補正データCiを算出する(s3)。この後、s1〜s3の処理を1回終了する毎にインクリメント(1増加)されるカウンタiの計数値と、上位ビットを抽出したRGBデータの総組み合わせ数nとを比較することにより、s1〜s3の処理をn回繰り返して実行する(s4→s5→s1)。
【0059】
上記のs1〜s5の処理において、画像読取部110から入力される第1表色系データにおけるR,G,Bの各色のデータがそれぞれ8ビットであり、上位ビット抽出部23a〜23cにおいて抽出されるそれぞれの上位ビット数をrub,gub,bubで表すと、第1表色系データから除かれる下位ビット数rlb,glb,blbは下記第5式によって求められ、上位ビットを抽出したR,G,Bの各データの総組合せ数nは下記第6式によって求められる。
【0060】
【数4】
Figure 0003784577
s1の処理において抽出するアクセスデータRi′,Gi′,Bi′は、LUTにおいて色補正データを格納するアドレスを指定するデータであり、色補正処理時にテーブルアクセス部24aに入力されるデータである。また、s2の処理において算出するデータRi,Gi、Biは、LUTを作成する際に用いるデータであり、このデータRi,Gi,Biは下記第7式によって算出できる。
【0061】
【数5】
Figure 0003784577
さらに、s3における色補正データCiの算出は、例えば、(1) 画像形成部210においてC,M,Yの各色パッチを出力し、(2) 出力された各色パッチを画像読取部110で読み取ってRGBデータを獲得し、(3) 出力されたCMY値と読み取ったRGB値とを対応づけてニューラルネットワークやマスキング演算係数決定法により画像読取部110と画像形成部210の入出力特性、即ち、CMY値とRGB値との係数を定義し、(4) 得られた係数に基づいて色補正計算を行うものである。
【0062】
s3において得られた色補正データCiが、アクセスデータRi′,Gi′,Bi′に対するテーブル値としてC(シアン)のテーブルアクセス部24aが備えるLUTに格納される。
【0063】
図8は、この発明の実施形態に係る画像処理方法におけるLUTの作成処理を示すフローチャートである。図7に示したLUTの作成処理は一般的な方法であって汎用性があり、例えば、3次元補間法による変換処理にも適用できる。しかし、図7に示した処理によって作成されたLUTを用いて色補正処理を行うと、画像形成装置における入出力特性によっては色ずれやトーンギャップを生じる場合がある。そこで、この実施形態に係る画像処理方法では、図7におけるs3の処理に代えて、s11〜s15の処理を実行する。
【0064】
即ち、アドレスデータRi′,Gi′,Bi′、及び、入力データRi,Gi,Bi(第1演算データ)を生成した後(s1,s2)、下位ビット分のデータΔRj,ΔGj,ΔBjを選択し(s11)、次に、仮の入力データRi+ΔRj,Gi+ΔGj,Bi+ΔBj(演算データ・第2演算データ)を算出し(s12)、この仮の入力データに対する仮の色補正データCij(中間補正データ)を算出する(s13)。このs11〜s13の処理を、s13の処理後にインクリメントされるカウンタjの計数値と、入力信号から除かれる下位ビットの全ての組み合わせの総数mとを比較することによってm回繰り返し実行し(s14→s15→s11)、得られた仮の色補正データCijの平均値を色補正データCiとして算出する(s16)。
【0065】
なお、s11〜s13の処理を繰り返す回数である下位ビットの全ての組み合わせの総数mは、下記第8式によって算出される。
【0066】
【数6】
Figure 0003784577
次にs16の処理後にインクリメントされるカウンタiの計数値と、上位ビットを抽出したRGBデータの総組み合わせ数nとを比較することによってn回繰り返し実行する(s4→s5→s1)。s16において得られた色補正データCiが、アクセスデータRi′,Gi′,Bi′に対するテーブル値としてLUTに格納される。
【0067】
このようにして得られた色補正データCiは、色補正処理時における第1表色系データにおける各色のデータの組み合わせのそれそれに対する最適値を考慮して算出されたものであるため、色ズレやトーンギャップを最小限に抑えることができる。また、平均値に代えて、中央値を用いた場合にも、略同様の効果を奏することができるが、この場合には、トーンギャップや色ズレの解消よりも画像の彩度(濃度)の維持及び改善に有効である。
【0068】
図9は、この発明のさらに別の実施形態に係る画像処理方法におけるLUTの作成処理を示すフローチャートである。この実施形態に係る画像処理方法におけるLUTの作成処理では、図8に示した処理におけるs16とs4との間においてs21〜s27の処理を実行する。即ち、s11〜s15の処理によって算出された色補正データCijの平均値Ciavg、最大値Cimax及び最小値Ciminを算出し(s16,s21,s22)、算出した平均値Ciavg、最大値Cimax及び最小値Ciminを用いて最適なテーブル値Ciを決定する。
【0069】
例えば、最大値Cimaxが“255”である場合には、テーブル値Ci=255とすることにより、下位ビットの切り捨てによる彩度(濃度)の低下を完全に防ぐことができる。また、平均値Ciavgが高濃度側の閾値Thmaxに対してCiavg>Thmaxを満たしている場合には、テーブル値Ci=255とすることにより、下位ビットの切り捨てによる彩度(濃度)低下、及び、トーンギャップ(色とび)が抑えられる。ここに、高濃度側の閾値Thmaxは任意に設定することができ、例えば“250”程度の値が設定される。
【0070】
そこで、Cimax=255、かつ、Ciavg>Thmaxであるかの判定を行い(s23)、条件を満たす場合には上位ビットデータ(Ri′,Gi′,Bi′)は高濃度の値を出力すべきデータであると判断してテーブル値CiにCiavg+α(αはCiavgの関数)を設定する(s25)。このように、テーブル値として平均値にαを加算した値を設定することにより、平均値のみを用いた場合に生じる彩度(濃度)の低下やトーンギャップ(色とび)を抑制することができる。
【0071】
一方、s23において条件を満たさない場合には、上位ビットデータ(Ri′,Gi′,Bi′)は中程度の濃度又は低濃度の値を出力すべきデータであると判断する。
【0072】
最小値Ciminが“0”である場合には、テーブル値Ci=0とすることにより、下位ビットの切り捨てによる不自然な下地の発生を防止することができる。また、平均値Ciavgが低濃度側の閾値Thminに対してCiavg<Thminの条件を満たしている場合には、テーブル値Ci=0とすることによって下位ビットの切り捨てによる不自然な下地発生及びトーンギャップ(色とび)が抑えられる。なお、低濃度側の閾値Thminも任意に設定することができ、例えば、256階調において“10”や“20”等の値が設定される。
【0073】
そこで、Cimin=0、かつ、Ciavg<Thminであるかの判定を行い(s24)、条件を満たす場合には上位ビットデータ(Ri′,Gi′,Bi′)は低濃度の値を出力すべきデータであると判断してテーブル値CiにCiavg−β(βはCiavgの関数)を設定する(s26)。このように、テーブル値として平均値にβを減算した値を設定することにより、平均値のみを用いた場合に生じる下地の発生やトーンギャップ(色とび)を抑えることができる。
【0074】
一方、s24において条件を満たさない場合には、上位ビットデータ(Ri′,Gi′,Bi′)は中程度の濃度の値を出力すべきデータであると判断し、テーブル値Ciとして平均値Ciavgが設定される(s27)。
【0075】
この後、s27の処理の後にインクリメントされるカウンタiの計数値と、入力データの上位ビットデータの組み合わせの総数nとを比較することにより、s1→s2→s11〜s16→s21〜s27の処理をn回繰り返して実行することにより、C(シアン)のテーブルアクセス部24aに備えられるLUTに格納すべき全てのテーブル値が決定される。
【0076】
以上の処理により、例えば、画像出力装置の低濃度範囲の感度が不十分であったり、低濃度範囲の感度特性が濃度に対して非線形である場合にも、下位ビットの切り捨てによって原稿にない不自然な下地が発生することを防止できる。また、画像出力装置の高濃度範囲の感度が不十分であったり、高濃度範囲の感度特性が濃度に対して非線形である場合にも、下位ビットの切り捨てによって生じる彩度(濃度)の低下やトーンギャップ(色とび)を防止することができる。
【0077】
【発明の効果】
請求項1に記載の発明によれば、出力画像データの階調性に応じて決定された所定ビット数の上位ビットデータを入力画像データから抽出したアドレスデータと色補正データとの関係が色補正テーブルに記憶されている。色補正データは、1)アドレスデータを入力画像データから除かれる下位ビットデータのビット数分だけシフトさせ、2)このデータに、全ての組み合わせの下位ビットデータを付加して演算データを作成し、3)演算データを、入力画像データと出力画像データとの間の特性に基づいて変換することにより求められる。入力画像データが入力されると、入力画像データから所定ビット数の上位ビットデータがアドレスデータとして抽出され、抽出されたアドレスデータに対応する色補正データが色補正テーブルから読み出される。色補正テーブルには入力画像データのうち出力画像データの階調性に応じて決定された所定ビット数の上位ビットデータに対応する色補正データのみを記憶することができ、テーブルサイズを小型化できるとともに、入力画像データの下位ビットデータを用いた補間処理を行うことなく出力画像データにおける階調性を確保することができ、入力画像データを十分な階調性のある出力画像データに変換するための処理を短時間化することができる。請求項2に記載の発明によれば、出力画像データを表現する第2表色系の各色の特性に応じて、入力画像データを表現する第1表色系の色毎に個別に決定したビット数の入力画像データに対してLUT法による色補正を行うことにより、出力画像データの階調性等の特性が色毎に相違する場合にも、各色の特性に応じて変換精度を維持しつつ最小限のテーブルサイズの色補正テーブルを用いた色補正処理を行うことができる。
【0078】
請求項3に記載の発明によれば、入力画像データを表現する第1表色系の各色のうちで出力画像データの明度に与える影響が高い色の入力画像データについてのアドレスデータのビット数を、他の色の入力画像データについてのアドレスデータのビット数よりも多く抽出することにより、最小限のテーブルサイズの色補正テーブルを用いて、黒色の出力画像データを作成することができる。
【0079】
請求項4に記載の発明によれば、第1表色系によって表現される入力画像データを明度及び色度によって構成される均等色空間座標におけるデータに変換し、変換後の入力画像データにおける明度データについてのアドレスデータのビット数を、色度データについてのアドレスデータのビット数よりも多く抽出される。よって、第1表色系で表現される入力画像データは均等色空間座標系に変換された明度について色度より詳細に第2表色系で表現される出力画像データに変換されるので、最小限のテーブルサイズの色補正テーブルを用いて、トーンギャップ等の欠陥の少ない自然な状態の出力画像データを得ることができる。
【0080】
請求項5に記載の発明によれば、第1表色系の入力画像データを第2表色系の出力画像データに変換する際に参照される色補正テーブルには、色補正データを、入力画像データの上位ビットデータであるアドレスデータに対応づけられて記憶されている。色補正データは、出力画像データの階調性に応じて入力画像データから抽出された所定ビット数の上位ビットデータを下位ビットデータのビット数分シフトした第1演算データに入力画像データとして取り得る全ての組み合わせの下位ビットデータを付加して作成された第2演算データを、入力画像データ及び出力画像データの間の特性に基づいて変換することにより求められる。このように構成することで、色補正テーブルを出力画像データの階調性を確保することができる最小のテーブルサイズにすることができる。
【0081】
請求項6に記載の発明によれば、入力画像データの濃度レベルを3段階に分類し、各濃度レベルに応じて所定値によって調整した色補正データを色補正テーブルに記憶することにより、出力画像の高濃度部分における濃度の低下、低濃度部分における下地の発生やトーンギャップの発生等による画質の劣化を防止することができる。
【0082】
請求項7に記載の発明によれば、入力画像データのそれぞれについて、所定ビット数の上位ビットデータに複数の下位ビットデータを順に付加することによって作成される第2の演算データを基に複数の中間補正データを算出し、各入力データに対しての中間補正データの平均値、中央値、最大値又は最小値のいずれかが、出力データの特性に応じて選択的に色補正テーブルに記憶することにより、色補正テーブルに記憶される。このように構成することで、入力画像データから除かれた下位ビットデータを反映して色補正データが求められているので、下位ビットデータを除外することによる高濃度部分の濃度低下、低濃度部分の下色の発生やトーンギャップの発生を確実に防止することができる。
【0083】
請求項8に記載の発明によれば、入力画像データが入力された際に、入力画像データから所定ビット数の上位ビットデータがアドレスデータとして抽出され、抽出されたアドレスデータに対応する色補正データが色補正テーブルから読み出される。色補正テーブルには、出力画像データの階調性に応じて決定された所定ビット数の上位ビットデータを入力画像データから抽出したアドレスデータと、このアドレスデータを除かれる下位ビットデータ数分シフトさせ、全ての組み合わせの下位ビットデータを付加することにより得られる演算データを、入力画像データ及び出力画像データの間の特性に基づいて変換した色補正データとの関係が記憶されている。よって、入力画像データの下位ビットデータを用いた補間処理を行うことなく、出力画像データにおける階調性を確保することができ、入力画像データを十分な階調性のある出力画像データに変換するための処理を短時間化することができる。
【図面の簡単な説明】
【図1】この発明の実施形態に係る画像処理方法が適用される画像処理装置を含む画像形成装置の構成を示す図である。
【図2】上記画像形成装置に適用される画像処理装置の構成を示すブロック図である。
【図3】この発明の第1の実施形態に係る画像処理方法を実行する画像処理装置に含まれる色補正/黒生成部の構成を示す図である。
【図4】黒生成処理に用いられるスケルトンカーブの一例を示す図である。
【図5】この発明の第2の実施形態に係る画像処理方法を実行する画像処理装置に含まれる色補正/黒生成部の構成を示すブロック図である。
【図6】この発明の第3の実施形態に係る画像処理方法を実行する画像処理装置に含まれる色補正/黒生成部の構成を示すブロック図である。
【図7】この発明の実施形態に係る画像処理方法に用いるLUTの作成処理を説明するために、一般的な方法を用いてLUTを作成処理する際の示すフローチャートである。
【図8】この発明の実施形態に係る画像処理方法におけるLUTの作成処理を示すフローチャートである。
【図9】この発明の別の実施形態に係る画像処理方法におけるLUTの作成処理を示すフローチャートである。
【図10】LUT法である3次元補間法による画像データの変換処理を示す図である。
【符号の説明】
10−画像処理装置
14−色補正/黒生成部
21−色補正処理部
23a〜23d,27−上位ビット抽出部
24a〜24d−テーブルアクセス部[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an image processing method for converting image data by a table reference (Look Up Table, hereinafter abbreviated as LUT) method executed in a digital color image forming apparatus, a color management system, etc. Color correction table used directly in the processing method,And, Image processing apparatus for executing this image processing methodAnd image forming apparatusThe present invention relates to optimization of color correction processing and color space conversion processing.
[0002]
[Prior art]
In a digital color image forming apparatus such as a full-color copying machine, a color correction method for converting input image data from an image input device into color-corrected output image data, and a color coordinate conversion method for converting input image data into a uniform color space signal A number of methods have been proposed in the past. Examples of such a method include a linear masking method, a non-linear masking method, and an LUT method in Color Science Handbook, 1st edition, pages 1137 to 1149 (Japan Society for Color Science, published by the University of Tokyo Press).
[0003]
For example, input image data of R (red), G (green), and B (blue), which are three primary colors of additive color mixing from an image input device such as a scanner, are subtracted from the image output device such as a color printer. When converting to output image data of three primary colors C (cyan), M (magenta), and Y (yellow), the following first formula is used in the linear masking method, and the following second formula is used in the non-linear masking method. It is done.
[0004]
[Expression 1]
Figure 0003784577
Since the conversion expressions of the first expression and the second expression are expressed only by addition and multiplication, the linear masking method and the nonlinear masking method can be processed at high speed using a relatively simple circuit configuration.
[0005]
In the direct conversion method, which is one of the LUT methods, color correction data or color conversion data for all combinations of input image data is calculated in advance, and a color conversion table storing the calculation results is created and input. A table value for image data is read from the color conversion table. In this direct conversion method, a color conversion table is accessed, which can be realized with a simple circuit configuration and can be processed at a relatively high speed. What is the relationship between input image data and output image data? The present invention can also be applied to cases having such nonlinear characteristics.
[0006]
Further, in the three-dimensional interpolation method, which is another LUT method, a color conversion table is created by calculating in advance a table value for a combination of some selected input image data, and the table value is stored in the color conversion table. The input image data in the vicinity of the stored input image data is calculated by a three-dimensional interpolation operation using the table values stored in the color conversion table. As an example, as shown in FIG. 10, the color space of the input image data is divided into 512 cubes, and the input image is assigned to a total of 729 lattice points pi (i = 0, 1,..., 7). Create a color conversion table that stores data table values. When the relative ratio of arbitrary input image data p to the grid width in each grid is (a, b, c), the interpolation value f (p) in 8-point interpolation (cube interpolation) is a table at the grid point pi. The value is obtained by the following third equation, where f (pi) is the value.
[0007]
[Expression 2]
Figure 0003784577
In this three-dimensional interpolation method, correction values or conversion values can be obtained for all combinations of input image data even when the number of input image data for which table values should be calculated in advance is limited. Can be miniaturized.
[0008]
[Problems to be solved by the invention]
However, among the conventional image processing methods described above, in the linear masking method and the nonlinear masking method, the relationship between the input image data and the output image data is approximately expressed by a maximum quadratic conversion formula. When processing is performed on a strong input / output device, or when the relationship between input image data and output image data has complex nonlinear characteristics, such as when color signals in a uniform color space are converted to output image data Therefore, there is a problem that the input image data cannot be accurately converted and the conversion accuracy is lowered.
[0009]
  In addition, in the direct conversion method of the LUT method, high conversion accuracy can be obtained even when the input image data and the output image data have arbitrary nonlinear characteristics, but the table values for all the input image data are color converted. The table needs to be stored in a table, and there is a problem that the table size of the color conversion table becomes excessive. For example, for 8-bit 3-color input image data, 48-Mbyte, 10-bit 4-color input image data is used.AndRequires a table size of 4 Gbytes, which increases the cost. Further, there is a problem that the access time becomes longer as the table size becomes larger, and the conversion process cannot be speeded up.
[0010]
In this regard, in the three-dimensional interpolation method of the LUT method, the memory table is configured by table values for only a part of input signals of all input image data, so that the table size does not increase. However, there is a problem that a three-dimensional interpolation calculation process and a circuit for this process are required separately, which increases the processing speed and complicates the circuit configuration.
[0011]
  The object of the present invention has been made in consideration of the fact that there is almost no influence on the output image data after correction or conversion even if the lower bits of the input image data change in the color correction processing and color coordinate conversion processing. A predetermined high-order bit number excluding low-order bits that do not affect the conversion accuracy in the input image data is determined in advance, and a memory table (color correction table) is determined only by the table value for the predetermined high-order bit number in the input image data. An image that can reduce the memory capacity and simplify the circuit configuration without degrading the conversion accuracy without performing post-processing such as interpolation calculation on the lower bits excluding the upper bits determined in the input signal. Processing method, color correction table,Image processing deviceAnd image forming apparatusIs to provide.
[0012]
[Means for Solving the Problems]
The present invention has the following configuration as means for solving the above problems.
[0013]
  (1) In an image processing method including color correction processing for converting input image data of a first color system to output image data of a second color system,
  The color correction process includes
  Address data extraction processing for extracting upper bit data of a predetermined number of bits determined according to the gradation of the output image data from the input image data as address data of the color correction table;
  The address data is equal to the number of bits of lower bit data excluding the upper bit dataOnly on the upper sideColor correction data obtained by shifting to create a plurality of calculation data to which all combinations of lower bit data are added, and converting the plurality of calculation data based on characteristics between input image data and output image data A color correction data read process for reading color correction data corresponding to the address data of the input image data from a color correction table storing the relationship between the address data and the address data;
(Claim 1).
[0014]
In this configuration, the relationship between the address data obtained by extracting the upper bit data having a predetermined number of bits determined according to the gradation of the output image data from the input image data and the color correction data is stored in the color correction table. . For color correction data, 1) the address data is shifted by the number of bits of the lower-order bit data removed from the input image data, and 2) operation data is created by adding the lower-order bit data of all combinations to this data, 3) It is obtained by converting the calculation data based on the characteristics between the input image data and the output image data. In the above, the operation data means input image data taking into account all combinations of lower-order bit data. When input image data is input, upper bit data having a predetermined number of bits is extracted from the input image data as address data, and color correction data corresponding to the extracted address data is read from the color correction table. Since the color correction table stores only color correction data corresponding to upper bit data having a predetermined number of bits determined according to the gradation of the output image data in the input image data, the table size is reduced. In addition, gradation processing is ensured in the output image data without performing interpolation processing using lower-order bit data of the input image data, and processing for converting the input image data into output image data having sufficient gradation Is shortened.
[0015]
(2) In the address data extraction process, upper bit data having a predetermined number of bits for each color of the first color system according to the characteristics of each color of the second color system in the output image data is displayed in the first table. This is a process of extracting as address data from input image data of each color of the color system (claim 2).
[0016]
In this configuration, the input image data having the number of bits individually determined for each color of the first color system expressing the input image data according to the characteristics of each color of the second color system expressing the output image data. The color correction by the LUT method is performed on the image. Therefore, even when characteristics such as gradation of output image data are different for each color, color correction processing using a color correction table with a minimum table size while maintaining conversion accuracy according to the characteristics of each color is performed. Done.
[0017]
(3) The address data extraction process may be applied to input image data of a color having a high contribution ratio to the brightness of the output image data among the colors of the first color system when the output image data includes black data. This is a process for extracting higher-order bit data having a larger number of bits than the input image data of the above color (claim 3).
[0018]
In this configuration, the number of bits of the address data for the input image data of the color that has a high influence on the brightness of the output image data among the colors of the first color system expressing the input image data is the input of another color. More than the number of bits of address data for image data is extracted. Therefore, black output image data is efficiently created using a color correction table having a minimum table size.
[0019]
(4) The address data extraction process includes a coordinate conversion process for converting the input image data into data in uniform color space coordinates configured by brightness and chromaticity, and the brightness data of the input image data after conversion by the coordinate conversion process In contrast, it is a process for extracting higher-order bit data having a larger number of bits than chromaticity data.
[0020]
In this configuration, the input image data expressed by the first color system is converted into data in uniform color space coordinates constituted by brightness and chromaticity, and the address for the brightness data in the input image data after conversion. The number of bits of data is extracted more than the number of bits of address data for chromaticity data. Therefore, after the input image data expressed in the first color system is converted into the uniform color space coordinate system, the lightness is converted into output image data expressed in the second color system in more detail than the chromaticity. Using a color correction table having a minimum table size, output image data in a natural state with few defects such as tone gaps can be obtained.
[0021]
  (5) A color correction table used in an image processing method including color correction processing for converting input image data of a first color system to output image data of a second color system,
  The upper bit data extracted from the input image data is equal to the number of lower bit data bits excluding the upper bit data.Only on the upper sideA first calculation data is generated by shifting, and a plurality of second calculation data is generated by adding lower bit data of all combinations that can be taken as input image data to the first calculation data. Is converted based on the characteristics between the input image data and the output image data to obtain color correction data, and the upper bit data having a predetermined number of bits determined according to the gradation of the color correction data is input image data Stored in association with the address data obtained by extracting from (claim 5).
[0022]
In this configuration, the color correction table referred to when the first color system input image data is converted into the second color system output image data is the upper bit data of the color correction data and the input image data. Stores the relationship with address data. The color correction data is input image data to the first operation data shifted by the number of bits of the lower bit data excluding the upper bit data of a predetermined number of bits extracted from the input image data according to the gradation of the output image data. It is obtained by converting the second calculation data created by adding the lower bit data of all possible combinations based on the characteristics between the input image data and the output image data. Therefore, the color correction table is configured to have a minimum table size that can ensure the gradation of the output image data.
[0023]
(6) A plurality of the second calculation data are created by sequentially adding a plurality of lower bit data to the first calculation data, and the color correction data is obtained by converting each of the plurality of second calculation data. Data obtained by adding a predetermined value to the average value of a plurality of intermediate correction data set based on a comparison result between the maximum value of the plurality of intermediate correction data obtained in advance and a predetermined threshold value on the high density side, and a plurality of intermediate It is either data obtained by subtracting a predetermined value from the average value set based on a comparison result between a minimum value of correction data and a predetermined low density side threshold value, or data of the average value itself (Claim 6).
[0024]
In this configuration, the density level of the input image data is classified into three stages, and color correction data adjusted by a predetermined value according to each density level is stored in the color correction table. Therefore, it is possible to prevent deterioration in image quality due to a decrease in density in the high density portion of the output image, generation of a background in the low density portion, generation of a tone gap, and the like.
[0025]
(7) A plurality of the second calculation data are created by sequentially adding a plurality of lower-order bit data to the first calculation data, and the color correction data is obtained by converting each of the plurality of second calculation data. The average value, the median value, the maximum value, or the minimum value of the plurality of intermediate correction data obtained in this way is selected according to the characteristics of the output image data.
[0026]
In this configuration, for each of the input image data, a plurality of intermediate correction data is generated based on a plurality of second calculation data created by sequentially adding a plurality of lower bit data to upper bit data having a predetermined number of bits. The calculated average value, median value, maximum value, or minimum value of the intermediate correction data for each input data is selectively stored in the color correction table according to the characteristics of the output data. Therefore, since the color correction data is obtained by reflecting the lower bit data removed from the input image data, the density reduction in the high density portion by removing the lower bit data, the generation of the background in the low density portion and the tone Generation of a gap is prevented.
[0027]
  (8) In an image processing apparatus for converting input image data of the first color system to output image data of the second color system,
  A high-order bit extraction unit that extracts high-order bit data of a predetermined number of bits determined according to the gradation of the output image data from the input image data as address data of the color correction table;
  The address data is equal to the number of bits of lower bit data excluding the upper bit dataOnly on the upper sideColor correction obtained by shifting and adding lower bit data of all combinations to create a plurality of calculation data, and converting the plurality of calculation data based on characteristics between input image data and output image data A table access unit that includes a color correction table that stores the relationship between the data and the address data, and outputs color correction data corresponding to the address data of the input image data with reference to the stored content of the color correction table;
Is provided for each color of the second color system expressing the output image data.
[0028]
In this configuration, when input image data is input, upper bit data of a predetermined number of bits is extracted as address data from the input image data by the upper bit extraction unit, and color correction data corresponding to the extracted address data is obtained. The data is read from the color correction table by the table access unit. In the color correction table, the upper bit data having a predetermined number of bits determined according to the gradation property of the output image data is shifted by the number of lower bit data excluded from the address data extracted from the input image data. The relationship with the color correction data obtained by converting the arithmetic data obtained by adding the lower bit data of all combinations based on the characteristics between the input image data and the output image data is stored. Therefore, gradation processing in the output image data is ensured without performing interpolation processing using lower-order bit data of the input image data, and processing for converting the input image data into output image data having sufficient gradation processing is performed. It is shortened.
[0029]
(9) In the configuration of (8), black is included in the second color system expressing the output image data, and the upper bit extraction unit and the table access unit are provided for each color of the second color system including black. Can be.
[0030]
  In this configuration, black output image data corresponding to upper bit data having a predetermined number of bits extracted from the input image data with reference to a color correction table created in advance is also read out for the black output image data. Therefore, the input image data is converted into output image data including black for forming an output image having a sufficient density in a short process.
  (Ten) An image forming apparatus including an image reading unit that reads an image of a document and outputs a signal, and an image forming unit that forms an image on a sheet based on image data,
(8) And image data based on a signal output from the image reading section is subjected to predetermined image processing in the image processing apparatus and output to the image forming section.
[0031]
Embodiment
FIG. 1 is a diagram showing a configuration of an image forming apparatus including an image processing apparatus to which an image processing method according to an embodiment of the present invention is applied. On the upper surface of the image forming apparatus main body 1, a document table 111 and an operation panel unit (not shown) are provided. A double-sided automatic document feeder (RADF) 112 is mounted on the upper surface of the document table 111, and is supported so as to be openable and closable with respect to the document 111st. An image reading unit 110 and an image forming unit 210 are provided inside the image forming apparatus main body 1.
[0032]
The double-sided automatic document feeder 112 is compatible with double-sided originals, and for each of a single document or a plurality of originals set on a document tray, single-sided conveyance in which only one image surface is opposed to the upper surface of the document table 111. An operation or a double-sided conveyance operation in which both the front and back image surfaces are opposed to the upper surface of the document table 111 by reversing the front and back surfaces is selectively executed according to the operator's selection. The original conveying operation and the reverse operation of the front and back sides of the original are controlled in relation to the operation of the image forming apparatus main body 1.
[0033]
The image reading unit 110 reads an image from the image surface of the document facing the document table 111. The image reading unit 110 includes a first mirror base 113 on which a light source and a first mirror are mounted, a second mirror base 114 on which second and third mirrors are mounted, a lens 115 and a photoelectric conversion element 116. The first mirror base 113 reciprocates along the lower surface of the document table 111 at a predetermined speed, and the second mirror base 114 reciprocates along the lower surface of the document table 111 while maintaining a constant speed relationship with the first mirror base. To do. Thereby, the reflected light on the image surface of the document irradiated by the light source is incident on the lens 115 through the first to third mirrors. The lens 115 forms an image of reflected light from the image surface of the document on the light receiving surface of the photoelectric conversion element 116. The photoelectric conversion element 116 outputs a voltage corresponding to the amount of received reflected light on the light receiving surface as a light receiving signal. The light reception signal output from the photoelectric conversion element 116 is subjected to a predetermined process in an image processing unit (not shown) and is input as image data to a writing unit described later.
[0034]
The image forming unit 210 includes a transfer conveyance belt 213 stretched between a driving roller 214 and a driven roller 215, image forming stations Pa to Pd arranged in parallel above the transfer conveyance belt 213, and transfer conveyance. A fixing device 217 and the like disposed in the vicinity of the driving roller 214 side of the belt 213 are provided. The transfer / conveying belt 213 rotates in the arrow Z direction, and the sheet (recording medium) P fed from the sheet feeding unit 211 disposed below the image forming unit 210 inside the image forming apparatus main body 1 is placed on the upper surface. In this state, the image forming stations Pa to Pd are sequentially opposed to each other and conveyed to the fixing device 217 side. Note that the paper P is transported onto the transfer transport belt 213 by the registration rollers 212 in synchronization with the operation of the image forming station Pa. In addition, the sheet P receives charge from the charging roller 228 and is electrostatically attracted to the surface of the transfer conveyance belt 216.
[0035]
Each of the image forming stations Pa to Pd has the same configuration. As an example, the image forming station Pa includes a photosensitive drum 222a, a charger 223a, a developing device 224a, a transfer member 225a, a cleaning device 226a, and a writing unit 227a. The photoconductive drum 222a has a photoconductive layer formed on the surface thereof, and rotates in the direction of arrow F at a predetermined speed. The charger 223a uniformly charges a single polarity charge on the surface of the photosensitive drum 222a by, for example, corona discharge. The writing unit 227a irradiates the surface of the photosensitive drum 222a with laser light modulated based on the image data input from the image processing unit via the polygon mirror 240a / fθ lens 241a and the mirrors 242a and 242b.
[0036]
As a result, an electrostatic latent image is formed on the surface of the photosensitive drum 222a by the photoconductive action. The developing device 224a supplies a developer to the surface of the photosensitive drum 222a exposed by the laser beam, and visualizes the electrostatic latent image formed on the surface of the photosensitive drum 222a into a developer image. The transfer member 225a transfers the developer image carried on the surface of the photosensitive drum 222a to the surface of the paper P. After the developer image transfer process, the photosensitive drum 222a is cleaned by the cleaning device 226a. After the developer remaining on the surface is removed, the electrostatic latent image by the charge / writing unit 227a by the charger 223a and the developer 224a are used. Used repeatedly to form developer images. Each of the developing devices 224a to 224d provided in the image forming stations Pa to Pd contains developer of each color of yellow, magenta, cyan, and black. In addition, image data that is color-separated into yellow, magenta, cyan, and black colors is input from the image processing unit to each of the writing units 227a to 227d provided in the image forming stations Pa to Pd. Accordingly, in each of the image forming stations Pa to Pd, developer images of yellow, magenta, cyan, and black are formed and sequentially superimposed on the surface of the sheet P conveyed by the transfer conveyance belt 216. In this manner, a full color image is formed on the surface of the paper P by mixing the developer images of yellow, magenta, cyan, and black.
[0037]
The sheet P on which the developer images of the respective colors constituting the full-color image are transferred is transported to the fixing device 217 after the electrostatic attraction force on the surface of the transfer transport belt 216 is removed by the peeling device 229. The fixing device 217 heats and presses the paper P, and the developer image is melted and fixed on the paper P. In the single-sided image forming mode in which an image is formed on one side of the paper P, the paper P that has passed through the fixing device 217 is discharged to the paper discharge tray 220 by the paper discharge roller 219. In the double-sided image formation mode in which images are formed on both sides of the paper P, the paper P on which the developer image has been transferred on one side is reversed on the front and back surfaces in the switchback transport path 221 via the transport direction switching gate 218. The image is again conveyed to the upper surface of the transfer conveyance belt 216, and the image forming process described above is performed by the image forming unit 210.
[0038]
FIG. 2 is a block diagram showing a configuration of an image processing apparatus applied to the image forming apparatus. The image processing apparatus 10 applied to the image forming apparatus including the image reading unit 110 and the image forming unit 210 controls the operation of each unit in the image forming apparatus including the image reading unit 110 and the image forming unit 210. It is controlled by a CPU 31 having a “Only Memory” 32 and a RAM (Random Access Memory) 33. The image processing apparatus 10 applied to a printer that does not include an image reading unit is similarly controlled by a CPU that constitutes a control unit of the printer. The image processing apparatus 10 can also be applied to an apparatus that does not include an image reading unit and an image forming unit, such as a personal computer. In this case, an apparatus such as a personal computer can be operated as the image processing apparatus 10 by installing a later-described image processing method program of the present invention via a recording medium.
[0039]
The image processing apparatus 10 performs predetermined image processing on the light reception signals of R (red), G (green), and B (blue) output from a CCD (Charge Coupled Device) 116 of the image reading unit 110, Output to the writing units 227a to 227d of the image forming unit 210 as image data of each color of C (cyan), M (magenta), Y (yellow), and K (black). Therefore, the image processing apparatus 10 includes an A / D (analog / digital) conversion unit 11, a shading correction unit 12, an input tone correction unit 13, a color correction / black generation unit 14, a spatial filter processing unit 15, an output tone. A correction unit 16 and a gradation reproduction processing unit 17 are included.
[0040]
The A / D conversion unit 11 converts the R, G, and B light reception signals input from the image reading unit 110 into digital data. The shading correction unit 12 removes various distortions generated in the image in the light source, mirror, lens 115 and CCD 116 of the image reading unit 110 from the R, G and B color data input from the A / D conversion unit 11. I do. The input tone correction unit 13 adjusts the color balance of the R, G, and B color data output from the shading correction unit 12 and converts the data to data suitable for subsequent processing such as density data. I do.
[0041]
The color correction / black generation unit 14 performs a process of removing color turbidity based on the spectral characteristics of the C, M, and Y developers including unnecessary absorption components in order to faithfully reproduce the color, and after color correction. K (black) data is generated from C, M, and Y color data, and R, G, and B color data are converted to C, M, Y, and K color data. The spatial filter processing unit 15 performs spatial filter processing with a digital filter on the data of each color of C, M, Y, and K to correct the spatial frequency characteristics in order to prevent blur and graininess deterioration of the output image. . The output tone correction unit 16 performs output tone correction processing for converting density data into a halftone dot area ratio that is a characteristic value of the image forming unit 210. The gradation reproduction processing unit 17 generates a halftone so that an image can be divided into pixels and each gradation can be reproduced.
[0042]
When the image processing apparatus 10 is applied to an apparatus that does not include the image reading unit 110 and the image forming unit 210, the image processing apparatus 10 includes an image output device such as a scanner instead of the image reading unit 110, and Instead of the image forming unit 210, an image forming apparatus such as a printer is connected.
[0043]
FIG. 3 is a diagram showing the configuration of the color correction / black generation unit 14 included in the image processing apparatus that executes the image processing method according to the first embodiment of the present invention. The color correction / black generation unit 14 of the image processing apparatus 10 includes a color correction processing unit 21 and a black generation / under color removal unit 22. Further, the color correction processing unit 21 includes upper bit extraction units 23a to 23c for C, M, and Y colors and table access units 24a to 24c for C, M, and Y colors. In each of the higher-order bit extraction units 23a to 23c of the color correction processing unit 21, data input from the input tone correction unit 13 (data of three primary colors before processing in the color correction processing unit 21 is described below. Address data is created by extracting the upper bits of a predetermined number of bits from each color data. This address data is input to the table access units 24a to 24c.
[0044]
Hereinafter, the processing procedure of the main part in the image processing method according to the embodiment of the present invention will be described with reference to FIG.
[0045]
The number of upper bits extracted by the upper bit extraction units 23a to 23c from the first color system data depends on the gradation of the second color system data (definition will be described later) that varies depending on the type of image. It is set in advance to a value excluding the lower number of bits that does not affect the quality of the formed image. For example, if the first color system data is CMY data, is the extraction bit number for the same color data as the color processed by the table access unit set higher than the extraction bit number for the other color data? Alternatively, the total number of bits of the first color system data is set only for the number of extracted bits for data of the same color. For example, when the first color system data is 8 × 3 bit CMY data, the address data input to the C (cyan) table access unit 24a is 8 bits for C (cyan) and M (magenta). 6 bits and 6 bits for Y (yellow).
[0046]
On the other hand, as shown in FIG. 3, when the first color system data is RGB data, the data of the complementary color component (for example, C for R) is set higher than the other input signals. For example, in FIG. 3, the first color system data is RGB data of 8 × 3 bits, and the address data input to the C (cyan) table access unit 24a is 7 bits for R (red) and G (green). ) And 6 bits for B (blue), and each of the upper bit extraction units 23a to 23c extracts a total of 19 upper bits. Note that the number of upper bits extracted by each of the upper bit extraction units 23a to 23c can be set to another combination in which the total number is less than 24 bits according to the characteristics of the first color system data.
[0047]
The upper bit extraction units 23a to 23c use the address access data (R'G'B 'data) created by a predetermined number of upper bits extracted from the first color system data as table access units 24a to 24c for the respective colors. To enter. The table access units 24a to 24c are color correction data for the first color system data calculated in advance (data of a plurality of colors after processing in the color correction processing unit 21, and hereinafter referred to as second color system data). The color correction data stored in the address corresponding to the address data is read from the LUT and output.
[0048]
The correction data for each color of C, M, and Y output from the color correction processing unit 21 is input to the black generation / under color removal unit 22, and black generation processing and under color removal processing are executed. As an example, the process executed by the black generation / undercolor removal unit 22 can be performed by a method using a general skeleton black. FIG. 4 is a diagram showing an example of a skeleton curve used for the black generation process. The input characteristic of the skeleton curve is represented by y = f (x), the input data is C, M, Y, the output data is C ′, M ′, Y ′, K ′, and the UCR (Under Color Removal) rate is α. If (0 <α <1), the black generation / undercolor removal process is expressed by the following fourth equation.
[0049]
[Equation 3]
Figure 0003784577
In this way, in the color correction / black generation unit 14 configured by the color correction processing unit 21 and the black generation / undercolor removal unit 22, the first color system data as RGB data is CMY data (including K). Is converted into the second color system data and input to the spatial filter processing unit 15.
[0050]
As described above, in the image processing method according to the embodiment of the present invention, when converting the first color system data (RGB data in FIG. 3) to the second color system data (CMY data in FIG. 3), A predetermined number of upper bits are extracted from the first color system data to create address data (R′G′B ′ data in FIG. 3) (address data extraction process), and the three primary colors of the second color system data In the LUT corresponding to each of the colors, color correction data stored at an address specified by the address data is read (color correction data read processing), and K (black) data is generated from the read color correction data. After the lower color is removed, the three color correction data and K data are output as the second color system data.
[0051]
As a result, the total number of color correction data to be stored in the LUT matches the number of combinations of only the upper bits extracted by excluding a predetermined number of lower bits from the first color system data and is stored in the LUT. Memory capacity is reduced. Further, since it is not necessary to perform an interpolation operation using lower-order bit data, the processing time is shortened and the circuit configuration is simplified.
[0052]
FIG. 5 is a block diagram showing a configuration of a color correction / black generation unit included in an image processing apparatus that executes an image processing method according to the second embodiment of the present invention. The color correction / black generation unit 14 of the image processing apparatus according to this embodiment replaces the black generation / under color removal unit 22 in the configuration shown in FIG. A bit extraction unit 23d and a table access unit 24d are provided. In this case, an LUT storing the result of the black generation process corresponding to the first color system data is provided in the table access unit 24d, and the LUTs included in the table access units 24a to 24c are the colors subjected to the lower color removal process. Store correction data.
[0053]
In the color correction / black generation unit 14 configured as shown in FIG. 5, the black generation processing based on the color correction data read from the LUT by the table access units 24a to 24c as compared to the configuration of FIG. The under color removal process for the color correction data read from the LUT by the table access units 24a to 24c becomes unnecessary, and the processing time is further shortened.
[0054]
Further, the upper bit numbers Rb, Gb, and Bb of the first color system data that is RGB data input to the table access unit 24d correspond to the contribution to the lightness component so that Bb ≦ Rb ≦ Gb. Set. Thus, by setting, a black LUT can be most efficiently created in a limited size table. In the example shown in FIG. 5, R is set to 6 bits, G is set to 7 bits, and B is set to 6 bits.
[0055]
FIG. 6 is a block diagram showing the configuration of the color correction / black generation unit 14 included in the image processing apparatus that executes the image processing method according to the third embodiment of the present invention. The color correction / black generation unit 14 of the image processing apparatus according to this embodiment replaces the upper bit extraction units 23a to 23c in the configuration shown in FIG. 3 with a color coordinate conversion unit 25, a color conversion / data processing unit 26, and An upper bit extraction unit 27 is provided. The color coordinate conversion unit 25 converts the first color system data which is RGB data into a CIE (Commision Internationale de l'Eclairage) L which is a uniform color space.* a* b* Data (L* Is the brightness, a* , B* Is converted to chromaticity).
[0056]
In this color coordinate conversion method, (1) in order to obtain the characteristics of the image input device (image reading unit 110), each color patch of the color chart document is measured by a colorimeter and L* , A* , B* (2) The color chart document used for colorimetry is read from the image reading unit 110 to obtain RGB data, and (3) the colorimetric L* , A* , B* In order to correlate the read R value, the read R, G, and B data values with a neural network or masking calculation coefficient determination method* , A* , B* And the input characteristic of the image reading unit 110 is defined by obtaining a coefficient between the R value and the read R, G, and B data values. (4) Based on the obtained coefficient, a masking operation by a matrix, 3D Color coordinate conversion is performed by an arbitrary method such as the LUT method by interpolation or the LUT method of the present invention.
[0057]
L obtained by the above color coordinate conversion process* a* b* The data is input to the color conversion / data processing unit 26 and subjected to data processing such as color conversion processing by image editing and lightness and saturation compression by color reproduction region interpolation. L 'subjected to this data processing* a ′* b '* The data is input to the upper bit extraction unit 27, and the upper bit signal of each signal is extracted. At this time, the chromaticity signal (a ′* , B '* Brightness signal (L ′)* ) To extract a large number of upper bits, a natural image with the highest accuracy and a small tone gap can be formed with a limited memory capacity as an LUT. In the example shown in FIG.* 7 bits for signal, a "* 6 bits for signal, b "* Six bits are set for the signal.
[0058]
In the example shown in FIG. 6, the black generation / under color removal unit 22 performs black generation processing and under color removal processing after the color correction processing, but as described above, the black generation / under color removal unit 22. Alternatively, a K (black) table access unit may be provided. Before describing the LUT creation processing used in the image processing method according to the embodiment of the present invention, first, the LUT creation processing by a general method will be described with reference to the flowchart of FIG. All LUTs for C, M, and Y colors can be created by the same procedure. Therefore, as an example, a method for creating a C (cyan) LUT will be described. In this method, the upper bits of each color data of the first color system data, which is the input RGB data, are extracted as address data Ri ′, Gi ′, Bi ′ (step 1; hereinafter, step is denoted as s). Then, the first color system data Ri, Gi, before extracting the upper bits by shifting the upper bits in the first color system data by the number of lower bits removed from the first color system data. Bi is obtained (s2), and cyan correction data Ci for the first color system data Ri, Gi, Bi is calculated (s3). Thereafter, by comparing the count value of the counter i that is incremented (incremented by 1) each time the processing of s1 to s3 is completed once, and the total number n of RGB data from which the higher-order bits are extracted, The process of s3 is repeated n times (s4 → s5 → s1).
[0059]
In the processing of s1 to s5, the R, G, and B color data in the first color system data input from the image reading unit 110 is 8 bits, respectively, and is extracted by the upper bit extraction units 23a to 23c. The number of upper bits of eachub, Gub, BubThe number of lower bits r excluded from the first color system datalb, Glb, BlbIs obtained by the following equation (5), and the total number n of R, G, B data extracted from the upper bits is obtained by the following equation (6).
[0060]
[Expression 4]
Figure 0003784577
The access data Ri ′, Gi ′, Bi ′ extracted in the processing of s1 is data that designates an address for storing color correction data in the LUT, and is data that is input to the table access unit 24a during the color correction processing. The data Ri, Gi, Bi calculated in the process of s2 is data used when creating the LUT, and the data Ri, Gi, Bi can be calculated by the following seventh equation.
[0061]
[Equation 5]
Figure 0003784577
Further, the calculation of the color correction data Ci in s3 is, for example, (1) outputting C, M, and Y color patches in the image forming unit 210, and (2) reading the output color patches with the image reading unit 110. RGB data is acquired, and (3) input / output characteristics of the image reading unit 110 and the image forming unit 210 by using a neural network or a masking coefficient determination method by associating the output CMY values with the read RGB values, that is, CMY The coefficient of the value and the RGB value is defined, and (4) color correction calculation is performed based on the obtained coefficient.
[0062]
The color correction data Ci obtained in s3 is stored as a table value for the access data Ri ′, Gi ′, Bi ′ in the LUT provided in the C (cyan) table access unit 24a.
[0063]
FIG. 8 is a flowchart showing LUT creation processing in the image processing method according to the embodiment of the present invention. The LUT creation process shown in FIG. 7 is a general method and versatile, and can be applied to, for example, a conversion process using a three-dimensional interpolation method. However, when color correction processing is performed using the LUT created by the processing shown in FIG. 7, there may be a color shift or tone gap depending on input / output characteristics in the image forming apparatus. Therefore, in the image processing method according to this embodiment, the processing of s11 to s15 is executed instead of the processing of s3 in FIG.
[0064]
That is, after generating the address data Ri ′, Gi ′, Bi ′ and the input data Ri, Gi, Bi (first operation data) (s1, s2), the data ΔRj, ΔGj, ΔBj for the lower bits are selected. Next, temporary input data Ri + ΔRj, Gi + ΔGj, Bi + ΔBj (calculation data / second calculation data) are calculated (s12), and temporary color correction data Cij (intermediate correction data) for the temporary input data is calculated. Is calculated (s13). The processing of s11 to s13 is repeatedly executed m times by comparing the count value of the counter j incremented after the processing of s13 with the total number m of all the combinations of the lower bits removed from the input signal (s14 → s15 → s11), the average value of the obtained temporary color correction data Cij is calculated as the color correction data Ci (s16).
[0065]
The total number m of all the combinations of the lower bits, which is the number of times of repeating the processes of s11 to s13, is calculated by the following eighth formula.
[0066]
[Formula 6]
Figure 0003784577
Next, it is repeatedly executed n times by comparing the count value of the counter i incremented after the processing of s16 with the total number n of RGB data extracted from the upper bits (s4 → s5 → s1). The color correction data Ci obtained in s16 is stored in the LUT as table values for the access data Ri ′, Gi ′, Bi ′.
[0067]
The color correction data Ci obtained in this way is calculated in consideration of the optimum value for each color data combination in the first color system data at the time of color correction processing. And the tone gap can be minimized. In addition, when the median value is used instead of the average value, substantially the same effect can be obtained. In this case, however, the saturation (density) of the image is more effective than the elimination of the tone gap and the color shift. It is effective for maintenance and improvement.
[0068]
FIG. 9 is a flowchart showing LUT creation processing in an image processing method according to still another embodiment of the present invention. In the LUT creation processing in the image processing method according to this embodiment, the processing from s21 to s27 is executed between s16 and s4 in the processing shown in FIG. That is, the average value Ciavg, the maximum value Cimax, and the minimum value Cimin of the color correction data Cij calculated by the processes of s11 to s15 are calculated (s16, s21, s22), and the calculated average value Ciavg, the maximum value Cimax, and the minimum value are calculated. The optimum table value Ci is determined using Cimin.
[0069]
For example, when the maximum value Cimax is “255”, by setting the table value Ci = 255, it is possible to completely prevent a decrease in saturation (density) due to truncation of lower bits. In addition, when the average value Ciavg satisfies Ciavg> Thmax with respect to the threshold Thmax on the high density side, by setting the table value Ci = 255, the saturation (density) decreases due to truncation of the lower bits, and Tone gap (color skip) is suppressed. Here, the threshold Thmax on the high density side can be arbitrarily set, and for example, a value of about “250” is set.
[0070]
Therefore, it is determined whether Cimax = 255 and Ciavg> Thmax is satisfied (s23). If the condition is satisfied, the high-order bit data (Ri ′, Gi ′, Bi ′) should output a high density value. It is determined that the data is data, and Ciavg + α (α is a function of Ciavg) is set to the table value Ci (s25). Thus, by setting a value obtained by adding α to the average value as the table value, it is possible to suppress a decrease in saturation (density) and a tone gap (color skip) that occur when only the average value is used. .
[0071]
On the other hand, when the condition is not satisfied in s23, it is determined that the upper bit data (Ri ′, Gi ′, Bi ′) is data that should output a medium density value or a low density value.
[0072]
When the minimum value Cimin is “0”, by setting the table value Ci = 0, it is possible to prevent an unnatural background from being generated by truncating the lower bits. In addition, when the average value Ciavg satisfies the condition of Ciavg <Thmin with respect to the threshold Thmin on the low density side, by setting the table value Ci = 0, unnatural background generation and tone gap due to truncation of lower bits are performed. (Color skip) is suppressed. The threshold Thmin on the low density side can also be set arbitrarily. For example, a value such as “10” or “20” is set for 256 gradations.
[0073]
Therefore, it is determined whether Cimin = 0 and Ciavg <Thmin (s24). If the condition is satisfied, the upper bit data (Ri ', Gi', Bi ') should output a low density value. It is determined that the data is data, and Ciavg-β (β is a function of Ciavg) is set to the table value Ci (s26). In this way, by setting a value obtained by subtracting β from the average value as the table value, it is possible to suppress the occurrence of background and tone gap (color skip) that occurs when only the average value is used.
[0074]
On the other hand, if the condition is not satisfied in s24, it is determined that the upper bit data (Ri ′, Gi ′, Bi ′) is data that should output a medium density value, and the average value Ciavg is used as the table value Ci. Is set (s27).
[0075]
Thereafter, the process of s1 → s2 → s11 to s16 → s21 to s27 is performed by comparing the count value of the counter i incremented after the process of s27 with the total number n of combinations of the upper bit data of the input data. By repeatedly executing n times, all table values to be stored in the LUT provided in the C (cyan) table access unit 24a are determined.
[0076]
By the above processing, for example, even when the sensitivity of the low density range of the image output apparatus is insufficient or the sensitivity characteristic of the low density range is nonlinear with respect to the density, the lower bits are discarded so that there is no problem with the original. It is possible to prevent a natural background from occurring. In addition, even when the sensitivity of the high density range of the image output device is insufficient or the sensitivity characteristic of the high density range is non-linear with respect to the density, a decrease in saturation (density) caused by truncation of the lower bits or A tone gap (color skip) can be prevented.
[0077]
【The invention's effect】
According to the first aspect of the present invention, the relationship between the address data obtained by extracting the upper bit data having a predetermined number of bits determined according to the gradation of the output image data from the input image data and the color correction data is color correction. Stored in the table. For color correction data, 1) the address data is shifted by the number of bits of the lower-order bit data removed from the input image data, and 2) operation data is created by adding the lower-order bit data of all combinations to this data, 3) It is obtained by converting the calculation data based on the characteristics between the input image data and the output image data. When input image data is input, upper bit data having a predetermined number of bits is extracted from the input image data as address data, and color correction data corresponding to the extracted address data is read from the color correction table. The color correction table can store only the color correction data corresponding to the upper bit data having a predetermined number of bits determined according to the gradation of the output image data in the input image data, and the table size can be reduced. At the same time, the gradation in the output image data can be ensured without performing an interpolation process using the lower-order bit data of the input image data, and the input image data is converted into output image data having sufficient gradation. This process can be shortened. According to the second aspect of the present invention, the bit individually determined for each color of the first color system expressing the input image data according to the characteristics of each color of the second color system expressing the output image data. By performing color correction by the LUT method on a number of input image data, even if the characteristics such as the gradation of the output image data are different for each color, the conversion accuracy is maintained according to the characteristics of each color. Color correction processing using a color correction table with a minimum table size can be performed.
[0078]
According to the third aspect of the present invention, the number of bits of the address data for the input image data of the color having a high influence on the brightness of the output image data among the respective colors of the first color system expressing the input image data is obtained. By extracting more than the number of bits of address data for input image data of other colors, black output image data can be created using a color correction table with a minimum table size.
[0079]
According to the fourth aspect of the present invention, the input image data expressed by the first color system is converted into data in uniform color space coordinates constituted by brightness and chromaticity, and the brightness in the input image data after conversion is converted. The number of bits of address data for data is extracted more than the number of bits of address data for chromaticity data. Therefore, the input image data expressed in the first color system is converted into output image data expressed in the second color system in more detail than the chromaticity with respect to the brightness converted into the uniform color space coordinate system. Using a color correction table with a limited table size, output image data in a natural state with few defects such as tone gaps can be obtained.
[0080]
According to the fifth aspect of the present invention, the color correction data is input to the color correction table referred to when converting the input image data of the first color system to the output image data of the second color system. The image data is stored in association with address data, which is upper bit data. The color correction data can be taken as input image data in first operation data obtained by shifting the upper bit data of a predetermined number of bits extracted from the input image data by the number of bits of the lower bit data according to the gradation of the output image data. The second calculation data created by adding the lower bit data of all combinations is obtained by converting based on the characteristics between the input image data and the output image data. With this configuration, the color correction table can be set to the minimum table size that can ensure the gradation of the output image data.
[0081]
According to the sixth aspect of the present invention, the density level of the input image data is classified into three levels, and the color correction data adjusted by a predetermined value according to each density level is stored in the color correction table. Therefore, it is possible to prevent deterioration in image quality due to a decrease in density in a high density portion, generation of a background or generation of a tone gap in a low density portion.
[0082]
According to the seventh aspect of the present invention, for each of the input image data, a plurality of pieces of input image data are generated based on the second calculation data created by sequentially adding a plurality of lower bit data to the upper bit data having a predetermined number of bits. Intermediate correction data is calculated, and the average value, median value, maximum value, or minimum value of the intermediate correction data for each input data is selectively stored in the color correction table according to the characteristics of the output data. Thus, it is stored in the color correction table. With this configuration, since the color correction data is obtained by reflecting the lower bit data removed from the input image data, the density reduction of the high density portion and the low density portion by removing the lower bit data. The occurrence of undercolor and tone gap can be reliably prevented.
[0083]
According to the eighth aspect of the present invention, when input image data is input, upper bit data having a predetermined number of bits is extracted as address data from the input image data, and color correction data corresponding to the extracted address data Are read from the color correction table. In the color correction table, the upper bit data having a predetermined number of bits determined according to the gradation property of the output image data is shifted by the number of lower bit data excluded from the address data extracted from the input image data. The relationship with the color correction data obtained by converting the arithmetic data obtained by adding the lower bit data of all combinations based on the characteristics between the input image data and the output image data is stored. Therefore, it is possible to ensure gradation in the output image data without performing interpolation processing using the lower-order bit data of the input image data, and convert the input image data into output image data having sufficient gradation. The processing for this can be shortened.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of an image forming apparatus including an image processing apparatus to which an image processing method according to an embodiment of the present invention is applied.
FIG. 2 is a block diagram illustrating a configuration of an image processing apparatus applied to the image forming apparatus.
FIG. 3 is a diagram showing a configuration of a color correction / black generation unit included in the image processing apparatus that executes the image processing method according to the first embodiment of the present invention;
FIG. 4 is a diagram illustrating an example of a skeleton curve used for black generation processing.
FIG. 5 is a block diagram showing a configuration of a color correction / black generation unit included in an image processing apparatus that executes an image processing method according to a second embodiment of the present invention;
FIG. 6 is a block diagram illustrating a configuration of a color correction / black generation unit included in an image processing apparatus that executes an image processing method according to a third embodiment of the present invention;
FIG. 7 is a flowchart showing processing for creating an LUT using a general method for explaining processing for creating an LUT used in the image processing method according to the embodiment of the present invention;
FIG. 8 is a flowchart showing LUT creation processing in the image processing method according to the embodiment of the present invention;
FIG. 9 is a flowchart showing LUT creation processing in an image processing method according to another embodiment of the present invention;
FIG. 10 is a diagram illustrating image data conversion processing by a three-dimensional interpolation method that is an LUT method.
[Explanation of symbols]
10-Image processing apparatus
14-color correction / black generator
21-color correction processing unit
23a to 23d, 27-upper bit extraction unit
24a-24d-table access unit

Claims (9)

第1表色系の入力画像データを第2表色系の出力画像データに変換する色補正処理を含む画像処理方法において、
前記色補正処理は、
出力画像データの階調性に応じて決定された所定ビット数の上位ビットデータを色補正テーブルのアドレスデータとして入力画像データから抽出するアドレスデータ抽出処理と、
前記アドレスデータを前記上位ビットデータを除く下位ビットデータのビット数分だけ上位側にシフトして全ての組み合わせの下位ビットデータを付加した複数の演算データを作成し、この複数の演算データを、入力画像データ及び出力画像データの間の特性に基づいて変換して求めた色補正データと前記アドレスデータとの関係を記憶した色補正テーブルから、入力画像データのアドレスデータに対応する色補正データを読み出す色補正データ読み出し処理と、
から構成されていることを特徴とする画像処理方法。
In an image processing method including color correction processing for converting input image data of a first color system to output image data of a second color system,
The color correction process includes
Address data extraction processing for extracting upper bit data of a predetermined number of bits determined according to the gradation of the output image data from the input image data as address data of the color correction table;
The address data is shifted to the upper side by the number of bits of the lower bit data excluding the upper bit data to create a plurality of operation data to which all combinations of the lower bit data are added, and the plurality of operation data are input. Read out color correction data corresponding to the address data of the input image data from the color correction table storing the relationship between the color correction data obtained by conversion based on the characteristics between the image data and the output image data and the address data. Color correction data read processing;
An image processing method comprising:
前記アドレスデータ抽出処理は、出力画像データにおける第2表色系の各色の特性に応じて、第1表色系の色毎に予め決定されたビット数の上位ビットデータを第1表色系の各色の入力画像データからアドレスデータとして抽出することを特徴とする請求項1に記載の画像処理方法。In the address data extraction process, upper bit data having a predetermined number of bits for each color of the first color system is converted into the first color system according to the characteristics of each color of the second color system in the output image data. 2. The image processing method according to claim 1, wherein address data is extracted from input image data of each color. 前記アドレスデータ抽出処理が、出力画像データに黒色のデータを含む場合に、第1表色系の各色のうち出力画像データの明度に対する寄与率の高い色の入力画像データに対して他の色の入力画像データよりも多いビット数の上位ビットデータを抽出することを特徴とする請求項2に記載の画像処理方法。In the case where the address data extraction process includes black data in the output image data, among the colors of the first color system, other colors of the input image data having a high contribution ratio to the brightness of the output image data 3. The image processing method according to claim 2, wherein upper bit data having a larger number of bits than input image data is extracted. 前記アドレスデータ抽出処理は、入力画像データを明度及び色度によって構成される均等色空間座標に変換する座標変換処理を含み、座標変換処理による変換後における入力画像データの明度データに対して色度データよりも多いビット数の上位ビットデータを抽出することを特徴とする請求項2又は3に記載の画像処理方法。The address data extraction process includes a coordinate conversion process for converting the input image data into uniform color space coordinates composed of brightness and chromaticity, and the chromaticity with respect to the brightness data of the input image data after the conversion by the coordinate conversion process 4. The image processing method according to claim 2, wherein upper bit data having a larger number of bits than data is extracted. 第1表色系の入力画像データを第2表色系の出力画像データに変換する色補正処理を含む画像処理方法に使用される色補正テーブルであって、
入力画像データから抽出された上位ビットデータを前記上位ビットデータを除く下位ビットデータのビット数分だけ上位側にシフトして第1演算データを作成するとともに、第1演算データに入力画像データとして取り得る全ての組み合わせの下位ビットデータを付加して複数の第2演算データを作成し、複数の第2演算データを、入力画像データ及び出力画像データの間の特性に基づいて変換して色補正データを求め、この色補正データの階調性に応じて決定された所定ビット数の上位ビットデータを入力画像データから抽出して得られるアドレスデータに対応づけて格納したことを特徴とする色補正テーブル。
A color correction table used in an image processing method including a color correction process for converting input image data of a first color system to output image data of a second color system,
The upper bit data extracted from the input image data is shifted to the upper side by the number of bits of the lower bit data excluding the upper bit data to create first calculation data, and the first calculation data is taken as input image data. A plurality of second calculation data is created by adding lower bit data of all combinations to be obtained, and the plurality of second calculation data is converted based on the characteristics between the input image data and the output image data, and color correction data A color correction table in which upper bit data having a predetermined number of bits determined according to the gradation of the color correction data is stored in association with address data obtained by extracting from input image data .
前記第2演算データは、第1演算データに対して複数の下位ビットデータを順に付加することにより複数作成されるとともに、前記色補正データは、複数の第2演算データのそれぞれを変換して求められる複数の中間補正データの最大値と予め定められた高濃度側の閾値との比較結果に基づいて設定される複数の中間補正データの平均値に所定値を加算したデータ、複数の中間補正データの最小値と予め定められた低濃度側の閾値との比較結果に基づいて設定される上記平均値から所定値を減算したデータ又は該平均値そのもののデータのいずれかであることを特徴とする請求項5に記載の色補正テーブル。A plurality of the second calculation data are created by sequentially adding a plurality of lower bit data to the first calculation data, and the color correction data is obtained by converting each of the plurality of second calculation data. Data obtained by adding a predetermined value to an average value of a plurality of intermediate correction data set based on a comparison result between a maximum value of the plurality of intermediate correction data and a predetermined threshold value on the high density side, and a plurality of intermediate correction data It is either data obtained by subtracting a predetermined value from the average value set based on a comparison result between a minimum value of the threshold value and a predetermined threshold value on the low density side, or data of the average value itself The color correction table according to claim 5. 前記第2演算データは、第1演算データに対して複数の下位ビットデータを順に付加することにより複数作成されるとともに、前記色補正データは、複数の第2演算データのそれぞれを変換して求められる複数の中間補正データの平均値、中央値、最大値又は最小値のうち出力画像データの特性に応じて選択されたいずれかのデータであることを特徴とする請求項5に記載の色補正テーブル。A plurality of the second calculation data are created by sequentially adding a plurality of lower bit data to the first calculation data, and the color correction data is obtained by converting each of the plurality of second calculation data. 6. The color correction according to claim 5, wherein the color correction is any data selected in accordance with characteristics of the output image data among an average value, a median value, a maximum value, and a minimum value of the plurality of intermediate correction data. table. 第1表色系の入力画像データを第2表色系の出力画像データに変換する画像処理装置において、
入力画像データから出力画像データの階調性に応じて決定された所定ビット数の上位ビットデータを色補正テーブルのアドレスデータとして抽出する上位ビット抽出部と、
前記アドレスデータを前記上位ビットデータを除く下位ビットデータのビット数分だけ上位側にシフトして全ての組み合わせの下位ビットデータを付加して複数の演算データを作成し、この複数の演算データを、入力画像データ及び出力画像データの間の特性に基づいて変換して求めた色補正データと前記アドレスデータとの関係を記憶した色補正テーブルを備え、色補正テーブルの記憶内容を参照して入力画像データのアドレスデータに対応する色補正データを出力するテーブルアクセス部と、
を出力画像データを表現する第2表色系の色毎に設けたことを特徴とする画像処理装置。
In an image processing apparatus for converting input image data of a first color system to output image data of a second color system,
A high-order bit extraction unit that extracts high-order bit data of a predetermined number of bits determined according to the gradation of the output image data from the input image data as address data of the color correction table;
The address data is shifted to the upper side by the number of bits of the lower bit data excluding the upper bit data, and all combinations of lower bit data are added to create a plurality of operation data. A color correction table storing the relationship between the color correction data obtained by conversion based on the characteristics between the input image data and the output image data and the address data, and referring to the stored contents of the color correction table; A table access unit that outputs color correction data corresponding to the address data of the data;
Is provided for each color of the second color system expressing the output image data.
原稿の画像を読み取って信号を出力する画像読取部、及び、画像データに基づいて用紙に画像を形成する画像形成部を備えた画像形成装置であって、
請求項8に記載の画像処理装置をさらに備え、前記画像読取部から出力された信号に基づく画像データを前記画像処理装置において所定の画像処理を施して前記画像形成部に出力することを特徴とする画像形成装置。
An image forming apparatus including an image reading unit that reads an image of a document and outputs a signal, and an image forming unit that forms an image on a sheet based on image data,
9. The image processing apparatus according to claim 8, further comprising: image data based on a signal output from the image reading unit that is subjected to predetermined image processing in the image processing unit and output to the image forming unit. Image forming apparatus.
JP12695799A 1999-05-07 1999-05-07 Image processing method, color correction table, image processing apparatus, and image forming apparatus Expired - Lifetime JP3784577B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12695799A JP3784577B2 (en) 1999-05-07 1999-05-07 Image processing method, color correction table, image processing apparatus, and image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12695799A JP3784577B2 (en) 1999-05-07 1999-05-07 Image processing method, color correction table, image processing apparatus, and image forming apparatus

Publications (2)

Publication Number Publication Date
JP2000324348A JP2000324348A (en) 2000-11-24
JP3784577B2 true JP3784577B2 (en) 2006-06-14

Family

ID=14948091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12695799A Expired - Lifetime JP3784577B2 (en) 1999-05-07 1999-05-07 Image processing method, color correction table, image processing apparatus, and image forming apparatus

Country Status (1)

Country Link
JP (1) JP3784577B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4226278B2 (en) * 2002-06-14 2009-02-18 シャープ株式会社 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium recording the same
KR100834615B1 (en) 2006-01-24 2008-06-02 삼성전자주식회사 Color conversion method based on error correction table

Also Published As

Publication number Publication date
JP2000324348A (en) 2000-11-24

Similar Documents

Publication Publication Date Title
JP5712684B2 (en) Color processing apparatus and program
JP4067532B2 (en) Color conversion apparatus, image forming apparatus, color conversion method, computer program, and recording medium
US6097501A (en) Color correction device
JP4955082B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP3662379B2 (en) Image processing device
JPH09186866A (en) Image processing unit and image processing method
JP2004289819A (en) Image forming device and method
JPH06276399A (en) Picture processing unit
JP2004023401A (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and record medium with the program recorded thereon
JP4762649B2 (en) Image processing apparatus, image forming apparatus, control program, and computer-readable recording medium
JP3784577B2 (en) Image processing method, color correction table, image processing apparatus, and image forming apparatus
JP3425847B2 (en) Image processing device
JP2006238024A (en) Image processor, image processing method and program, and recording medium
JP3665722B2 (en) Image processing device
JP3627889B2 (en) Digital image processing device
JPH06152945A (en) Image processor
JP2009033341A (en) Image processing device, image forming apparatus and image processing method
JP3816298B2 (en) Image processing apparatus and image forming apparatus
JP3958923B2 (en) Image data processing apparatus, image reading apparatus, and image forming apparatus
JP2007098771A (en) Image forming apparatus, control program and computer readable recording medium
JP2005176222A (en) Image processor
JP5202508B2 (en) Image forming apparatus and image reading apparatus
JP4266002B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP2015149635A (en) image forming apparatus
JP4266004B2 (en) Image processing method, image processing apparatus, image forming apparatus, image processing program, and recording medium recording image processing program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050111

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050614

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050815

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050927

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060315

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100324

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100324

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110324

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120324

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120324

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130324

Year of fee payment: 7