JP3728025B2 - Image processing method and apparatus - Google Patents

Image processing method and apparatus Download PDF

Info

Publication number
JP3728025B2
JP3728025B2 JP20471796A JP20471796A JP3728025B2 JP 3728025 B2 JP3728025 B2 JP 3728025B2 JP 20471796 A JP20471796 A JP 20471796A JP 20471796 A JP20471796 A JP 20471796A JP 3728025 B2 JP3728025 B2 JP 3728025B2
Authority
JP
Japan
Prior art keywords
color
output
input
color space
dot pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP20471796A
Other languages
Japanese (ja)
Other versions
JPH09102886A (en
Inventor
尚 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP20471796A priority Critical patent/JP3728025B2/en
Publication of JPH09102886A publication Critical patent/JPH09102886A/en
Application granted granted Critical
Publication of JP3728025B2 publication Critical patent/JP3728025B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、入力色空間データを出力色空間データに変換する画像処理方法及び装置に関するものである。
【0002】
【従来の技術】
従来、カラープリンタの画像処理方法として、色網点モデルに立脚した画像処理方法が広く知られている。
【0003】
図20は、従来のカラープリンタにおける画像処理部の構成を示すブロック図である。まず入力端子101から入力されたRGBの各輝度信号は、濃度変換部102にて各々CMYの濃度信号に変換される。次に、変換された濃度信号より、黒生成部103にて黒濃度信号Kが生成され、マスキング・UCR部104にて下色除去及び各濃度信号のクロストーク成分が補償された網点面積信号となる。そして、出力γ補正部105にてドットゲイン等による網点面積信号と出力濃度とのリニアリティが補償され、2値化部106にて各色成分毎に2値化され、ドットパターンとなって出力端子107より不図示のプリンタエンジンへと出力される。
【0004】
尚、濃度変換部102、出力γ補正部105は、通常ルックアップテーブル(以下、「LUT」と記す)で構成される。
【0005】
【発明が解決しようとする課題】
しかしながら、上記従来例では、CMYK各プレーン毎に2値化処理しているため、CMYKの各ドットの重なりがランダムになり、マスキングによる色再現の合わせ込みや、ドット・オン・ドットの数の制限が非常に困難である、という欠点があった。
【0006】
また、濃度変換、黒生成、マスキング・UCR、出力γ補正、2値化の各処理を独立に行なっているため、処理に時間がかかるか、或いはハード量(計算量)が膨大になってしまう、という欠点もあった。
【0007】
また、3次元の色空間内で、入力カラー画像データを出力カラー画像データに変換する技術がUSP5,070,413、USP5,270,808で知られている。これらUSPに開示の技術はR,G,Bそれぞれ8ビットの入力データから、Y,M,C,Kそれぞれ1ビットの出力データを求めるものである。
【0008】
その方法は、3次元色空間内でR,G,Bそれぞれ8ビットで表わされる入力データが、Y,M,C,Kそれぞれ1ビットで表わされる16通りの出力色のどの出力色に近いかを求めるため、入力データと出力色との間の16通りの距離を求め、最も距離の小さいものを出力色として決定するものである。
【0009】
この場合、演算処理に時間がかかる欠点があり、高速処理、そして更なる高画質化処理が望まれていた。
【0010】
本発明は、上記課題を解決するために成されたもので、高速な処理で高画質なカラー画像を得ることができる画像処理方法及び装置を提供することを目的とする。
【0011】
本発明の他の目的は、複数の入力色成分データのそれぞれを入力レベルよりも近いレベルのデータに変換し、データ量の減少したデータでテーブルをアクセスし、複数の出力色成分データを生成することで、簡単かつ高速に高画質なカラー画像を得ることができる画像処理方法及び装置の提供にある。
【0012】
本発明の更なる目的は、複数の入力色成分データからテーブル変換により複数の出力色成分ドットパターンを生成することにより、簡単かつ高速に入力解像度よりも高解像度の高画質なカラー画像を得ることができる画像処理方法及び装置の提供を目的とする。
【0013】
本発明の更なる目的は、入力色空間を所定数に分割し各分割空間毎に出力ドットパターンをマッピングしたLUTを用いて入力画素データから直接出力ドットパターンを生成し、次に出力ドットパターンが再現する色を入力色空間に変換するLUTを用いて出力ドットパターンを入力色空間に変換し、入力画素データとの差分(誤差)を求め、該差分値を周辺画素に拡散することにより、色再現及び2値化処理を2つのLUTの検索と1回の誤差拡散処理にて実行し、色再現の良い画像出力が簡単に得られ、また、CMYKのドットパターンをマッピングしているため、CMYKのドット・オン・ドット混色数を厳密に制限できる画像処理方法及び装置の提供を目的とする。
【0014】
本発明の更なる目的は、濃度変換及び量子化による誤差拡散処理をRGBの輝度空間にて実行し、色再現の誤差拡散処理を出力濃度空間にて実行するため、各々最適な空間で誤差拡散され、また濃度変換による誤差も補正されるため、なお一層色再現の良い画像出力が得られ、色再現の誤差拡散処理を量子化された濃度空間にて実行しているため、ハード量を削減できる画像処理方法及び装置の提供を目的とする。
【0015】
本発明の更なる目的は、濃度変換及び色空間分割時に発生する誤差の拡散処理と、色再現の誤差の拡散処理との間でスキャン変換を実行し、それぞれの誤差拡散のスキャン方向が反対になるため誤差拡散による位相歪みを改善できる画像処理方法及び装置の提供を目的とする。
【0016】
本発明の他の目的は、Nドット(Nは2以上の整数)で1画素を表現したため、N倍(面積)に拡大する場合には、拡大処理は不要となり、また、Nドットで1色を表現するため、周囲のドットの重なりによる影響は1ドットの時に比べて小さくなり、これにより、再現色データの確度が向上し、色再現性を向上させることができる画像処理方法及び装置の提供を目的とする。
【0017】
本発明の更なる目的は、注目画素と隣接画素との境界部の重なりによる再現色のズレを補正する処理を設けたため、色再現誤差の精度が向上し、色再現性を更に向上させることができる画像処理方法及び装置の提供を目的とする。
【0020】
【課題を解決するための手段】
上述した目的を達成すべく、本発明は、入力色空間データを出力色空間データに変換する画像処理方法であって、入力色空間における複数の色成分データを入力する入力工程と、前記入力工程で入力された複数の色成分データを所定の誤差信号で補正する補正工程と、入力色空間における複数の色成分の値に対応するように予め定められた、出力色空間における複数の色成分毎のドットパターンを格納するドットパターン格納部から、前記補正工程で補正された入力色空間における複数の色成分の値に対応したドットパターンを出力する出力工程と、前記出力工程で出力された注目画素及び注目画素の周囲の画素のドットパターンから、当該注目画素の再現色を入力色空間における複数の色成分の値に変換する変換工程と、前記変換工程で変換された複数の色成分の値と前記補正工程で補正された複数の色成分の値との差分値に基づいて、前記所定の誤差信号を生成する生成工程と、を有することを特徴とする。
【0021】
上述した目的を達成すべく、本発明は、入力色空間データを出力色空間データに変換する画像処理装置であって、入力色空間における複数の色成分データを入力する入力手段と、前記入力手段で入力された複数の色成分データを所定の誤差信号で補正する補正手段と、入力色空間における複数の色成分の値に対応するように予め定められた、出力色空間における複数の色成分毎のドットパターンを格納するドットパターン格納手段と、前記補正手段で補正された入力色空間における複数の色成分の値に対応したドットパターンを出力する出力手段と、前記ドットパターン格納手段から出力された注目画素及び注目画素に隣接する画素のドットパターンから、当該注目画素における出力色を入力色空間における複数の色成分の値に変換する変換手段と、前記変換手段で変換された複数の色成分の値と前記補正手段で補正された複数の色成分の値との差分値に基づいて、前記所定の誤差信号を生成する生成手段と、を有することを特徴とする。
【0022】
【発明の実施の形態】
以下、図面を参照しながら本発明に係る実施の形態を詳細に説明する。
【0023】
[実施形態1]
図1は、実施の形態1における画像処理部の構成を表わすブロック図である。図において、10は入力端子、11は加算部、12はリミッタ、13は量子化部、14はパターンテーブル、15はバッファ、16は出力輝度テーブル、17はオフセット加算部、18は減算部、19はリミッタ、20は拡散処理部、21は出力端子である。
【0024】
ここで、入力端子10から入力されたRGBの各輝度信号は、加算部11にて後述する拡散処理部20による誤差信号が各信号毎に加算され、リミッタ12及び減算部18に入力される。リミッタ12は加算部11の出力を入力RGB輝度信号の存在範囲にリミットし、結果を量子化部13に出力する。量子化部13はパターンテーブル14への入力ビット数を削減するためのもので、例えばRGB各9ビットをRGB各3ビットに量子化する。
【0025】
次に、パターンテーブル14には、混色数が制限されたドットパターンが予めマッピングされており、量子化されたRGB輝度信号が入力されると、CMYKのドットパターンがバッファ15、出力輝度テーブル16に出力されると共に、出力端子21より不図示のプリンタエンジンに出力される。例えば、最大混色数(ドット・オン・ドットで重なる色数の最大値)を“2”とし、ドットのオンを“1”、オフを“0”とする。
【0026】
CMYK=(1100),(1010),(1001),(0110),(0101),(0011),(1000),(0100),
(0010),(0001),(0000)
の11色のパターンがパターンテーブル14の量子化されたRGB空間にマッピングされており、入力されたRGB輝度信号に従って、上記11色中1色が選択され出力される。
【0027】
バッファ15は注目画素に空間的に隣接する画素のドットパターンを出力輝度テーブル16に出力する。出力輝度テーブル16には、隣接する画素の重なりによる影響を考慮した注目画素の再現色をRGB輝度信号に換算した値が予め格納されており、パターンテーブル14及びバッファ15により注目画素及びその隣接する画素の各ドットパターンが入力されると注目画素の色再現色のRGB輝度信号の換算値が出力される。
【0028】
次に、オフセット加算部17は後述するリミッタ19及び加算部11の構成を簡略化するためのもので、例えばRGBの各入力信号を8ビット、拡散する誤差の範囲を[−128〜128]とすると「128」のオフセットを加えることによりリミッタ19及び拡散処理部20の出力が「0〜255」の正の値になる。次の減算部18は加算部11の出力よりオフセット加算部17の出力を減算し、色再現誤差としてリミッタ19に出力する。リミッタ19は色再現誤差を所定の範囲内に制限し、拡散処理部20に出力する。そして、拡散処理部20は所定の拡散係数に従って、入力された色再現誤差を周囲の画素に拡散する。拡散された誤差は各画素毎に累積され、加算部11に出力される。
【0029】
例えば、入力信号をRGB各8ビット(0〜255)、拡散する誤差の範囲を[−128〜128]、オフセットを「128」とすると、加算部12の出力は「0〜512」の9ビットとなる。そして、リミッタ12は該「0〜512」の9ビットを入力RGB信号の存在範囲である[128〜383](「128」のオフセットが加算されているため)にリミットする。次に、量子化部13では、線形量子化を行なうとした場合、リミットされたRGB各信号のMSBから2番目のビットを除いた(「128」のオフセットを除去するため)上位3ビットを各々抽出する。そして、パターンテーブル14は入力されたRGB各3ビット、合計9ビットによって選択されたアドレスに格納されているCMYK各プレーンのドットのオン/オフを示すドットパターン4ビットを出力する。
【0030】
また、図7に示すような画素配置で、Fを注目画素とすると、バッファ15は太線で示すB及びEの画素のドットパターンを出力輝度テーブル16に出力する(斜め方向の画素A、Cの注目画素Fに対する影響は小さいものとし、ここでは無視する)。出力輝度テーブル16は上記3画素のドットパターンから注目画素の再現色をRGB各8ビットで出力する。次のオフセット加算部17はRGBの各再現色に「128」を加算する。即ち、RGBの各再現色のMSBを加算後のMSBとし、MSBから2番目のビットをMSBの反転、他のビットをそのままスルーとしたRGB各9ビットを出力する。減算部18は、誤差が加算されたRGB各9ビットからオフセット加算された再現色各9ビットを減算し、その結果がリミッタ19にてオフセット加算後の誤差の範囲である[0〜255]の8ビットに制限され、拡散処理部20に出力される。そして、拡散処理部20は入力された誤差を図7の破線で示したG、I、J、Kの各々の画素に所定の拡散係数を掛けて拡散させる。拡散処理部20の拡散係数の合計は“1”を越えないもので、拡散処理部20から出力される拡散誤差は「0〜255」の8ビットとなる。
【0031】
図8は、2パス印字時のバッファ15により出力される画素と誤差を拡散する画素の例を示した図である。ここでは1パス目でBDEGJLOQが2パス目でACFHIKPRが印字されるものとする。1パス目でJが注目画素の時はGEJから再現色を決定し、LOQの画素に誤差を拡散する。次に、2パス目でFが注目画素の時は太線で示すBEFGJから再現色を決定し、破線で示すHIKの画素に誤差を拡散する。この例では、2パス目の再現色は上下左右の画素のドットパターンが確定しているため、確度が非常に高い。
【0032】
尚、図7においても画素G及びJによる注目画素Fへの影響は各々画素G及びJの確定時の再現色にて補償することができる。また、図8の2パス印字例では、1パス目と2パス目で主走査方向のスキャンを変えることにより誤差拡散における位相歪みを見かけ上補償することができる。即ち、1パス目でGが注目画素の時(スキャンは右から左)はLJEの画素に誤差を拡散する。次に、2パス目でFが注目画素の時(スキャンは左から右)は破線で示すHIKの画素に誤差を拡散するのである。
【0033】
また、出力輝度テーブル16は実測値から換算して求める。従って、濃度調整、カラーバランス調整のみならず、カラーマッチング(出力媒体による再現色の違い等の補正)処理等を出力輝度テーブル16の書き換えで対応できる(但し、パターンテーブル14の書き換えが必要となる場合もある)。
【0034】
尚、上述の説明では、出力輝度テーブル16とオフセット加算部17を別々の構成としたが、オフセットを加算した値を出力輝度テーブル16に格納することにより、オフセット加算部17は省略可能である。また、上述の処理をCPU、DSP等の汎用プロセッサで実行する場合、データとして10ビット以上の正負値をとれるので、オフセット加算処理は不要となる。
【0035】
また、パターンテーブル14及び出力輝度テーブル16をLUTで構成したが、ロジック或いは演算にて構成しても良い。
【0036】
以上説明したように、本実施形態によれば、入力色空間を所定数に分割し各分割空間毎に出力ドットパターンをマッピングしたLUTを用いて入力画素データから直接出力ドットパターンを生成し、次に出力ドットパターンが再現する色を入力色空間に変換するLUTを用いて出力ドットパターンを入力色空間に変換し、入力画素データとの差分(誤差)を求め、該差分値を周辺画素に拡散することにより、色再現及び2値化処理を2つのLUTの検索と1回の誤差拡散処理にて実行し、色再現の良い画像出力が簡単に得られる。また、CMYKのドットパターンをマッピングしているため、CMYKのドット・オン・ドット混色数を厳密に制限できる。
【0037】
[実施形態2]
次に、図面を参照しながら本発明に係る実施の形態2を詳細に説明する。
【0038】
図2は、実施の形態2における画像処理部の構成を表わすブロック図である。図において、22は濃度変換部、23はパターンテーブル、24は出力濃度テーブルである。他のブロックは図1と同一であるため説明は省略する。
【0039】
ここで、入力端子10から入力されたRGBの各輝度信号は、濃度変換部22にてCMYの各濃度信号に変換される。以下、減算部18、リミッタ19、拡散処理部20、加算部11にて構成される誤差拡散処理は上述のCMYの濃度空間にて実行される。従って、パターンテーブル23の出力ドットパターンは、上述のCMYの濃度空間にマッピングされ、出力濃度テーブル24には隣接する画素の重なりによる影響を考慮した注目画素の再現色をCMYの濃度信号に換算した値が格納される。
【0040】
本実施形態によれば、色再現の誤差拡散処理を視覚に対してリニアな濃度空間にて実行することにより、更に色再現の良い画像出力が得られる。
【0041】
[実施形態3]
次に、図面を参照しながら本発明に係る実施の形態3を詳細に説明する。
【0042】
図3は、実施の形態3における画像処理部の構成を表わすブロック図である。図において、25は逆量子化部、26は輝度変換部、27は減算部、28は拡散処理部、29は加算部、30はリミッタ、31は逆量子化部、32は加減算部、33は量子化部、34は逆量子化部、35は減算部である。他のブロックは図2と同一であるため説明は省略する。
【0043】
ここで、入力端子10から入力されたRGBの各輝度信号は、加算部11にて拡散処理部28から濃度変換及び量子化に伴う誤差信号がRGB各輝度信号毎に加算され、リミッタ12及び減算部27に入力される。リミッタ12は加算部11の出力を入力RGB輝度信号の存在範囲にリミットし、結果を濃度変換部22に出力する。濃度変換部22は入力されたRGB輝度信号をCMYの濃度信号に変換し、量子化部13に出力する。量子化部13はパターンテーブル23の入力ビット数を削減するためのもので、例えばCMY各9ビットをCMY各3ビットに量子化する。量子化されたCMY濃度信号は逆量子化部25、輝度変換部26を経て元のRGB輝度信号に復元される。減算部27は、リミッタ12のRGB出力から復元されたRGB輝度信号を減算することにより、濃度変換及び量子化による誤差を算出する。算出された誤差は拡散処理部28にて周囲の画素に拡散され、累積された誤差が加算部11に出力される。
【0044】
一方、量子化されたCMY濃度信号は加算部29にも入力され、加算部29にて色再現に伴う誤差信号がCMY各信号毎に加算され、リミッタ30及び逆量子化部31に入力される。リミッタ30は加算部29の出力を量子化されたCMY信号の存在範囲にリミットし、結果をパターンテーブル23に出力する。逆量子化部31は量子化されたCMY信号を量子化代表値に変換することにより、オフセット加算部17より出力されるCMY信号との桁合わせを行なう。
【0045】
加減算部32は、逆量子化部31より出力されるCMY信号の量子化代表値からオフセット加算部17より出力されるCMY信号を減算すると同時に、減算部35より出力される量子化部33による量子化誤差を加算する。加減算部32の出力はリミッタ19にて所定の範囲内に制限され、その結果が拡散処理部20にて周囲の画素に拡散される。拡散された誤差は各画素毎に累積され、量子化部33及び減算部35に出力される。量子化部33はその誤差信号を量子化部13と同一の手法で量子化する。量子化された誤差信号は加算部29及び逆量子化部34に出力される。逆量子化部34は量子化された誤差信号を量子化代表値に変換し、減算部35にて量子化前の信号との差分をとることにより量子化誤差を算出し、加減算部32に出力する。
【0046】
尚、濃度変換部22、量子化部13、逆量子化部25、輝度変換部26及び減算部27は1つのLUTで構成できる。即ち、RGBの各入力信号に対し量子化濃度信号、変換誤差を含めた量子化誤差を出力するテーブルを生成すれば良い。同様に、量子化部33、逆量子化部34及び減算部35も1つのLUTで構成できる。
【0047】
このように、色再現の誤差拡散処理を量子化された濃度空間にて実行しているため、加算部29、リミッタ30のビット数及び拡散処理部20のメモリ容量(ライン遅延を量子化後のデータで実行した場合)を削減できる。
【0048】
本実施形態によれば、濃度変換及び量子化による誤差拡散処理をRGBの輝度空間にて実行し、色再現の誤差拡散処理を出力濃度空間にて実行するため、各々最適な空間で誤差拡散され、また、濃度変換による誤差も補正されるため、なお一層色再現の良い画像出力が得られる。また、色再現の誤差拡散処理を量子化された濃度空間にて実行しているため、ハード量を削減できる。
【0049】
[実施形態4]
次に、図面を参照しながら本発明に係る実施の形態4を詳細に説明する。
【0050】
図4は、実施の形態4における画像処理部の構成を表わすブロック図である。図において、36はスキャン変換部である。他のブロックは図3と同一であるため説明は省略する。
【0051】
ここで、スキャン変換部36は量子化された濃度信号の主走査のスキャン方向を逆方向に変換する。即ち、入力端子10より入力されるRGB輝度信号が左から右にスキャンされた場合、スキャン変換部36は右から左へスキャンを変更する。これにより、拡散処理部28による誤差の主走査方向の拡散係数と拡散処理部20による誤差の主走査方向の拡散係数が対称になり、誤差拡散による位相歪みが改善される。
【0052】
本実施形態によれば、濃度変換及び色空間分割時に発生する誤差の拡散処理と、色再現の誤差の拡散処理との間でスキャン変換を実行し、それぞれの誤差拡散のスキャン方向が反対になるため誤差拡散による位相歪みが改善される。
【0053】
[実施形態5]
次に、図面を参照しながら本発明に係る実施の形態5を詳細に説明する。
【0054】
図5は、実施の形態5における画像処理部の構成を表わすブロック図である。図において、37は補正値生成部、38は加減算部である。他のブロックは図2と同一であるため説明は省略する。
【0055】
ここで、バッファ15は注目画素に空間的に隣接する画素のドットパターンを補正値生成部37に出力する。補正値生成部37には注目画素のドットパターン及び隣接する画素のドットパターンが入力され、出力濃度テーブル24より出力される注目画素の再現色に対する隣接する画素の重なりによる補正値を生成し、加減算部38に出力する。
【0056】
図6は、本実施形態における補正値生成部37の具体的な構成を示すブロック図である。図において、39は補正値テーブル、40は加算部である。
【0057】
補正値生成部37はバッファ15にて出力される注目画素に空間的に隣接する画素数に対応した数の補正値テーブル39と、各補正値テーブル39の補正値を集計する加算部40にて構成される。各補正値テーブル39には、注目画素のドットパターン及び隣接する1画素のドットパターンが入力され、2画素のドットパターンの重なりによる補正値が加算部40に出力される。加算部40は各補正値テーブル39の補正値を集計し、加減算部38に出力する。
【0058】
例えば、図7に示す画素配置の場合、補正値テーブル39の数は2となり、Fを注目画素とすると各補正値テーブル39には各々BF、EFのドットパターンが入力される。また、重なりの影響は2画素の組み合わせで決定されるので、いずれか一方で補正するだけで良い。即ち、G、Jとの重なりの影響は、G、Jの再現色にて補正すれば良い。
【0059】
尚、より厳密な補正値を求めるためにBEF、BFGの3画素の重なりの影響も補正するには、上記各3画素の組み合せに対する補正値テーブルを追加すれば良い。この場合、画素Gのドットパターンが確定していなければならないので、リミッタ19より出力される再現色誤差は画素H以降、例えばHIJKの画素に拡散される。
【0060】
本実施形態によれば、注目画素と隣接画素とのドットの重なりによる再現色のズレを補正する処理を設けたため、出力濃度テーブル24では隣接する画素の重なりによる影響を考慮する必要がなくなり、入力は注目画素のドットパターンのみとなり、テーブルの容量は非常に小さくなる。また、補正値テーブル39の容量も上下2画素のドットパターンの組み合わせ分で良い。
【0061】
[実施形態6]
次に、図面を参照しながら本発明に係る実施の形態6を詳細に説明する。
【0062】
図9は、実施の形態6における画像処理部の構成を表わすブロック図である。図において、41は代表色変換部、42は出力パターン生成部、43は出力濃度テーブルである。他のブロックは図2と同一であるため説明は省略する。
【0063】
ここで、代表色変換部41は量子化されたCMY濃度信号に対応した代表色を選択し、その代表色を識別するIDコードを出力パターン生成部42と出力濃度テーブル43に出力する。出力パターン生成部42はその代表色を識別するIDコードからCMYKのドットパターンを生成し、出力端子21より不図示のプリンタエンジンに出力する。
【0064】
そして、出力濃度テーブル43は上述の代表色を識別するIDコードからその代表色の再現色をCMY濃度信号に変換した値を生成し、オフセット加算部17に出力する。
【0065】
本実施形態は、入力端子10より入力される画像データ1画素を複数のドットで表現する場合の構成例である。例えば、図12に示す網かけ部のように、入力画像データの1画素をFGJKの4ドットで構成する場合、1ドットでCMYKRGBWの8色表現できるとすると4ドットでは重なり方の違いを含めて666色表現できる(1ドット11色の時は2046となる)。上述の666色の内、Lab、Luv等の均等知覚色空間上で色再現範囲が最大でなるべく均等間隔となる512色を代表色に選定すると、上記IDコードは9ビットとなり、量子化部13にて各色上位4ビットに量子化されたとすると、代表色変換部41、出力パターン生成部42、出力濃度テーブル43は各々2048×9、512×16、512×24のLUTで構成できる。
【0066】
本実施形態によれば、Nドット(Nは2以上の整数)で1画素を表現したため、N倍(面積)に拡大する場合には、拡大処理は不要となる。また、Nドットで1色を表現するため、周囲のドットの重なりによる影響は1ドットの時に比べてかなり小さくなる(Nが大きい程影響は小さくなる)。このため、再現色データの確度が向上し、色再現性が向上する。また、出力濃度テーブル43は各代表色のパッチをプリンタから出力し、測定することにより容易に構成できる。従って、カラーマッチングもパッチを実測し、出力濃度テーブル43を更新することにより容易に実現できる。
【0067】
[実施形態7]
次に、図面を参照しながら本発明に係る実施の形態7を詳細に説明する。
【0068】
図10は、実施の形態7における画像処理部の構成を表わすブロック図である。図において、44は出力濃度テーブルである。他のブロックは図9と同一であるため説明は省略する。
【0069】
ここで、本実施形態の出力濃度テーブル44は、量子化されたCMY濃度信号から代表色の再現色をCMY濃度信号に変換した値を生成し、オフセット加算部17に出力する。以下は実施形態6と同様である。
【0070】
このように、本実施形態によれば、量子化されたCMY濃度信号から直接再現色のCMY濃度値を生成しているので、実施形態6に比べて代表色変換部41の処理分だけ出力濃度テーブル44の処理が速くなる。また、量子化されたCMY濃度信号のビット数より上述の代表色を識別するIDコードのビット数の方が大きい場合、出力濃度テーブル44の容量を削減できる。
【0071】
[実施形態8]
次に、図面を参照しながら本発明に係る実施の形態8を詳細に説明する。
【0072】
図11は、実施の形態8における画像処理部の構成を表わすブロック図である。図において、46は境界部抽出部、47は補正値生成部、48は加減算部である。他のブロックは図9と同一であるため説明は省略する。
【0073】
ここで、境界部抽出部46は注目画素と隣接画素との境界部のドットパターンを補正値生成部47に出力する。一方、補正値生成部47は注目画素と隣接画素との境界部のドットパターンから境界部の重なりによる補正値を生成し、加減算部48に出力してその境界部の影響を補正する。尚、補正値生成部47の構成は実施形態5の図6と同一であるため説明は省略する。
【0074】
例えば、図12に示す網掛け部のように、入力画像データの1画素をFGJKの4ドットで構成する場合、境界部抽出部46はBCEFGIJの7画素を抽出する。補正値生成部47は、BF、CG、EF、IJの4組のドットパターンを各補正値テーブルに入力し、各補正値テーブルの補正値を合計し、境界部の補正値として加減算部48に出力する。
【0075】
本実施形態によれば、注目画素と隣接画素との境界部の重なりによる再現色のズレを補正する処理を設けたため、色再現誤差の精度が向上し、色再現性が更に向上する。
【0076】
尚、本実施形態では、上と左の境界部の補正処理を行なっているが、これに限らず、例えばバッファの節約のために左の境界部のみとしても良い。
【0077】
[実施形態9]
次に、図面を参照しながら本発明に係る実施の形態9を詳細に説明する。
【0078】
図13は、実施の形態9における画像処理部の構成を表わすブロック図である。図において、49は色再現範囲外判定部、50はリミッタである。他のブロックは図11と同一であるため説明は省略する。
【0079】
ここで、色再現範囲外判定部49は、上述の代表色が色再現範囲の境界の色かどうかの判定を行ない、色再現範囲の境界色であれば、リミッタ50にて色再現範囲外の方向の誤差を“0”にする。
【0080】
代表色の色再現範囲外の色が連続して入力された場合、その入力色は再現できないため誤差が累積し、色再現性が劣化する。本実施形態では、リミッタ50にて色再現範囲外の方向の誤差を“0”にするため誤差が累積されず、色再現範囲内の入力色の色再現性の劣化を防ぐことができる。この場合、出力画像は色再現範囲外の入力色が最も近い代表色にリミットされた画像となる。
【0081】
尚、本実施形態では、代表色を識別するIDコードにより色再現範囲外判定を実行しているが、これに限らず、例えば色再現範囲外判定部49の入力を量子化されたCMY濃度信号としても良い。この場合、代表色変換部41の出力を1ビット追加し、追加したビットをリミッタ50に接続すれば良い。
【0082】
また、代表色の色再現範囲外の入力色による誤差の累積は、出力濃度テーブル43に格納する再現色の一部(色再現範囲の最外郭となる色)を入力色空間の色再現範囲を包含するように設定することによっても防止することができる。この場合、色再現範囲外判定部49は不要となる。更に、出力画像は色再現範囲外の入力色が色再現範囲内に圧縮された画像となる(色再現範囲の境界近傍の色の再現性は補償されない)。
【0083】
[実施形態10]
図14及び図15は、実施の形態10における画像処理部を表わすブロック図である。図中、60は入力端子、61は濃度変換部、62は加算部、63は拡散処理部、64は減算部、65はリミッタ、66は量子化部、67は出力濃度テーブル、68はコードテーブル、69,70はインターフェース部、71はH−V変換部、72はパターンテーブル、73は並び替え部、74はヘッド制御部である。
【0084】
実施形態10では、300ppi(ppi:Pixel Per Inch)の入力に対し1200dpi(dpi:Dot Per Inch)で出力するものとする。また、入力端子60からインターフェース部69までをホスト側(プリンタドライバ)の処理とし、インターフェース部70からヘッド制御部74までをプリンタ側の処理とする。
【0085】
入力端子60から入力されたR,G,Bの各信号は、濃度変換部61にてCMYの各濃度信号に変換される。変換されたCMYの各濃度信号は加算部62にて後述する拡散処理部63による誤差信号が各信号毎に加算され、リミット65及び演算部64に入力される。リミッタ65は加算部62の出力をCMY信号の存在範囲にリミットし、結果を量子化部66に出力する。量子化部66はコードテーブル68の入力ビット数を削減するためのもので、例えばCMY各9ビットをCMY各4ビットに量子化する。
【0086】
コードテーブル68には、後述する代表色に対応するコードが予めマッピングされており、量子化されたCMY信号が入力されると入力CMY信号に対応する代表色コードが出力される。代表色コードはホスト側インターフェース部69、伝送路201(通常はプリンタケーブル)、プリンタ側インターフェース部70を経てH−V変換部71に入力される。H−V変換部71ではプリントヘッドのドット並びに合わせて代表色コードの読み出し順を変更する。パターンテーブル72では入力された代表色コードを出力ドットパターンに変換する。並び替え部73では変換されたドットパターンをヘッド制御部74に伝送する順番に並び替える。ヘッド制御部74では入力されたドットデータをプリントする。パターンテーブル72による出力ドットパターンへの変換及び並び替え部73によるヘッド転送データへの並び変えはヘッド制御(プリントエンジン)に同期して行われる。また、各CMYKヘッドは通常離れて配置されているため、H−V変換部71以降は各色独立に処理される。従って、実際はパターンテーブル72は各色毎に分離され、入力コードに対しCMYK何れかのドットパターンを出力する。
【0087】
一方、出力濃度テーブル67には、代表色コードに対応するドットパターンを印字したときに観測される濃度に対応したデータ、即ちプリンタの再現色が格納されており、減算部64にて入力データとの差、即ち出力濃度誤差が演算され、拡散処理部20にて公知の誤差拡散法によって上記誤差が周囲の画素に拡散される。
【0088】
1200dpiのCMYKのドットパターンを300ppiで表現するには4×4×4=64ビット必要である。ここで、代表色コードを8ビットとすると、8/64=1/8のデータ圧縮が可能となる。上記2^64通りの出力パターンの内、識別可能な色数はかなり少なく、また、出力ドットの位置精度、ドット径、ドット濃度(シェーディング)等によるバラツキを考慮すると、適切な代表色を選定すれば代表色数をかなり絞り込んでも出力画像は殆ど変わらない。一方、代表色数をかなり絞り込むことにより、上記伝送路201を伝送するデータ数を削減できるため、伝送時間の削減が可能であるばかりでなく、H−V変換部71で必要なバッファの容量も大幅に削減され、プリンタのコスト削減が可能である。尚、代表色以外の色については上記300ppiでの誤差拡散法により代表色の組み合わせにより表現される。
【0089】
図16は、本実施形態のコードテーブル68の概念を示す図である。
【0090】
入力CMY色空間は量子化部66にて各色4ビットに量子化されるため、図16の格子点に対応する代表コードがマッピングされる。本構成は3次元LUT色変換法に類似しているが、該3次元LUT色変換法においては該当する小立方体の全格子点の色データが出力され、量子化の際切り捨てられた下位ビットによって線形補間されるが、本構成では対応する1格子点の代表色コードが出力され、出力濃度テーブル67にてプリンタの再現色に変換され、減算部64にて量子化前の入力データとの差を誤差として周囲画素に拡散することにより量子化誤差を補正する。即ち、量子化誤差、プリンタの出力濃度誤差の2つの誤差を1つの誤差拡散によって補正するのである。従って、従来行われていた色処理、2値化処理が上記の簡単な構成に統合され、また、代表色の削減によるデータ圧縮も同時に実行される。また、パターンテーブル72の出力ドットパターンのサイズ(本実施形態では主走査、副走査共に4倍であるため4×4となる)を変更することにより、解像度変換も同時に実行できる。これにより、処理する画素数が大幅に削減され、上記処理の簡略化による効果も含めて処理を非常に高速に実行できる。
【0091】
次に上記テーブルの生成方法について述べる。
【0092】
図19は、本実施形態のパターンテーブル72の具体例を示す図である。
【0093】
先ず、図19に示すようなCMYK各色のドットパターンを設定し、代表色を決定する。
【0094】
代表色の決定方法としては、以下の方法が考えられる。
(1)全出力パターンによるパッチをプリンタより出力し、該パッチを測色し、特定の色空間上(入力CMY空間、L*a*b*空間等)でグラデーションが均一となるような、例えば256通りのパターンを選定する。
(2)ドットパターンと再現色との関係をモデル化し、全出力パターンに対する再現色を計算で求め、(1)と同様に特定の色空間上で均一になるように選定する。
【0095】
しかし、前述したように全出力パターンは2^64通りあるため、全出力パターンの検索は現実的でない。そこで、前記混色数制限や回転、鏡像によるパターンの一致を除外することにより対象パターンを削減し、(2)のモデル化により実測可能なパターン数、例えば1000パターンまで絞り込んだ後、(1)の操作を行う。この時、測定バラツキの大きなパターンは、不安定なパターンとして削除したり、ハイライト部の粒状感を軽減するため単独ドットパターンの削減禁止等を考慮して256通りの代表色を決定する。つまり、(2)のモデル化により、2^64のうち1000パターンに絞り込み、その1000パターンのバッチをプリントし、それを測色し、1000パターンの中からグラデーションが均一となる256通りのパターンを選定する。
【0096】
図18は、本実施形態の出力濃度テーブル67の具体例である。
【0097】
上記操作により代表色のドットパターンが決定したら、出力濃度テーブル67を作成する。
【0098】
まず、代表色の全出力パターンによるパッチをプリンタより出力し、該パッチを測色する。プリンタのばらつきや、測定誤差を少なくするため、パッチの位置を替えて複数測定し、平均値を求める。
【0099】
次に、求めた平均測色値(X,Y,Z)を下記の手順に従って入力色空間(C,M,Y)に変換する。
(1)X,Y,Z→NTSC→RGB
R=(1.910X−0.532Y−0.288Z)/100
G=(−0.985X+1.999Y−0.028Z)/100
B=(0.058X−0.118Y−0.898Z)/100
(2)NTSC−RGB→濃度(Dr,Dg,Db)
Dr=−log10(R)
Dg=−log10(G)
Db=−log10(B)
(3)正規化(Dmax:最大濃度、Dmin:最小濃度)
C=(Dr−Dmin)×255/(Dmax−Dmin)
M=(Dg−Dmin)×255/(Dmax−Dmin)
Y=(Db−Dmin)×255/(Dmax−Dmin)
変換した測色値は再現色データとして出力濃度テーブル67の代表色コードで示されるアドレスに格納する。
【0100】
上記入力色空間への変換方法ではRGB濃度への変換にlog関数を用いたが、これに限らず、LUTを用いて変換してもよい。また、gamut圧縮のようにプリンタの出力色を入力色からずらしたい場合は、上記出力濃度テーブル67に格納する値を逆補正することにより実現できる。例えば、gamut圧縮する場合は、上記再現色データが入力色空間の色再現範囲を包含するように再現色データの値をプリンタの色再現範囲の外側に向けて少しずつずらす。尚、白(ブランク)の再現色CMYは全て0とする。
【0101】
図17は、本実施形態のコードテーブル68の具体例である。
【0102】
上記コードテーブル68への代表色コードのマッピングは上記変換した測色値との距離を基準に行う。即ち、格子点の色データ(量子化代表値)をC’,M’,Y’、上記変換した測色値をC,M,Yとすると距離の2乗r^2は
r^2=(C−C’)^2+(M−M’)^2+(Y−Y’)^2
となる。上記距離が最小となる代表色コードをコードテーブル68の該当アドレスに格納する。尚、ここでは量子化誤差を最小にするため、格子点の色データのビットの重みを合わせた値ではなく、量子化代表値(具体的には、上記量子化部66の出力のビットの重みを合わせた値+量子化ステップ/2)を用いている。これは量子化部66が上位ビットの切り出し(即ち、下位ビットの切り捨て)を行っているためである。下位ビットの切り捨てではなく丸め(四捨五入)を行う場合は下位ビットを全て0とした値を用いてよい。
【0103】
上記マッピングのための評価値としては、上記距離の2乗だけでなく、例えば差の絶対値を用いても良い。
【0104】
また、量子化代表値も量子化値の中央値に限定することなく、全体或いは部分的にずらしても良い。
【0105】
尚、上記実施形態では出力濃度テーブル67の入力を代表色コードとしているが、量子化後のCMY信号としても良い。この場合、コードテーブル68と出力濃度テーブル67を統合し、1回のLUT検索にて代表色コードと出力濃度値(再現色)が得られるため、より高速化できる。特に、代表色コードを8ビットとすると出力濃度値は24ビット(8×3=24)であるから、出力が32ビット(8+24=32)のテーブルとなり、ホストが32ビットの処理の場合マッチングがよい。また、プリンタの色再現範囲外の入力に対し、色再現誤差が累積しないように値を補正して格納することにより、プリンタの色再現範囲外での色ずれを防止できる。
【0106】
尚、本発明は、ホストコンピュータ、インターフェース、プリンタ等の複数の機器から構成されるシステムに適用しても、複写機等の1つの機器から成る装置に適用しても良い。また、本発明は記憶媒体に格納されたプログラムをシステム或いは装置に供給することによって達成される場合にも適用できることは言うまでもない。
【0107】
【発明の効果】
以上説明したように、本発明によれば、注目画素の周囲の画素との重なりによる再現色のズレを補正することにより、色再現誤差の精度が向上し、色再現性を更に向上させることができる。
【0108】
【図面の簡単な説明】
【図1】実施形態1における画像処理部の構成を示すブロック図である。
【図2】実施形態2における画像処理部の構成を示すブロック図である。
【図3】実施形態3における画像処理部の構成を示すブロック図である。
【図4】実施形態4における画像処理部の構成を示すブロック図である。
【図5】実施形態5における画像処理部の構成を示すブロック図である。
【図6】実施形態5における補正値生成部の構成を示すブロック図である。
【図7】実施形態5における各画素の空間的位置を示す図である。
【図8】補正値生成部の対象画素が4のときの各画素の空間位置を示す図である。
【図9】実施形態6における画像処理部の構成を示すブロック図である。
【図10】実施形態7における画像処理部の構成を示すブロック図である。
【図11】実施形態8における画像処理部の構成を示すブロック図である。
【図12】実施形態8における各画素の空間的位置を示す図である。
【図13】実施形態9における画像処理部の構成を示すブロック図である。
【図14】第10実施例の画像処理部の構成を示すブロック図である。
【図15】第10実施例の画像処理部の構成を示すブロック図である。
【図16】第10実施例のコードテーブルの概念を示した図である。
【図17】コードテーブルの具体例図である。
【図18】出力濃度テーブルの具体例図である。
【図19】パターンテーブルの具体例図である。
【図20】従来例の構成を示すブロック図である。
[0001]
BACKGROUND OF THE INVENTION
  The present inventionConvert input color space data to output color space dataThe present invention relates to an image processing method and apparatus.
[0002]
[Prior art]
Conventionally, an image processing method based on a color dot model is widely known as an image processing method for a color printer.
[0003]
FIG. 20 is a block diagram illustrating a configuration of an image processing unit in a conventional color printer. First, the RGB luminance signals input from the input terminal 101 are converted into CMY density signals by the density converter 102. Next, from the converted density signal, a black density signal K is generated by the black generation unit 103, and a halftone dot area signal in which the masking / UCR unit 104 removes the lower color and the crosstalk component of each density signal is compensated. It becomes. The output gamma correction unit 105 compensates for the linearity between the dot area signal and the output density due to dot gain and the like, and the binarization unit 106 binarizes each color component to form a dot pattern as an output terminal. From 107, the data is output to a printer engine (not shown).
[0004]
The density conversion unit 102 and the output γ correction unit 105 are configured by a normal lookup table (hereinafter referred to as “LUT”).
[0005]
[Problems to be solved by the invention]
However, in the above conventional example, since binarization processing is performed for each CMYK plane, the overlapping of CMYK dots is random, matching of color reproduction by masking, and limitation of the number of dots on dots However, it was very difficult.
[0006]
In addition, since each process of density conversion, black generation, masking / UCR, output γ correction, and binarization is performed independently, the processing takes time or the amount of hardware (calculation amount) becomes enormous. There was also a drawback.
[0007]
US Pat. Nos. 5,070,413 and USP 5,270,808 are known techniques for converting input color image data into output color image data within a three-dimensional color space. These technologies disclosed in USP obtain 1-bit output data for each of Y, M, C, and K from 8-bit input data for each of R, G, and B.
[0008]
In this method, input data represented by 8 bits each of R, G, and B in a three-dimensional color space is closer to which of 16 output colors represented by 1 bit of Y, M, C, and K. Therefore, 16 distances between the input data and the output color are obtained, and the one with the shortest distance is determined as the output color.
[0009]
In this case, there is a drawback that it takes time for the arithmetic processing, and high-speed processing and further image quality improvement processing have been desired.
[0010]
The present invention has been made to solve the above-described problems, and an object thereof is to provide an image processing method and apparatus capable of obtaining a high-quality color image by high-speed processing.
[0011]
Another object of the present invention is to convert each of a plurality of input color component data into data of a level closer to the input level, access a table with data having a reduced data amount, and generate a plurality of output color component data. Thus, an object of the present invention is to provide an image processing method and apparatus capable of easily and quickly obtaining a high-quality color image.
[0012]
A further object of the present invention is to obtain a high-quality color image with higher resolution than the input resolution easily and at high speed by generating a plurality of output color component dot patterns from a plurality of input color component data by table conversion. An object of the present invention is to provide an image processing method and apparatus capable of performing the above.
[0013]
A further object of the present invention is to generate an output dot pattern directly from input pixel data using an LUT in which an input color space is divided into a predetermined number and an output dot pattern is mapped for each divided space. By converting the output dot pattern into the input color space using an LUT that converts the color to be reproduced into the input color space, obtaining a difference (error) from the input pixel data, and diffusing the difference value to surrounding pixels, the color Reproduction and binarization processing are executed by searching for two LUTs and one error diffusion process, and an image output with good color reproduction can be easily obtained, and since CMYK dot patterns are mapped, CMYK An object of the present invention is to provide an image processing method and apparatus capable of strictly limiting the number of dot-on-dot mixed colors.
[0014]
A further object of the present invention is to execute error diffusion processing by density conversion and quantization in the RGB luminance space and color reproduction error diffusion processing in the output density space. In addition, since errors due to density conversion are corrected, image output with even better color reproduction can be obtained and error reproduction processing for color reproduction is performed in a quantized density space, reducing the amount of hardware. An object of the present invention is to provide an image processing method and apparatus.
[0015]
It is a further object of the present invention to perform scan conversion between error diffusion processing that occurs during density conversion and color space division and color reproduction error diffusion processing, with each error diffusion scan direction reversed. Therefore, an object of the present invention is to provide an image processing method and apparatus capable of improving phase distortion due to error diffusion.
[0016]
Another object of the present invention is to express one pixel by N dots (N is an integer equal to or greater than 2). Therefore, when enlarging to N times (area), enlargement processing is not necessary, and one color with N dots. Therefore, the influence of overlapping surrounding dots is smaller than that of a single dot, thereby improving the accuracy of reproduced color data and providing an image processing method and apparatus capable of improving color reproducibility. With the goal.
[0017]
A further object of the present invention is to provide a process for correcting the color shift due to the overlap of the boundary between the target pixel and the adjacent pixel, thereby improving the accuracy of the color reproduction error and further improving the color reproducibility. An object of the present invention is to provide an image processing method and apparatus.
[0020]
[Means for Solving the Problems]
  In order to achieve the above object, the present invention provides:An image processing method for converting input color space data to output color space data,Input color spaceInAn input process for inputting a plurality of color component data;A correction step for correcting a plurality of color component data input in the input step with a predetermined error signal, and a plurality of color components in the output color space that are predetermined to correspond to the values of the plurality of color components in the input color space. An output step for outputting dot patterns corresponding to values of a plurality of color components in the input color space corrected in the correction step from a dot pattern storage unit for storing dot patterns for each color component, and output in the output step A conversion step of converting the reproduced color of the target pixel into a plurality of color component values in the input color space from the dot pattern of the target pixel and the pixels around the target pixel, and the plurality of color components converted in the conversion step A generating step for generating the predetermined error signal based on a difference value between the value of the color component and the values of the plurality of color components corrected in the correcting step;It is characterized by having.
[0021]
  In order to achieve the above object, the present invention provides:An image processing device for converting input color space data to output color space data,Input color spaceInInput means for inputting a plurality of color component data;Correction means for correcting a plurality of color component data input by the input means with a predetermined error signal; and a plurality of color components in the output color space that are predetermined to correspond to values of the plurality of color components in the input color space. From dot pattern storage means for storing dot patterns for each color component, output means for outputting dot patterns corresponding to values of a plurality of color components in the input color space corrected by the correction means, and the dot pattern storage means A conversion unit that converts the output color of the target pixel into a plurality of color component values in the input color space from the output pixel pattern of the target pixel and the pixel adjacent to the target pixel; Generating means for generating the predetermined error signal based on a difference value between a color component value and a plurality of color component values corrected by the correcting means;It is characterized by having.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments according to the present invention will be described in detail with reference to the drawings.
[0023]
[Embodiment 1]
FIG. 1 is a block diagram showing the configuration of the image processing unit in the first embodiment. In the figure, 10 is an input terminal, 11 is an adder, 12 is a limiter, 13 is a quantizer, 14 is a pattern table, 15 is a buffer, 16 is an output luminance table, 17 is an offset adder, 18 is a subtractor, 19 Is a limiter, 20 is a diffusion processing unit, and 21 is an output terminal.
[0024]
Here, the RGB luminance signals input from the input terminal 10 are each added with an error signal by a diffusion processing unit 20 (to be described later) in the adding unit 11 and input to the limiter 12 and the subtracting unit 18. The limiter 12 limits the output of the adder 11 to the existence range of the input RGB luminance signal, and outputs the result to the quantizer 13. The quantization unit 13 is for reducing the number of input bits to the pattern table 14, and for example, 9 bits of RGB are quantized to 3 bits of RGB.
[0025]
Next, a dot pattern with a limited number of mixed colors is mapped in advance in the pattern table 14. When a quantized RGB luminance signal is input, the CMYK dot pattern is stored in the buffer 15 and the output luminance table 16. At the same time, it is output from the output terminal 21 to a printer engine (not shown). For example, the maximum number of mixed colors (the maximum value of the number of colors that overlap with dots on) is “2”, the dot on is “1”, and the off is “0”.
[0026]
CMYK = (1100), (1010), (1001), (0110), (0101), (0011), (1000), (0100),
(0010), (0001), (0000)
11 colors are mapped in the quantized RGB space of the pattern table 14, and one of the 11 colors is selected and output according to the input RGB luminance signal.
[0027]
The buffer 15 outputs a dot pattern of a pixel spatially adjacent to the target pixel to the output luminance table 16. The output luminance table 16 stores in advance values obtained by converting the reproduction color of the pixel of interest in consideration of the influence of overlapping of adjacent pixels into RGB luminance signals, and the pixel of interest and its adjacent pixels are stored by the pattern table 14 and the buffer 15. When each dot pattern of the pixel is input, a converted value of the RGB luminance signal of the color reproduction color of the target pixel is output.
[0028]
Next, the offset adding unit 17 is for simplifying the configuration of the limiter 19 and the adding unit 11 to be described later. For example, the RGB input signals are 8 bits, and the error range to be diffused is [−128 to 128]. Then, by adding an offset of “128”, the output of the limiter 19 and the diffusion processing unit 20 becomes a positive value of “0 to 255”. The next subtracting unit 18 subtracts the output of the offset adding unit 17 from the output of the adding unit 11 and outputs the result to the limiter 19 as a color reproduction error. The limiter 19 limits the color reproduction error within a predetermined range and outputs the error to the diffusion processing unit 20. The diffusion processing unit 20 then diffuses the input color reproduction error to surrounding pixels according to a predetermined diffusion coefficient. The diffused error is accumulated for each pixel and output to the adder 11.
[0029]
For example, if the input signal is 8 bits for RGB (0 to 255), the error range to be diffused is [−128 to 128], and the offset is “128”, the output of the adder 12 is 9 bits of “0 to 512”. It becomes. Then, the limiter 12 limits the 9 bits of “0 to 512” to [128 to 383] (because the offset of “128” is added), which is the existence range of the input RGB signal. Next, in the case where the quantization unit 13 performs linear quantization, each of the upper 3 bits is removed by removing the second bit from the MSB of each of the limited RGB signals (to remove the “128” offset). Extract. Then, the pattern table 14 outputs 4 bits of dot patterns indicating ON / OFF of dots of each plane of CMYK stored in the address selected by the input 3 bits for each of RGB, 9 bits in total.
[0030]
In the pixel arrangement as shown in FIG. 7, if F is a target pixel, the buffer 15 outputs a dot pattern of B and E pixels indicated by bold lines to the output luminance table 16 (for pixels A and C in oblique directions). It is assumed that the influence on the target pixel F is small and is ignored here). The output luminance table 16 outputs the reproduction color of the target pixel from the above-described three-pixel dot pattern in RGB of 8 bits. The next offset adding unit 17 adds “128” to each of the RGB reproduction colors. That is, the MSB of each reproduction color of RGB is set as the MSB after addition, the 9th bit of RGB is output with the second bit from the MSB inverted as the MSB and the other bits as they are. The subtracting unit 18 subtracts 9 bits of each reproduction color added by offset from each 9 bits of RGB to which the error is added, and the result is an error range [0-255] after the offset addition by the limiter 19. It is limited to 8 bits and is output to the diffusion processing unit 20. Then, the diffusion processing unit 20 diffuses the input error by multiplying each of G, I, J, and K pixels indicated by broken lines in FIG. 7 by a predetermined diffusion coefficient. The total of the diffusion coefficients of the diffusion processing unit 20 does not exceed “1”, and the diffusion error output from the diffusion processing unit 20 is 8 bits of “0 to 255”.
[0031]
FIG. 8 is a diagram illustrating an example of pixels output from the buffer 15 during two-pass printing and pixels that diffuse errors. Here, it is assumed that BDEGJLOQ is printed in the first pass and ACFHIKPR is printed in the second pass. When J is the target pixel in the first pass, the reproduction color is determined from GEJ, and the error is diffused to the LOQ pixel. Next, when F is the target pixel in the second pass, a reproduction color is determined from BEFGJ indicated by a thick line, and an error is diffused to the HIK pixel indicated by a broken line. In this example, since the dot pattern of the upper, lower, left, and right pixels is fixed for the reproduced color in the second pass, the accuracy is very high.
[0032]
In FIG. 7 as well, the influence of the pixels G and J on the target pixel F can be compensated by the reproduced colors when the pixels G and J are determined. In the two-pass printing example of FIG. 8, the phase distortion in error diffusion can be apparently compensated by changing the scanning in the main scanning direction between the first pass and the second pass. That is, when G is the target pixel in the first pass (scanning from right to left), the error is diffused to the LJE pixel. Next, when F is the target pixel in the second pass (scanning is from left to right), the error is diffused to the HIK pixel indicated by the broken line.
[0033]
Further, the output luminance table 16 is obtained by conversion from actual measurement values. Therefore, not only density adjustment and color balance adjustment, but also color matching (correction of differences in reproduction color depending on the output medium) and the like can be handled by rewriting the output luminance table 16 (however, the pattern table 14 needs to be rewritten). In some cases).
[0034]
In the above description, the output luminance table 16 and the offset adding unit 17 are configured separately, but the offset adding unit 17 can be omitted by storing the value obtained by adding the offset in the output luminance table 16. Further, when the above-described processing is executed by a general-purpose processor such as a CPU or a DSP, a positive / negative value of 10 bits or more can be taken as data, so that an offset addition processing is not necessary.
[0035]
Further, although the pattern table 14 and the output luminance table 16 are configured by LUT, they may be configured by logic or calculation.
[0036]
As described above, according to the present embodiment, an output dot pattern is generated directly from input pixel data using an LUT in which an input color space is divided into a predetermined number and an output dot pattern is mapped for each divided space. The output dot pattern is converted into the input color space using the LUT that converts the color reproduced by the output dot pattern into the input color space, the difference (error) from the input pixel data is obtained, and the difference value is diffused to surrounding pixels. Thus, color reproduction and binarization processing are executed by searching for two LUTs and performing one error diffusion processing, and an image output with good color reproduction can be easily obtained. Also, since the CMYK dot pattern is mapped, the number of CMYK dot-on-dot color mixture can be strictly limited.
[0037]
[Embodiment 2]
Next, Embodiment 2 according to the present invention will be described in detail with reference to the drawings.
[0038]
FIG. 2 is a block diagram showing the configuration of the image processing unit in the second embodiment. In the figure, 22 is a density conversion unit, 23 is a pattern table, and 24 is an output density table. The other blocks are the same as in FIG.
[0039]
Here, the RGB luminance signals input from the input terminal 10 are converted into CMY density signals by the density converter 22. Hereinafter, the error diffusion process including the subtractor 18, the limiter 19, the diffusion processor 20, and the adder 11 is executed in the above-described CMY density space. Therefore, the output dot pattern of the pattern table 23 is mapped to the above-described CMY density space, and the output density table 24 converts the reproduction color of the pixel of interest into the CMY density signal in consideration of the influence of overlapping of adjacent pixels. Stores the value.
[0040]
According to the present embodiment, an image output with better color reproduction can be obtained by executing error reproduction processing for color reproduction in a density space that is linear with respect to vision.
[0041]
[Embodiment 3]
Next, Embodiment 3 according to the present invention will be described in detail with reference to the drawings.
[0042]
FIG. 3 is a block diagram showing the configuration of the image processing unit in the third embodiment. In the figure, 25 is an inverse quantization unit, 26 is a luminance conversion unit, 27 is a subtraction unit, 28 is a diffusion processing unit, 29 is an addition unit, 30 is a limiter, 31 is an inverse quantization unit, 32 is an addition / subtraction unit, and 33 is A quantization unit, 34 is an inverse quantization unit, and 35 is a subtraction unit. The other blocks are the same as in FIG.
[0043]
Here, the RGB luminance signals input from the input terminal 10 are added with an error signal accompanying density conversion and quantization from the diffusion processing unit 28 by the addition unit 11 for each RGB luminance signal, and the limiter 12 and the subtraction. Input to the unit 27. The limiter 12 limits the output of the adder 11 to the existence range of the input RGB luminance signal, and outputs the result to the density converter 22. The density conversion unit 22 converts the input RGB luminance signal into a CMY density signal and outputs it to the quantization unit 13. The quantization unit 13 is for reducing the number of input bits of the pattern table 23, and for example, 9 bits of CMY are quantized to 3 bits of CMY. The quantized CMY density signal is restored to the original RGB luminance signal through the inverse quantization unit 25 and the luminance conversion unit 26. The subtractor 27 calculates an error due to density conversion and quantization by subtracting the restored RGB luminance signal from the RGB output of the limiter 12. The calculated error is diffused to surrounding pixels by the diffusion processing unit 28, and the accumulated error is output to the adding unit 11.
[0044]
On the other hand, the quantized CMY density signal is also input to the adder 29, and an error signal associated with color reproduction is added for each CMY signal by the adder 29 and input to the limiter 30 and the inverse quantizer 31. . The limiter 30 limits the output of the adder 29 to the existence range of the quantized CMY signal and outputs the result to the pattern table 23. The inverse quantization unit 31 performs digit alignment with the CMY signal output from the offset addition unit 17 by converting the quantized CMY signal into a quantized representative value.
[0045]
The adder / subtractor 32 subtracts the CMY signal output from the offset adder 17 from the quantized representative value of the CMY signal output from the inverse quantizer 31, and at the same time performs the quantization by the quantizer 33 output from the subtractor 35. Add the error. The output of the adder / subtractor 32 is limited within a predetermined range by the limiter 19, and the result is diffused to surrounding pixels by the diffusion processor 20. The diffused error is accumulated for each pixel and output to the quantization unit 33 and the subtraction unit 35. The quantization unit 33 quantizes the error signal by the same method as the quantization unit 13. The quantized error signal is output to the adder 29 and the inverse quantizer 34. The inverse quantization unit 34 converts the quantized error signal into a quantized representative value, the subtraction unit 35 calculates a difference from the signal before quantization, and outputs the quantization error to the addition / subtraction unit 32. To do.
[0046]
The density conversion unit 22, the quantization unit 13, the inverse quantization unit 25, the luminance conversion unit 26, and the subtraction unit 27 can be configured by one LUT. In other words, a table for outputting quantization errors including quantization density signals and conversion errors may be generated for each RGB input signal. Similarly, the quantization unit 33, the inverse quantization unit 34, and the subtraction unit 35 can also be configured by one LUT.
[0047]
Thus, since the color reproduction error diffusion processing is performed in the quantized density space, the number of bits of the adder 29 and the limiter 30 and the memory capacity of the diffusion processing unit 20 (the line delay after quantizing the line delay). (When executed with data).
[0048]
According to the present embodiment, error diffusion processing by density conversion and quantization is executed in the RGB luminance space, and color reproduction error diffusion processing is executed in the output density space. In addition, since an error due to density conversion is also corrected, an image output with even better color reproduction can be obtained. In addition, since the color reproduction error diffusion process is performed in the quantized density space, the amount of hardware can be reduced.
[0049]
[Embodiment 4]
Next, a fourth embodiment according to the present invention will be described in detail with reference to the drawings.
[0050]
FIG. 4 is a block diagram showing the configuration of the image processing unit in the fourth embodiment. In the figure, reference numeral 36 denotes a scan conversion unit. Other blocks are the same as those in FIG.
[0051]
Here, the scan conversion unit 36 converts the scanning direction of the main scanning of the quantized density signal to the reverse direction. That is, when the RGB luminance signal input from the input terminal 10 is scanned from left to right, the scan conversion unit 36 changes the scan from right to left. Thereby, the diffusion coefficient in the main scanning direction of the error by the diffusion processing unit 28 and the diffusion coefficient in the main scanning direction of the error by the diffusion processing unit 20 are symmetric, and phase distortion due to error diffusion is improved.
[0052]
According to the present embodiment, scan conversion is performed between the diffusion process of errors that occur during density conversion and color space division, and the diffusion process of color reproduction errors, and the scan directions of the respective error diffusions are reversed. Therefore, phase distortion due to error diffusion is improved.
[0053]
[Embodiment 5]
Next, a fifth embodiment according to the present invention will be described in detail with reference to the drawings.
[0054]
FIG. 5 is a block diagram showing the configuration of the image processing unit in the fifth embodiment. In the figure, 37 is a correction value generation unit, and 38 is an addition / subtraction unit. The other blocks are the same as in FIG.
[0055]
Here, the buffer 15 outputs a dot pattern of a pixel spatially adjacent to the target pixel to the correction value generation unit 37. The correction value generation unit 37 receives the dot pattern of the target pixel and the dot pattern of the adjacent pixel, generates a correction value based on the overlap of the adjacent pixel with respect to the reproduction color of the target pixel output from the output density table 24, and performs addition / subtraction To the unit 38.
[0056]
FIG. 6 is a block diagram showing a specific configuration of the correction value generation unit 37 in the present embodiment. In the figure, 39 is a correction value table, and 40 is an adder.
[0057]
The correction value generation unit 37 includes a correction value table 39 corresponding to the number of pixels spatially adjacent to the target pixel output from the buffer 15, and an addition unit 40 that tabulates the correction values in each correction value table 39. Composed. In each correction value table 39, the dot pattern of the pixel of interest and the dot pattern of one adjacent pixel are input, and the correction value resulting from the overlapping of the two pixel dot patterns is output to the adder 40. The adder 40 totals the correction values in each correction value table 39 and outputs the result to the adder / subtractor 38.
[0058]
For example, in the case of the pixel arrangement shown in FIG. 7, the number of correction value tables 39 is 2. If F is the target pixel, the dot patterns of BF and EF are input to each correction value table 39, respectively. Further, since the influence of overlap is determined by the combination of two pixels, it is only necessary to correct one of them. That is, the influence of the overlap with G and J may be corrected with the reproduced colors of G and J.
[0059]
Note that in order to correct the influence of overlapping of the three pixels BEF and BFG in order to obtain a stricter correction value, a correction value table for the combination of the three pixels may be added. In this case, since the dot pattern of the pixel G must be fixed, the reproduction color error output from the limiter 19 is diffused after the pixel H, for example, a HIJK pixel.
[0060]
According to the present embodiment, since the process of correcting the color shift due to the overlap of dots between the target pixel and the adjacent pixel is provided, the output density table 24 does not need to consider the influence of the overlap of adjacent pixels, and the input Becomes only the dot pattern of the target pixel, and the capacity of the table becomes very small. Further, the capacity of the correction value table 39 may be a combination of dot patterns of two upper and lower pixels.
[0061]
[Embodiment 6]
Next, Embodiment 6 according to the present invention will be described in detail with reference to the drawings.
[0062]
FIG. 9 is a block diagram showing the configuration of the image processing unit in the sixth embodiment. In the figure, 41 is a representative color conversion unit, 42 is an output pattern generation unit, and 43 is an output density table. The other blocks are the same as in FIG.
[0063]
Here, the representative color conversion unit 41 selects a representative color corresponding to the quantized CMY density signal, and outputs an ID code for identifying the representative color to the output pattern generation unit 42 and the output density table 43. The output pattern generation unit 42 generates a CMYK dot pattern from the ID code for identifying the representative color and outputs it to the printer engine (not shown) from the output terminal 21.
[0064]
The output density table 43 generates a value obtained by converting the reproduced color of the representative color into a CMY density signal from the ID code for identifying the representative color, and outputs the value to the offset adding unit 17.
[0065]
This embodiment is a configuration example in the case where one pixel of image data input from the input terminal 10 is expressed by a plurality of dots. For example, if one pixel of the input image data is composed of 4 dots of FGJK as in the shaded portion shown in FIG. 12, assuming that 8 colors of CMYKRGBW can be expressed with 1 dot, 4 dots include the difference in overlap. 666 colors can be expressed (when 1 color is 11 dots, it is 2046). Of the above-mentioned 666 colors, when 512 colors having a uniform color reproducibility range as much as possible in the uniform perceptual color space such as Lab and Luv are selected as representative colors, the ID code becomes 9 bits, and the quantization unit 13 , The representative color conversion unit 41, the output pattern generation unit 42, and the output density table 43 can be configured by 2048 × 9, 512 × 16, and 512 × 24 LUTs, respectively.
[0066]
According to the present embodiment, since one pixel is expressed by N dots (N is an integer of 2 or more), enlargement processing is not necessary when enlarging N times (area). In addition, since one color is expressed by N dots, the influence due to the overlap of surrounding dots is considerably smaller than the case of one dot (the effect is smaller as N is larger). For this reason, the accuracy of the reproduced color data is improved, and the color reproducibility is improved. The output density table 43 can be easily configured by outputting patches of representative colors from a printer and measuring them. Therefore, color matching can be easily realized by actually measuring the patch and updating the output density table 43.
[0067]
[Embodiment 7]
Next, a seventh embodiment according to the present invention will be described in detail with reference to the drawings.
[0068]
FIG. 10 is a block diagram showing the configuration of the image processing unit in the seventh embodiment. In the figure, 44 is an output density table. The other blocks are the same as those in FIG.
[0069]
Here, the output density table 44 of the present embodiment generates a value obtained by converting the reproduced color of the representative color into the CMY density signal from the quantized CMY density signal, and outputs the value to the offset adding unit 17. The following is the same as in the sixth embodiment.
[0070]
As described above, according to the present embodiment, the CMY density value of the reproduced color is generated directly from the quantized CMY density signal, so that the output density is equivalent to the processing of the representative color conversion unit 41 compared to the sixth embodiment. The processing of the table 44 becomes faster. Further, when the number of bits of the ID code for identifying the representative color is larger than the number of bits of the quantized CMY density signal, the capacity of the output density table 44 can be reduced.
[0071]
[Embodiment 8]
Next, an eighth embodiment according to the present invention will be described in detail with reference to the drawings.
[0072]
FIG. 11 is a block diagram showing the configuration of the image processing unit in the eighth embodiment. In the figure, reference numeral 46 denotes a boundary extraction unit, 47 denotes a correction value generation unit, and 48 denotes an addition / subtraction unit. The other blocks are the same as those in FIG.
[0073]
Here, the boundary extraction unit 46 outputs the dot pattern at the boundary between the target pixel and the adjacent pixel to the correction value generation unit 47. On the other hand, the correction value generation unit 47 generates a correction value due to the overlap of the boundary portion from the dot pattern of the boundary portion between the target pixel and the adjacent pixel, and outputs the correction value to the addition / subtraction unit 48 to correct the influence of the boundary portion. The configuration of the correction value generation unit 47 is the same as that of FIG.
[0074]
For example, when one pixel of the input image data is composed of 4 dots of FGJK as in the shaded portion shown in FIG. 12, the boundary portion extraction unit 46 extracts 7 pixels of BCEFGIJ. The correction value generation unit 47 inputs four sets of dot patterns of BF, CG, EF, and IJ to each correction value table, sums the correction values in each correction value table, and adds them to the addition / subtraction unit 48 as correction values for the boundary portion. Output.
[0075]
According to the present embodiment, since the process of correcting the color misregistration due to the overlap of the boundary between the target pixel and the adjacent pixel is provided, the accuracy of the color reproduction error is improved and the color reproducibility is further improved.
[0076]
In the present embodiment, the upper and left boundary portions are corrected. However, the present invention is not limited to this. For example, only the left boundary portion may be used for buffer saving.
[0077]
[Embodiment 9]
Next, a ninth embodiment according to the present invention will be described in detail with reference to the drawings.
[0078]
FIG. 13 is a block diagram showing the configuration of the image processing unit in the ninth embodiment. In the figure, reference numeral 49 denotes a color reproduction range out-of-color determination unit, and 50 denotes a limiter. The other blocks are the same as those in FIG.
[0079]
Here, the out-of-color-reproduction-range determination unit 49 determines whether the above-described representative color is a color at the boundary of the color reproduction range. The direction error is set to “0”.
[0080]
When colors outside the color reproduction range of the representative colors are continuously input, the input color cannot be reproduced, and errors accumulate, resulting in deterioration of color reproducibility. In the present embodiment, the limiter 50 sets the error in the direction outside the color reproduction range to “0”, so that the error is not accumulated, and deterioration of the color reproducibility of the input color within the color reproduction range can be prevented. In this case, the output image is an image in which the input color outside the color reproduction range is limited to the closest representative color.
[0081]
In the present embodiment, the out-of-color reproduction range determination is executed by the ID code for identifying the representative color. However, the present invention is not limited to this. For example, the input of the out-of-color reproduction range determination unit 49 is quantized. It is also good. In this case, one bit of the output of the representative color conversion unit 41 may be added and the added bit may be connected to the limiter 50.
[0082]
Further, the accumulation of errors due to the input color outside the color reproduction range of the representative color is obtained by replacing a part of the reproduction color stored in the output density table 43 (the color that is the outermost outline of the color reproduction range) with the color reproduction range of the input color space. It can also be prevented by setting to include. In this case, the out-of-color reproduction range determination unit 49 is not necessary. Further, the output image is an image in which the input color outside the color reproduction range is compressed within the color reproduction range (color reproducibility near the boundary of the color reproduction range is not compensated).
[0083]
[Embodiment 10]
14 and 15 are block diagrams showing an image processing unit in the tenth embodiment. In the figure, 60 is an input terminal, 61 is a density converter, 62 is an adder, 63 is a diffusion processor, 64 is a subtractor, 65 is a limiter, 66 is a quantizer, 67 is an output density table, and 68 is a code table. 69 and 70 are interface units, 71 is an HV conversion unit, 72 is a pattern table, 73 is a rearrangement unit, and 74 is a head control unit.
[0084]
In the tenth embodiment, it is assumed that an output of 300 dpi (ppi: Pixel Per Inch) is output at 1200 dpi (dpi: Dot Per Inch). Further, the processing from the input terminal 60 to the interface unit 69 is the host side (printer driver) processing, and the processing from the interface unit 70 to the head control unit 74 is the processing on the printer side.
[0085]
The R, G, and B signals input from the input terminal 60 are converted into CMY density signals by the density converter 61. The converted CMY density signals are each added with an error signal from a diffusion processing unit 63 (described later) by the adding unit 62 and input to the limit 65 and the calculation unit 64. The limiter 65 limits the output of the adder 62 to the CMY signal existence range and outputs the result to the quantizer 66. The quantization unit 66 is for reducing the number of input bits of the code table 68, and for example, 9 bits of CMY are quantized to 4 bits of CMY.
[0086]
In the code table 68, codes corresponding to representative colors described later are mapped in advance, and when a quantized CMY signal is input, a representative color code corresponding to the input CMY signal is output. The representative color code is input to the HV conversion unit 71 via the host side interface unit 69, the transmission path 201 (usually a printer cable), and the printer side interface unit 70. The HV conversion unit 71 changes the reading order of the representative color code in accordance with the dots of the print head. The pattern table 72 converts the input representative color code into an output dot pattern. The rearrangement unit 73 rearranges the converted dot patterns in the order of transmission to the head control unit 74. The head controller 74 prints the input dot data. The conversion to the output dot pattern by the pattern table 72 and the rearrangement to the head transfer data by the rearrangement unit 73 are performed in synchronization with the head control (print engine). Further, since the CMYK heads are usually arranged away from each other, the HV conversion unit 71 and the subsequent processes are performed independently for each color. Therefore, the pattern table 72 is actually separated for each color, and any one of CMYK dot patterns is output for the input code.
[0087]
On the other hand, the output density table 67 stores data corresponding to the density observed when the dot pattern corresponding to the representative color code is printed, that is, the reproduction color of the printer. Difference, that is, an output density error, is calculated, and the error is diffused to surrounding pixels by the diffusion processing unit 20 by a known error diffusion method.
[0088]
To express a 1200 dpi CMYK dot pattern at 300 ppi, 4 × 4 × 4 = 64 bits are required. Here, if the representative color code is 8 bits, data compression of 8/64 = 1/8 is possible. Of the 2 ^ 64 output patterns, the number of colors that can be identified is quite small, and an appropriate representative color should be selected in consideration of variations in output dot position accuracy, dot diameter, dot density (shading), etc. For example, even if the number of representative colors is considerably narrowed, the output image hardly changes. On the other hand, since the number of data transmitted through the transmission path 201 can be reduced by considerably reducing the number of representative colors, not only the transmission time can be reduced, but also the buffer capacity required for the HV converter 71. This greatly reduces the cost of the printer. Note that colors other than the representative colors are represented by combinations of representative colors by the error diffusion method at 300 ppi.
[0089]
FIG. 16 is a diagram illustrating the concept of the code table 68 of the present embodiment.
[0090]
Since the input CMY color space is quantized to 4 bits for each color by the quantization unit 66, a representative code corresponding to the lattice point in FIG. 16 is mapped. This configuration is similar to the three-dimensional LUT color conversion method, but in the three-dimensional LUT color conversion method, the color data of all the lattice points of the corresponding small cube is output, and the lower-order bits truncated at the time of quantization are used. Although linear interpolation is performed, in this configuration, a representative color code of one corresponding grid point is output, converted to a reproduction color of the printer by the output density table 67, and the difference from the input data before quantization by the subtraction unit 64 Is corrected as an error to the surrounding pixels to correct the quantization error. That is, the two errors of the quantization error and the printer output density error are corrected by one error diffusion. Therefore, the color processing and binarization processing conventionally performed are integrated into the above-described simple configuration, and data compression by reducing representative colors is simultaneously performed. Also, resolution conversion can be performed simultaneously by changing the size of the output dot pattern in the pattern table 72 (in this embodiment, the main scanning and sub-scanning are 4 × 4 because it is 4 times). As a result, the number of pixels to be processed is greatly reduced, and the processing can be executed at a very high speed, including the effect of simplification of the above processing.
[0091]
Next, a method for generating the table will be described.
[0092]
FIG. 19 is a diagram showing a specific example of the pattern table 72 of the present embodiment.
[0093]
First, a dot pattern of each CMYK color as shown in FIG. 19 is set, and a representative color is determined.
[0094]
The following methods can be considered as the representative color determination method.
(1) A patch with all output patterns is output from a printer, the color of the patch is measured, and gradation is uniform in a specific color space (input CMY space, L * a * b * space, etc.) Select 256 patterns.
(2) The relationship between the dot pattern and the reproduction color is modeled, and the reproduction color for all output patterns is obtained by calculation, and is selected so as to be uniform in a specific color space as in (1).
[0095]
However, since there are 2 ^ 64 total output patterns as described above, it is not practical to search for all output patterns. Therefore, the number of target patterns is reduced by excluding the number of mixed colors, rotation, and pattern matching by mirror image, and after narrowing down to the number of patterns that can be measured by modeling in (2), for example, 1000 patterns, Perform the operation. At this time, a pattern having a large measurement variation is deleted as an unstable pattern, or 256 representative colors are determined in consideration of a reduction prohibition of a single dot pattern or the like in order to reduce a granular feeling in a highlight portion. In other words, by modeling in (2), narrow down to 1000 patterns out of 2 ^ 64, print a batch of 1000 patterns, measure the color, and create 256 patterns with uniform gradation from the 1000 patterns. Select.
[0096]
FIG. 18 is a specific example of the output density table 67 of this embodiment.
[0097]
When the representative color dot pattern is determined by the above operation, an output density table 67 is created.
[0098]
First, a patch based on all output patterns of representative colors is output from a printer, and the color of the patch is measured. In order to reduce printer variations and measurement errors, a plurality of measurements are performed by changing the position of the patch, and an average value is obtained.
[0099]
Next, the obtained average colorimetric values (X, Y, Z) are converted into the input color space (C, M, Y) according to the following procedure.
(1) X, Y, Z → NTSC → RGB
R = (1.910X−0.532Y−0.288Z) / 100
G = (− 0.985X + 1.999Y−0.028Z) / 100
B = (0.058X−0.118Y−0.898Z) / 100
(2) NTSC-RGB → Density (Dr, Dg, Db)
Dr = -log10 (R)
Dg = -log10 (G)
Db = -log10 (B)
(3) Normalization (Dmax: maximum density, Dmin: minimum density)
C = (Dr−Dmin) × 255 / (Dmax−Dmin)
M = (Dg−Dmin) × 255 / (Dmax−Dmin)
Y = (Db−Dmin) × 255 / (Dmax−Dmin)
The converted colorimetric value is stored as reproduced color data at an address indicated by the representative color code in the output density table 67.
[0100]
In the conversion method to the input color space, the log function is used for the conversion to the RGB density. However, the conversion is not limited to this, and the conversion may be performed using the LUT. Further, when it is desired to shift the output color of the printer from the input color as in gamut compression, it can be realized by reversely correcting the values stored in the output density table 67. For example, when gamut compression is performed, the value of the reproduction color data is gradually shifted toward the outside of the color reproduction range of the printer so that the reproduction color data includes the color reproduction range of the input color space. Note that the white (blank) reproduction colors CMY are all zero.
[0101]
FIG. 17 is a specific example of the code table 68 of the present embodiment.
[0102]
The mapping of the representative color code to the code table 68 is performed based on the distance from the converted colorimetric value. That is, if the color data (quantized representative value) of the grid points is C ′, M ′, Y ′ and the converted colorimetric values are C, M, Y, the square of the distance r 2 is
r ^ 2 = (C-C ') ^ 2+ (M-M') ^ 2+ (Y-Y ') ^ 2
It becomes. The representative color code that minimizes the distance is stored in the corresponding address of the code table 68. Here, in order to minimize the quantization error, instead of the value obtained by combining the bit weights of the color data of the lattice points, the quantization representative value (specifically, the bit weight of the output of the quantization unit 66). And the quantization step / 2). This is because the quantization unit 66 cuts out the upper bits (that is, cuts out the lower bits). When rounding (rounding off) instead of rounding down the lower bits, a value with all the lower bits set to 0 may be used.
[0103]
As an evaluation value for the mapping, not only the square of the distance but also an absolute value of a difference may be used, for example.
[0104]
Further, the quantized representative value is not limited to the median value of the quantized value, and may be shifted entirely or partially.
[0105]
In the above embodiment, the input of the output density table 67 is a representative color code, but it may be a CMY signal after quantization. In this case, the code table 68 and the output density table 67 are integrated, and the representative color code and the output density value (reproduced color) can be obtained by a single LUT search. In particular, if the representative color code is 8 bits, the output density value is 24 bits (8 × 3 = 24), so the output is a 32-bit (8 + 24 = 32) table, and matching is performed when the host is a 32-bit process. Good. Further, by correcting and storing values so that color reproduction errors do not accumulate for input outside the printer color reproduction range, color misregistration outside the printer color reproduction range can be prevented.
[0106]
The present invention may be applied to a system composed of a plurality of devices such as a host computer, an interface, and a printer, or to an apparatus composed of a single device such as a copying machine. Needless to say, the present invention can also be applied to a case where the present invention is achieved by supplying a program stored in a storage medium to a system or apparatus.
[0107]
【The invention's effect】
  As explained above, according to the present invention,By correcting the color misregistration caused by overlapping with the surrounding pixels of the target pixel, the accuracy of the color reproduction error is improved and the color reproducibility is further improved.be able to.
[0108]
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image processing unit according to a first embodiment.
FIG. 2 is a block diagram illustrating a configuration of an image processing unit according to a second embodiment.
FIG. 3 is a block diagram illustrating a configuration of an image processing unit according to a third embodiment.
FIG. 4 is a block diagram illustrating a configuration of an image processing unit according to a fourth embodiment.
FIG. 5 is a block diagram illustrating a configuration of an image processing unit according to a fifth embodiment.
FIG. 6 is a block diagram illustrating a configuration of a correction value generation unit according to a fifth embodiment.
7 is a diagram illustrating a spatial position of each pixel in Embodiment 5. FIG.
8 is a diagram illustrating a spatial position of each pixel when the target pixel of the correction value generation unit is 4. FIG.
FIG. 9 is a block diagram illustrating a configuration of an image processing unit according to a sixth embodiment.
FIG. 10 is a block diagram illustrating a configuration of an image processing unit according to a seventh embodiment.
FIG. 11 is a block diagram illustrating a configuration of an image processing unit according to an eighth embodiment.
12 is a diagram illustrating a spatial position of each pixel in Embodiment 8. FIG.
FIG. 13 is a block diagram illustrating a configuration of an image processing unit according to the ninth embodiment.
FIG. 14 is a block diagram illustrating a configuration of an image processing unit according to a tenth embodiment.
FIG. 15 is a block diagram illustrating a configuration of an image processing unit according to a tenth embodiment.
FIG. 16 is a diagram illustrating a concept of a code table according to the tenth embodiment.
FIG. 17 is a specific example of a code table.
FIG. 18 is a specific example of an output density table.
FIG. 19 is a specific example of a pattern table.
FIG. 20 is a block diagram showing a configuration of a conventional example.

Claims (20)

入力色空間データを出力色空間データに変換する画像処理方法であって、
入力色空間における複数の色成分データを入力する入力工程と、
前記入力工程で入力された複数の色成分データを所定の誤差信号で補正する補正工程と、
入力色空間における複数の色成分の値に対応するように予め定められた、出力色空間における複数の色成分毎のドットパターンを格納するドットパターン格納部から、前記補正工程で補正された入力色空間における複数の色成分の値に対応したドットパターンを出力する出力工程と、
前記出力工程で出力された注目画素及び注目画素の周囲の画素のドットパターンから、当該注目画素の再現色を入力色空間における複数の色成分の値に変換する変換工程と、
前記変換工程で変換された複数の色成分の値と前記補正工程で補正された複数の色成分の値との差分値に基づいて、前記所定の誤差信号を生成する生成工程と、
を有することを特徴とする画像処理方法。
An image processing method for converting input color space data to output color space data,
An input process for inputting a plurality of color component data in the input color space;
A correction step of correcting a plurality of color component data input in the input step with a predetermined error signal;
An input color corrected in the correction step from a dot pattern storage unit that stores a dot pattern for each of the plurality of color components in the output color space, which is predetermined to correspond to the values of the plurality of color components in the input color space An output step of outputting a dot pattern corresponding to a plurality of color component values in space;
A conversion step of converting the reproduced color of the target pixel into values of a plurality of color components in the input color space from the dot pattern of the target pixel output in the output step and pixels around the target pixel;
A generation step of generating the predetermined error signal based on a difference value between a plurality of color component values converted in the conversion step and a plurality of color component values corrected in the correction step;
An image processing method comprising:
更に、前記補正工程で補正された複数の色成分データのそれぞれを入力レベルより低いレベルのデータに量子化する量子化工程を有し、
前記ドットパターン格納部に格納されたドットパターンは、前記量子化工程量子化されたレベルにおける複数の色成分の値に対応するように予め定められていることを特徴とする請求項1に記載の画像処理方法。
And a quantization step of quantizing each of the plurality of color component data corrected in the correction step into data of a level lower than the input level,
The dot pattern stored in the dot pattern storage unit is predetermined to correspond to a plurality of color component values at a level quantized in the quantization step. Image processing method.
入力色空間データを出力色空間データに変換する画像処理方法であって、
入力色空間における複数の色成分データを入力する入力工程と、
前記入力工程で入力された複数の色成分データを出力色空間における複数の色成分データに変換する色空間変換工程と、
前記色空間変換工程で変換された複数の色成分データを所定の誤差信号で補正する補正工程と、
出力色空間における複数の色成分の値に対応するように予め定められた、出力色空間における複数の色成分毎のドットパターンを格納するドットパターン格納部から、前記補正工程で補正された複数の色成分の値に対応したドットパターンを出力する出力工程と、
前記出力工程で出力された注目画素及び注目画素の周囲の画素のドットパターンから、当該注目画素の再現色を出力色空間における複数の色成分の値に変換する変換工程と、
前記変換工程で変換された複数の色成分の値と前記補正工程で補正された複数の色成分の値との差分値に基づいて、前記所定の誤差信号を生成する生成工程と、
を有することを特徴とする画像処理方法。
An image processing method for converting input color space data to output color space data,
An input process for inputting a plurality of color component data in the input color space;
A color space conversion step of converting a plurality of color component data input in the input step into a plurality of color component data in an output color space;
A correction step of correcting a plurality of color component data converted in the color space conversion step with a predetermined error signal;
From a dot pattern storage unit that stores a dot pattern for each of a plurality of color components in the output color space, which is predetermined to correspond to the values of the plurality of color components in the output color space, a plurality of corrected in the correction step An output process for outputting a dot pattern corresponding to the value of the color component;
A conversion step of converting the reproduced color of the target pixel into values of a plurality of color components in the output color space from the dot pattern of the target pixel output in the output step and pixels around the target pixel;
A generation step of generating the predetermined error signal based on a difference value between a plurality of color component values converted in the conversion step and a plurality of color component values corrected in the correction step;
An image processing method comprising:
更に、前記補正工程で補正された複数の色成分データのそれぞれを、入力レベルより低いレベルのデータに量子化する量子化工程を有し、
前記ドットパターン格納部に格納されたドットパターンは、前記量子化工程で量子化されたレベルにおける複数の色成分の値に対応するように予め定められていることを特徴とする請求項3に記載の画像処理方法。
And a quantization step of quantizing each of the plurality of color component data corrected in the correction step into data of a level lower than the input level,
The dot pattern stored in the dot pattern storage unit is predetermined to correspond to a plurality of color component values at a level quantized in the quantization step. Image processing method.
更に、出力工程で出力された注目画素及び注目画素の周囲の画素のドットパターンから、当該注目画素と周囲の画素とのドットの重なりによる再現色のずれを補正する補正値を生成する補正値生成工程と、
を有することを特徴とする請求項3に記載の画像処理方法。
Further, a correction value generation for generating a correction value for correcting a shift in reproduction color due to the overlap of the dot between the target pixel and the surrounding pixels from the dot pattern of the target pixel output in the output step and the surrounding pixels of the target pixel. Process,
The image processing method according to claim 3, further comprising:
更に、前記補正工程で補正された複数の色成分データのそれぞれを、入力レベルより低いレベルのデータに量子化する量子化工程と、
複数の出力ドットパターンにて表現できる所定数の代表色のIDコードを出力色空間にマッピングしたテーブルに、前記量子化工程で量子化されたデータを入力することで、任意のIDコードを出力するIDコード出力工程と、
を有し、前記出力工程は、前記IDコードに応じて、出力色空間における複数の色成分毎のドットパターンを出力することを特徴とする請求項3に記載の画像処理方法。
Further, a quantization step of quantizing each of the plurality of color component data corrected in the correction step into data having a level lower than the input level;
An arbitrary ID code is output by inputting the data quantized in the quantization step to a table in which ID codes of a predetermined number of representative colors that can be expressed by a plurality of output dot patterns are mapped to the output color space. ID code output process,
The image processing method according to claim 3, wherein the output step outputs a dot pattern for each of a plurality of color components in an output color space in accordance with the ID code.
入力色空間データを出力色空間データに変換する画像処理方法であって、
入力色空間における複数の色成分データを入力する入力工程と、
前記入力工程で入力された複数の色成分データを出力色空間における複数の色成分データに変換する色空間変換工程と、
前記色空間変換工程で変換された複数の色成分データを所定の誤差信号で補正する補正工程と、
前記補正工程で補正された複数の色成分データのそれぞれを、入力レベルより低いレベルのデータに量子化する量子化工程と、
前記量子化工程で量子化された出力色空間における複数の色成分データに対応する代表色を選択し、当該代表色を識別する識別コードを出力する代表色変換工程と、
前記代表色変換工程から出力された前記識別コードから、出力色空間における複数の色成分ごとのドットパターンを生成するドットパターン生成工程と、
前記量子化工程で量子化された出力色空間における複数の色成分データに基づいて、再現色に相当する、出力色空間における複数の色成分データに変換する変換工程と、
前記変換工程で変換された複数の色成分の値と前記補正工程で補正された複数の色成分の値との差分値に基づいて、前記所定の誤差信号を生成する生成工程と、
を有することを特徴とする画像処理方法。
An image processing method for converting input color space data to output color space data,
An input process for inputting a plurality of color component data in the input color space;
A color space conversion step of converting a plurality of color component data input in the input step into a plurality of color component data in an output color space;
A correction step of correcting a plurality of color component data converted in the color space conversion step with a predetermined error signal;
A quantization step of quantizing each of the plurality of color component data corrected in the correction step into data of a level lower than an input level;
A representative color conversion step of selecting a representative color corresponding to a plurality of color component data in the output color space quantized in the quantization step and outputting an identification code for identifying the representative color;
From the identification code output from the representative color conversion step, a dot pattern generation step of generating a dot pattern for each of a plurality of color components in the output color space;
Based on a plurality of color component data in the output color space quantized in the quantization step, a conversion step for converting to a plurality of color component data in the output color space, which corresponds to a reproduced color,
A generation step of generating the predetermined error signal based on a difference value between a plurality of color component values converted in the conversion step and a plurality of color component values corrected in the correction step;
An image processing method comprising:
前記変換工程は、前記量子化工程で量子化された出力色空間における複数の色成分データに対応する代表色を識別する識別コードに応じて、当該代表色の再現色に相当する、出力色空間における複数の色成分データに変換することを特徴とする請求項7に記載の画像処理方法。  The conversion step includes an output color space corresponding to a reproduction color of the representative color according to an identification code for identifying a representative color corresponding to a plurality of color component data in the output color space quantized in the quantization step. The image processing method according to claim 7, wherein the data is converted into a plurality of color component data. 更に、ドットパターン生成工程で生成された、注目画素及び注目画素の周囲の画素のドットパターンから、当該注目画素と周囲の画素との境界部のドットパターンを抽出する抽出工程と、
前記抽出工程で抽出されたドットパターンから、当該注目画素と周囲の画素とのドットの重なりによる再現色のずれを補正する補正値を生成する補正値生成工程と、
を有することを特徴とする請求項7に記載の画像処理方法。
Further, an extraction step of extracting a dot pattern at the boundary between the target pixel and the surrounding pixels from the dot pattern of the target pixel and the surrounding pixels generated in the dot pattern generation step;
From the dot pattern extracted in the extraction step, a correction value generation step for generating a correction value for correcting a shift in reproduction color due to dot overlap between the target pixel and surrounding pixels;
The image processing method according to claim 7, further comprising:
更に、前記代表色変換工程で選択された代表色が、所定の色再現範囲の境界色か否かを判定する色再現範囲外判定工程を有し、
当該色再現範囲外判定工程は、前記色再現範囲の境界色であると判定した場合、前記色再現範囲外の方向の誤差を累積しないための値を前記生成工程に出力することを特徴とする請求項7に記載の画像処理方法。
And a step of determining whether the representative color selected in the representative color conversion step is a boundary color of a predetermined color reproduction range or not.
The determination step outside the color reproduction range is characterized in that, when it is determined that the color is a boundary color of the color reproduction range, a value for not accumulating errors in the direction outside the color reproduction range is output to the generation step. The image processing method according to claim 7.
入力色空間データを出力色空間データに変換する画像処理装置であって、
入力色空間における複数の色成分データを入力する入力手段と、
前記入力手段で入力された複数の色成分データを所定の誤差信号で補正する補正手段と、
入力色空間における複数の色成分の値に対応するように予め定められた、出力色空間における複数の色成分毎のドットパターンを格納するドットパターン格納手段と、
前記補正手段で補正された入力色空間における複数の色成分の値に対応したドットパターンを出力する出力手段と、
前記ドットパターン格納手段から出力された注目画素及び注目画素に隣接する画素のドットパターンから、当該注目画素における出力色を入力色空間における複数の色成分の値に変換する変換手段と、
前記変換手段で変換された複数の色成分の値と前記補正手段で補正された複数の色成分の値との差分値に基づいて、前記所定の誤差信号を生成する生成手段と、
を有することを特徴とする画像処理装置。
An image processing device for converting input color space data to output color space data,
Input means for inputting a plurality of color component data in the input color space;
Correction means for correcting a plurality of color component data input by the input means with a predetermined error signal;
Dot pattern storage means for storing a dot pattern for each of the plurality of color components in the output color space, which is predetermined to correspond to the values of the plurality of color components in the input color space;
Output means for outputting a dot pattern corresponding to the values of a plurality of color components in the input color space corrected by the correction means;
Conversion means for converting the output color at the target pixel from the dot pattern of the target pixel output from the dot pattern storage means and the pixel adjacent to the target pixel into values of a plurality of color components in the input color space;
Generating means for generating the predetermined error signal based on a difference value between a plurality of color component values converted by the converting means and a plurality of color component values corrected by the correcting means;
An image processing apparatus comprising:
更に、前記補正手段で補正された複数の色成分データのそれぞれを入力レベルより低いレベルのデータに量子化する量子化手段を有し、
前記ドットパターン格納部に格納されたドットパターンは、前記量子化手段量子化されたレベルにおける複数の色成分の値に対応するように予め定められていることを特徴とする請求項11に記載の画像処理装置。
Furthermore, it has quantization means for quantizing each of the plurality of color component data corrected by the correction means into data of a level lower than the input level,
Dot patterns stored in said dot pattern storage unit according to claim 11, characterized in that predetermined so as to correspond to the value of the plurality of color components in quantized levels in the quantized means Image processing apparatus.
入力色空間データを出力色空間データに変換する画像処理装置であって、
入力色空間における複数の色成分データを入力する入力手段と、
前記入力手段で入力された複数の色成分データを出力色空間における複数の色成分データに変換する色空間変換手段と、
前記色空間変換手段で変換された複数の色成分データを所定の誤差信号で補正する補正手段と、
出力色空間における複数の色成分の値に対応するように予め定められた、出力色空間における複数の色成分毎のドットパターンを格納するドットパターン格納部から、前記補正手段で補正された複数の色成分の値に対応したドットパターンを出力する出力手段と、
前記出力手段で出力された注目画素及び注目画素の周囲の画素のドットパターンから、当該注目画素の再現色を出力色空間における複数の色成分の値に変換する変換手段と、
前記変換手段で変換された複数の色成分の値と前記補正手段で補正された複数の色成分の値との差分値に基づいて、前記所定の誤差信号を生成する生成手段と、
を有することを特徴とする画像処理装置。
An image processing device for converting input color space data to output color space data,
Input means for inputting a plurality of color component data in the input color space;
Color space conversion means for converting a plurality of color component data input by the input means into a plurality of color component data in an output color space;
Correction means for correcting a plurality of color component data converted by the color space conversion means with a predetermined error signal;
From a dot pattern storage unit that stores dot patterns for each of a plurality of color components in the output color space, which are predetermined to correspond to values of the plurality of color components in the output color space, a plurality of corrections corrected by the correction unit Output means for outputting a dot pattern corresponding to the value of the color component;
Conversion means for converting a reproduced color of the target pixel into values of a plurality of color components in an output color space from a dot pattern of the target pixel output by the output unit and pixels around the target pixel;
Generating means for generating the predetermined error signal based on a difference value between a plurality of color component values converted by the converting means and a plurality of color component values corrected by the correcting means;
An image processing apparatus comprising:
更に、前記補正手段で補正された複数の色成分データのそれぞれを、入力レベルより低いレベルのデータに量子化する量子化手段を有し、
前記ドットパターン格納部に格納されたドットパターンは、前記量子化手段で量子化されたレベルにおける複数の色成分の値に対応するように予め定められていることを特徴とする請求項13に記載の画像処理装置。
Furthermore, it has quantization means for quantizing each of the plurality of color component data corrected by the correction means into data of a level lower than the input level,
14. The dot pattern stored in the dot pattern storage unit is predetermined to correspond to a plurality of color component values at a level quantized by the quantization means. Image processing apparatus.
更に、出力手段で出力された注目画素及び注目画素の周囲の画素のドットパターンから、当該注目画素と周囲の画素とのドットの重なりによる再現色のずれを補正する補正値を生成する補正値生成手段と、
を有することを特徴とする請求項13に記載の画像処理装置。
Further, a correction value generation for generating a correction value for correcting a shift in reproduction color due to overlapping of dots between the target pixel and the surrounding pixels from the dot pattern of the target pixel output by the output unit and the pixels around the target pixel. Means,
The image processing apparatus according to claim 13, further comprising:
更に、前記補正手段で補正された複数の色成分データのそれぞれを、入力レベルより低いレベルのデータに量子化する量子化手段と、
複数の出力ドットパターンにて表現できる所定数の代表色のIDコードを出力色空間にマッピングしたテーブルに、前記量子化手段で量子化されたデータを入力することで、任意のIDコードを出力するIDコード出力手段と、
を有し、前記出力手段は、前記IDコードに応じて、出力色空間における複数の色成分毎のドットパターンを出力することを特徴とする請求項13に記載の画像処理装置。
Further, a quantization means for quantizing each of the plurality of color component data corrected by the correction means into data having a level lower than the input level;
An arbitrary ID code is output by inputting the data quantized by the quantization means to a table in which an ID code of a predetermined number of representative colors that can be expressed by a plurality of output dot patterns is mapped to an output color space. ID code output means,
The image processing apparatus according to claim 13, wherein the output unit outputs a dot pattern for each of a plurality of color components in an output color space in accordance with the ID code.
入力色空間データを出力色空間データに変換する画像処理装置であって、
入力色空間における複数の色成分データを入力する入力手段と、
前記入力手段で入力された複数の色成分データを出力色空間における複数の色成分データに変換する色空間変換手段と、
前記色空間変換手段で変換された複数の色成分データを所定の誤差信号で補正する補正手段と、
前記補正手段で補正された複数の色成分データのそれぞれを、入力レベルより低いレベルのデータに量子化する量子化手段と、
前記量子化手段で量子化された出力色空間における複数の色成分データに対応する代表色を選択し、当該代表色を識別する識別コードを出力する代表色変換手段と、
前記代表色変換手段から出力された前記識別コードから、出力色空間における複数の色成分ごとのドットパターンを生成するドットパターン生成手段と、
前記量子化手段で量子化された出力色空間における複数の色成分データに基づいて、再現色に相当する、出力色空間における複数の色成分データに変換する変換手段と、
前記変換手段で変換された複数の色成分の値と前記補正手段で補正された複数の色成分の値との差分値に基づいて、前記所定の誤差信号を生成する生成手段と、
を有することを特徴とする画像処理装置。
An image processing device for converting input color space data to output color space data,
Input means for inputting a plurality of color component data in the input color space;
Color space conversion means for converting a plurality of color component data input by the input means into a plurality of color component data in an output color space;
Correction means for correcting a plurality of color component data converted by the color space conversion means with a predetermined error signal;
Quantization means for quantizing each of the plurality of color component data corrected by the correction means into data of a level lower than the input level;
Representative color conversion means for selecting a representative color corresponding to a plurality of color component data in the output color space quantized by the quantization means and outputting an identification code for identifying the representative color;
Dot pattern generation means for generating a dot pattern for each of a plurality of color components in an output color space from the identification code output from the representative color conversion means;
Conversion means for converting to a plurality of color component data in the output color space, corresponding to the reproduced color, based on the plurality of color component data in the output color space quantized by the quantization means;
Generating means for generating the predetermined error signal based on a difference value between a plurality of color component values converted by the converting means and a plurality of color component values corrected by the correcting means;
An image processing apparatus comprising:
前記変換手段は、前記量子化手段で量子化された出力色空間における複数の色成分データに対応する代表色を識別する識別コードに応じて、当該代表色の再現色に相当する、出力色空間における複数の色成分データに変換することを特徴とする請求項17に記載の画像処理装置。  The conversion means outputs an output color space corresponding to a reproduction color of the representative color according to an identification code for identifying a representative color corresponding to a plurality of color component data in the output color space quantized by the quantization means The image processing apparatus according to claim 17, wherein the image processing apparatus is converted into a plurality of color component data. 更に、ドットパターン生成手段で生成された、注目画素及び注目画素の周囲の画素のドットパターンから、当該注目画素と周囲の画素との境界部のドットパターンを抽出する抽出手段と、
前記抽出手段で抽出されたドットパターンから、当該注目画素と周囲の画素とのドットの重なりによる再現色のずれを補正する補正値を生成する補正値生成手段と、
を有することを特徴とする請求項17に記載の画像処理装置。
Furthermore, an extraction unit that extracts a dot pattern of a boundary portion between the target pixel and the surrounding pixels from the dot pattern of the target pixel and the surrounding pixels generated by the dot pattern generation unit;
Correction value generation means for generating a correction value for correcting a shift in reproduction color due to dot overlap between the target pixel and surrounding pixels from the dot pattern extracted by the extraction means;
The image processing apparatus according to claim 17, further comprising:
更に、前記代表色変換手段で選択された代表色が、所定の色再現範囲の境界色か否かを判定する色再現範囲外判定手段を有し、
当該色再現範囲外判定手段は、前記色再現範囲の境界色であると判定した場合、前記色再現範囲外の方向の誤差を累積しないための値を前記生成手段に出力することを特徴とする請求項17に記載の画像処理装置。
Furthermore, it has a color reproduction range out-of-range determination unit for determining whether the representative color selected by the representative color conversion unit is a boundary color of a predetermined color reproduction range,
The out-of-color-reproduction-range determining unit, when determining that it is a boundary color of the color reproduction range, outputs to the generation unit a value for not accumulating errors in a direction outside the color reproduction range. The image processing apparatus according to claim 17.
JP20471796A 1995-08-03 1996-08-02 Image processing method and apparatus Expired - Fee Related JP3728025B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20471796A JP3728025B2 (en) 1995-08-03 1996-08-02 Image processing method and apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP19848095 1995-08-03
JP7-198480 1995-08-03
JP20471796A JP3728025B2 (en) 1995-08-03 1996-08-02 Image processing method and apparatus

Publications (2)

Publication Number Publication Date
JPH09102886A JPH09102886A (en) 1997-04-15
JP3728025B2 true JP3728025B2 (en) 2005-12-21

Family

ID=26510999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20471796A Expired - Fee Related JP3728025B2 (en) 1995-08-03 1996-08-02 Image processing method and apparatus

Country Status (1)

Country Link
JP (1) JP3728025B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3783118B2 (en) * 1997-08-25 2006-06-07 富士写真フイルム株式会社 Image generation method and apparatus
JP4950007B2 (en) * 2007-11-17 2012-06-13 株式会社リコー Image processing apparatus, image forming apparatus including the same, and image processing method
US10152935B2 (en) 2016-02-29 2018-12-11 Mitsubishi Electric Corporation Color correction apparatus, display apparatus, and color correction method
JP2021018360A (en) 2019-07-22 2021-02-15 三菱電機株式会社 Color correction device, display device, and color correction method

Also Published As

Publication number Publication date
JPH09102886A (en) 1997-04-15

Similar Documents

Publication Publication Date Title
US6118547A (en) Image processing method and apparatus
JP3268512B2 (en) Image processing apparatus and image processing method
US6330075B1 (en) Image processing method and apparatus
US7411707B2 (en) Image processing apparatus and method thereof
US5781709A (en) Method of and apparatus for generating proof
JP3728025B2 (en) Image processing method and apparatus
JPH10200770A (en) Method for correcting color of picture data
JP4429439B2 (en) Color conversion method and conversion processor
US20040141194A1 (en) Ink reduction error diffusion
EP0382581B1 (en) Image processing apparatus
JPH08317229A (en) Color image processor
JP3524148B2 (en) Image forming system and control method thereof
US6847732B1 (en) Image error diffusion device with noise superposition
JP3658255B2 (en) Color output method and color output device
JP2004230671A (en) Image processing method
JP2675792B2 (en) Image processing device
JP3264526B2 (en) Image processing method and apparatus
JP2001352456A (en) Image-processing method and image-processing unit, and image-forming device provided with them
JP2733314B2 (en) Image processing device
JP4560357B2 (en) Image processing method, image processing apparatus, image forming apparatus including the same, program, and recording medium
JPH11252388A (en) Color image processing method and its device
JP2000341547A (en) Device and method for image processing
JP3507100B2 (en) Image processing system and method
JP2001157072A (en) Image processing method, image processor and image- forming device provided with the same
JP3048171B2 (en) Color image processing equipment

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050121

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050922

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050930

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091007

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091007

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101007

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101007

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111007

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111007

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121007

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131007

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees