JP2004122692A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2004122692A
JP2004122692A JP2002292822A JP2002292822A JP2004122692A JP 2004122692 A JP2004122692 A JP 2004122692A JP 2002292822 A JP2002292822 A JP 2002292822A JP 2002292822 A JP2002292822 A JP 2002292822A JP 2004122692 A JP2004122692 A JP 2004122692A
Authority
JP
Japan
Prior art keywords
color
image processing
trap
misregistration
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002292822A
Other languages
Japanese (ja)
Other versions
JP4324359B2 (en
Inventor
Hiroichi Takenaka
竹中 博一
Satoshi Ouchi
大内 敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2002292822A priority Critical patent/JP4324359B2/en
Publication of JP2004122692A publication Critical patent/JP2004122692A/en
Application granted granted Critical
Publication of JP4324359B2 publication Critical patent/JP4324359B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor and an image processing method which optimumly suppresses degradation in image quality due to misregistration depending on each output device or the state of the output device, in particular, an image processing method in which trapping processing is accurately performed for a boundary between a black character on a colored ground and the colored ground. <P>SOLUTION: A misregistration input means 5 generates a predicted value of the misregistration, which is predicted in a color image output means 4, and inputs the predicted value into a misregistration suppressing processing means 2. The means 2 changes the size of an area to which the trapping processing is to be applied, depending on the predicted value of the misregistration, and processes color image data which is input by image input means 1. A halftone processing means 3 reduces the value of the image data needed to output the image data from the means 2 by the means 4, and the means 4 color-outputs color image signal data, which is represented by a coloring-material color signal, to paper etc. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、カラー画像出力の版ずれを補正する画像処理装置および画像処理方法に関する。
【0002】
【従来の技術】
カラー画像の印刷は、複数の色成分(通常はC(シアン),M(マゼンタ),Y(イエロー)およびK(ブラック)の4色)の重ね合わせで行われるのが一般的である。例えば、電子写真方式に基づくカラー画像印刷では、CMYKのうちのいずれかの第1の色成分のトナーを用いて出力用紙上に印刷し、続いて第2の色成分のトナーを用いて重ねて該出力用紙上に印刷し、同様にして第3,第4の色成分のトナーを用いて更に重ねて該出力用紙上に印刷する。インクジェット記録方式に基づくカラー画像印刷でも、CMYKの4つの色成分を重ね合わせ用紙上に印刷する。このような複数の色成分の重ね合わせでカラー画像を印刷する際、1枚の出力用紙上に複数の色成分それぞれで印刷される画像の位置がずれる場合がある。この現象を版ずれと言う。
【0003】
この版ずれにより、印刷されるカラー画像に対して様々な画質劣化が引き起こされる。その一つに、色境界部での白抜けがある。
【0004】
図9は、版ずれによる白抜けを説明する図である。図9(a)に示すように、本来は境界Zで接している2つの領域A,Bを考える。各画素におけるCMYKの網点面積率を(C(%),M(%),Y(%),K(%))で表して、一方の領域Aの色が(100,0,0,0)であるとし、他方の領域Bの色が(0,0,60,0)であるとする。そして、シアン画像とイエロー画像との間で版ずれが起きると、同図(b)に示すように、領域Aおよび領域Bそれぞれの色が重なって色が(100,0,60,0)である領域Cが生じる他、色が(0,0,0,0)である白色領域Dが生じる。この白色領域Dが生じる現象を白抜けと言う。このような版ずれに因る白抜けが生じると、出力用紙上に印刷されたカラー画像の品質が劣悪なものとなる。
【0005】
そこで、版ずれに起因する白抜けの発生を抑制する手段の一つとして、トラッピング処理を行うことが提案されている(例えば、特許文献3、特許文献4および特許文献5を参照)。図10および図11は、従来のトラッピング技術を説明する図である。
【0006】
図10(a)では、本来は境界Zで接している2つの領域A,Bのうち前景オブジェクトに相当する領域Bの周囲(境界Zの外側の領域Aの部分)にトラップ領域A1を指定して、このトラップ領域A1の色を、元の領域Aおよび領域Bそれぞれの色を重ねた色(100,0,60,0)とする。この技術をスプレッドと言う。このとき、シアン画像とイエロー画像との間で版ずれが起きると、図10(b)に示すように、トラップ領域A1の形状が変化するものの、白抜けが生じない。
【0007】
一方、図11(a)では、本来は境界Zで接している2つの領域A,Bのうち背景に相当する領域Aの周囲(境界Zの内側の領域Bの部分)にトラップ領域B1を指定して、このトラップ領域B1の色を、元の領域Aおよび領域Bそれぞれの色を重ねた色(100,0,60,0)とする。この技術をチョークと言う。このとき、シアン画像とイエロー画像との間で版ずれが起きると、図11(b)に示すように、トラップ領域B1の形状が変化するものの、白抜けが生じない。また、トラッピング処理に限らず、例えば、版ずれによる黒文字の色付き等の画質劣化を防ぐための処理として、白地上の黒文字箇所を判定し、K版 100%での再生および色消しを行うような黒文字処理がある。この黒文字処理によって、白地上黒文字はK版一色で再生され、版ずれの影響を受けることがなくなる。
【0008】
また、従来技術例としては黒エッジにはトラッピング処理を行うとともに、黒非エッジには一定のCMYを重ねるものがある(例えば、特許文献1参照)。また、カラーと黒との境界で黒もしくはカラーを膨張するものもある(例えば、特許文献2参照)。
【0009】
【特許文献1】
特開2002−165104号公報(1−3頁、図4)
【特許文献2】
特許第03007501号公報(1−2頁、図2)
【特許文献3】
特開平11−34406号公報(1−4頁、図3)
【特許文献4】
特開2000−106628号公報(1−4頁、図5)
【特許文献5】
特開2000−165693号公報(1−6頁、図2)
【0010】
【発明が解決しようとする課題】
しかし、白抜け等を引き起こす版ずれの程度は、カラー画像を印刷する装置の状態によって大きく変動する。また、複数の出力装置にデータを供給することが可能である場合には、装置ごとに版ずれ量も異なるのが普通である。例えば、インクジェット記録装置と電子写真方式の記録装置とでは一般に版ずれ量は異なりまた、ずれ方も異なる。電子写真方式は版全体でずれる傾向があるのに対して、インクジェットはノズルごとのずれが原因であるため、部分ごとにずれ量が異なることもある。また、同じ電子写真方式であっても、高速書き込みに対応した4ドラム式のものと、従来からの1ドラム式のものとでは、4ドラム式の方が、版ずれが大きい傾向がある。
【0011】
よって、上述のそれぞれの方式に対応して、版ずれによる画質劣化を抑制する処理も切り換える必要があり、例えば、トラッピング処理ではトラップ領域の大きさ等を最適なものにする必要があるが、従来においてそのような技術はなかった。
【0012】
また、白抜けは、特に色地上の黒文字周囲に起こりやすいため、その部分を抽出してトラッピング処理を行うことは効果的であるが、色地は通常網点によって再現されているため、ミクロに見るといろいろな色が存在しており、黒文字周囲という限られた領域からトラップ色を正確に算出することは難しかった。また、色地上の黒文字に対して、トラッピング処理を行うべき箇所を精度良く抽出することも困難であった。
【0013】
上記の点を鑑み、本発明の目的は、出力装置ごともしくは装置の状態に応じて版ずれによる画質劣化を抑制するのに最適な画像処理方法および同方法を行う画像処理装置を提供することを目的とする。
【0014】
また、本発明の目的は、特に色地上の黒文字と色地の境界に対して、精度良くトラッピング処理を行うことの可能な画像処理方法および同方法を行う画像処理装置を提供することを目的とする。
【0015】
【課題を解決するための手段】
かかる目的を達成するために、請求項1記載の画像処理装置は、入力されたカラー画像データに処理を施すことで、カラー画像出力装置に供給するためのデータを作成する画像処理装置であり、カラー画像出力装置によりカラー画像を出力する際に生じる、版ずれ予測値を入力する版ずれ入力手段を有し、版ずれ入力手段により入力された版ずれ予測値に応じて、版ずれ量に対して必要十分な、版ずれによる画質劣化を抑制する、異なった画像処理を行うことを特徴としている。
【0016】
請求項2記載の画像処理装置は、請求項1記載の画像処理装置において、版ずれに起因する白抜けの発生を抑制する画像処理であるトラッピング処理を行う際版ずれ入力手段により版ずれ予測値を入力することで、版ずれ量に対して必要十分なトラッピング処理を行い、トラッピング処理を行う領域の大きさを変更することを特徴としている。
【0017】
請求項3記載の画像処理装置は、請求項2記載の画像処理装置において、入力されるカラー画像データは、黒色を含む複数の色材色信号で表されたカラー画像データであり、トラッピング処理に用いるトラップ色を算出するトラップ色算出手段と、トラッピング処理を行う領域を抽出する領域抽出手段とを有し、領域抽出手段は高墨率処理された無彩色エッジ領域を抽出することを特徴としている。
【0018】
請求項4記載の画像処理装置は、請求項2記載の画像処理装置において、入力されるカラー画像データは、黒色を含む複数の色材色信号で表されたカラー画像データであり、トラッピング処理に用いるトラップ色を算出するトラップ色算出手段と、トラッピング処理を行う領域を抽出する領域抽出手段とを有し、トラップ色算出手段は、色境界部近傍ではなく、離れた場所からトラップ色を算出することを特徴としている。
【0019】
請求項5記載の画像処理装置は、請求項4記載の画像処理装置において、領域抽出手段は、色境界部のうち、トラップ色算出手段により算出されたトラップ色と隣接する領域のみを抽出することを特徴としている。
【0020】
請求項6記載の画像処理装置は、請求項2記載の画像処理装置において、領域抽出手段は、高墨率処理された無彩色エッジ領域を抽出し、かつ、その中でトラップ色算出手段により算出されたトラップ色と隣接する領域のみを最終的に抽出することを特徴としている。
【0021】
請求項7記載の画像処理装置は、請求項1から6のいずれか1項に記載の画像処理装置において、複数のカラー画像出力装置にカラー画像データを供給し、前記版ずれ入力手段によって入力される版ずれ予測値は、複数のカラー画像出力装置ごとに設定することで、出力装置により異なる版ずれ量に対して処理を切り換えて、必要十分なトラッピング処理を行うことを特徴としている。
【0022】
請求項8記載の画像処理装置は、請求項1から7のいずれか1項に記載の画像処理装置において、さらに画像データを供給する出力装置の版ずれを測定する測定手段を有し、測定手段により実際の出力装置の版ずれを測定し、測定結果を版ずれ入力手段により版ずれ予測値として入力することを特徴としている。
【0023】
請求項9記載の画像処理装置は、請求項2から8のいずれか1項に記載の画像処理装置において、複数のカラー画像出力装置にカラー画像データを供給し、カラー画像出力装置がインクジェット方式であった場合には、インクジェットに合わせた特有のトラッピング処理を行うことを特徴としている。
【0024】
請求項10記載の画像処理装置は、請求項9記載の画像処理装置において、出力装置がインクジェット記録装置であった場合に、トラッピング処理を行わないことで、版ずれの少ないインクジェット記録装置に対して余分な処理を行わないようにすることを特徴としている。
【0025】
請求項11記載の画像処理装置は、黒色を含む複数の色材色信号で表された前記カラー画像データに対して前記トラッピング処理を施す画像処理装置であり、トラッピング処理に用いるトラップ色を算出するトラップ色算出手段と、トラッピング処理を行う領域を抽出する領域抽出手段を有し、領域抽出手段は、高墨率処理された均一な色地上の黒文字の縁である無彩色エッジ領域を精度良く抽出して、トラッピング処理を行うことを特徴としている。
【0026】
請求項12記載の画像処理装置は、黒色を含む複数の色材色信号で表されたカラー画像データに対してトラッピング処理を施す画像処理装置であって、トラッピング処理に用いるトラップ色を算出するトラップ色算出手段と、トラッピング処理を行う領域を抽出する領域抽出手段を有し、トラップ色算出手段は、前記色境界部近傍ではなく、離れた場所からトラップ色を精度良く算出することを特徴としている。
【0027】
請求項13記載の画像処理装置は、請求項12記載の画像処理装置において、前記領域抽出手段は、色境界部のうち、前記トラップ色算出手段により算出されたトラッピング処理を行う箇所のトラップ色と隣接する領域のみを精度良く抽出し、間違ったトラップ色を重ねることを防ぐことを特徴としている。
【0028】
請求項14記載の画像処理装置は、請求項12記載の画像処理装置において、領域抽出手段は、高墨率処理された均一な色地上の黒文字の縁である無彩色エッジ領域を抽出し、かつ、その中でトラップ色算出手段により、トラッピング処理で用いるトラップ色を精度良く算出し、算出されたトラップ色と隣接する領域のみを最終的に抽出し、間違ったトラップ色を重ねるのを防ぐことを特徴としている。
【0029】
請求項15記載の画像処理装置は、請求項3、6、11、14のいずれか1項に記載の画像処理装置において、高墨率処理された無彩色エッジ領域は、黒色信号が高濃度であり、かつエッジであるという条件によって、高墨率処理された無彩色エッジ領域を高精度に抽出することを特徴としている。
【0030】
請求項16記載の画像処理装置は、請求項2から15のいずれか1項に記載の画像処理装置において、カラー画像中の網点領域にのみトラッピング処理を施すことにより、他の場所で誤って処理するのを防ぐことを特徴としている。
【0031】
請求項17記載の画像処理装置は、請求項3から16のいずれか1項に記載の画像処理装置において、色材色信号は、インクジェット記録装置に用いられるインク色信号であることを特徴としている。
【0032】
請求項18記載の画像処理装置は、請求項3から16のいずれか1項に記載の画像処理装置において、色材色信号は、電子写真方式の画像形成装置に用いられるトナー色信号であることを特徴としている。
【0033】
請求項19記載の画像処理方法は、入力されたカラー画像データに処理を施すことで、カラー画像出力装置に供給するためのデータを作成する画像処理方法であって、前記出力方法によりカラー画像を出力する際に生じる、版ずれの予測値を入力する版ずれ入力ステップを有し、版ずれ入力ステップにより入力された版ずれ予測値に応じて、異なる画像処理を施すことを特徴としている。
【0034】
請求項20記載の画像処理方法は、請求項19記載の画像処理において、画像処理は、版ずれに起因する白抜けの発生を抑制するトラッピング処理であり、版ずれ入力ステップにより入力された版ずれ予測値に応じて、トラッピング処理を行う領域の大きさを変更することを特徴としている。
【0035】
請求項21記載の画像処理方法は、黒色を含む複数の色材色信号で表されたカラー画像データに対してトラッピング処理を施す方法であって、トラッピング処理に用いるトラップ色を算出するトラップ色算出ステップと、トラッピング処理を行う領域を抽出する領域抽出ステップを有し、領域抽出ステップは高墨率処理された無彩色エッジ領域を抽出することを特徴としている。
【0036】
請求項22記載の画像処理方法は、黒色を含む複数の色材色信号で表されたカラー画像データに対してトラッピング処理を施す方法であって、トラッピング処理に用いるトラップ色を算出するトラップ色算出ステップと、トラッピング処理を行う領域を抽出する領域抽出ステップを有し、トラップ色算出ステップは、色境界部近傍ではなく、離れた場所からトラップ色を算出することを特徴としている。
【0037】
請求項23記載の画像処理方法は、請求項22記載の画像処理方法において、領域抽出ステップは、色境界部のうち、トラップ色算出ステップにおいて算出されたトラップ色と隣接する領域のみを抽出することを特徴としている。
【0038】
請求項24記載の画像処理方法は、請求項22記載の画像処理方法において、領域抽出ステップは、高墨率処理された無彩色エッジ領域を抽出し、かつ、その中でトラップ色算出ステップにおいて算出されたトラップ色と隣接する領域のみを最終的に抽出することを特徴としている。
【0039】
【発明の実施の形態】
以下、本発明の実施の形態である画像処理装置および画像処理方法について、添付図面を参照にしながら詳細に説明する。まず、第1の実施例について説明する。
【0040】
図1に本実施例の構成を示す。画像入力手段1は、カラー画像データを入力する。ここでは、CMYK4色で表される画像データを入力しているが、例えば、RGB3色で表されるカラー画像データを入力してもよく、その場合は、RGBから色材色であるCMYKに補正する色補正処理を施せばよい。
【0041】
中間調処理手段3は、後述する画像処理手段である版ずれ抑制処理手段2からの画像データをカラー画像出力手段4によって出力するために必要な画像データの少値化を行う。その方法としてディザ法、誤差拡散法など、様々な公知の方法がある。ただし、本実施例では中間調処理手段3は版ずれ抑制処理手段2の後処理であるが、中間調処理後の画像データを版ずれ抑制処理手段2に入力する構成も考えられる。
【0042】
カラー画像出力手段4は、色材色信号で表されたカラー画像信号データを紙等にカラー出力する。
【0043】
版ずれ入力手段5は、カラー画像出力手段4において予想される版ずれ予測値を生成し、版ずれ抑制処理手段2に版ずれ予測値を入力する。この版ずれ予測値は、例えば、特開2001−265084号公報「画像形成装置」に記載の方法のように、カラー画像出力手段4において、紙等に所定のテストパターンを4色で出力し、それをスキャナで読み取って版ずれ量を測定することによって算出することができる。また、特開平9−240060号公報「画像形成方法及び画像形成装置」に記載の方法のように、電子写真方式の出力装置において、紙等に出力することなく、転写ベルト上にテストパターンを作像し、光学的に読み取ることで版ずれを測定する方法もある。しかし、版ずれ量は毎回同じ値になることは稀であり、出力する度に変動があることが多いため、複数回測定しその平均値、もしくは最大値を版ずれ予測値とすることが有用である。
【0044】
また、本実施例ではカラー画像出力手段は1つであるが、複数の出力手段を備えた構成も考えられる。その場合には、例えば、インクジェット記録方式の出力手段と、電子写真方式のものとでは、版ずれ予測値が大きく異なることも考えられる。よって、各々の出力手段に対して異なる版ずれ予測値を設定し、トラッピング処理を切り換えることは非常に効果的である。その場合、特にインクジェット記録方式の場合は、版ずれ量はかなり少ないものもあり、トラッピング処理を行わないように設定することも考えられる。また、版ずれ予測値に関しても、毎回測定しなくとも、記録媒体に出力手段ごとの版ずれ予測値を保持させておいても良いし、もしくは出力手段のプロファイルを取得して、その情報から版ずれ予測値を算出する構成にしても良い。
【0045】
版ずれ抑制処理手段2は、版ずれによる画質劣化を抑制する処理をカラー画像データに施す。ここでは、トラッピング処理を用いて説明するが、それに限ったものではない。例えば、黒文字部を抽出し、K100%で再生するような処理(UCR100%かつ色消し)でも良い。以下、版ずれ抑制処理手段の動作について詳しく説明する。
【0046】
まず、カラー画像データが入力されるより前に、版ずれ入力手段5によって版ずれ予測値が入力される。ここでは、版ずれ予測値として一つの値を入力することとするが、例えば、CMYKそれぞれに対して基準の位置からのずれ量を設定しても良い。また、主走査方向と副走査方向それぞれに対して版ずれ予測値を設定することも考えられる。
【0047】
その予測値は、例えば、画素を単位として2という値が入力されたとすると、画像を出力する際には2画素分の版ずれが起こる可能性があるということを意味する。よって、2画素の版ずれが生じても、それによる画質劣化が目立たないような画像処理を施す必要がある。逆にいえば、2画素よりもさらに大きくずれる場合のことを考慮しなくても良いため必要十分な画像処理を施すことができる。
【0048】
この版ずれ予測値によって、トラッピング処理が変更される。具体的には、前述のように、トラッピング処理は、トラップ領域を指定し、そこに対して所定の色を重ねるのであるが、指定するトラップ領域の大きさを変更することにより、予測される版ずれ量に対して必要十分な処理を施すことができる。
【0049】
トラッピング処理の実施形態としては、公知の様々な方法を用いることができるが、例えば、特開2001−189849号公報「勾配ベースのトラップ方法及び装置」および前述の特許文献1等に記載されている方法がある。また、後述する実施例2、3のような方法を用いることも可能である。
【0050】
いずれにせよ、どの実施形態についてもトラップ領域に相当するものはあり、トラップ領域の大きさによって、対応できる版ずれ量が決まってくる。よって、今、版ずれ予測値として2(画素)という値が入力された場合を考えると、それに応じて処理を施すトラップ領域の大きさが2画素に設定される。
【0051】
このようにして、版ずれ予測値に応じてトラッピング処理を施す領域の大きさを変更することにより、最適な処理を施すことができる。
【0052】
次に,第2の実施例について説明する。第2の実施例は、入力されたCMYK色材色信号で表されるカラー画像データに対して、均一な色地上の黒文字に着目してトラッピング処理を行い、出力するものである。
【0053】
動作としては、図2のようにトラップ領域抽出部6によって黒文字の縁領域を抽出し、抽出された領域の色材色信号CMYをトラップ色算出部7によって算出された色CMYによって置き換える。まず、トラップ領域抽出部6について説明する。
【0054】
図3にトラップ領域抽出部6のブロック図を示す。エッジ量算出は、例えば、図4に示すようなエッジ検出フィルタマスクを用いて行い、エッジ量が所定の値より大きい場合にエッジ画素と判定し、信号1を出力する。また、高墨画素抽出は、K版の濃度が所定の値よりも高いものを高墨画素と判定し、信号1を出力する。これら2つの判定により、エッジかつ高墨画素をトラップ領域として抽出しtrap信号として1を出力する。これにより、黒文字と他の色との境界の黒文字側を抽出することができる。
【0055】
ここで、色地上の黒文字は、元々がスキャナから取り込んだ画像である場合には、完全に100%K版によって再生されているものは少なく、CMY版による黒およびK版の4色で表現されているものが多い。その中で、トラッピング処理することが可能なものは、K版の割合が大きいもののみである。したがって、K版の割合が少ない黒文字を除外するために、K版の濃度が高いという条件を用いている。よって、例えば、CMYの濃度が低いという条件を付け加えることも有用である。
【0056】
抽出するトラップ領域の大きさを変更する必要がある場合は、前記抽出されたエッジかつ高墨画素に対して膨張処理を施し、その中からエッジ、非エッジを問わず、高墨である画素のみを抽出する構成にすればよい。すなわち、膨張の大きさを変更することで、トラップ領域の大きさを変更することができる。
【0057】
トラップ色算出部7は、例えば、トラップ領域と隣接する8画素を見て、K版の濃度が所定の値より低い画素を抽出し、それらを平均して求める。また、トラップ領域近傍以外からトラップ色を算出する方法も考えられる。その方法に関しては、実施例3で後述する。
【0058】
以上のようにして、第2の実施例において、本発明の実施形態である画像処理装置は色地上の黒文字に関してトラッピング処理すべき領域を精度良く抽出し、処理することができる。
【0059】
次に、図5から図8を参照にしながら第3の実施例について説明する。
【0060】
本実施例も実施例2と同様に、均一な色地上の黒文字に対してトラッピング処理を行うものである。動作も同様に、トラップ領域抽出部6によって黒文字の縁領域を抽出し、抽出された領域の色材色信号CMYをトラップ色算出部7によって算出された色CMYによって置き換える。ただし、トラップ領域抽出部6およびトラップ色算出部7の構成が異なり、それぞれ抽出精度、算出精度が向上している。まず、トラップ領域抽出部6について説明する。
【0061】
図5にトラップ領域抽出部6のブロック図を示す。エッジかつ高墨画素抽出部は、前記実施例2におけるトラップ抽出部と同様の方法によってエッジかつ高墨画素を抽出する。
【0062】
また、色地画素抽出部は、次節で述べるトラップ色算出部7によって算出された色と注目画素を比較することによって色の近いものを色地画素として抽出している。具体的には、図6に示すように、CMYそれぞれについて色算出部により算出された色との差をとり、差の最大値max が所定の値よりも小さい場合は色地であると判定し、信号1を出力する。
【0063】
抽出されたエッジかつ高墨画素、および色地画素を用いて、色地画素と隣接しているエッジかつ高墨画素を抽出する。これにより、色地と黒エッジの境界部の黒エッジ側を精度良く抽出することができる。
【0064】
しかし、このままでは境界から1画素分しか抽出されていないため、数画素分膨張処理を施し、膨張後の画素に再度エッジかつ高墨画素という条件を課すことによって、境界から黒エッジ側への数画素のトラップ領域を抽出することができる。この際、膨張処理での膨張する大きさを変更することにより、抽出するトラップ領域の大きさを容易に変更することができる。
【0065】
次に、トラップ色算出部7について説明する。トラップ色は、本来はトラップ領域に隣接する画素の色である。しかし、エッジ部であるため、多少トラップ領域側の色が混じってしまっていることもあり、また、原稿が網点で再生されている場合を考えると、画素ごとの色のばらつきが大きい。よって、トラップ領域周囲から正確なトラップ色を算出することは難しいため、トラップ領域周囲からは算出せず、均一な色地領域を特定し、そこから算出する。
【0066】
具体的には、図7のような構成から成る。例えばM×M画素(Mは任意の自然数)のような所定の領域に対して色の変動を評価する。すなわち、CMYそれぞれに対して最大値・最小値を求め、その差を算出する。さらに3つの差のうちから最大値を算出し、所定の閾値より小さければ色地と判定し、iroji 信号1を出力する。ただし、黒文字部を誤判定するのを防ぐために、領域内にK版濃度が高い画素が含まれる場合は非色地と判定する。色地と判定された場合は、領域内の画素を平均して色地の色を算出し、トラップ色とする。
【0067】
また、原稿の左上から右下へと主走査方向へ順に入力される場合を考えると、トラップ領域抽出とは独立に、1画素ずつ、ずらして全領域で色地判定を行い、色地と判定された場合には、トラップ色を更新し、常に最新のトラップ色を保持する。
【0068】
この構成により、図8にあるような、斜め線で表す色地(例えばシアン100%)の上に黒文字が書かれている画像を処理する場合には、例えばA領域内の黒文字の縁をトラッピング処理するとすると、A領域からではなくB領域からトラップ色、すなわち色地の色を算出することで、精度の良いトラップ色を算出することができる。また前述のように、トラップ領域を抽出する際に、トラップ色に近い色の画素と隣接していることを条件としているため、トラップ領域から離れた場所でトラップ色を算出していても、間違った色を用いることがない。
【0069】
以上のような構成により、本発明の実施形態である画像処理装置は、特に均一な色地上黒文字に関して、高精度なトラッピング処理を施すことができる。
【0070】
次に、第4の実施例について説明する。
【0071】
上記実施例2、3は、均一な色地上の黒文字に着目して、黒色と他の色との境界のみに対してトラッピング処理を行う構成であったが、黒色に限らず、他の色同士の境界に対しても同様の構成が可能である。
【0072】
また、この処理は白地領域に対して行っても効果がなく、また誤判定等による画質劣化の可能性を減らす意味でも、網点領域にのみ適用するような構成にしても良い。その際、網点領域を特定するための技術としては、公知である像域分離処理等を用いることができる。例えば、電子情報通信学会論文誌「1992/1 Vol.J75−D−II No.1 pp.39−47 」に示された「文字/絵柄(網点・写真)混在画像の像域分離方式」に記載の技術等がある。
【0073】
以上のように、本発明は出力装置ごと、もしくは装置の状態に応じて、版ずれによる画質劣化を抑制するのに最適な画像処理を行うことの可能な画像処理装置を提供することができる。また、本発明は色地上の黒文字と色地の境界に対して精度良くトラッピング処理を行うことの可能な画像処理装置を提供することができる。
【0074】
【発明の効果】
請求項1記載の画像処理装置は、入力されたカラー画像データに処理を施すことで、カラー画像出力装置に供給するためのデータを作成する画像処理装置であり、カラー画像出力装置によりカラー画像を出力する際に生じる、版ずれ予測値を入力する版ずれ入力手段を有し、版ずれ入力手段により入力された版ずれ予測値に応じて、異なった画像処理を行うことを特徴としているので、版ずれ量に対して必要十分な、版ずれによる画質劣化を抑制できる。
【0075】
請求項2記載の画像処理装置は、請求項1記載の画像処理装置において、版ずれに起因する白抜けの発生を抑制する画像処理であるトラッピング処理を行う際版ずれ入力手段により入力された版ずれ予測値に応じて、トラッピング処理を行う領域の大きさを変更することを特徴としているので、版ずれ量に対して必要十分なトラッピング処理を行うことができる。
【0076】
請求項3記載の画像処理装置は、請求項2記載の画像処理装置において、入力されるカラー画像データは、黒色を含む複数の色材色信号で表されたカラー画像データであり、トラッピング処理に用いるトラップ色を算出するトラップ色算出手段と、トラッピング処理を行う領域を抽出する領域抽出手段とを有し、領域抽出手段は、高墨率処理された無彩色エッジ領域を抽出することを特徴としているので、均一な色地上の黒文字の縁を精度良く抽出して、トラッピング処理を行うことができる。
【0077】
請求項4記載の画像処理装置は、請求項2記載の画像処理装置において、入力されるカラー画像データは、黒色を含む複数の色材色信号で表されたカラー画像データであり、トラッピング処理に用いるトラップ色を算出するトラップ色算出手段と、トラッピング処理を行う領域を抽出する領域抽出手段とを有し、トラップ色算出手段は、色境界部近傍ではなく、離れた場所からトラップ色を算出することを特徴としているので、精度良く算出できる。
【0078】
請求項5記載の画像処理装置は、請求項4記載の画像処理装置において、領域抽出手段は、色境界部のうち、トラップ色算出手段により算出されたトラップ色と隣接する領域のみを抽出することを特徴としているので、トラッピング処理を行う箇所を精度良く抽出でき、間違ったトラップ色を重ねることを防ぐことができる。
【0079】
請求項6記載の画像処理装置は、請求項2記載の画像処理装置において、領域抽出手段は、高墨率処理された無彩色エッジ領域を抽出し、かつ、その中でトラップ色算出手段により算出されたトラップ色と隣接する領域のみを最終的に抽出することを特徴としているので、均一な色地上の黒文字の縁を精度良く抽出できトラップ色を精度良く算出でき、間違ったトラップ色を重ねることを防ぐことができる。
【0080】
請求項7記載の画像処理装置は、請求項1から6のいずれか1項に記載の画像処理装置において、複数のカラー画像出力装置にカラー画像データを供給し、前記版ずれ入力手段によって入力される版ずれ予測値は、複数のカラー画像出力装置ごとに設定することを特徴としているので、出力装置により異なる版ずれ量に対して処理を切り換えて、必要十分なトラッピング処理を行うことができる。
【0081】
請求項8記載の画像処理装置は、請求項1から7のいずれか1項に記載の画像処理装置において、さらに画像データを供給する出力装置の版ずれを測定する測定手段を有し、測定手段による測定結果を、版ずれ入力手段により版ずれ予測値として入力することを特徴としているので、実際の測定数値を使用できる。
【0082】
請求項9記載の画像処理装置は、請求項2から8のいずれか1項に記載の画像処理装置において、複数のカラー画像出力装置にカラー画像データを供給し、カラー画像出力装置がインクジェット方式であった場合には、特有のトラッピング処理を行うことを特徴としているので、インクジェットに合わせたトラッピング処理を行うことができる。
【0083】
請求項10記載の画像処理装置は、請求項9記載の画像処理装置において、出力装置がインクジェット記録装置であった場合に、トラッピング処理を行わないことを特徴としているので、版ずれの少ないインクジェット記録装置に対して余分な処理を行わないことができる。
【0084】
請求項11記載の画像処理装置は、黒色を含む複数の色材色信号で表された前記カラー画像データに対して前記トラッピング処理を施す画像処理装置であってトラッピング処理に用いるトラップ色を算出するトラップ色算出手段と、トラッピング処理を行う領域を抽出する領域抽出手段を有し、領域抽出手段は、高墨率処理された無彩色エッジ領域を精度良く抽出し、トラッピング処理を行うことを特徴としているので、均一な色地上の黒文字の縁を精度良く抽出して、トラッピング処理を行うことができる。
【0085】
請求項12記載の画像処理装置は、黒色を含む複数の色材色信号で表されたカラー画像データに対してトラッピング処理を施す画像処理装置であって、トラッピング処理に用いるトラップ色を算出するトラップ色算出手段と、トラッピング処理を行う領域を抽出する領域抽出手段を有し、トラップ色算出手段は、前記色境界部近傍ではなく、離れた場所からトラップ色を精度良く算出することを特徴としているので、精度良く算出できる。
【0086】
請求項13記載の画像処理装置は、請求項12記載の画像処理装置において、前記領域抽出手段は、色境界部のうち、前記トラップ色算出手段により算出されたトラッピング処理を行う箇所のトラップ色と隣接する領域のみを精度良く抽出し、間違ったトラップ色を重ねることを防ぐことを特徴としているので、トラッピング処理を行う箇所を精度良く抽出でき、間違ったトラップ色を重ねることを防ぐことができる。
【0087】
請求項14記載の画像処理装置は、請求項12記載の画像処理装置において、領域抽出手段は、高墨率処理された無彩色エッジ領域を抽出し、かつ、その中でトラップ色算出手段により、トラッピング処理で用いるトラップ色を精度良く算出し、算出されたトラップ色と隣接する領域のみを最終的に抽出し、間違ったトラップ色を重ねるのを防ぐことを特徴としているとしているので、均一な色地上の黒文字の縁を精度良く抽出でき、トラップ色を精度良く算出でき、間違ったトラップ色を重ねることを防ぐことができる。
【0088】
請求項15記載の画像処理装置は、請求項3、6、11、14のいずれか1項に記載の画像処理装置において、高墨率処理された無彩色エッジ領域は、黒色信号が高濃度であり、かつエッジであると判定された領域であることを特徴としているので、高墨率処理された無彩色エッジ領域を高精度に抽出する。
【0089】
請求項16記載の画像処理装置は、請求項2から15のいずれか1項に記載の画像処理装置において、カラー画像中の網点領域にのみトラッピング処理を施すことを特徴としているので、他の場所で誤って処理するのを防ぐことができる。
【0090】
請求項17記載の画像処理装置は、請求項3から16のいずれか1項に記載の画像処理装置において、色材色信号は、インクジェット記録装置に用いられるインク色信号であることを特徴としているので、インクジェット記録装置に適用することができる。
【0091】
請求項18記載の画像処理装置は、請求項3から16のいずれか1項に記載の画像処理装置において、色材色信号は、電子写真方式の画像形成装置に用いられるトナー色信号であることを特徴としているので、電子写真方式の記録装置に適用することができる。
【0092】
請求項19記載の画像処理方法は、入力されたカラー画像データに処理を施すことで、カラー画像出力装置に供給するためのデータを作成する画像処理方法であって、前記出力方法によりカラー画像を出力する際に生じる、版ずれの予測値を入力する版ずれ入力ステップを有し、版ずれ入力ステップにより入力された版ずれ予測値に応じて、異なる画像処理を施すことを特徴としているので、版ずれ量に対して必要十分な、版ずれによる画質劣化を抑制できる。
【0093】
請求項20記載の画像処理方法は、請求項19記載の画像処理において、画像処理は、版ずれに起因する白抜けの発生を抑制するトラッピング処理であり、版ずれ入力ステップにより入力された版ずれ予測値に応じて、トラッピング処理を行う領域の大きさを変更することを特徴としているので、版ずれ量に対して必要十分なトラッピング処理を行うことができる。
【0094】
請求項21記載の画像処理方法は、黒色を含む複数の色材色信号で表されたカラー画像データに対してトラッピング処理を施す方法であって、トラッピング処理に用いるトラップ色を算出するトラップ色算出ステップと、トラッピング処理を行う領域を抽出する領域抽出ステップを有し、領域抽出ステップは高墨率処理された無彩色エッジ領域を抽出することを特徴としているので、均一な色地上の黒文字の縁を精度良く抽出して、トラッピング処理を行うことができる。
【0095】
請求項22記載の画像処理方法は、黒色を含む複数の色材色信号で表されたカラー画像データに対してトラッピング処理を施す方法であって、トラッピング処理に用いるトラップ色を算出するトラップ色算出ステップと、トラッピング処理を行う領域を抽出する領域抽出ステップを有し、トラップ色算出ステップは、色境界部近傍ではなく、離れた場所からトラップ色を算出することを特徴としているので、精度良く算出できる。
【0096】
請求項23記載の画像処理方法は、請求項22記載の画像処理方法において、領域抽出ステップは、色境界部のうち、トラップ色算出ステップにおいて算出されたトラップ色と隣接する領域のみを抽出することを特徴としているので、トラッピング処理を行う箇所を精度良く抽出でき、間違ったトラップ色を重ねることを防ぐことができる。
【0097】
請求項24記載の画像処理方法は、請求項22記載の画像処理方法において、領域抽出ステップは、高墨率処理された無彩色エッジ領域を抽出し、かつ、その中でトラップ色算出ステップにおいて算出されたトラップ色と隣接する領域のみを最終的に抽出することを特徴としているので、均一な色地上の黒文字の縁を精度良く抽出でき、トラップ色を精度良く算出でき、間違ったトラップ色を重ねることを防ぐことができる。
【図面の簡単な説明】
【図1】本発明の実施の形態である画像処理装置の構成を示すブロック図である。
【図2】本発明の画像処理装置におけるトラッピング処理の動作を示す説明図である。
【図3】実施例2におけるトラップ領域抽出部の構成を示すブロック図である。
【図4】実施例2におけるエッジ量算出を示す説明図である。
【図5】実施例3におけるトラップ領域抽出部の構成を示すブロック図である。
【図6】色地画素抽出部における処理動作を示す図である。
【図7】トラップ色算出部の構成を示すブロック図である。
【図8】トラップ色算出部が画像処理を行う画像の一例を示す図である。
【図9】版ずれによる白抜けを示す説明図である。
【図10】トラッピング技術におけるスプレッド技術の説明図である。
【図11】トラッピング技術におけるチョーク技術の説明図である。
【符号の説明】
1 画像入力手段
2 版ずれ抑制処理手段
3 中間調処理手段
4 カラー画像処理手段
5 版ずれ入力手段
6 トラップ領域抽出部
7 トラップ色算出部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus and an image processing method for correcting misregistration of a color image output.
[0002]
[Prior art]
Printing of a color image is generally performed by superimposing a plurality of color components (usually, four colors of C (cyan), M (magenta), Y (yellow), and K (black)). For example, in color image printing based on the electrophotographic method, printing is performed on output paper using a toner of one of the CMYK first color components, and then superimposed using toner of a second color component. The image is printed on the output sheet, and similarly printed on the output sheet using the toners of the third and fourth color components. Also in the color image printing based on the ink jet recording method, the four color components of CMYK are printed on the superposed paper. When printing a color image by superimposing a plurality of color components as described above, the position of an image printed by each of the plurality of color components on one output sheet may be shifted. This phenomenon is called misregistration.
[0003]
The misregistration causes various deteriorations in image quality of a printed color image. One of them is white spots at color boundaries.
[0004]
FIG. 9 is a diagram illustrating white spots due to misregistration. As shown in FIG. 9A, two areas A and B that are originally in contact at the boundary Z are considered. The CMYK halftone dot area ratio of each pixel is represented by (C (%), M (%), Y (%), K (%)), and the color of one area A is (100, 0, 0, 0). ), And the color of the other area B is (0, 0, 60, 0). When a misregistration occurs between the cyan image and the yellow image, the colors of the area A and the area B overlap each other and the color is (100, 0, 60, 0) as shown in FIG. A certain area C is generated, and a white area D whose color is (0, 0, 0, 0) is generated. The phenomenon in which the white area D occurs is called white spots. When white spots occur due to such misregistration, the quality of a color image printed on output paper becomes poor.
[0005]
Therefore, as one of means for suppressing the occurrence of white spots due to misregistration, performing trapping processing has been proposed (see, for example, Patent Literature 3, Patent Literature 4, and Patent Literature 5). 10 and 11 are diagrams illustrating a conventional trapping technique.
[0006]
In FIG. 10A, the trap area A1 is designated around the area B corresponding to the foreground object (the area A outside the boundary Z) among the two areas A and B which are originally in contact with the boundary Z. The color of the trap area A1 is set to a color (100, 0, 60, 0) obtained by superimposing the colors of the original area A and the area B. This technique is called spread. At this time, if a misregistration occurs between the cyan image and the yellow image, as shown in FIG. 10B, the shape of the trap area A1 changes, but no white spot occurs.
[0007]
On the other hand, in FIG. 11A, the trap area B1 is designated around the area A corresponding to the background (the area B inside the boundary Z) among the two areas A and B which are originally in contact with the boundary Z. Then, the color of the trap region B1 is set to a color (100, 0, 60, 0) obtained by superimposing the colors of the original region A and the original region B. This technique is called chalk. At this time, if a misregistration occurs between the cyan image and the yellow image, as shown in FIG. 11B, the shape of the trap region B1 changes, but no white spot occurs. In addition to the trapping process, for example, as a process for preventing image quality deterioration such as coloring of black characters due to misregistration, a black character portion on a white background is determined, and reproduction and achromatization at 100% of the K plate are performed. There is black character processing. By this black character processing, black characters on a white background are reproduced in one color of the K plane, and are not affected by misregistration.
[0008]
Further, as a prior art example, there is a technique in which a trapping process is performed on a black edge and a certain CMY is overlapped on a black non-edge (for example, see Patent Document 1). Further, there is a type in which black or color is expanded at the boundary between colors (see, for example, Patent Document 2).
[0009]
[Patent Document 1]
JP-A-2002-165104 (pages 1-3, FIG. 4)
[Patent Document 2]
Japanese Patent No. 0307501 (page 1-2, FIG. 2)
[Patent Document 3]
JP-A-11-34406 (pages 1-4, FIG. 3)
[Patent Document 4]
JP-A-2000-106628 (pages 1-4, FIG. 5)
[Patent Document 5]
JP-A-2000-165693 (pages 1 to 6, FIG. 2)
[0010]
[Problems to be solved by the invention]
However, the degree of misregistration causing white spots or the like greatly varies depending on the state of a device that prints a color image. When data can be supplied to a plurality of output devices, the misregistration amount usually differs for each device. For example, in general, the amount of misregistration differs between an inkjet recording apparatus and an electrophotographic recording apparatus, and the manner of misregistration also differs. While the electrophotographic method tends to shift in the entire plate, the ink jet is caused by a shift for each nozzle, and thus the shift amount may differ for each part. Further, even if the same electrophotographic method is used, the four-drum type, which is compatible with high-speed writing, and the conventional one-drum type, tend to have larger misregistration.
[0011]
Therefore, it is necessary to switch processing for suppressing image quality deterioration due to misregistration in accordance with each of the above-described methods. For example, in trapping processing, it is necessary to optimize the size of the trap area, etc. There was no such technology.
[0012]
In addition, since white spots are particularly likely to occur around black characters on the color ground, it is effective to extract that part and perform trapping processing.However, since the color ground is usually reproduced by halftone dots, it is microscopic. When viewed, there are various colors, and it was difficult to calculate the trap color accurately from a limited area around black characters. In addition, it has been difficult to accurately extract a portion to be subjected to a trapping process with respect to a black character on a color ground.
[0013]
In view of the above, it is an object of the present invention to provide an image processing method optimal for suppressing image quality deterioration due to misregistration for each output device or according to the state of the device, and an image processing apparatus that performs the method. Aim.
[0014]
Another object of the present invention is to provide an image processing method and an image processing apparatus capable of performing a trapping process with high accuracy, particularly for a boundary between a black character on a color ground and a color ground. I do.
[0015]
[Means for Solving the Problems]
In order to achieve the object, an image processing apparatus according to claim 1 is an image processing apparatus that creates data to be supplied to a color image output device by performing processing on input color image data, When a color image is output by a color image output device, the apparatus has a misregistration input unit for inputting a misregistration prediction value, and according to the misregistration prediction value input by the misregistration input unit, It is characterized by performing different image processing that suppresses image quality deterioration due to misregistration.
[0016]
In the image processing apparatus according to the second aspect, the image processing apparatus according to the first aspect performs a trapping process which is an image process for suppressing the occurrence of white spots due to the misregistration. Is input, a necessary and sufficient trapping process is performed on the misregistration amount, and the size of the region where the trapping process is performed is changed.
[0017]
According to a third aspect of the present invention, in the image processing apparatus according to the second aspect, the input color image data is color image data represented by a plurality of color material color signals including black. A trap color calculating unit for calculating a trap color to be used; and a region extracting unit for extracting a region to be subjected to a trapping process, wherein the region extracting unit extracts an achromatic edge region subjected to a high black ratio process. .
[0018]
According to a fourth aspect of the present invention, in the image processing apparatus according to the second aspect, the input color image data is color image data represented by a plurality of color material color signals including black. A trap color calculating unit that calculates a trap color to be used; and a region extracting unit that extracts a region to be subjected to a trapping process. The trap color calculating unit calculates the trap color not from near the color boundary but from a distant place. It is characterized by:
[0019]
According to a fifth aspect of the present invention, in the image processing apparatus of the fourth aspect, the area extracting unit extracts only an area adjacent to the trap color calculated by the trap color calculating unit from the color boundary part. It is characterized by.
[0020]
According to a sixth aspect of the present invention, in the image processing apparatus of the second aspect, the area extracting means extracts the achromatic edge area subjected to the high black ratio processing, and calculates the achromatic edge area therein by the trap color calculating means. Only the region adjacent to the trap color thus extracted is finally extracted.
[0021]
According to a seventh aspect of the present invention, in the image processing apparatus according to any one of the first to sixth aspects, the image processing apparatus supplies color image data to a plurality of color image output apparatuses and receives the color image data from the color misregistration input unit. By setting the misregistration prediction value for each of a plurality of color image output devices, the processing is switched for different misregistration amounts depending on the output device, and a necessary and sufficient trapping process is performed.
[0022]
An image processing apparatus according to claim 8, further comprising a measurement unit configured to measure a misregistration of an output device that supplies image data, in the image processing device according to any one of claims 1 to 7, Is used to measure the actual misregistration of the output device, and the measurement result is input as a misregistration predicted value by the misregistration input means.
[0023]
An image processing apparatus according to a ninth aspect is the image processing apparatus according to any one of the second to eighth aspects, wherein the color image data is supplied to a plurality of color image output apparatuses, and the color image output apparatus is an inkjet system. If there is, a trapping process peculiar to the ink jet is performed.
[0024]
The image processing apparatus according to claim 10 is the image processing apparatus according to claim 9, wherein the trapping process is not performed when the output device is an ink jet recording apparatus, so that the ink jet recording apparatus with little misregistration is used. It is characterized in that extra processing is not performed.
[0025]
12. The image processing apparatus according to claim 11, wherein the image processing apparatus performs the trapping process on the color image data represented by a plurality of color material color signals including black, and calculates a trap color used for the trapping process. It has a trap color calculating means and an area extracting means for extracting an area for performing trapping processing, and the area extracting means accurately extracts an achromatic edge area which is an edge of a black character on a uniform color ground on which high black ratio processing has been performed. Then, a trapping process is performed.
[0026]
13. The image processing apparatus according to claim 12, wherein the image processing apparatus performs a trapping process on color image data represented by a plurality of color material color signals including black, and calculates a trap color used for the trapping process. It has a color calculating means and an area extracting means for extracting an area for performing a trapping process, and the trap color calculating means accurately calculates a trap color from a distant place, not near the color boundary. .
[0027]
The image processing apparatus according to claim 13 is the image processing apparatus according to claim 12, wherein the area extracting unit is configured to detect a trap color at a portion where a trapping process calculated by the trap color calculating unit is performed in a color boundary portion. It is characterized in that only adjacent areas are extracted with high accuracy, and overlapping of wrong trap colors is prevented.
[0028]
The image processing apparatus according to claim 14 is the image processing apparatus according to claim 12, wherein the area extracting means extracts an achromatic edge area which is an edge of a black character on a uniform color ground on which high black ratio processing has been performed, and Among them, the trap color calculating means accurately calculates the trap color used in the trapping process, and finally extracts only the area adjacent to the calculated trap color to prevent the wrong trap color from being overlapped. Features.
[0029]
The image processing apparatus according to claim 15 is the image processing apparatus according to any one of claims 3, 6, 11, and 14, wherein the achromatic edge area subjected to the high black ratio processing has a high density black signal. It is characterized in that an achromatic edge region that has been subjected to high black ratio processing is extracted with high accuracy under the condition that it is present and that it is an edge.
[0030]
The image processing device according to claim 16 is the image processing device according to any one of claims 2 to 15, wherein the trapping process is performed only on the halftone dot region in the color image, so that the image processing device erroneously obtains the image at another place. It is characterized by preventing processing.
[0031]
An image processing device according to a seventeenth aspect is the image processing device according to any one of the third to sixteenth aspects, wherein the color material color signal is an ink color signal used in an ink jet recording apparatus. .
[0032]
The image processing apparatus according to claim 18 is the image processing apparatus according to any one of claims 3 to 16, wherein the color material color signal is a toner color signal used in an electrophotographic image forming apparatus. It is characterized by.
[0033]
20. The image processing method according to claim 19, wherein the input color image data is processed to generate data to be supplied to a color image output device. It has a misregistration input step for inputting a misregistration predicted value generated at the time of output, and performs different image processing according to the misregistration predicted value input in the misregistration input step.
[0034]
According to a twentieth aspect of the present invention, in the image processing method according to the twelfth aspect, the image processing is a trapping process for suppressing the occurrence of white spots due to the misregistration, and the misregistration input in the misregistration input step. It is characterized in that the size of the region for performing the trapping process is changed according to the predicted value.
[0035]
22. The image processing method according to claim 21, wherein a trapping process is performed on color image data represented by a plurality of color material color signals including black, wherein a trap color used for the trapping process is calculated. And an area extracting step of extracting an area to be subjected to trapping processing. The area extracting step is characterized by extracting an achromatic edge area subjected to high black ratio processing.
[0036]
23. The image processing method according to claim 22, wherein a trapping process is performed on color image data represented by a plurality of color material color signals including black, wherein a trap color used for the trapping process is calculated. And a region extraction step of extracting a region for performing trapping processing. The trap color calculation step is characterized in that the trap color is calculated not from near the color boundary but from a distant place.
[0037]
According to a twenty-third aspect of the present invention, in the image processing method according to the twenty-second aspect, the area extracting step extracts only an area of the color boundary portion that is adjacent to the trap color calculated in the trap color calculating step. It is characterized by.
[0038]
An image processing method according to a twenty-fourth aspect is the image processing method according to the twenty-second aspect, wherein the area extracting step extracts an achromatic edge area subjected to high black ratio processing, and calculates the achromatic edge area therein in the trap color calculating step. Only the region adjacent to the trap color thus extracted is finally extracted.
[0039]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an image processing apparatus and an image processing method according to embodiments of the present invention will be described in detail with reference to the accompanying drawings. First, a first embodiment will be described.
[0040]
FIG. 1 shows the configuration of the present embodiment. The image input unit 1 inputs color image data. Here, the image data represented by four colors of CMYK is input. However, for example, color image data represented by three colors of RGB may be input. In that case, the correction is performed from RGB to CMYK which is the color material color. Color correction processing to be performed.
[0041]
The halftone processing means 3 reduces the value of image data necessary for outputting the image data from the misregistration suppression processing means 2 which is an image processing means to be described later by the color image output means 4. There are various known methods such as a dither method and an error diffusion method. However, in the present embodiment, the halftone processing means 3 is a post-processing of the misregistration suppression processing means 2, but a configuration in which the image data after the halftone processing is input to the misregistration suppression processing means 2 is also conceivable.
[0042]
The color image output means 4 outputs color image signal data represented by a color material color signal in color on paper or the like.
[0043]
The misregistration input unit 5 generates a misregistration prediction value expected by the color image output unit 4 and inputs the misregistration prediction value to the misregistration suppression processing unit 2. The color misregistration prediction value is obtained by, for example, outputting a predetermined test pattern in four colors on paper or the like in the color image output unit 4 as in the method described in JP-A-2001-265084, “Image forming apparatus”. It can be calculated by reading it with a scanner and measuring the amount of misregistration. Further, as in the method described in Japanese Patent Application Laid-Open No. 9-240060, “Image Forming Method and Image Forming Apparatus”, a test pattern is formed on a transfer belt without outputting to paper or the like in an electrophotographic output device. There is also a method of measuring the misregistration by imaging and optically reading. However, the misregistration amount rarely becomes the same value every time, and often fluctuates each time it is output. Therefore, it is useful to measure a plurality of times and use the average value or the maximum value as the misregistration prediction value. It is.
[0044]
In this embodiment, the number of color image output units is one, but a configuration including a plurality of output units is also conceivable. In that case, for example, it is conceivable that the misregistration predicted value is largely different between the output means of the ink jet recording method and the output means of the electrophotographic method. Therefore, it is very effective to set a different misregistration prediction value for each output unit and switch the trapping process. In this case, especially in the case of the ink jet recording method, the misregistration amount is considerably small, and it may be possible to set such that the trapping process is not performed. Also, regarding the misregistration predicted value, the recording medium may hold the misregistration predicted value for each output unit on the recording medium without measuring each time, or a profile of the output unit may be acquired, and the It may be configured to calculate a deviation prediction value.
[0045]
The misregistration suppression processing means 2 performs a process for suppressing image quality deterioration due to misregistration on color image data. Here, a description will be given using a trapping process, but the present invention is not limited to this. For example, a process of extracting a black character portion and reproducing it at K 100% (UCR 100% and color erasure) may be used. Hereinafter, the operation of the misregistration suppression processing means will be described in detail.
[0046]
First, before the color image data is input, the misregistration predicted value is inputted by the misregistration input means 5. Here, one value is input as the misregistration prediction value. However, for example, the deviation amount from the reference position may be set for each of CMYK. It is also conceivable to set a misregistration prediction value for each of the main scanning direction and the sub-scanning direction.
[0047]
The predicted value means that, for example, if a value of 2 is input in units of pixels, when outputting an image, a misregistration of two pixels may occur. Therefore, it is necessary to perform image processing such that even if a two-pixel misregistration occurs, the image quality deterioration due to the misregistration is not conspicuous. Conversely, since there is no need to consider the case where the displacement is larger than two pixels, necessary and sufficient image processing can be performed.
[0048]
The trapping process is changed according to the misregistration prediction value. Specifically, as described above, in the trapping process, a trap area is specified and a predetermined color is superimposed on the trap area. However, by changing the size of the specified trap area, the predicted version is changed. Necessary and sufficient processing can be performed on the shift amount.
[0049]
Various known methods can be used as an embodiment of the trapping process. For example, Japanese Patent Application Laid-Open No. 2001-189849 “Gradient-based trapping method and device” and the aforementioned Patent Document 1 and the like are described. There is a way. Further, it is also possible to use a method as described in Examples 2 and 3 described later.
[0050]
In any case, any of the embodiments corresponds to a trap region, and the size of the trap region determines a corresponding misregistration amount. Therefore, considering the case where a value of 2 (pixels) is input as the misregistration prediction value, the size of the trap region to be processed is set to 2 pixels.
[0051]
In this way, by changing the size of the region to be subjected to the trapping process according to the misregistration prediction value, it is possible to perform the optimum process.
[0052]
Next, a second embodiment will be described. In the second embodiment, a trapping process is performed on color image data represented by an input CMYK color material color signal while paying attention to black characters on a uniform color ground, and output.
[0053]
As the operation, as shown in FIG. 2, the edge region of the black character is extracted by the trap region extraction unit 6, and the color material color signal CMY of the extracted region is replaced by the color CMY calculated by the trap color calculation unit 7. First, the trap region extraction unit 6 will be described.
[0054]
FIG. 3 shows a block diagram of the trap region extraction unit 6. The edge amount calculation is performed using, for example, an edge detection filter mask as shown in FIG. 4, and when the edge amount is larger than a predetermined value, the pixel is determined to be an edge pixel and a signal 1 is output. In the high black pixel extraction, a black pixel having a density higher than a predetermined value is determined as a high black pixel, and a signal 1 is output. By these two determinations, an edge and high black pixels are extracted as a trap region, and 1 is output as a trap signal. Thereby, the black character side of the boundary between the black character and another color can be extracted.
[0055]
Here, the black characters on the color ground are rarely completely reproduced by the 100% K plate when the image is originally an image taken from the scanner, and are expressed by the four colors of black by the CMY plate and the K plate. There are many things. Among them, only those having a large K-plate ratio can be subjected to the trapping process. Therefore, the condition that the density of the K plate is high is used in order to exclude black characters having a small ratio of the K plate. Therefore, for example, it is also useful to add a condition that the concentration of CMY is low.
[0056]
If it is necessary to change the size of the trap region to be extracted, the extracted edge and the high black pixel are subjected to expansion processing, and only the pixels that are high black are subjected to the edge processing, regardless of the edge or non-edge. May be extracted. That is, the size of the trap region can be changed by changing the size of the expansion.
[0057]
The trap color calculation unit 7 looks at, for example, eight pixels adjacent to the trap region, extracts pixels having a density of the K plane lower than a predetermined value, and averages them. Further, a method of calculating a trap color from a position other than the vicinity of the trap region is also conceivable. The method will be described later in a third embodiment.
[0058]
As described above, in the second embodiment, the image processing apparatus according to the embodiment of the present invention can accurately extract and process an area to be subjected to trapping processing for black characters on a color ground.
[0059]
Next, a third embodiment will be described with reference to FIGS.
[0060]
In this embodiment, as in the second embodiment, a trapping process is performed on black characters on a uniform color ground. Similarly, in the operation, the trap region extracting unit 6 extracts the edge region of the black character, and replaces the color material color signal CMY of the extracted region with the color CMY calculated by the trap color calculating unit 7. However, the configurations of the trap region extraction unit 6 and the trap color calculation unit 7 are different, and the extraction accuracy and calculation accuracy are respectively improved. First, the trap region extraction unit 6 will be described.
[0061]
FIG. 5 is a block diagram of the trap region extracting unit 6. The edge and high black pixel extracting unit extracts the edge and high black pixels by the same method as the trap extracting unit in the second embodiment.
[0062]
In addition, the color ground pixel extracting unit compares the color calculated by the trap color calculating unit 7 described in the next section with the target pixel, and extracts a pixel having a similar color as a color ground pixel. Specifically, as shown in FIG. 6, a difference between the color calculated by the color calculation unit for each of CMY is obtained, and when the maximum value max of the difference is smaller than a predetermined value, it is determined that the color is a color background. , And outputs signal 1.
[0063]
Using the extracted edge, high black pixel, and color ground pixel, an edge and high black pixel adjacent to the color ground pixel are extracted. As a result, the black edge side of the boundary between the color ground and the black edge can be accurately extracted.
[0064]
However, since only one pixel is extracted from the boundary in this state, expansion processing is performed for several pixels, and the expanded pixel is again subjected to the condition of an edge and a high black pixel, whereby the number of pixels from the boundary to the black edge side is increased. The trap region of the pixel can be extracted. At this time, the size of the trap region to be extracted can be easily changed by changing the size of expansion in the expansion process.
[0065]
Next, the trap color calculator 7 will be described. The trap color is originally the color of a pixel adjacent to the trap region. However, because of the edge portion, the colors on the trap region side may be mixed slightly, and when the original is reproduced with halftone dots, the color variation between pixels is large. Therefore, since it is difficult to calculate an accurate trap color from around the trap region, a uniform color ground region is specified and calculated from the region without calculating from the periphery of the trap region.
[0066]
Specifically, it is configured as shown in FIG. For example, color variation is evaluated for a predetermined area such as M × M pixels (M is an arbitrary natural number). That is, the maximum value / minimum value is obtained for each of CMY, and the difference is calculated. Further, a maximum value is calculated from the three differences. If the difference is smaller than a predetermined threshold value, it is determined that the image is a color background, and an iroji signal 1 is output. However, in order to prevent erroneous determination of a black character portion, when a pixel having a high K plane density is included in the area, it is determined to be a non-colored background. If it is determined that the color is a color ground, the color of the color ground is calculated by averaging the pixels in the area, and the calculated color is used as the trap color.
[0067]
Considering a case where a document is sequentially input from the upper left to the lower right in the main scanning direction, independent of the trap area extraction, the entire area is shifted by one pixel at a time to determine the color background, and is determined to be a color background. In this case, the trap color is updated, and the latest trap color is always held.
[0068]
With this configuration, when processing an image in which a black character is written on a color ground (for example, cyan 100%) represented by an oblique line as shown in FIG. 8, for example, the edge of the black character in the A region is trapped. When the processing is performed, the trap color, that is, the color of the color ground is calculated not from the area A but from the area B, so that the trap color with high accuracy can be calculated. Also, as described above, when extracting a trap region, it is assumed that the pixel is adjacent to a pixel having a color close to the trap color. Color is not used.
[0069]
With the above-described configuration, the image processing apparatus according to the embodiment of the present invention can perform high-precision trapping processing particularly on black characters on a uniform color ground.
[0070]
Next, a fourth embodiment will be described.
[0071]
In the second and third embodiments, the trapping process is performed only on the boundary between the black color and the other color by focusing on the black character on the uniform color ground. The same configuration can be applied to the boundary of.
[0072]
Further, this processing has no effect even if it is performed on a white background area, and may be configured to be applied only to a halftone dot area in order to reduce the possibility of image quality deterioration due to erroneous determination or the like. At this time, as a technique for specifying the halftone dot area, a known image area separation process or the like can be used. For example, “Image area separation method for mixed images of characters / patterns (dots / photos)” described in IEICE Transactions, “1992/1 Vol. J75-D-II No. 1 pp. 39-47”. And the like.
[0073]
As described above, the present invention can provide an image processing apparatus capable of performing optimal image processing for suppressing image quality deterioration due to misregistration for each output device or according to the state of the device. Further, the present invention can provide an image processing apparatus capable of accurately performing a trapping process on a boundary between a black character on a color ground and a color ground.
[0074]
【The invention's effect】
An image processing apparatus according to claim 1 is an image processing apparatus that creates data to be supplied to a color image output device by performing processing on input color image data. Since it has a misregistration input means for inputting a misregistration prediction value generated when outputting, and according to the misregistration prediction value input by the misregistration input means, it is characterized by performing different image processing, Image quality deterioration due to misregistration, which is necessary and sufficient for the misregistration amount, can be suppressed.
[0075]
According to a second aspect of the present invention, there is provided the image processing apparatus according to the first aspect, wherein the image input by the misregistration input means when performing a trapping process which is an image process for suppressing the occurrence of white spots due to misregistration. The feature is that the size of the region for performing the trapping process is changed according to the predicted displacement value, so that the necessary and sufficient trapping process can be performed on the misregistration amount.
[0076]
According to a third aspect of the present invention, in the image processing apparatus according to the second aspect, the input color image data is color image data represented by a plurality of color material color signals including black. A trap color calculating unit for calculating a trap color to be used; and a region extracting unit for extracting a region for performing a trapping process, wherein the region extracting unit extracts an achromatic color edge region subjected to a high black ratio process. Therefore, the edges of black characters on a uniform color ground can be accurately extracted and trapping processing can be performed.
[0077]
According to a fourth aspect of the present invention, in the image processing apparatus according to the second aspect, the input color image data is color image data represented by a plurality of color material color signals including black. A trap color calculating unit that calculates a trap color to be used; and a region extracting unit that extracts a region to be subjected to a trapping process. The trap color calculating unit calculates the trap color not from near the color boundary but from a distant place. Since it is characterized in that it can be calculated with high accuracy.
[0078]
According to a fifth aspect of the present invention, in the image processing apparatus of the fourth aspect, the area extracting unit extracts only an area adjacent to the trap color calculated by the trap color calculating unit from the color boundary part. Therefore, it is possible to accurately extract a portion to be subjected to the trapping process, and prevent a wrong trap color from being overlapped.
[0079]
According to a sixth aspect of the present invention, in the image processing apparatus of the second aspect, the area extracting means extracts the achromatic edge area subjected to the high black ratio processing, and calculates the achromatic edge area therein by the trap color calculating means. The feature is that only the area adjacent to the trap color that has been extracted is finally extracted, so that the edges of black characters on the uniform color ground can be extracted accurately, the trap color can be calculated accurately, and the wrong trap color can be overlaid. Can be prevented.
[0080]
According to a seventh aspect of the present invention, in the image processing apparatus according to any one of the first to sixth aspects, the image processing apparatus supplies color image data to a plurality of color image output apparatuses and receives the color image data from the color misregistration input unit. Since the misregistration prediction value is set for each of a plurality of color image output devices, the processing can be switched for different misregistration amounts depending on the output device, and a necessary and sufficient trapping process can be performed.
[0081]
An image processing apparatus according to claim 8, further comprising a measurement unit configured to measure a misregistration of an output device that supplies image data, in the image processing device according to any one of claims 1 to 7, Is input as a misregistration prediction value by the misregistration input means, so that actual measured values can be used.
[0082]
An image processing apparatus according to a ninth aspect is the image processing apparatus according to any one of the second to eighth aspects, wherein the color image data is supplied to a plurality of color image output apparatuses, and the color image output apparatus is an inkjet system. If there is, a characteristic trapping process is performed, so that a trapping process suitable for inkjet can be performed.
[0083]
According to a tenth aspect of the present invention, in the image processing apparatus of the ninth aspect, when the output device is an ink jet recording device, the trapping process is not performed. No extra processing can be performed on the device.
[0084]
12. The image processing device according to claim 11, wherein the image processing device performs the trapping process on the color image data represented by a plurality of color material color signals including black, and calculates a trap color used in the trapping process. It has a trap color calculating means and an area extracting means for extracting an area for performing the trapping processing, wherein the area extracting means accurately extracts the achromatic edge area subjected to the high black ratio processing and performs the trapping processing. Therefore, the edges of black characters on a uniform color ground can be accurately extracted and trapping processing can be performed.
[0085]
13. The image processing apparatus according to claim 12, wherein the image processing apparatus performs a trapping process on color image data represented by a plurality of color material color signals including black, and calculates a trap color used for the trapping process. It has a color calculating means and an area extracting means for extracting an area for performing a trapping process, and the trap color calculating means accurately calculates a trap color from a distant place, not near the color boundary. Therefore, it can be calculated with high accuracy.
[0086]
The image processing apparatus according to claim 13 is the image processing apparatus according to claim 12, wherein the area extracting unit is configured to detect a trap color at a portion where a trapping process calculated by the trap color calculating unit is performed in a color boundary portion. Since it is characterized in that only the adjacent area is extracted with high accuracy and that an incorrect trap color is prevented from being overlapped, a portion where the trapping process is performed can be extracted with high accuracy, and it is possible to prevent an incorrect trap color from being overlapped.
[0087]
The image processing apparatus according to claim 14 is the image processing apparatus according to claim 12, wherein the area extracting means extracts the achromatic edge area subjected to the high black ratio processing, and the trap color calculating means includes: The feature is to accurately calculate the trap color used in the trapping process, to finally extract only the area adjacent to the calculated trap color, and to prevent overlapping of the wrong trap color. The edge of the black character on the ground can be extracted with high accuracy, the trap color can be calculated with high accuracy, and the overlap of the wrong trap color can be prevented.
[0088]
The image processing apparatus according to claim 15 is the image processing apparatus according to any one of claims 3, 6, 11, and 14, wherein the achromatic edge area subjected to the high black ratio processing has a high density black signal. Since it is characterized by the presence and presence of an area determined to be an edge, an achromatic edge area subjected to high black ratio processing is extracted with high accuracy.
[0089]
The image processing apparatus according to claim 16 is characterized in that, in the image processing apparatus according to any one of claims 2 to 15, a trapping process is performed only on a halftone dot region in a color image. It is possible to prevent processing by mistake at the place.
[0090]
An image processing device according to a seventeenth aspect is the image processing device according to any one of the third to sixteenth aspects, wherein the color material color signal is an ink color signal used in an ink jet recording apparatus. Therefore, the present invention can be applied to an ink jet recording apparatus.
[0091]
The image processing apparatus according to claim 18 is the image processing apparatus according to any one of claims 3 to 16, wherein the color material color signal is a toner color signal used in an electrophotographic image forming apparatus. Therefore, the present invention can be applied to an electrophotographic recording apparatus.
[0092]
20. The image processing method according to claim 19, wherein the input color image data is processed to generate data to be supplied to a color image output device. It has a misregistration input step of inputting a predicted value of misregistration occurring when outputting, and is characterized by performing different image processing according to the misregistration predicted value input in the misregistration input step, Image quality deterioration due to misregistration, which is necessary and sufficient for the misregistration amount, can be suppressed.
[0093]
According to a twentieth aspect of the present invention, in the image processing method according to the twelfth aspect, the image processing is a trapping process for suppressing the occurrence of white spots due to the misregistration, and the misregistration input in the misregistration input step. Since the size of the region for performing the trapping process is changed in accordance with the predicted value, it is possible to perform the necessary and sufficient trapping process on the misregistration amount.
[0094]
22. The image processing method according to claim 21, wherein a trapping process is performed on color image data represented by a plurality of color material color signals including black, wherein a trap color used for the trapping process is calculated. And an area extraction step for extracting an area for performing trapping processing. Since the area extraction step is characterized by extracting an achromatic edge area that has been subjected to high black ratio processing, the edge of a black character on a uniform color ground is obtained. Can be extracted with high accuracy to perform trapping processing.
[0095]
23. The image processing method according to claim 22, wherein a trapping process is performed on color image data represented by a plurality of color material color signals including black, wherein a trap color used for the trapping process is calculated. Step and an area extracting step of extracting an area for performing trapping processing. The trap color calculating step is characterized in that the trap color is calculated not from the vicinity of the color boundary but from a distant place, so that the calculation is performed with high accuracy. it can.
[0096]
According to a twenty-third aspect of the present invention, in the image processing method according to the twenty-second aspect, the area extracting step extracts only an area of the color boundary portion that is adjacent to the trap color calculated in the trap color calculating step. Therefore, it is possible to accurately extract a portion to be subjected to the trapping process, and prevent a wrong trap color from being overlapped.
[0097]
An image processing method according to a twenty-fourth aspect is the image processing method according to the twenty-second aspect, wherein the area extracting step extracts an achromatic edge area subjected to high black ratio processing, and calculates the achromatic edge area therein in the trap color calculating step. It is characterized by finally extracting only the area adjacent to the trap color that has been extracted, so that the edges of the black characters on the uniform color ground can be accurately extracted, the trap color can be calculated accurately, and the wrong trap color is superimposed. Can be prevented.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram showing an operation of a trapping process in the image processing apparatus of the present invention.
FIG. 3 is a block diagram illustrating a configuration of a trap region extracting unit according to a second embodiment.
FIG. 4 is an explanatory diagram illustrating edge amount calculation according to the second embodiment.
FIG. 5 is a block diagram illustrating a configuration of a trap region extracting unit according to a third embodiment.
FIG. 6 is a diagram illustrating a processing operation in a color ground pixel extraction unit.
FIG. 7 is a block diagram illustrating a configuration of a trap color calculation unit.
FIG. 8 is a diagram illustrating an example of an image on which a trap color calculation unit performs image processing;
FIG. 9 is an explanatory diagram showing white spots due to misregistration.
FIG. 10 is an explanatory diagram of a spread technique in the trapping technique.
FIG. 11 is an explanatory diagram of a choke technique in the trapping technique.
[Explanation of symbols]
1 Image input means
2 Misregistration suppression processing means
3 Halftone processing means
4 Color image processing means
5 Misregistration input means
6 Trap area extraction unit
7 Trap color calculator

Claims (24)

入力されるカラー画像データに処理を施すことで、カラー画像出力手段に供給するためのデータを作成する画像処理装置であって、
前記カラー画像出力手段によりカラー画像を出力する際に生じる、版ずれ予測値を入力する版ずれ入力手段を有し、
前記版ずれ入力手段により入力された前記版ずれ予測値に応じて、異なる画像処理を施すことを特徴とする画像処理装置。
An image processing apparatus that creates data to be supplied to a color image output unit by performing processing on input color image data,
When a color image is output by the color image output unit, having a misregistration input unit that inputs a misregistration prediction value,
An image processing apparatus that performs different image processing according to the predicted value of the misregistration input by the misregistration input unit.
前記画像処理は、版ずれに起因する白抜けの発生を抑制するトラッピング処理であり、前記版ずれ入力手段により入力された前記版ずれ予測値に応じて、前記トラッピング処理を行う領域の大きさを変更することを特徴とする請求項1記載の画像処理装置。The image processing is a trapping process that suppresses the occurrence of white spots due to a misregistration. The image processing apparatus according to claim 1, wherein the image processing apparatus changes the setting. 前記入力されるカラー画像データは、黒色を含む複数の色材色信号で表されたカラー画像データであり、
前記トラッピング処理に用いるトラップ色を算出するトラップ色算出手段と、
前記トラッピング処理を行う領域を抽出する領域抽出手段とを有し、
前記領域抽出手段は、高墨率処理された無彩色エッジ領域を抽出することを特徴とする請求項2記載の画像処理装置。
The input color image data is color image data represented by a plurality of color material color signals including black,
Trap color calculating means for calculating a trap color used for the trapping process;
Region extracting means for extracting a region for performing the trapping process,
3. The image processing apparatus according to claim 2, wherein the area extracting unit extracts an achromatic edge area that has been subjected to high black ratio processing.
前記入力されるカラー画像データは、黒色を含む複数の色材色信号で表されたカラー画像データであり、
前記トラッピング処理に用いるトラップ色を算出するトラップ色算出手段と、
前記トラッピング処理を行う領域を抽出する領域抽出手段とを有し、
前記トラップ色算出手段は、色境界部近傍ではなく、離れた場所から前記トラップ色を算出することを特徴とする請求項2記載の画像処理装置。
The input color image data is color image data represented by a plurality of color material color signals including black,
Trap color calculating means for calculating a trap color used for the trapping process;
Region extracting means for extracting a region for performing the trapping process,
The image processing apparatus according to claim 2, wherein the trap color calculation unit calculates the trap color from a distant place, not near the color boundary.
前記領域抽出手段は、前記色境界部のうち、前記トラップ色算出手段により算出された前記トラップ色と隣接する領域のみを抽出することを特徴とする請求項4記載の画像処理装置。The image processing apparatus according to claim 4, wherein the area extracting unit extracts only an area adjacent to the trap color calculated by the trap color calculating unit from the color boundary part. 前記領域抽出手段は、前記高墨率処理された無彩色エッジ領域を抽出し、かつ、その中で前記トラップ色算出手段により算出された前記トラップ色と隣接する領域のみを最終的に抽出することを特徴とする請求項4記載の画像処理装置。The area extracting means extracts the achromatic edge area subjected to the high black ratio processing, and finally extracts only an area adjacent to the trap color calculated by the trap color calculating means. The image processing apparatus according to claim 4, wherein: 複数の前記カラー画像出力手段に前記カラー画像データを供給し、前記版ずれ入力手段によって入力される前記版ずれ予測値は、前記複数のカラー画像出力手段ごとに設定されていることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。The color image data is supplied to a plurality of color image output units, and the misregistration predicted value input by the misregistration input unit is set for each of the plurality of color image output units. The image processing apparatus according to claim 1. さらに、前記カラー画像データを供給する前記カラー画像出力手段の版ずれを測定する測定手段を有し、
前記測定手段による測定結果を、前記版ずれ入力手段によって前記版ずれ予測値として入力することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
Further, a measuring means for measuring the misregistration of the color image output means for supplying the color image data,
The image processing apparatus according to claim 1, wherein a result of the measurement by the measuring unit is input as the misregistration predicted value by the misregistration input unit.
前記複数のカラー画像出力手段に前記カラー画像データを供給し、前記カラー画像出力手段がインクジェット方式のものであった場合には、特有のトラッピング処理を行うことを特徴とする請求項2から8のいずれか1項に記載の画像処理装置。9. The method according to claim 2, wherein the color image data is supplied to the plurality of color image output units, and when the color image output unit is of an inkjet type, a specific trapping process is performed. The image processing device according to claim 1. 前記特有のトラッピング処理とは、トラッピング処理を行わないことを特徴とする請求項9記載の画像処理装置。10. The image processing apparatus according to claim 9, wherein the specific trapping processing does not perform trapping processing. 黒色を含む複数の色材色信号で表されたカラー画像データに対してトラッピング処理を施す画像処理装置であって、
前記トラッピング処理に用いるトラップ色を算出するトラップ色算出手段と、
前記トラッピング処理を行う領域を抽出する領域抽出手段を有し、
前記領域抽出手段は、高墨率処理された無彩色エッジ領域を抽出することを特徴とする画像処理装置。
An image processing device that performs a trapping process on color image data represented by a plurality of color material color signals including black,
Trap color calculating means for calculating a trap color used for the trapping process;
Having an area extracting means for extracting an area for performing the trapping process,
The image processing apparatus according to claim 1, wherein the area extracting unit extracts an achromatic edge area that has been subjected to high black ratio processing.
黒色を含む複数の色材色信号で表されたカラー画像データに対してトラッピング処理を施す画像処理装置であって、
前記トラッピング処理に用いるトラップ色を算出するトラップ色算出手段と、
前記トラッピング処理を行う領域を抽出する領域抽出手段を有し、
前記トラップ色算出手段は、色境界部近傍ではなく、離れた場所から前記トラップ色を算出することを特徴とする画像処理装置。
An image processing device that performs a trapping process on color image data represented by a plurality of color material color signals including black,
Trap color calculating means for calculating a trap color used for the trapping process;
Having an area extracting means for extracting an area for performing the trapping process,
The image processing apparatus according to claim 1, wherein the trap color calculation unit calculates the trap color not from near a color boundary but from a distant place.
前記領域抽出手段は、色境界部のうち、前記トラップ色算出手段により算出された前記トラップ色と隣接する領域のみを抽出することを特徴とする請求項12記載の画像処理装置。13. The image processing apparatus according to claim 12, wherein the area extracting unit extracts only an area adjacent to the trap color calculated by the trap color calculating unit from a color boundary portion. 前記領域抽出手段は、高墨率処理された無彩色エッジ領域を抽出し、かつ、その中で前記トラップ色算出手段により算出された前記トラップ色と隣接する領域のみを最終的に抽出することを特徴とする請求項12記載の画像処理装置。The area extracting means extracts an achromatic edge area subjected to high black ratio processing, and finally extracts only an area adjacent to the trap color calculated by the trap color calculating means. 13. The image processing device according to claim 12, wherein: 前記高墨率処理された無彩色エッジ領域は、黒色信号が高濃度であり、かつエッジであると判定された領域であることを特徴とする請求項3、6、11、14のいずれか1項に記載の画像処理装置。15. The achromatic edge region subjected to the high black ratio processing is a region where a black signal has a high density and is determined to be an edge. An image processing apparatus according to the item. 前記トラッピング処理は、カラー画像中の網点領域にのみ適用することを特徴とする請求項2から15のいずれか1項に記載の画像処理装置。16. The image processing apparatus according to claim 2, wherein the trapping process is applied only to a halftone dot region in a color image. 前記色材色信号は、インクジェット記録装置に用いられるインク色信号であることを特徴とする請求項3から16のいずれか1項に記載の画像処理装置。17. The image processing apparatus according to claim 3, wherein the color material color signal is an ink color signal used for an ink jet recording apparatus. 前記色材色信号は、電子写真方式の画像形成装置に用いられるトナー色信号であることを特徴とする請求項3から16のいずれか1項に記載の画像処理装置。17. The image processing apparatus according to claim 3, wherein the color material color signal is a toner color signal used in an electrophotographic image forming apparatus. 入力されたカラー画像データに処理を施すことで、カラー画像出力手段に供給するためのデータを作成する画像処理方法であって、
前記カラー画像出力手段によりカラー画像を出力する際に生じる、版ずれ予測値を入力する版ずれ入力ステップを有し、
前記版ずれ入力ステップにおいて入力された前記版ずれ予測値に応じて、異なる画像処理を施すことを特徴とする画像処理方法。
An image processing method for creating data to be supplied to a color image output unit by performing processing on input color image data,
A color misregistration input step of inputting a color misregistration predicted value, which occurs when a color image is output by the color image output unit,
An image processing method, wherein different image processing is performed according to the misregistration predicted value input in the misregistration input step.
前記画像処理とは、版ずれに起因する白抜けの発生を抑制する前記トラッピング処理であり、
前記版ずれ入力ステップにおいて入力された前記版ずれ予測値に応じて、前記トラッピング処理を行う領域の大きさを変更することを特徴とする請求項19に記載の画像処理方法。
The image processing is the trapping processing for suppressing the occurrence of white spots due to misregistration,
20. The image processing method according to claim 19, wherein the size of an area where the trapping process is performed is changed according to the predicted value of the misregistration input in the misregistration input step.
黒色を含む複数の色材色信号で表されたカラー画像データに対してトラッピング処理を施す方法であって、
前記トラッピング処理に用いるトラップ色を算出するトラップ色算出ステップと、
前記トラッピング処理を行う領域を抽出する領域抽出ステップを有し、
前記領域抽出ステップは、高墨率処理された無彩色エッジ領域を抽出することを特徴とする画像処理方法。
A method of performing a trapping process on color image data represented by a plurality of color material color signals including black,
A trap color calculating step of calculating a trap color used for the trapping process;
An area extracting step of extracting an area for performing the trapping process,
The image processing method according to claim 1, wherein the area extracting step extracts an achromatic color edge area subjected to high black ratio processing.
黒色を含む複数の色材色信号で表されたカラー画像データに対してトラッピング処理を施す方法であって、
前記トラッピング処理に用いるトラップ色を算出するトラップ色算出ステップと、
前記トラッピング処理を行う領域を抽出する領域抽出ステップを有し、
前記トラップ色算出ステップは、色境界部近傍ではなく、離れた場所からトラップ色を算出することを特徴とする画像処理方法。
A method of performing a trapping process on color image data represented by a plurality of color material color signals including black,
A trap color calculating step of calculating a trap color used for the trapping process;
An area extracting step of extracting an area for performing the trapping process,
The image processing method according to claim 1, wherein the trap color calculating step calculates the trap color not from near the color boundary portion but from a distant place.
前記領域抽出ステップは、前記色境界部のうち、前記トラップ色算出ステップにより算出された前記トラップ色と隣接する領域のみを抽出することを特徴とする請求項22記載の画像処理方法。23. The image processing method according to claim 22, wherein, in the area extracting step, only an area adjacent to the trap color calculated in the trap color calculating step is extracted from the color boundary part. 前記領域抽出ステップは、前記高墨率処理された無彩色エッジ領域を抽出し、かつ、その中で前記トラップ色算出ステップにより算出された前記トラップ色と隣接する領域のみを最終的に抽出することを特徴とする請求項22記載の画像処理方法。The region extracting step extracts the achromatic color edge region subjected to the high black ratio processing, and finally extracts only the region adjacent to the trap color calculated by the trap color calculating step therein. The image processing method according to claim 22, wherein:
JP2002292822A 2002-10-04 2002-10-04 Image processing apparatus and image processing method Expired - Fee Related JP4324359B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002292822A JP4324359B2 (en) 2002-10-04 2002-10-04 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002292822A JP4324359B2 (en) 2002-10-04 2002-10-04 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2004122692A true JP2004122692A (en) 2004-04-22
JP4324359B2 JP4324359B2 (en) 2009-09-02

Family

ID=32283963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002292822A Expired - Fee Related JP4324359B2 (en) 2002-10-04 2002-10-04 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4324359B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008061136A (en) * 2006-09-01 2008-03-13 Canon Inc Image processor and method thereof
JP2008131606A (en) * 2006-11-24 2008-06-05 Sharp Corp Image processing apparatus, image forming apparatus, program, computer-readable recording medium, and image processing method
EP1940145A2 (en) 2006-12-27 2008-07-02 Dainippon Screen Mfg., Co., Ltd. Image processing apparatus and method for printing and plate making, and recording medium having image processing program recorded therein for printing and plate making
JP2009535909A (en) * 2006-04-28 2009-10-01 京セラミタ株式会社 Trapping method for digital color printing
US7729021B2 (en) 2005-10-27 2010-06-01 Ricoh Company, Ltd. Image processing apparatus and method thereof, and image forming apparatus using the image processiing apparatus
US7733527B2 (en) 2006-09-01 2010-06-08 Fuji Xerox Co., Ltd. Image processing device, image output device, terminal device, and image forming system and computer readable medium storing program thereof
US7880927B2 (en) 2006-09-05 2011-02-01 Sharp Kabushiki Kaisha Image forming apparatus, image forming method, program, and recording medium
JP2011235544A (en) * 2010-05-11 2011-11-24 Kyocera Mita Corp Image forming apparatus, and image forming method
JP2012011616A (en) * 2010-06-30 2012-01-19 Seiko Epson Corp Printing device and printing method
KR101223865B1 (en) 2009-03-19 2013-01-17 캐논 가부시끼가이샤 Image processing apparatus and control method of image processing apparatus
US8363293B2 (en) 2009-01-22 2013-01-29 Seiko Epson Corporation Image formation with misregistration correction using conversion information generated from remaining colors and gradation values of adjacent region
JP2015016576A (en) * 2013-07-09 2015-01-29 キヤノン株式会社 Device, method, and program for expanding object included in image data
JP2015036228A (en) * 2013-08-14 2015-02-23 富士ゼロックス株式会社 Image forming apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112248645B (en) * 2020-09-28 2022-02-18 深圳圣德京粤科技有限公司 Longitudinal stitching method and device for nozzle, printing equipment and storage medium

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7729021B2 (en) 2005-10-27 2010-06-01 Ricoh Company, Ltd. Image processing apparatus and method thereof, and image forming apparatus using the image processiing apparatus
JP4917642B2 (en) * 2006-04-28 2012-04-18 京セラミタ株式会社 Trapping system and method for digital color printing
JP2009535909A (en) * 2006-04-28 2009-10-01 京セラミタ株式会社 Trapping method for digital color printing
US7733527B2 (en) 2006-09-01 2010-06-08 Fuji Xerox Co., Ltd. Image processing device, image output device, terminal device, and image forming system and computer readable medium storing program thereof
JP2008061136A (en) * 2006-09-01 2008-03-13 Canon Inc Image processor and method thereof
US7880927B2 (en) 2006-09-05 2011-02-01 Sharp Kabushiki Kaisha Image forming apparatus, image forming method, program, and recording medium
JP2008131606A (en) * 2006-11-24 2008-06-05 Sharp Corp Image processing apparatus, image forming apparatus, program, computer-readable recording medium, and image processing method
EP1940145A2 (en) 2006-12-27 2008-07-02 Dainippon Screen Mfg., Co., Ltd. Image processing apparatus and method for printing and plate making, and recording medium having image processing program recorded therein for printing and plate making
US8164798B2 (en) 2006-12-27 2012-04-24 Dainippon Screen Mfg Co., Ltd. Image processing apparatus and method for printing and plate making, and recording medium having image processing program recorded therein for printing and plate making
US8363293B2 (en) 2009-01-22 2013-01-29 Seiko Epson Corporation Image formation with misregistration correction using conversion information generated from remaining colors and gradation values of adjacent region
KR101223865B1 (en) 2009-03-19 2013-01-17 캐논 가부시끼가이샤 Image processing apparatus and control method of image processing apparatus
JP2011235544A (en) * 2010-05-11 2011-11-24 Kyocera Mita Corp Image forming apparatus, and image forming method
JP2012011616A (en) * 2010-06-30 2012-01-19 Seiko Epson Corp Printing device and printing method
JP2015016576A (en) * 2013-07-09 2015-01-29 キヤノン株式会社 Device, method, and program for expanding object included in image data
US9189714B2 (en) 2013-07-09 2015-11-17 Canon Kabushiki Kaisha Apparatus and method for enlarging object included in image data, and storage medium therefor
JP2015036228A (en) * 2013-08-14 2015-02-23 富士ゼロックス株式会社 Image forming apparatus
US9001386B2 (en) 2013-08-14 2015-04-07 Fuji Xerox Co., Ltd. Image forming apparatus performing trapping process when print data includes a plurality of pieces of image data and to superpose the adjacent pieces of image data and a determination unit that determines whether or not trapping attribute information, which indicates that the trapping process is to be performed, is attached to the pieces of image data on a piece by piece basis of performed color correction

Also Published As

Publication number Publication date
JP4324359B2 (en) 2009-09-02

Similar Documents

Publication Publication Date Title
JP6455016B2 (en) Image inspection apparatus, image forming system, and image inspection method
EP0929189B1 (en) Image modification to reduce susceptibility to misregistration
US10404877B2 (en) Image inspection apparatus, image inspection system, and method for determining image position
US7876961B2 (en) Method and apparatus for processing image, and computer program product
JP3576808B2 (en) Image processing device
JP4324359B2 (en) Image processing apparatus and image processing method
JP5861503B2 (en) Image inspection apparatus and method
US20070236707A1 (en) Image processing apparatus, image processing method and image processing program
JP6221402B2 (en) Image processing apparatus, image processing method, and program
JP2004112536A (en) Image processing apparatus, image processing method, and program to be executed by computer
JP2004172710A (en) Image processing apparatus
JP2010016628A (en) Image processing device and image processing method
JP2009044616A (en) Image processing apparatus and image processing method
JP5017910B2 (en) Image forming apparatus
US8451518B2 (en) System and method for detecting color-to-color misregistration
JPH09149281A (en) Color image forming device
US7146043B2 (en) Method for smooth trap suppression of small graphical objects
JP2000236441A (en) Image processor
JP2007043394A (en) Apparatus and method for image processing, and program making computer implement same method
JP2000127353A (en) Plate deviation detector and printer therewith
JP3767878B2 (en) Image processing apparatus with output correction inside character
JP2008205967A (en) Image processor
JP4504327B2 (en) Edge detection for distributed dot binary halftone images
JP4257172B2 (en) Digital image recognition apparatus and method
JPH0541796A (en) Copying machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090310

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090602

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090608

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130612

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees