JP3734703B2 - Image processing method, image processing apparatus, and image forming apparatus - Google Patents

Image processing method, image processing apparatus, and image forming apparatus Download PDF

Info

Publication number
JP3734703B2
JP3734703B2 JP2000365572A JP2000365572A JP3734703B2 JP 3734703 B2 JP3734703 B2 JP 3734703B2 JP 2000365572 A JP2000365572 A JP 2000365572A JP 2000365572 A JP2000365572 A JP 2000365572A JP 3734703 B2 JP3734703 B2 JP 3734703B2
Authority
JP
Japan
Prior art keywords
color
black
area
image data
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000365572A
Other languages
Japanese (ja)
Other versions
JP2001223915A (en
Inventor
雅範 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2000365572A priority Critical patent/JP3734703B2/en
Publication of JP2001223915A publication Critical patent/JP2001223915A/en
Application granted granted Critical
Publication of JP3734703B2 publication Critical patent/JP3734703B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Color, Gradation (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、スキャナ等のカラー画像入力装置より読み取られた入力画像データを、黒を含む出力画像データに変換する色変換処理を行う画像処理方法及び画像処理装置、並びに、該画像処理装置を備える画像形成装置に関するものである。さらに詳細には、本発明は、上記方法および装置における黒生成処理や下色除去処理(および下色追加処理)の制御に関するものである。
【0002】
【従来の技術】
スキャナ等の画像入力装置を用いて読み取ったRGB(R:赤,G:緑,B:青)画像データをCMYK(C:シアン,M:マゼンタ,Y:イエロー,K:ブラック)の4色に変換して出力するデジタルカラー複写機等の画像形成装置において、文字や網点画像が混ざった原稿を複写する場合、黒文字部分の画質を改善するために、黒文字のエッジ部分を抽出してエッジ強調フィルタをかけたり、CMYの量を減らして黒の量を増加させて出力する処理が行われている。
【0003】
【発明が解決しようとする課題】
ところが、上記スキャナ等の画像入力装置で画像を読み込んだ場合、機械的な振動等によりCCDセンサの読み取り位置がずれて、黒文字等のエッジ部分に色がついてしまうこと(以下、これを色にじみと称する)が起こり得る。このような色にじみが生じている領域では、CMYのバランスがくずれる。そのため、このような領域では、一般的な手法であるCMYの最小値(C濃度信号のレベル、M濃度信号のレベル、およびY濃度信号のレベルのうち、最も小さいレベルの値)に基づくUCR(Under Color Removal :下色除去)等を行うと、黒の生成量(濃度)が十分でなく小さな黒文字が読みとりにくくなったり、黒線に色が付く等の問題が生じる。現在のところ、このような色にじみが生じている領域に対する有効な対応策は提案されていない。すなわち、黒文字に色が付く問題(色にじみ)に対する有効な解決策は、提案されていない。
【0004】
本願発明は、上記従来の問題に鑑みなされたものであり、その目的は、RGB信号等のような、黒信号を含まない複数の色成分信号からなる入力画像データを、CMYK信号等のような、黒信号を含む複数の色成分信号からなる出力画像データに変換する画像処理方法、画像処理装置、および画像形成装置において、入力画像データの黒文字のエッジに色にじみが発生していても、色にじみを除去することができる画像処理方法、画像処理装置、および画像形成装置を提供することにある。
【0005】
【課題を解決するための手段】
本発明の画像処理方法は、上記課題を解決するために、R(赤)G(緑)B(青)からなる入力画像データをC(シアン)M(マゼンタ)Y(イエロー)からなる色補正画像データに色変換した後、上記色補正画像データを基に黒とCMYとからなる出力画像データを生成する黒生成処理を行う画像処理方法において、上記入力画像データあるいは上記色補正画像データを文字領域・網点領域・写真領域に分離し、さらに上記文字領域およびその近傍領域を、黒文字領域・色にじみ領域・これらのどちらにも属さないその他領域に分類し、黒文字領域・色にじみ領域・その他領域毎に黒の生成量を制御し、上記色にじみ領域における黒の生成量を、色補正画像データに含まれる注目画素のCMYの最大値と最小値との平均値に基づいて決定することを特徴としている。
【0006】
これによれば、文字領域を、さらに黒文字領域、色にじみ領域、及びその他領域に分類し、各領域毎に黒生成量を個別に制御するので、色にじみ領域を黒文字領域やその他領域と区別して、色にじみ領域にあった黒生成量を決定することができる。その結果、色にじみ領域が生じている故に、小さな黒文字が読み取り難くなったり、黒線に色が付く等の上述した問題をなくして、黒文字、黒線等を良好に再現することが可能となる。
【0007】
本発明の画像処理方法は、さらに、出力画像データにおける黒以外の色成分を減少させる下色除去処理を行い、黒文字領域・色にじみ領域・その他領域毎に黒以外の色成分の減少量を制御することが好ましい。
【0008】
これによれば、黒文字領域・色にじみ領域・その他領域毎に黒以外の色成分の減少量を制御することで、各領域毎の黒生成に応じて適切な下色除去処理を行うことができる。すなわち、黒文字領域および色にじみ領域においては黒以外の色成分(例えばCMY成分)を減少させることで、色にじみをさらに低減でき、良好な画像が再現可能となる。しかも、その他領域である絵柄や色文字等の着色部分においては、黒以外の色成分を黒生成量に応じた量だけ減少することで、着色部分の彩度の低下を回避することができる。
【0009】
また、本発明の画像処理方法は、さらに、出力画像データにおける黒以外の色成分を増加させる下色追加処理を行い、黒文字領域・色にじみ領域・その他領域毎に黒以外の色成分の増加量を制御する方法であってもよい。
【0010】
これによれば、その他領域に対して黒以外の色成分の増加量を制御することで、彩度の低下を抑制することができる。すなわち、下色除去処理によってその他領域である絵柄や色文字等の着色部分に彩度の低下が生じた場合においても、下色追加処理によりその他領域の黒以外の色成分を増加させることでその彩度の低下を補うことができ、画像を良好に再現できる。また、下色追加処理による色にじみ領域の黒以外の色成分の増加量を低く抑えることで、下色追加処理による色にじみ領域の彩度の増加(色にじみの増加)を回避することができる。
【0011】
なお、黒文字領域については、下色追加処理を行わなくても良い。
【0012】
また、本発明の画像処理装置は、上記課題を解決するために、画像入力手段より読み込まれたR(赤)G(緑)B(青)からなる入力画像データをC(シアン)M(マゼンタ)Y(イエロー)からなる色補正画像データに色変換する色補正手段と、上記入力画像データあるいは上記色補正画像データを文字領域・網点領域・写真領域に分離する領域分離手段と、上記CMYからなる色補正画像データを基に、黒生成量を決定し、黒とCMYとからなる出力画像データを生成する黒生成手段とを備えた画像処理装置において、上記領域分離手段は、上記文字領域およびその近傍領域を、黒文字領域・色にじみ領域・これらのどちらにも属さないその他領域に分類する色にじみ判定手段を備えており、上記黒生成手段は、上記色にじみ判定手段にて分類された黒文字領域・色にじみ領域・その他領域毎に黒生成量を制御し、上記黒生成手段は、色にじみ領域の黒生成量を、色補正画像データに含まれる注目画素のCMYの最大値と最小値との平均値に基づいて決定することを特徴としている。
【0013】
これによれば、領域分離手段に備えられる色にじみ判定手段が、文字領域を、さらに黒文字領域、色にじみ領域、及びその他領域に分類し、黒生成手段にて各領域毎に黒生成量を個別に制御するので、色にじみ領域を黒文字領域やその他領域と区別して、色にじみ領域にあった黒生成量を決定することができる。その結果、色にじみ領域が生じている故に、小さな黒文字が読み取り難くなったり、黒線に色が付く等の上述した問題をなくして、黒文字、黒線等を良好に再現することが可能となる。
【0014】
さらに、本発明の画像処理装置において、上記黒生成手段は、色にじみ領域の黒生成量を、色補正画像データに含まれる注目画素のCMYの最大値と最小値との平均値に基づいて決定する。これによれば、CMY信号のずれ量が平均化されることで、ずれの影響が小さい黒生成量の決定が可能となり、より一層、黒文字、黒線等を良好に再現することが可能となる。
【0015】
本発明の画像処理装置において、黒生成処理と下色除去処理とは共に行うのが良い。すなわち、上記黒生成手段は、黒を含む複数の色成分の出力画像データを生成するとともに下色除去処理を行う黒生成/下色除去手段で構成されることがより好ましい。特に、入力画像データがC、M、およびYの3つの色成分からなる場合、黒生成処理は、C、M、およびYの最小値(等量の部分)を黒成分(グレー)とみなして、黒(K信号)に置き換えることで行う。そのため、黒に置き換えられた量に見合ったC、M、およびYの量の減少を行う下色除去処理が必要となる。
【0016】
また、本発明の画像処理装置は、出力画像データにおける黒以外の色成分を減少させる下色除去処理を行う下色除去手段をさらに備え、上記下色除去手段は、上記色にじみ判定手段にて分類された黒文字領域・色にじみ領域・その他領域毎に黒以外の色成分の減少量を制御する構成であることが好ましい。
【0017】
これによれば、下色除去手段によって黒文字領域・色にじみ領域・その他領域毎に黒以外の色成分の減少量が制御されるので、各領域毎の黒生成に応じて適切な下色除去処理を行うことができる。すなわち、黒文字領域および色にじみ領域においては黒以外の色成分(例えばCMY成分)を減少させることで、色にじみをさらに低減でき、良好な画像が再現可能となる。しかも、その他領域である絵柄や色文字等の着色部分においては、黒以外の色成分を黒生成量に応じた量だけ減少することで、着色部分の彩度の低下を回避することができる。
【0018】
また、本発明の画像処理装置においては、上記黒生成手段は、CMYからなる色補正画像データから、次式
【0019】
【数2】

Figure 0003734703
【0020】
を用いて、黒文字領域での黒生成量を表すK信号K 1 、色にじみ領域での黒生成量を表すK信号K 2 、およびその他の領域での黒生成量を表すK信号K 3 を計算し、黒文字領域での 係数F 1 、色にじみ領域での係数F 2 、およびその他の領域での係数F 3 の値をF 1 >F 2 >F 3 となるように設定する構成とすることも可能である。
【0021】
色にじみ領域での黒生成量を黒文字領域と同じにすると黒文字が太くなる。また、文字領域であって、黒文字領域でも色にじみ領域でもないその他領域は、カラーの絵柄の部分に当たるため、コントラストの大きい黒の生成量を少なくし、CMYの三色で画像形成を行った方が、濁りのない良好な画像になる。
【0022】
これによれば、色にじみ領域の黒生成量が、黒文字領域での黒生成量より少なく設定され、かつ、その他領域については、黒生成量を色にじみ領域より少なく設定しているので、黒文字が太くなるのを防ぐと共に、色濁りのない良好な画像を形成することができる
【0023】
また、本発明の画像処理装置は、出力画像データにおける黒以外の色成分を増加させる下色追加処理を行う下色追加手段をさらに備え、上記下色追加手段は、上記色にじみ判定手段にて分類された黒文字領域・色にじみ領域・その他領域毎に黒以外の色成分の増加量を制御する構成であってもよい。
【0024】
これによれば、下色追加手段によって黒文字領域・色にじみ領域・その他領域毎に黒以外の色成分の増加量が制御されるので、各領域に応じた彩度を得ることができる。すなわち、下色除去処理によって、その他領域である絵柄や色文字等の着色部分に彩度の低下が生じた場合においても、下色追加手段によりその他領域の黒以外の色成分を増加させることでその彩度の低下を補うことができ、画像を良好に再現できる。また、下色追加処理による色にじみ領域の黒以外の色成分の増加量を低く抑えることで、下色追加処理による色にじみ領域の彩度の増加(色にじみの増加)を回避することができる。
【0025】
本発明の画像形成装置は、上記の課題を解決するために、前記の画像処理装置と、上記画像処理装置で生成された出力画像データに基づいて記録媒体上に画像を形成する画像形成手段とを備えることを特徴としている。
【0026】
これによれば、入力画像データの黒文字のエッジに色にじみが発生していても、色にじみを除去することができる画像形成装置を提供することができる。
【0027】
【発明の実施の形態】
〔実施の形態1〕
本発明に係る実施の一形態を、図1〜図8に基づいて説明すれば、以下の通りである。
【0028】
図1に、本発明の画像処理方法及び画像処理装置の構成が適用された画像処理装置1の構成を示す。図1に示すように、画像処理装置1は、A/D変換部10、シェーディング補正部11、入力階調補正部12、色補正部(色補正手段)13、領域分離処理部(領域分離手段)14、黒生成/下色除去部(黒生成/下色除去手段)15、空間フィルタ処理部16、出力階調補正部17、及び階調再現処理部18とから構成されている。画像処理装置1に、カラー画像入力装置(画像入力手段)2とカラー画像形成装置(画像形成手段)3とが接続されている。これら画像処理装置1、カラー画像入力装置2、およびカラー画像形成装置3によって、画像形成装置としてのデジタルカラー複写機が構成されている。
【0029】
カラー画像入力装置2は、RGB(第1色成分)のアナログ信号を生成し、画像処理装置1に入力するものである。カラー画像入力装置2は、例えばスキャナ部より構成されており、原稿からの反射光像を、RGBのアナログ信号としてCCD(Charge Coupled Device )にて読み取って、画像処理装置1に入力する。
【0030】
読み取られたアナログ信号は、画像処理装置1内を、A/D変換部10、シェーディング補正部11、入力階調補正部12、色補正部13、領域分離処理部14、黒生成/下色除去部15、空間フィルタ処理部16、出力階調補正部17、及び階調再現処理部18の順で送られ、CMYK(第2色成分)のデジタルカラー信号として、カラー画像形成装置3へ出力される。
【0031】
A/D(アナログ/デジタル)変換部10は、読み取られたアナログ信号をデジタル信号に変換して、シェーディング補正部11に送り、シェーディング補正部11では、送られてきたRGB信号に対して、カラー画像入力装置2の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を施し、入力階調補正部12に送る。入力階調補正部12では、RGBの反射率信号を、カラーバランスを整えるのと同時に、濃度信号など画像処理システムの扱いやすい信号に変換する処理を施した後、色補正部13に送る。
【0032】
色補正部13では、色再現の忠実化のために、RGB信号をCMY信号(色補正画像データ)に変換する色補正処理を施し、その後、領域分離処理部14と、黒生成/下色除去部15とに送る。
【0033】
色補正処理としては、変換行列を作成する方法や、ニューラルネットワークを用いてRGBとCMYの関係を記述するモデルを作成し、各RGB値に対するCMY値をルックアップテーブル(LUT)として持つ方法などがある。
【0034】
変換行列を作成する方法は、(1)式のようにRGBからCMYへの変換を行列演算を用いて実現される。
【0035】
【数3】
Figure 0003734703
【0036】
主要なCMYの値の組み合わせを、カラー画像形成装置3に与えてカラーパッチを紙等の記録媒体上に出力し、カラーパッチが出力された記録媒体を前述のカラー画像入力装置2で読み込み、それぞれの組み合わせのCMYの値に対応するRGBの値を求める。得られたRGBの値とCMYの値との関係を満たす定数a11からa33および定数b1からb3を最小二乗法で求める。より忠実な色再現を求める場合には、RGBの2次以上のより高次の項を含めればよい。
【0037】
LUTを用いるには、上記の変換行列を求めて入力RGBに対して出力されるCMYの値を予め求めておき、LUTとして記憶しておく方法や、対応するCMYとRGBの関係を変換行列で記述するのではなくニューラルネットワークを用いて学習させ、このニューラルネットワークを用いてLUTを作成する方法等がある。
【0038】
領域分離処理部14では、文字領域、網点領域、および写真領域が混在する原稿に対して、各々の領域に分離する処理を行い、さらに、文字領域と判別された領域に対しては、近傍画素の領域も含めて黒文字領域、色にじみ領域、その他の領域に分類する。領域分離処理部14は、分離結果に基づき、注目画素がどの領域に属しているかを示す領域識別信号を、黒生成/下色除去部15、空間フィルタ処理部16、及び階調再現処理部18へと送る。
【0039】
黒生成/下色除去部15は、黒生成部(黒生成手段)15aおよび下色除去部15bによって構成されている。黒生成部15aでは、色補正されたCMY信号と、領域分離処理部14からの領域識別信号とに基づいて、黒(K)信号を生成する黒生成処理を行う。そして、さらに、下色除去部15bでは、黒信号から計算される下色の量をCMY信号から減算し、CMYK4色のデータに変換し、空間フィルタ処理部16に送る。なお、この黒生成/下色除去部15及び上記領域分離処理部14の処理内容の詳細については後述する。
【0040】
空間フィルタ処理部16では、画像データに対して、デジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正することによって出力画像のぼやけや粒状性劣化を防ぐように処理した後、出力階調補正部17へ送る。
【0041】
出力階調補正部17では、濃度信号などの信号をカラー画像形成装置3の特性値である網点面積率に変換する出力階調補正処理を行った後、階調再現処理部18に送り、階調再現処理部18で、最終的に画像を画素に分離してそれぞれの階調を再現できるように処理する階調再現処理(中間調生成)を行う。
【0042】
また、前述の色補正部13による色補正処理後、領域分離処理部14にて、黒文字(場合によっては色文字も含む)として抽出された画像領域は、文字及び写真混在原稿における特に黒文字あるいは色文字の再現性を高めるために、空間フィルタ処理部16による空間フィルタ処理における鮮鋭強調処理で、高周波数の強調量が大きくされる。同時に、階調再現処理部18においては、高域周波数の再現に適した高解像度のスクリーンでの二値化または多値化処理が選択されるように構成されている。
【0043】
また、領域分離処理部14にて網点と判別された領域に関しては、空間フィルタ処理部16において、入力網点成分を除去するためのローパス・フィルタ処理が施され、同時に、階調再現処理部18では、階調再現性を重視したスクリーンでの二値化または多値化処理が行われる。
【0044】
また、領域分離処理部14にて文字領域として分類された領域については、近傍画素の領域も含め、黒文字領域、色にじみ領域、それ以外の領域(その他の領域)に分類される。
【0045】
上述した各処理が施された画像データは、一旦記憶手段(不図示)に記憶され、所定のタイミングで読み出されてカラー画像形成装置3に入力される。このカラー画像形成装置3は、画像データに基づいて記録媒体(例えば紙等)上に画像を出力するもので、例えば、電子写真方式やインクジェット方式を用いたカラー画像形成装置等をあげることができるが、特に限定されるものではない。
【0046】
以下、領域分離処理部14及び黒生成/下色除去部15における処理の内容を詳細に説明する。
【0047】
図2に領域分離処理部14の構成を示す。領域分離処理部14は、文字・網点・写真領域判定部20と色にじみ判定部(色にじみ判定手段)21より構成されている。
【0048】
本実施の形態に係る画像処理装置1では、文字領域及び近傍画素を含む領域に対して、黒文字領域・色にじみ領域・その他領域に分離し、各々の領域で黒生成量を制御するものである。そこで、まず、この文字・網点・写真領域判定部20で、カラー画像入力装置2により読み込まれた画像データを、文字領域・網点領域・写真領域に分離し、次に、色にじみ判定部21にて、文字領域及び近傍画素を含む領域より、黒文字領域・色にじみ領域・その他領域に分類する処理を行う。
【0049】
文字・網点・写真領域判定部20による、入力画像データを文字領域・網点領域・写真領域に分離する方法としては、例えば「画像電子学会研究会予稿90−06−04,p19〜p24」に記載されている方法を用いることができる。以下に詳細を説明する。
【0050】
注目画素を中心としたM×N(M、Nは自然数)画素のブロック内で以下のような判定を行い、それを注目画素の領域識別信号とする。
【0051】
まず、ブロック内の中央の9画素(注目画素を中心とした3×3画素)に対してそれらの信号レベルの平均値(Dave )を求め、その平均値を用いてブロック内の各画素を2値化する。また、最大画素信号レベル(Dmax )、最小画素信号レベル(Dmin )を求める。
【0052】
次に、網点領域には、小領域における画像信号の変動が大きいことや、背景に比べて濃度が高いといった特徴があることを利用し、網点領域を識別する。具体的には、2値化されたデータに対して、主走査方向及び副走査方向のそれぞれで、0から1への変化点数KH 、および1から0への変化点数KV を求める。次いで、変化点数KH およびKV をそれぞれ閾値TH およびTV と比較する。そして、変化点数KH およびKV が共に閾値(TH 、TV )を上回る場合、網点領域と判定し、そうでない場合、非網点領域と判定する。さらに、網点領域と判定した場合、背景との誤判定を防ぐために、信号レベルの平均値(Dave )と最大信号レベル(Dmax )との差、および信号レベルの平均値(Dave )と最小信号レベル(Dmin )との差をそれぞれ閾値B1 およびB2 と比較する。そして、これらの差が共に閾値(B1 、B2 )を上回る場合には網点領域と判定する一方、他の場合には非網点領域に判定を変える。即ち、以下の条件で、網点領域と網点領域以外の領域(非網点領域)とを分ける。
【0053】
【数4】
Figure 0003734703
【0054】
次に、文字領域には、最大信号レベルと最小信号レベルの差が大きく、濃度も高いといった特徴があると考えられる。そこで、ここでは、この特徴を利用して、文字領域を識別する。具体的には、網点領域か否かの判断で、網点領域以外とされた非網点領域において、先に求めておいた最大信号レベル(Dmax )、先に求めておいた最小信号レベル(Dmin )、およびこれらの差分(Dsub )をそれぞれ、閾値PA 、PB 、およびPC と比較し、どれか一つが閾値を上回ったならば文字領域、すべてが閾値以下ならば写真領域とする。即ち、以下の条件で、非網点領域を、文字領域と写真領域とに分ける。
【0055】
【数5】
Figure 0003734703
【0056】
次に、上記の方法により抽出された文字領域とその近傍画素(例えば数画素程度)を含めた領域に対して、色にじみ領域が生じているかどうかの判定を、色にじみ判定部21で行う。色にじみ判定部21は、有彩色判定部21a、エッジ抽出処理部21b、及び近傍画素判定部21cから構成されている。
【0057】
色にじみは、黒文字のエッジの外側に生じる。そこで、色にじみ領域の判定方法としては、文字領域とその近傍画素(例えば数画素程度)を含めた領域に対して、注目画素が、『有彩色である』,『エッジである』,『周囲の画素のどれかに黒文字領域の画素(無彩色の画素)がある』の3つの条件を用い、これら、3つの条件全てを満たす場合に、色にじみ領域と判定する。それぞれの条件の判定は、有彩色判定部21a、エッジ抽出処理部21b、及び近傍画素判定部21cで行われる。
【0058】
有彩色判定部21aでは、図4に示すように、CMY信号の最大値max(C,M,Y)と最小値min(C,M,Y)の差が所定の閾値Δをこえた場合に有彩色と判定し、閾値Δより小さい場合には無彩色と判定する。
【0059】
エッジ抽出処理部21bでのエッジの判定方法としては、注目画素を中心とした例えば3×3の領域で、図5に示すようなゾーベルフィルタを適用して行う。図において左側のフィルタAは横方向、右側のフィルタBは縦方向のエッジを検出するためのもので、これらのゾーベルフィルタを注目画素に対して適用して求められた値の和が、予め定められた閾値を超えた場合にエッジと判定する。
【0060】
近傍画素判定部21cでは、図6に示すような注目画素の近傍8画素に黒文字領域の画素があるか否かを判定するために、前述の有彩色か無彩色かの判定を近傍8画素に対して行い、どれか一つの画素でも無彩色の画素ならば注目画素は色にじみであると判定する。
【0061】
図3のフローチャートに、色にじみ判定部21の色にじみ判定処理の手順を示す。
【0062】
まず、ステップ1(以下ステップをSと記す。)で、フラグFとフラグNを0に初期化する。フラグFは無彩色の判定を行っているのが注目画素なのか近傍の画素なのかを区別するためのフラグであり、0の場合は注目画素、aでは近傍画素の判定を行っていることを表す。フラグNは、近傍画素判定を行う際のパラメータ(近傍画素の数:K)であり、何個目の近傍画素の判定を行っているかを表す。
【0063】
次に、注目画素が有彩色であるのか否かの判定を行うために、S2にて注目画素のC,M,Y信号について、最大値max(C,M,Y)及び最小値min(C,M,Y)が求められる。なお、最大値max(C,M,Y)とは、C濃度信号のレベルC、M濃度信号のレベルM、およびY濃度信号のレベルYのうち、最も大きいレベルの値である。同様に、最小値min(C,M,Y)とは、C濃度信号のレベルC、M濃度信号のレベルM、およびY濃度信号のレベルYのうち、最も小さいレベルの値である。
【0064】
S3では、上記最大値max(C,M,Y)と最小値min(C,M,Y)との差と、予め定められた閾値Δとの比較が行われる。最大値max(C,M,Y)と最小値min(C,M,Y)との差が予め定められた閾値Δより大きいとき、すなわち、
max(C,M,Y)−min(C,M,Y)>Δ
の条件が満たされる場合、注目画素は有彩色であると判定する。S3で、注目画素が有彩色であると判定されると、S4で、フラグFがaか否かの判定がなされる。今の場合、フラグFは0であるので、フラグFがaでないと判定される。フラグFがaの場合については後述する。
【0065】
一方、S3で、注目画素の判定処理にて、有彩色でないと判定されると、S10でCMYの最大値max(C,M,Y)と予め定められた閾値MAX0 との比較がなされる。これは、最大値max(C,M,Y)がある程度低い場合には、最大値と最小値の差も小さくなり認識が困難になるため、最大値に対する条件を設けているものである。
【0066】
S10で、上記条件が満たされる(無彩色)と判定されると、S11でフラグFの内容が確認される。この場合、すなわちフラグFがaでない場合は、注目画素が無彩色、すなわち、黒文字領域に属するとS12にて判定される。Sl0で上記条件が満たされない場合、注目画素の判定処理中、すなわちS14でフラグFがaでない時は、その他領域の画素と判断される。
【0067】
S4でフラグFがaでないと判定されると、S5で前述した図5のゾーベルフィルタによるエッジ抽出処理が施され、S6で注目画素がエッジか否かが判定される。S6でエッジではない(有彩色であるがエッジではない)場合は、S15にて色文字と判断されるのでその他領域に分類される。S6で、エッジであると判断されると、注目画素は色にじみが生じている可能性があるので、次に近傍画素が無彩色か否か(近傍画素に黒文字領域があるかどうか)を判定する必要がある。
【0068】
そこで、S7で、先ずフラグNがK(近傍画素の数)か否か(近傍画素全てについて無彩色か否かの判定処理がなされたか否か)が判定される。今、フラグNは0であるので、フラグFをaに設定し(S8)、Nの数を1増加させてから(S9)、S3に戻り近傍画素の判定が行われる。
【0069】
近傍画素の判定を行う場合には、S5・S6のエッジ抽出処理及びエッジの判定処理は不要であるので、S4でフラグFの判定を行っている。すなわち、近傍画素の判定を行っているF=aの場合は、S3での処理の後、S7にてNがKであるかどうかの判定処理がなされる。
【0070】
S3で、近傍画素の判定処理中、有彩色でないと判定されると、S10でCMYの最大値max(C,M,Y)と予め定められた閾値MAX0 との比較がなされる。
【0071】
S10で、上記条件が満たされる(無彩色)と判定されると、S11でフラグFの内容が確認される。この場合、すなわちフラグFがaの場合は、注目画素の近傍に無彩色の画素が存在するので、注目画素は色にじみであるとS13にて判定される。
【0072】
Sl0で、上記条件が満たされない場合、近傍画素の判定処理中、すなわちS14でフラグFがaの時は、さらに別の近傍画素の判定を行う必要があるので、S7に戻る。
【0073】
S7で近傍画素全てについて判定を行った結果、無彩色の画素が見いだされなかった場合(フラグN=Kと判断された場合)もその他領域の画素として分類される。
【0074】
図2の色にじみ判定部21について、図3のフローチャートに対応付けて説明すると、以下の通りである。
【0075】
まず、図2には示していないが、有彩色判定部21a、エッジ抽出処理部21b、および近傍画素判定部21cには、全領域のC信号、M信号、およびY信号が入力されている。
【0076】
有彩色判定部21aは、文字領域にあることを示す文字領域識別信号に基づき、文字領域の各画素とその近傍画素(例えば数画素程度)を注目画素として、図3のS2、S3、およびS10に相当する有彩色判定処理を注目画素に対して行う。具体的には、まず、注目画素の最大値max(C,M,Y)および最小値min(C,M,Y)を求め、最大値max(C,M,Y)と最小値min(C,M,Y)との差が閾値Δより大きいかを判定する。そして、最大値max(C,M,Y)と最小値min(C,M,Y)との差が閾値Δより大きい場合には、注目画素が有彩色であると判定し、その注目画素に関するエッジ抽出処理を行うようエッジ抽出処理部21bに指示する。一方、最大値max(C,M,Y)と最小値min(C,M,Y)との差が閾値Δ以下である場合には、注目画素の最大値max(C,M,Y)が閾値MAX0 以上であるかを判定する。そして、最大値max(C,M,Y)が閾値MAX0 以上である場合には、注目画素が黒文字領域にあると判定し、黒文字領域を表す領域識別信号を黒生成/下色除去部15に出力する。一方、最大値max(C,M,Y)が閾値MAX0 未満である場合には、注目画素がその他領域にあると判定し、その他領域を表す領域識別信号を黒生成/下色除去部15に出力する。
【0077】
エッジ抽出処理部21bは、有彩色判定部21aから指示を受けたときに、図3のS5およびS6に相当するエッジ判定処理を行う。具体的には、C・M・Yの各信号毎に、注目画素を中心としたM×N(M、Nは自然数)のブロック内の画素(例えば、3×3画素)の濃度値に対して、エッジ検出フィルタ(例えば、図5に示すようなゾーベル(Sobel) フィルタ)を掛ける。そして、得られた値の和が予め定められた閾値を越えている場合には、注目画素が文字のエッジであると判定し、その注目画素の近傍画素に関する判定処理(近傍画素判定処理)を行うよう近傍画素判定部21cに指示する。一方、得られた値の和が予め定められた閾値以下である場合には、注目画素がその他領域にあると判定し、その他領域を表す領域識別信号を黒生成/下色除去部15に出力する。
【0078】
近傍画素判定部21cは、エッジ抽出処理部21bから指示を受けたときに、注目画素の近傍画素(この場合、近傍8画素)に対する、図3のS2、S3、およびS10に相当する処理(近傍画素判定処理)を行う。具体的には、具体的には、まず、1つの近傍画素の最大値max(C,M,Y)および最小値min(C,M,Y)を求め、最大値max(C,M,Y)と最小値min(C,M,Y)との差が閾値Δより大きいかを判定する(S3)。そして、最大値max(C,M,Y)と最小値min(C,M,Y)との差が閾値Δ以下である場合には、さらに、その近傍画素の最大値max(C,M,Y)が閾値MAX0 以上であるかを判定する(S10)。そして、近傍画素の最大値max(C,M,Y)が閾値MAX0 以上である場合、近傍画素が黒文字領域にあると判定する。したがって、この場合、注目画素が色にじみ領域にあると判定し、色にじみ領域を表す領域識別信号を黒生成/下色除去部15に出力する。一方、S3で最大値max(C,M,Y)と最小値min(C,M,Y)との差が閾値Δより大きいか、あるいはS10で近傍画素の最大値max(C,M,Y)が閾値MAX0 未満である場合には、別の近傍画素についてS2、S3、およびS10の処理を行う。そして、全ての近傍画素についてS2、S3、およびS10の処理を行っても、黒文字領域にある近傍画素が見つからなかった場合には、注目画素がその他領域にあると判定し、その他領域を表す領域識別信号を黒生成/下色除去部15に出力する。
【0079】
再び、図2に戻り、黒生成/下色除去部15の処理内容を説明する。黒生成/下色除去部15における黒生成部15aでは、CMY信号から、K信号Ki (i=1〜3;K1 は黒文字領域での黒生成量を表すK信号、K2 は色にじみ領域での黒生成量を表すK信号、K3 はその他の領域での黒生成量を表すK信号)を計算する。黒生成量の計算方法としては、(2)式を用いる。
【0080】
【数6】
Figure 0003734703
【0081】
ここで、図7に示すように、最小値min(C,M,Y)はCMY信号の最小値であり、これに定数を掛けたものをK信号とする。ただし、色にじみ領域では、信号がずれていることを考慮して、最大値max(C,M,Y)と最小値min(C,M,Y)の平均値を用いる。このとき、領域分離処理部14の色にじみ判定部21で判定された色にじみ判定信号(領域識別信号)によって係数を切替える。
【0082】
色にじみ領域での黒生成量を黒文字領域と同じにすると黒文字が太くなるため、黒文字領域での係数をF1 (F1 >0)、色にじみ領域での係数をF2 (F2 >0)、その他の領域での係数をF3 (F3 >0)とすると、F1 >F2 >F3 となるように値を設定する。その他の領域は、カラーの絵柄の部分に当たるため、コントラストの大きい黒の生成量を少なくし、CMYの三色で画像形成を行った方が、濁りのない良好な画像になることからF3 を小さくする。
【0083】
なお、単にmin(C,M,Y)をKに置き換えるのであれば、F3 =1となるが、等量のCMYを混ぜたものとKが必ずしも等しいわけではないため、単にmin(C,M,Y)をKに置き換えることはできない。よって、色再現に望ましいF3 の値は1になるとは限らない。また、ある色を表すCMYKの組み合わせは複数あるため、Kが少ない組み合わせが良い場合もある。この場合、F3 は、その他の有彩色の画像領域であるため、むしろ1未満であることが望ましい。
【0084】
1 ,F2 ,F3 は事前に多くの画像に対して様々な値に設定して画像形成を行い、その結果を基に最適な値を設定すればよい。
【0085】
黒生成/下色除去部15における下色除去部15bでは、図8に示すように、元のCMY信号から、黒生成部で計算されたK信号Ki (i=1〜3)に、定数α(0<α<1)をかけたものを差し引いて、新たなCMY信号C’M’Y’を生成する。下色除去部15bにおけるCMY信号C’M’Y’の計算式を、(3)式に示す。
【0086】
【数7】
Figure 0003734703
【0087】
なお、(3)式によって計算されるC’M’Y’は、負の値になることもある。例えば、色にじみ領域での係数F2 を1、定数αを1とすれば、(3)式で計算されるC’M’Y’のうちで最小のものは、{min(C,M,Y)−max(C,M,Y)}/2に等しくなり、必ず負の値になる。このように(3)式の計算結果が負の値になる信号については、0の値を持つ信号に変換するものとする。また、ここでは、0<α<1としたが、係数αは1以上であっても問題はない。
【0088】
以上のように、本実施の形態の画像処理装置1では、RGBの入力画像データをYMCKの出力画像データに変換する際に、領域分離処理部14が、入力画像データを文字領域・網点領域・写真領域に分離すると共に、文字領域をさらに、黒文字領域・色にじみ領域・これらのどちらにも属さないその他領域に分類し、黒生成/下色除去部15が、黒文字領域・色にじみ領域・その他領域毎に黒の生成量を制御するので、色にじみ領域を黒文字領域やその他領域と区別して、色にじみ領域にあった黒生成量を決定することができ、色にじみ領域が生じている故に、小さな黒文字が読み取り難くなったり、黒線に色が付く等の問題をなくして、黒文字、黒線等を良好に再現することが可能となる。
【0089】
また、上記画像処理装置1では、黒生成/下色除去部15は、黒文字領域の黒生成量をK1 、色にじみ領域の黒生成量をK2 、その他領域の黒生成量をK3 とすると、K1 >K2 >K3 の関係を満たすように黒生成量を制御するので、黒文字が太くなるのを防ぐと共に、色濁りのない良好な画像を形成することができる。
【0090】
さらに、上記画像処理装置1では、黒生成/下色除去部15は、色にじみ領域の黒生成量を、複数の色成分の出力画像データの最大値と最小値との平均値に基づいて決定するので、CMY信号のずれの影響が小さい黒生成量の決定が可能となり、より一層、黒文字、黒線等を良好に再現することが可能となる。
【0091】
〔実施の形態2〕
本発明の他の実施の形態について図9ないし図11に基づいて説明すれば、以下の通りである。なお、説明の便宜上、前記実施の形態1にて示した各部材と同一の機能を有する部材には、同一の符号を付記し、その説明を省略する。
【0092】
実施の形態1では、入力画像データに領域分離処理を施すことにより文字領域を抽出し、さらに文字領域を、黒文字領域、色にじみ領域、およびこれらのどちらにも属さないその他領域に分離し、各領域毎に黒生成量を変化させる手法を説明した。
【0093】
しかしながら、この手法では、黒生成処理のみを各領域毎に制御しており、CMY信号を減少させる下色除去処理は各領域毎に制御していない。すなわち、実施の形態1では、黒文字領域、色にじみ領域、およびその他領域の各領域毎に黒生成量を変化(増加あるいは減少)させるだけであり、CMY信号を減少させる下色除去処理については各領域毎に制御せず、黒生成量に対してCMY信号を減少させる量を全領域で一定の割合となるようにしていた。そのため、色にじみを充分に除くことができなかったり、その他領域(例えば、絵柄や色文字)の濃度や彩度が低下してしまうおそれがあるという問題がある。
【0094】
本実施形態は、下色除去処理(および下色追加(UCA:Under Color Addition)処理)を黒文字領域、色にじみ領域、およびその他領域の各領域に応じて切り替えることで、色にじみをさらに低減するとともに、その他領域(例えば、絵柄や色文字)の濃度や彩度の低下を防止するものである。
【0095】
また、本実施形態では、その他領域に適した黒生成処理および下色除去処理を行うが、その他領域に適した処理とは多くの色に対して平均的に良い結果をもたらす処理を意味している。従って、必ずしも全ての色において最適化されているのではないため、色によっては彩度低下を引き起こす可能性がある。例えば、濃い緑のような暗くて鮮やかな色において彩度低下が生じやすい傾向がある。それゆえ、このような色を下色除去処理後、そのまま出力すると、画質が劣化することがある。そこで、本実施形態では、このような画質の劣化を防ぐために下色除去処理後に下色追加処理を行うようになっている。
【0096】
図9に、本発明の画像処理方法及び画像処理装置の構成が適用された画像処理装置31の構成を示す。図9に示すように、画像処理装置31は、黒生成/下色除去部15の代わりに黒生成/下色除去部(黒生成/下色除去手段)25を備え、黒生成/下色除去部25の後段に下色追加部(下色追加手段)26をさらに備え、操作パネル31に接続されている点以外は、実施の形態1の画像処理装置1と同様の構成を備えている。本実施形態では、画像処理装置31、カラー画像入力装置2、カラー画像形成装置3、および操作パネル31によって、画像形成装置としてのデジタルカラー複写機が構成されている。
【0097】
領域分離処理部14は、注目画素が網点領域および写真領域に属していることを示す領域識別信号(網点・写真領域識別信号)を、空間フイルタ処理部16および階調再現処理部18へと送る。また、注目画素が黒文字領域、色にじみ領域、およびその他の領域のどの領域に属しているかを示す領域識別信号を、黒生成/下色除去部25および下色追加部26へと送る。
【0098】
黒生成/下色除去部25は、黒生成部25aと下色除去部(下色除去手段)25bとによって構成されている。黒生成部25aは、実施の形態1で説明した黒生成部25aと同一の構成を備えており、色補正されたCMY信号と領域識別信号とに基づいて黒(K)生成処理を行う。下色除去部25bは、領域識別信号に応じた計算式によって黒信号から計算される下色の量をCMY信号から減算し、CMYK4色のデータに変換する。黒生成処理および下色除去処理の詳細については後述する。
【0099】
下色追加部26は、黒生成処理および下色除去処理により得られたCMYK信号と領域識別信号とに基づいて、黒生成による彩度低下を補うためにCMY信号を増加する下色追加処理を行う。下色追加処理の詳細についても後述する。
【0100】
操作パネル30は、画像処理装置31、カラー画像入力装置2、およびカラー画像形成装置3の動作を制御すべくユーザが操作するためのボタン群と、ユーザの操作に必要な情報等を表示するための液晶ディスプレイ等からなる表示部とを備えるものである。
【0101】
次に、黒生成/下色除去部25および下色追加部26における処理の内容を詳細に説明する。
【0102】
図10に、領域分離処理部14、黒生成/下色除去部25、および下色追加部26の構成を示す。
【0103】
前記の実施の形態1では、色にじみ判定部21の判定結果に基づいて処理を切り替えるのは黒生成部15aだけであったが、本実施形態では、黒生成部25aだけでなく下色除去部25bおよび下色追加部26においても、色にじみ判定部21の判定結果に基づき処理を切り替える。
【0104】
下色除去部25bでは、図8に示すように、元のCMY信号から、黒生成部25aで計算されたK信号Ki (i=1〜3)に、定数α(0<α<1)をかけたものを差し引いて、新たなCMY信号C’M’Y’を生成する。すなわち、下色除去部25bにおけるC信号C’、M信号M’、およびY信号Y’の計算式は、実施の形態1の(3)式と同様である。
【0105】
ただし、ここで、黒文字領域での係数αをα1 、色にじみ領域での係数αをα2 、その他の領域での係数αをα3 とすると、α1 、α2 、およびα3 は、異なる値に設定される。言い換えると、下色除去部25bは、C信号C’、M信号M’、およびY信号Y’を計算するための式として、黒文字領域では次の(4)式を、色にじみ領域では次の(5)式を、その他の領域では次の(6)式をそれぞれ使用する。
【0106】
【数8】
Figure 0003734703
【0107】
黒文字領域では、黒生成量を大きくしK単色に近い状態で出力して文字を鮮明にするために、α1 を比較的大きくする(α2 およびα3 より大きくする)。色にじみ領域では、色にじみの原因となるCMY量を減らすために係数α2 を比較的大きくする。ただし、色にじみ領域のCMYを完全に除くと、色にじみ領域の濃度が低くなり、黒文字とその他領域との間にギャップ(線状の白抜け)を生じたように見えてしまう。そこで、このような問題が生じないように、最適な係数α2 の値を予め実験等により求めておくとよい。このように、黒文字領域および色にじみ領域での係数α1 およびα2 を比較的大きくすることで、黒文字領域および色にじみ領域のCMY量を減少させ、黒文字領域および色にじみ領域を黒単色に近い色にすることができる。そのため、色にじみ領域に生じた色にじみをより効果的に除くことが可能となる。その他領域では、色の再現性を優先するため、黒生成部25aで加えたK量と同様な効果を与える分の下色を除去するように係数α3 を定める。そのため、この係数α3 は、基本的に係数α1 およびα2 より小さい。なお、実施の形態1で述べたように等量のCMYを混ぜたものとKが必ずしも等しいわけではないため、α3 の値も1が望ましいとは限らない。
【0108】
下色追加部26では、下色除去処理により低下した彩度を補うために、CMY量を増加させる下色追加処理を行う。図11を用いて下色追加処理を説明する。斜線で表した処理前のC’,M’,Y’信号のそれぞれに対して、網かけで表した信号を加算し、得られた信号を新しいCMY信号C”,M”,Y”とすることで、彩度を高める。
【0109】
下色追加部26における下色追加処理方法としては、例えば、特開昭63−180270号公報(特公平6−44801号公報)に記載の方法が使用できる。この方法では、下色除去処理後に残ったCMY信号C’,M’,Y’をK信号の量に応じて強調する。K信号に依存する係数をβとすると、CMY信号C”,M”,Y”の計算式は、次の式(7)で表される。なお、ここでは、C’,M’,Y’,K,C”,M”,およびY”が、0〜255の値をとる8ビットのデジタル信号である場合を示している。
【0110】
【数9】
Figure 0003734703
【0111】
式(7)の係数γは、色にじみ判定部21から出力された領域識別信号によって切り替えられる。すなわち、領域識別信号が黒文字領域を表す信号であれば係数γをγ1 とし、領域識別信号が色にじみ領域を表す信号であれば係数γをγ2 とし、領域識別信号がその他領域を表す信号であれば係数γをγ3 とする。
【0112】
これらの係数γ1 、γ2 、およびγ3 は、
γ1 ≦γ2 <γ3
という関係を満たすように設定すると良い。すなわち、黒文字領域および色にじみ領域での係数γの値γ1 ・γ2 を比較的小さい値(0または小さい値)にし、その他領域での係数γの値γ3 を、黒文字領域および色にじみ領域での係数γの値γ1 ・γ2 より大きい値に設定すると良い。こうすることで、黒文字領域および色にじみ領域での彩度を増加させることなく、黒生成処理および下色除去処理によるその他領域での彩度の低下を補うことができる。
【0113】
また、下色追加処理は、黒生成処理および下色除去処理により彩度が低下した場合に彩度の低下を補うためのものである。従って、下色追加処理は、黒生成処理および下色除去処理により彩度が低下した場合にのみ、特に、その他領域で彩度低下が起きた場合にのみ行えばよい。
【0114】
そこで、本実施形態の下色追加部26では、通常は下色追加処理を行わず、操作パネル30からユーザの指示を受けたときのみ下色追加処理を行うようになっている。すなわち、下色追加部26は、通常時はOFF状態(信号がそのまま通過する状態)である。そして、ユーザが、通常の状態で複写を行い、彩度低下が起きているのでもう少し鮮やかな画像を出力したいと感じて、操作パネル30に設けられた下色追加処理ボタンを押すと、下色追加部26に下色追加制御信号が送られ、下色追加部26がON状態に切り替わる。
【0115】
なお、下色追加部26において下色追加処理を行うかどうかは、黒生成/下色除去部25での各種パラメータを設定する時(色補正データの作成時)に行ってもよい。すなわち、この時点で、まず、下色追加処理を行わずに黒生成/下色除去部25での黒生成処理および下色除去処理を行った画像データをカラー画像形成装置3に出力し、紙等の記録媒体上に画像を形成する。そして、目視あるいは測色器で彩度を測定し、彩度低下が起きているかどうかを調べることで行う。
【0116】
また、黒色生成部25aにおける係数F1 、F2 、およびF3 の設定や、下色除去部25bにおける係数α1 、α2 、およびα3 の設定が適切であり、黒生成処理および下色除去処理によりその他領域の彩度が低下しない場合には、色再現のために下色追加処理を行う必要はない。
【0117】
以上のように、本実施形態の画像処理装置31では、黒生成/下色除去部25が、黒生成処理における黒の生成量と下色除去処理における黒以外の色成分(C,M,Y)の減少量との双方を黒文字領域・色にじみ領域・その他領域毎に制御するので、実施の形態1の画像処理装置1に加えて、次の効果が得られる。すなわち、色にじみ領域においては黒以外の色成分をより少なくすることで色にじみをさらに低減でき、しかも、その他領域、すなわち絵柄や色文字等の着色部分においては黒以外の色成分を黒生成量に応じた量だけ減少することで、着色部分の彩度の低下を回避することができる。
【0118】
なお、上述した各実施形態はあくまでも本発明の一例であり、本発明は上述した各実施形態以外の実施形態にも適用可能である。
【0119】
例えば、上述した各実施形態の領域分離処理部14では、RGB信号を色補正部13で色変換することにより得られたCMY信号(色補正画像データ)に対して領域分離処理を行って、領域識別信号を生成するようになっていたが、領域分離処理される画像データは、色変換される前の入力画像データ、例えば、入力階調補正部12から出力されたRGB信号であってもよい。
【0120】
RGB信号を領域分離処理するようにした画像処理装置の例を図12に基づいて説明する。この例のカラー画像処理装置(画像処理装置)41は、図12に示すように、領域分離処理部14に代えて領域分離処理部44を備える以外は実施の形態1の画像処理装置1と同様の構成を備えている。領域分離処理部44は、CMY信号ではなく入力階調補正部12から出力されたRGB信号に基づいて領域分離処理を行う点、およびRGB信号を色補正部13に出力する点以外は、領域分離処理部14と同様である。すなわち、領域分離処理部14は、入力画像データ(RGB信号)中の各画素を文字領域・網点領域・写真領域に分離し、さらに上記文字領域およびその近傍領域の各画素を黒文字領域・色にじみ領域・これらのどちらにも属さないその他領域に分類するようになっている。また、領域分離処理部44は、領域分離結果に基づき、各画素がどの領域に属しているかを示す領域識別信号を黒生成/下色除去部15、空間フィルタ処理部16、および階調再現処理部18へ出力するとともに、入力階調補正部12より出力された入力信号をそのまま後段の色補正部13に出力する。
【0121】
上記構成によっても、実施の形態1と同様に、色にじみ領域を黒文字領域やその他領域と区別して、色にじみ領域にあった黒生成量を決定することができ、色にじみ領域が生じている故に、小さな黒文字が読み取り難くなったり、黒線に色が付く等の問題をなくして、黒文字、黒線等を良好に再現することが可能となる。
【0122】
また、上述した各実施形態では、本発明をデジタルカラー複写機の画像処理装置に適用した場合について説明したが、本発明は、RGBの画像データをCMYKの画像データに変換する機能を備えたコンピュータにも適用することが可能である。この場合、RGBの画像データをCMYKの画像データに変換する機能は、例えば、RGBの画像データを印刷用のCMYKの画像データに変換可能なプリンタドライバで実現することが可能である。
【0123】
また、上述した各実施形態では、CMYKの画像データを出力する画像処理装置について説明したが、本発明は、4色より多くの色成分(ただし、黒色を含む)からなる画像データを出力する画像処理装置にも適用可能である。
【0124】
【発明の効果】
本発明の画像処理方法は、以上のように、入力画像データあるいは色補正画像データを文字領域・網点領域・写真領域に分離し、さらに文字領域およびその近傍領域を、黒文字領域・色にじみ領域・これらのどちらにも属さないその他領域に分類し、黒文字領域・色にじみ領域・その他領域毎に黒の生成量を制御し、上記色にじみ領域における黒の生成量を、色補正画像データに含まれる注目画素のCMYの最大値と最小値との平均値に基づいて決定するものである。
【0125】
これにより、文字領域がさらに黒文字領域、色にじみ領域、及びその他領域に分類され、各領域毎に黒生成量が個別に制御されるので、色にじみ領域を黒文字領域やその他領域と区別して、色にじみ領域にあった黒生成量とすることができる。その結果、色にじみ領域が生じている故に、小さな黒文字が読み取り難くなったり、黒線に色が付く等の問題をなくして、黒文字、黒線等を良好に再現することが可能となるという効果を奏する。
【0126】
また、本発明の画像処理方法は、さらに、出力画像データにおける黒以外の色成分を減少させる下色除去処理を行い、黒文字領域・色にじみ領域・その他領域毎に黒以外の色成分の減少量を制御する方法であることが好ましい。
【0127】
これにより、黒文字領域および色にじみ領域においては黒以外の色成分(例えばCMY成分)を減少させる一方、その他領域である絵柄や色文字等の着色部分においては、黒以外の色成分を黒生成量に応じた量だけ減少することできる。それゆえ、上記方法は、前述の効果に加えて、着色部分の彩度の低下を回避しながら色にじみをさらに低減することができるという効果を奏する。
【0128】
また、本発明の画像処理方法は、さらに、出力画像データにおける黒以外の色成分を増加させる下色追加処理を行い、黒文字領域・色にじみ領域・その他領域毎に黒以外の色成分の増加量を制御する方法であってもよい。
【0129】
これにより、下色除去処理によってその他領域である絵柄や色文字等の着色部分に彩度の低下が生じた場合においても、下色追加処理によりその他領域の黒以外の色成分を増加させることができ、また、下色追加処理による色にじみ領域の黒以外の色成分の増加量を低く抑えることができる。それゆえ、上記方法は、前述の効果に加えて、色にじみの増加を回避しながら着色部分の彩度をより忠実に再現することができるという効果を奏する。
【0130】
本発明の画像処理装置は、以上のように、領域分離手段は、文字領域およびその近傍領域を、黒文字領域・色にじみ領域・これらのどちらにも属さないその他領域に分類する色にじみ判定手段を備えており、上記黒生成手段は、上記色にじみ判定手段にて分類された黒文字領域・色にじみ領域・その他領域毎に黒生成量を制御し、上記黒生成手段は、色にじみ領域の黒生成量を、色補正画像データに含まれる注目画素のCMYの最大値と最小値との平均値に基づいて決定する構成である。
【0131】
これにより、文字領域がさらに黒文字領域、色にじみ領域、及びその他領域に分類され、各領域毎に黒生成量が個別に制御されるので、色にじみ領域を黒文字領域やその他領域と区別して、色にじみ領域にあった黒生成量とすることができる。その結果、色にじみ領域が生じている故に、小さな黒文字が読み取り難くなったり、黒線に色が付く等の問題をなくして、黒文字、黒線等を良好に再現することが可能となるという効果を奏する。
【0132】
さらに、本発明の画像処理装置においては、黒生成手段が、色にじみ領域の黒生成量を、色補正画像データに含まれる注目画素のCMYの最大値と最小値との平均値に基づいて決定する構成とすることで、CMY信号のずれの影響が小さい黒生成量の決定が可能となり、より一層、黒文字、黒線等を良好に再現することが可能となる。
【0133】
また、本発明の画像処理装置は、出力画像データにおける黒以外の色成分を減少させる下色除去処理を行う下色除去手段をさらに備え、上記下色除去手段は、上記色にじみ判定手段にて分類された黒文字領域・色にじみ領域・その他領域毎に黒以外の色成分の減少量を制御する構成であることが好ましい。
【0134】
これにより、黒文字領域および色にじみ領域においては黒以外の色成分(例えばCMY成分)を減少させる一方、その他領域である絵柄や色文字等の着色部分においては、黒以外の色成分を黒生成量に応じた量だけ減少することできる。それゆえ、上記構成は、前述の効果に加えて、着色部分の彩度の低下を回避しながら色にじみをさらに低減することができるという効果を奏する。
【0135】
また、本発明の画像処理装置においては、黒生成手段が、CMYからなる色補正画像データから、次式
【0136】
【数10】
Figure 0003734703
【0137】
を用いて、黒文字領域での黒生成量を表すK信号K 1 、色にじみ領域での黒生成量を表すK信号K 2 、およびその他の領域での黒生成量を表すK信号K 3 を計算し、黒文字領域での係数F 1 、色にじみ領域での係数F 2 、およびその他の領域での係数F 3 の値をF 1 >F 2 >F 3 となるように設定する構成とすることで、さらに、黒文字が太くなるのを防ぐと共に、色濁りのない良好な画像を形成することが可能となる
【0138】
また、本発明の画像処理装置は、出力画像データにおける黒以外の色成分を増加させる下色追加処理を行う下色追加手段をさらに備え、上記下色追加手段は、上記色にじみ判定手段にて分類された黒文字領域・色にじみ領域・その他領域毎に黒以外の色成分の増加量を制御する構成であってもよい。
【0139】
これにより、下色除去処理によってその他領域である絵柄や色文字等の着色部分に彩度の低下が生じた場合においても、下色追加処理によりその他領域の黒以外の色成分を増加させることができ、また、下色追加処理による色にじみ領域の黒以外の色成分の増加量を低く抑えることができる。それゆえ、上記構成は、前述の効果に加えて、色にじみの増加を回避しながら着色部分の彩度をより忠実に再現することができるという効果を奏する。
【図面の簡単な説明】
【図1】 本発明の実施の一形態を示すもので、画像処理装置の構成を主に示すブロック図である。
【図2】 上記画像処理装置における、領域分離処理部及び黒生成/下色除去部の構成を示すブロック図である。
【図3】 上記領域分離処理部による、文字領域を、黒文字領域・色にじみ領域・その他領域に分離する処理の流れを示すフローチャートである。
【図4】 上記領域分離処理部における有彩色判定部による、有彩色か無彩色かを判定する判定方法を示す説明図である。
【図5】 上記領域分離処理部におけるエッジ抽出処理部がエッジ抽出処理を行う際に使用するゾーベルフィルタの一例を示す説明図である。
【図6】 注目画素とその近傍の近傍画素の範囲の一例を示す説明図である。
【図7】 上記画像処理装置における黒生成/下色除去部における、黒生成処理の内容を示す説明図である。
【図8】 上記画像処理装置における黒生成/下色除去部における、下色除去処理の内容を示す説明図である。
【図9】 本発明の他の実施の形態を示すもので、画像処理装置の構成を主に示すブロック図である。
【図10】 図9に示す画像処理装置における、領域分離処理部、黒生成/下色除去部、および下色追加部の構成を示すブロック図である。
【図11】 図9に示す画像処理装置における下色追加部における、下色追加処理の内容を示す説明図である。
【図12】 本発明のさらに他の実施の形態を示すもので、画像処理装置の構成を主に示すブロック図である。
【符号の説明】
1 画像処理装置
2 カラー画像入力装置(画像入力手段)
3 カラー画像形成装置(画像形成手段)
13 色補正部(色補正手段)
14 領域分離処理部(領域分離手段)
15 黒生成/下色除去部(黒生成/下色除去手段)
15a 黒生成部(黒生成手段)
15b 下色除去部(下色除去手段)
21 色にじみ判定部(色にじみ判定手段)
21a 有彩色判定部
21b エッジ抽出処理部
21c 近傍画素判定部
25 黒生成/下色除去部(黒生成/下色除去手段)
25a 黒生成部(黒生成手段)
25b 下色除去部(下色除去手段)
26 下色追加部(下色追加手段)
30 操作パネル
31 画像処理装置
41 画像処理装置
44 領域分離処理部(領域分離手段)[0001]
BACKGROUND OF THE INVENTION
  The present invention includes an image processing method and an image processing apparatus for performing color conversion processing for converting input image data read by a color image input apparatus such as a scanner into output image data including black, and the image processing apparatus. The present invention relates to an image forming apparatus. More specifically, the present invention relates to control of black generation processing and under color removal processing (and under color addition processing) in the above method and apparatus.
[0002]
[Prior art]
  RGB (R: red, G: green, B: blue) image data read using an image input device such as a scanner is converted into four colors of CMYK (C: cyan, M: magenta, Y: yellow, K: black). In an image forming apparatus such as a digital color copier that converts and outputs, when copying a document with mixed characters and halftone images, edge enhancement is performed by extracting the edge portion of the black character in order to improve the image quality of the black character portion. Processing for filtering and increasing the amount of black by reducing the amount of CMY is performed.
[0003]
[Problems to be solved by the invention]
  However, when an image is read by an image input device such as the scanner described above, the reading position of the CCD sensor is shifted due to mechanical vibration or the like, and the edge portion of black characters or the like is colored (hereinafter referred to as color blur). Can occur). In an area where such color blur occurs, the CMY balance is lost. Therefore, in such a region, a UCR (value of the lowest level among the C density signal level, the M density signal level, and the Y density signal level), which is a general method, is used in such a region. When under color removal (under color removal) is performed, there are problems that black generation amount (density) is insufficient and small black characters are difficult to read, and black lines are colored. At present, no effective countermeasure has been proposed for an area where such color blur occurs. That is, no effective solution has been proposed for the problem of black characters being colored (color blur).
[0004]
  The present invention has been made in view of the above-described conventional problems. The purpose of the present invention is to convert input image data composed of a plurality of color component signals not including black signals, such as RGB signals, into CMYK signals and the like. In the image processing method, the image processing apparatus, and the image forming apparatus for converting to output image data composed of a plurality of color component signals including a black signal, even if a color blur occurs at the edge of the black character of the input image data, the color An object of the present invention is to provide an image processing method, an image processing apparatus, and an image forming apparatus capable of removing bleeding.
[0005]
[Means for Solving the Problems]
  In order to solve the above problems, an image processing method of the present invention providesR (red) G (green) B (blue)Input image data consisting ofC (cyan) M (magenta) Y (yellow)After color conversion to color corrected image data consisting ofWith CMYIn the image processing method for performing black generation processing for generating output image data comprising: the input image data or the color-corrected image data is separated into a character area, a halftone dot area, and a photographic area; and the character area and its vicinity area Are classified into black character areas, color blur areas, and other areas that do not belong to either of these, and the amount of black generated is controlled for each black character area, color blur area, and other areasThen, the black generation amount in the color blur area is determined based on the average value of the CMY maximum and minimum values of the pixel of interest included in the color correction image data.It is characterized by that.
[0006]
  According to this, the character area is further classified into a black character area, a color blur area, and other areas, and the black generation amount is individually controlled for each area. Therefore, the color blur area is distinguished from the black character area and other areas. The amount of black generation in the color blur area can be determined. As a result, since the color blur area is generated, it becomes possible to reproduce black characters, black lines, etc. satisfactorily without the above-mentioned problems such as difficulty in reading small black characters and coloring of black lines. .
[0007]
  The image processing method of the present invention further performs undercolor removal processing for reducing non-black color components in the output image data, and controls the reduction amount of non-black color components for each of the black character area, color blur area, and other areas. It is preferable to do.
[0008]
  According to this, by controlling the reduction amount of the color component other than black for each of the black character area, the color blur area, and other areas, it is possible to perform an appropriate under color removal process according to the black generation for each area. . That is, in the black character area and the color blur area, by reducing the color components other than black (for example, CMY components), the color blur can be further reduced and a good image can be reproduced. In addition, in a colored portion such as a pattern or a color character, which is another region, it is possible to avoid a decrease in the saturation of the colored portion by reducing the color components other than black by an amount corresponding to the black generation amount.
[0009]
  In addition, the image processing method of the present invention further performs undercolor addition processing for increasing color components other than black in the output image data, and increases the amount of color components other than black for each of the black character region, color blur region, and other regions. It may be a method of controlling.
[0010]
  According to this, it is possible to suppress a decrease in saturation by controlling the amount of increase in the color components other than black with respect to the other regions. That is, even when the saturation is reduced in the colored portion of a pattern or color character in the other area due to the under color removal process, the color component other than black in the other area is increased by the under color addition process. The decrease in saturation can be compensated for and the image can be reproduced well. Further, by suppressing the increase amount of the color components other than black in the color blur area due to the under color addition process, it is possible to avoid an increase in saturation (increase in color blur) of the color blur area due to the under color addition process. .
[0011]
  It is not necessary to perform the lower color addition process for the black character area.
[0012]
  The image processing apparatus of the present invention is read from the image input means in order to solve the above-described problem.R (red) G (green) B (blue)Input image data consisting ofC (cyan) M (magenta) Y (yellow)Color correction means for color-converting into color-corrected image data, area separation means for separating the input image data or the color-corrected image data into character areas, halftone areas, and photographic areas; andCMYBased on color-corrected image data consisting ofDetermine the amount of black productionBlack andWith CMYIn the image processing apparatus comprising the black generating means for generating the output image data comprising the area separating means, the character area and its neighboring area are classified as a black character area, a color blur area, or any other that does not belong to any of these. Color blur determination means for classifying into areas is provided, and the black generation means controls the black generation amount for each of the black character area, color blur area, and other areas classified by the color blur determination means.Then, the black generation means determines the black generation amount of the color blur area based on the average value of the maximum and minimum values of CMY of the target pixel included in the color correction image data.It is characterized by that.
[0013]
  According to this, the color bleed determining means provided in the area separating means further classifies the character areas into black character areas, color bleed areas, and other areas, and the black generation amount is individually determined for each area by the black generation means. Therefore, it is possible to determine the amount of black generation in the color blur area by distinguishing the color blur area from the black character area and other areas. As a result, since the color blur area is generated, it becomes possible to reproduce black characters, black lines, etc. satisfactorily without the above-mentioned problems such as difficulty in reading small black characters and coloring of black lines. .
[0014]
  Further, in the image processing apparatus of the present invention, the black generation unit determines the black generation amount of the color blur area based on an average value of the maximum value and the minimum value of CMY of the target pixel included in the color correction image data. To do. According to this, since the amount of deviation of the CMY signals is averaged, it becomes possible to determine the amount of black generation that is less affected by the deviation, and it becomes possible to reproduce black characters, black lines, etc. even better. .
[0015]
  In the image processing apparatus of the present invention, it is preferable to perform both the black generation process and the under color removal process. That is, it is more preferable that the black generation means is composed of black generation / under color removal means for generating output image data of a plurality of color components including black and performing under color removal processing. In particular, when the input image data is composed of three color components C, M, and Y, the black generation processing regards the minimum values (equal parts) of C, M, and Y as black components (gray). , By replacing with black (K signal). Therefore, it is necessary to perform an under color removal process for reducing the amount of C, M, and Y corresponding to the amount replaced with black.
[0016]
  The image processing apparatus according to the present invention further includes a lower color removing unit that performs a lower color removing process for reducing a color component other than black in the output image data, and the lower color removing unit includes the color blur determining unit. It is preferable that the reduction amount of the color component other than black is controlled for each classified black character region, color blur region, and other region.
[0017]
  According to this, since the amount of decrease in the color component other than black is controlled for each of the black character area, the color blur area, and other areas by the under color removal means, an appropriate under color removal process is performed according to the black generation for each area. It can be performed. That is, in the black character area and the color blur area, by reducing the color components other than black (for example, CMY components), the color blur can be further reduced and a good image can be reproduced. In addition, in a colored portion such as a pattern or a color character, which is another region, it is possible to avoid a decrease in the saturation of the colored portion by reducing the color components other than black by an amount corresponding to the black generation amount.
[0018]
  In the image processing apparatus of the present invention, the black generation means isFrom the color-corrected image data consisting of CMY,
[0019]
[Expression 2]
Figure 0003734703
[0020]
K signal K representing black generation amount in black character area 1 K signal K representing the amount of black generation in the color blur area 2 , And K signal K representing the black generation amount in other regions Three In the black text area Coefficient F 1 , Coefficient F in the color blur area 2 , And other factors F Three The value of F 1 > F 2 > F Three Set to beA configuration is also possible.
[0021]
  If the black generation amount in the color blur area is the same as that in the black character area, the black character becomes thick. Other areas that are character areas that are not black character areas or color blur areas correspond to color picture parts, so the amount of generated black with high contrast is reduced and images are formed in three colors of CMY. However, a good image without turbidity is obtained.
[0022]
  According to this, the black generation amount of the color blur area is set to be smaller than the black generation amount of the black character area, and the black generation amount is set to be smaller than that of the color blur area for the other areas. Prevents thickening and can form good images without color turbidity.
[0023]
The image processing apparatus according to the present invention further includes a lower color addition unit that performs a lower color addition process for increasing a color component other than black in the output image data, and the lower color addition unit is the color blur determination unit. A configuration may be used in which the amount of increase in color components other than black is controlled for each classified black character area, color blur area, and other areas.
[0024]
  According to this, since the increase amount of color components other than black is controlled for each of the black character area, the color blur area, and other areas by the under color adding means, it is possible to obtain the saturation corresponding to each area. In other words, even if the undercolor removal processing causes a decrease in saturation in a colored portion such as a pattern or a color character in the other region, the color component other than black in the other region can be increased by the lower color adding means. The decrease in saturation can be compensated for and the image can be reproduced well. Further, by suppressing the increase amount of the color components other than black in the color blur area due to the under color addition process, it is possible to avoid an increase in saturation (increase in color blur) of the color blur area due to the under color addition process. .
[0025]
  In order to solve the above problems, an image forming apparatus according to the present invention includes the image processing apparatus and an image forming unit that forms an image on a recording medium based on output image data generated by the image processing apparatus. It is characterized by having.
[0026]
  According to this, it is possible to provide an image forming apparatus that can remove color blur even when the color blur occurs at the edge of the black character of the input image data.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
  [Embodiment 1]
  An embodiment according to the present invention will be described below with reference to FIGS.
[0028]
  FIG. 1 shows a configuration of an image processing apparatus 1 to which the configuration of the image processing method and the image processing apparatus of the present invention is applied. As shown in FIG. 1, the image processing apparatus 1 includes an A / D conversion unit 10, a shading correction unit 11, an input tone correction unit 12, a color correction unit (color correction unit) 13, an area separation processing unit (region separation unit). ) 14, a black generation / under color removal unit (black generation / under color removal means) 15, a spatial filter processing unit 16, an output gradation correction unit 17, and a gradation reproduction processing unit 18. A color image input device (image input means) 2 and a color image forming device (image forming means) 3 are connected to the image processing apparatus 1. The image processing apparatus 1, the color image input apparatus 2, and the color image forming apparatus 3 constitute a digital color copying machine as an image forming apparatus.
[0029]
  The color image input device 2 generates RGB (first color component) analog signals and inputs them to the image processing device 1. The color image input device 2 includes, for example, a scanner unit, reads a reflected light image from a document as an RGB analog signal by a CCD (Charge Coupled Device), and inputs the read image to the image processing device 1.
[0030]
  The read analog signal is converted into an A / D conversion unit 10, a shading correction unit 11, an input tone correction unit 12, a color correction unit 13, a region separation processing unit 14, a black generation / under color removal in the image processing apparatus 1. 15, the spatial filter processing unit 16, the output tone correction unit 17, and the tone reproduction processing unit 18 are sent in this order, and are output to the color image forming apparatus 3 as CMYK (second color component) digital color signals. The
[0031]
  The A / D (analog / digital) conversion unit 10 converts the read analog signal into a digital signal and sends the digital signal to the shading correction unit 11. The shading correction unit 11 performs color processing on the sent RGB signal. Processing for removing various distortions occurring in the illumination system, imaging system, and imaging system of the image input device 2 is performed, and the processed image is sent to the input tone correction unit 12. The input gradation correction unit 12 sends the RGB reflectance signal to the color correction unit 13 after performing processing for converting the RGB reflectance signal into a signal that can be easily handled by the image processing system, such as a density signal.
[0032]
  The color correction unit 13 performs color correction processing for converting RGB signals into CMY signals (color correction image data) for the purpose of color reproduction fidelity, and then the region separation processing unit 14 and black generation / under color removal. Send to part 15.
[0033]
  Examples of color correction processing include a method of creating a transformation matrix, a method of creating a model describing the relationship between RGB and CMY using a neural network, and having a CMY value for each RGB value as a lookup table (LUT). is there.
[0034]
  The method of creating the transformation matrix is realized by using matrix operation to convert from RGB to CMY as shown in equation (1).
[0035]
[Equation 3]
Figure 0003734703
[0036]
  A combination of main CMY values is given to the color image forming apparatus 3 to output a color patch on a recording medium such as paper, and the recording medium on which the color patch is output is read by the color image input apparatus 2 described above. RGB values corresponding to the CMY values of the combinations are obtained. Constants a11 to a33 and constants b1 to b3 that satisfy the relationship between the obtained RGB values and CMY values are obtained by the method of least squares. In order to obtain more faithful color reproduction, it is sufficient to include higher-order terms of the second or higher order of RGB.
[0037]
  In order to use the LUT, the above conversion matrix is obtained, the CMY values output for the input RGB are obtained in advance, and stored as the LUT, and the relationship between the corresponding CMY and RGB is expressed by the conversion matrix. There is a method of learning using a neural network instead of describing it and creating an LUT using this neural network.
[0038]
  The area separation processing unit 14 performs a process of separating a document area including a character area, a halftone dot area, and a photographic area into respective areas, and further, in the vicinity of an area determined as a character area The area including the pixel area is classified into a black character area, a color blur area, and other areas. The region separation processing unit 14 generates a region identification signal indicating to which region the target pixel belongs based on the separation result, and generates a black generation / undercolor removal unit 15, a spatial filter processing unit 16, and a gradation reproduction processing unit 18. Send to.
[0039]
  The black generation / under color removal unit 15 includes a black generation unit (black generation unit) 15a and an under color removal unit 15b. The black generation unit 15 a performs black generation processing for generating a black (K) signal based on the color-corrected CMY signal and the region identification signal from the region separation processing unit 14. Further, the under color removal unit 15 b subtracts the amount of under color calculated from the black signal from the CMY signal, converts it to CMYK four-color data, and sends it to the spatial filter processing unit 16. Details of the processing contents of the black generation / undercolor removal unit 15 and the region separation processing unit 14 will be described later.
[0040]
  The spatial filter processing unit 16 performs spatial filter processing on the image data using a digital filter and corrects the spatial frequency characteristics to prevent blurring and graininess of the output image, and then performs output tone correction. Send to part 17.
[0041]
  The output tone correction unit 17 performs an output tone correction process for converting a signal such as a density signal into a halftone dot area ratio that is a characteristic value of the color image forming apparatus 3, and then sends the signal to the tone reproduction processing unit 18. The gradation reproduction processing unit 18 performs gradation reproduction processing (halftone generation) for processing so that the image is finally separated into pixels and each gradation can be reproduced.
[0042]
  In addition, after the color correction processing by the color correction unit 13 described above, the image region extracted as black characters (including color characters in some cases) by the region separation processing unit 14 is particularly black characters or colors in character and photo mixed originals. In order to improve the reproducibility of characters, the high frequency enhancement amount is increased by the sharp enhancement processing in the spatial filter processing by the spatial filter processing unit 16. At the same time, the gradation reproduction processing unit 18 is configured to select binarization or multi-value processing on a high-resolution screen suitable for high frequency reproduction.
[0043]
  In addition, for the region determined as a halftone dot by the region separation processing unit 14, the spatial filter processing unit 16 performs a low-pass filter process for removing the input halftone component, and at the same time, a gradation reproduction processing unit. In 18, binarization or multi-value processing is performed on the screen with an emphasis on gradation reproducibility.
[0044]
  The areas classified as character areas by the area separation processing unit 14 are classified into black character areas, color blur areas, and other areas (other areas) including areas of neighboring pixels.
[0045]
  The image data subjected to the above-described processes is temporarily stored in a storage unit (not shown), read at a predetermined timing, and input to the color image forming apparatus 3. The color image forming apparatus 3 outputs an image on a recording medium (for example, paper) based on the image data. For example, a color image forming apparatus using an electrophotographic method or an ink jet method can be used. However, it is not particularly limited.
[0046]
  Hereinafter, details of the processing in the region separation processing unit 14 and the black generation / undercolor removal unit 15 will be described in detail.
[0047]
  FIG. 2 shows the configuration of the region separation processing unit 14. The area separation processing unit 14 includes a character / halftone dot / photo area determination unit 20 and a color blur determination unit (color blur determination unit) 21.
[0048]
  In the image processing apparatus 1 according to the present embodiment, a region including a character region and neighboring pixels is separated into a black character region, a color blur region, and other regions, and the black generation amount is controlled in each region. . Therefore, first, the character / halftone dot / photograph area determination unit 20 separates the image data read by the color image input device 2 into the character area / halftone dot area / photograph area, and then the color blur determination unit. In 21, a process for classifying the character area and the area including the neighboring pixels into a black character area, a color blur area, and other areas is performed.
[0049]
  As a method of separating the input image data into the character area / halftone dot area / photograph area by the character / halftone dot / photograph area determination unit 20, for example, “Image Electronics Society of Japan Proceedings 90-06-04, p19-p24” Can be used. Details will be described below.
[0050]
  The following determination is performed in a block of M × N (M and N are natural numbers) pixels centered on the pixel of interest, and this is used as a region identification signal of the pixel of interest.
[0051]
  First, the average value (D of the signal levels) of the central nine pixels in the block (3 × 3 pixels centered on the target pixel).ave ) And binarize each pixel in the block using the average value. The maximum pixel signal level (Dmax ), Minimum pixel signal level (Dmin )
[0052]
  Next, the halftone dot region is identified by utilizing the fact that the fluctuation of the image signal in the small region is large and that the density is higher than the background. Specifically, for the binarized data, the number K of change points from 0 to 1 in each of the main scanning direction and the sub-scanning direction.H , And the number of change points K from 1 to 0V Ask for. Next, change points KH And KV For each threshold TH And TV Compare with And the number of change points KH And KV Are both threshold values (TH , TV ) Is determined as a halftone dot region, otherwise it is determined as a non-halftone dot region. Further, when it is determined as a halftone dot region, in order to prevent erroneous determination with the background, the average value of the signal level (Dave ) And maximum signal level (Dmax ) And the average signal level (Dave ) And minimum signal level (Dmin ) With the threshold B1 And B2 Compare with Both of these differences are threshold values (B1 , B2 ) Is determined as a halftone dot region, while in other cases, the determination is changed to a non-halftone region. That is, a halftone dot region and a region other than the halftone dot region (non-halftone dot region) are separated under the following conditions.
[0053]
[Expression 4]
Figure 0003734703
[0054]
  Next, it is considered that the character area has a feature that the difference between the maximum signal level and the minimum signal level is large and the density is high. Therefore, here, this feature is used to identify the character area. More specifically, the maximum signal level (D) previously determined in the non-halftone dot region other than the halftone dot region is determined by determining whether or not it is the halftone dot region.max ), Previously determined minimum signal level (Dmin ), And their difference (Dsub ) For each threshold PA , PB , And PC If any one of them exceeds the threshold value, the character area is selected. That is, the non-halftone area is divided into a character area and a photograph area under the following conditions.
[0055]
[Equation 5]
Figure 0003734703
[0056]
  Next, the color blur determination unit 21 determines whether or not a color blur region has occurred in a region including the character region extracted by the above method and its neighboring pixels (for example, about several pixels). The color blur determination unit 21 includes a chromatic color determination unit 21a, an edge extraction processing unit 21b, and a neighboring pixel determination unit 21c.
[0057]
  Color blur occurs outside the edges of black characters. Therefore, as a method of determining the color blur area, the target pixel is “chromatic”, “edge”, “surround” for the area including the character area and its neighboring pixels (for example, several pixels). If any of the three pixels satisfies the above three conditions, the color blur region is determined. Each condition is determined by the chromatic color determination unit 21a, the edge extraction processing unit 21b, and the neighboring pixel determination unit 21c.
[0058]
  In the chromatic color determination unit 21a, as shown in FIG. 4, when the difference between the maximum value max (C, M, Y) and the minimum value min (C, M, Y) of the CMY signal exceeds a predetermined threshold Δ. A chromatic color is determined, and if it is smaller than the threshold Δ, it is determined as an achromatic color.
[0059]
  As an edge determination method in the edge extraction processing unit 21b, a Sobel filter as shown in FIG. 5 is applied in a 3 × 3 region centered on the target pixel. In the figure, the filter A on the left side is for detecting horizontal edges and the filter B on the right side is for detecting vertical edges. The sum of values obtained by applying these Sobel filters to the target pixel is calculated in advance. When a predetermined threshold is exceeded, it is determined as an edge.
[0060]
  In the neighborhood pixel determination unit 21c, in order to determine whether there are any pixels in the black character region in the 8 pixels in the vicinity of the target pixel as shown in FIG. If any one pixel is an achromatic pixel, it is determined that the pixel of interest is a color blur.
[0061]
  The flowchart of FIG. 3 shows the procedure of the color blur determination process of the color blur determination unit 21.
[0062]
  First, in step 1 (hereinafter, step is referred to as S), a flag F and a flag N are initialized to 0. The flag F is a flag for distinguishing whether the achromatic color is determined as the target pixel or the neighboring pixel. When the flag F is 0, the target pixel is determined. To express. The flag N is a parameter (the number of neighboring pixels: K) when performing neighboring pixel determination, and represents the number of neighboring pixels being determined.
[0063]
  Next, in order to determine whether or not the pixel of interest is a chromatic color, the maximum value max (C, M, Y) and the minimum value min (C) for the C, M, and Y signals of the pixel of interest in S2. , M, Y). The maximum value max (C, M, Y) is a value of the largest level among the level C of the C density signal, the level M of the M density signal, and the level Y of the Y density signal. Similarly, the minimum value min (C, M, Y) is a value of the lowest level among the level C of the C density signal, the level M of the M density signal, and the level Y of the Y density signal.
[0064]
  In S3, the difference between the maximum value max (C, M, Y) and the minimum value min (C, M, Y) is compared with a predetermined threshold value Δ. When the difference between the maximum value max (C, M, Y) and the minimum value min (C, M, Y) is greater than a predetermined threshold value Δ, that is,
    max (C, M, Y) -min (C, M, Y)> Δ
If this condition is satisfied, it is determined that the target pixel is a chromatic color. If it is determined in S3 that the target pixel is a chromatic color, it is determined in S4 whether the flag F is a. In this case, since the flag F is 0, it is determined that the flag F is not a. The case where the flag F is a will be described later.
[0065]
  On the other hand, if it is determined in S3 that the pixel of interest is not a chromatic color in the determination process of the target pixel, the maximum CMY value max (C, M, Y) and a predetermined threshold value MAX are determined in S10.0 A comparison is made. In this case, when the maximum value max (C, M, Y) is low to some extent, the difference between the maximum value and the minimum value becomes small and recognition becomes difficult.
[0066]
  If it is determined in S10 that the above condition is satisfied (achromatic color), the content of the flag F is confirmed in S11. In this case, that is, when the flag F is not a, it is determined in S12 that the target pixel belongs to an achromatic color, that is, a black character region. If the above condition is not satisfied in S10, it is determined that the pixel is in the other region during the process of determining the target pixel, that is, when the flag F is not a in S14.
[0067]
  If it is determined in S4 that the flag F is not a, the edge extraction process by the Sobel filter of FIG. 5 described above is performed in S5, and it is determined in S6 whether or not the target pixel is an edge. If it is not an edge in S6 (it is a chromatic color but not an edge), it is determined as a color character in S15, and is classified into another region. If it is determined in S6 that the pixel is an edge, there is a possibility that the pixel of interest has a color blur, so it is next determined whether or not the neighboring pixel is an achromatic color (whether or not the neighboring pixel has a black character area). There is a need to.
[0068]
  Therefore, in S7, it is first determined whether or not the flag N is K (the number of neighboring pixels) (whether or not the processing for determining whether or not all neighboring pixels are achromatic colors has been performed). Since the flag N is now 0, the flag F is set to a (S8), the number of N is increased by 1 (S9), and the process returns to S3 to determine the neighboring pixels.
[0069]
  In the case of determining a neighboring pixel, the edge extraction process and the edge determination process in S5 and S6 are unnecessary, and therefore the flag F is determined in S4. That is, in the case of F = a in which a neighboring pixel is being determined, a determination process is performed in S7 to determine whether N is K after the process in S3.
[0070]
  If it is determined in S3 that the pixel is not a chromatic color during the determination process of neighboring pixels, the maximum CMY value max (C, M, Y) and a predetermined threshold value MAX are determined in S10.0 A comparison is made.
[0071]
  If it is determined in S10 that the above condition is satisfied (achromatic color), the content of the flag F is confirmed in S11. In this case, that is, when the flag F is a, an achromatic pixel exists in the vicinity of the pixel of interest, and therefore it is determined in S13 that the pixel of interest is blurred.
[0072]
  If the above condition is not satisfied in S10, during the neighboring pixel determination process, that is, when the flag F is a in S14, another neighboring pixel needs to be determined, and the process returns to S7.
[0073]
  As a result of the determination for all the neighboring pixels in S7, when no achromatic pixel is found (when it is determined that the flag N = K), it is classified as a pixel in the other region.
[0074]
  The color blur determination unit 21 in FIG. 2 will be described in association with the flowchart in FIG. 3 as follows.
[0075]
  First, although not shown in FIG. 2, the C signal, M signal, and Y signal of the entire region are input to the chromatic color determination unit 21a, the edge extraction processing unit 21b, and the neighboring pixel determination unit 21c.
[0076]
  The chromatic color determination unit 21a uses each pixel in the character region and its neighboring pixels (for example, about several pixels) as the target pixel based on the character region identification signal indicating that the character region is present in S2, S3, and S10 in FIG. A chromatic color determination process corresponding to is performed on the target pixel. Specifically, first, the maximum value max (C, M, Y) and the minimum value min (C, M, Y) of the target pixel are obtained, and the maximum value max (C, M, Y) and the minimum value min (C , M, Y), it is determined whether or not the difference is larger than the threshold value Δ. If the difference between the maximum value max (C, M, Y) and the minimum value min (C, M, Y) is larger than the threshold value Δ, it is determined that the pixel of interest is a chromatic color, and the pixel concerned The edge extraction processing unit 21b is instructed to perform edge extraction processing. On the other hand, when the difference between the maximum value max (C, M, Y) and the minimum value min (C, M, Y) is equal to or less than the threshold value Δ, the maximum value max (C, M, Y) of the target pixel is set. Threshold MAX0 It is determined whether it is above. The maximum value max (C, M, Y) is the threshold value MAX.0 In the case above, it is determined that the target pixel is in the black character area, and an area identification signal representing the black character area is output to the black generation / under color removal unit 15. On the other hand, the maximum value max (C, M, Y) is the threshold value MAX.0 If it is less than that, it is determined that the pixel of interest is in the other area, and an area identification signal representing the other area is output to the black generation / under color removal unit 15.
[0077]
  When receiving an instruction from the chromatic color determination unit 21a, the edge extraction processing unit 21b performs an edge determination process corresponding to S5 and S6 in FIG. Specifically, for each of C, M, and Y signals, the density value of a pixel (for example, 3 × 3 pixels) in a block of M × N (M and N are natural numbers) centered on the pixel of interest. Then, an edge detection filter (for example, a Sobel filter as shown in FIG. 5) is applied. If the sum of the obtained values exceeds a predetermined threshold value, it is determined that the pixel of interest is the edge of the character, and a determination process (neighboring pixel determination process) related to the neighboring pixel of the pixel of interest is performed. The vicinity pixel determination unit 21c is instructed to do this. On the other hand, when the sum of the obtained values is equal to or smaller than a predetermined threshold value, it is determined that the target pixel is in the other area, and an area identification signal representing the other area is output to the black generation / under color removal unit 15. To do.
[0078]
  When the neighboring pixel determining unit 21c receives an instruction from the edge extraction processing unit 21b, the neighboring pixel determining unit 21c performs processing corresponding to S2, S3, and S10 in FIG. 3 for the neighboring pixels of the target pixel (in this case, eight neighboring pixels). Pixel determination processing). Specifically, first, the maximum value max (C, M, Y) and the minimum value min (C, M, Y) of one neighboring pixel are obtained, and the maximum value max (C, M, Y) is obtained. ) And the minimum value min (C, M, Y) is determined whether it is larger than the threshold value Δ (S3). If the difference between the maximum value max (C, M, Y) and the minimum value min (C, M, Y) is equal to or less than the threshold value Δ, the maximum value max (C, M, Y) of the neighboring pixels is further increased. Y) is the threshold value MAX0 It is determined whether this is the case (S10). The maximum value max (C, M, Y) of the neighboring pixels is the threshold value MAX.0 In the case above, it is determined that the neighboring pixel is in the black character area. Therefore, in this case, it is determined that the target pixel is in the color blur area, and an area identification signal representing the color blur area is output to the black generation / under color removal unit 15. On the other hand, the difference between the maximum value max (C, M, Y) and the minimum value min (C, M, Y) is larger than the threshold value Δ in S3, or the maximum value max (C, M, Y) of the neighboring pixels in S10. ) Is the threshold MAX0 If it is less, the processes of S2, S3, and S10 are performed for another neighboring pixel. Then, even if the processing of S2, S3, and S10 is performed for all the neighboring pixels, if the neighboring pixel in the black character area is not found, it is determined that the target pixel is in the other area, and the area representing the other area The identification signal is output to the black generation / undercolor removal unit 15.
[0079]
  Returning to FIG. 2 again, the processing content of the black generation / undercolor removal unit 15 will be described. The black generation unit 15a in the black generation / undercolor removal unit 15 converts the K signal K from the CMY signal.i (I = 1-3; K1 Is a K signal representing the black generation amount in the black character region, K2 Is a K signal representing the amount of black generation in the color blur area, KThree Calculates a K signal representing the amount of black generation in other regions. Formula (2) is used as a method for calculating the black generation amount.
[0080]
[Formula 6]
Figure 0003734703
[0081]
  Here, as shown in FIG. 7, the minimum value min (C, M, Y) is the minimum value of the CMY signal, and a value obtained by multiplying this by a constant is the K signal. However, in consideration of the fact that the signal is shifted in the color blur area, an average value of the maximum value max (C, M, Y) and the minimum value min (C, M, Y) is used. At this time, the coefficient is switched by the color blur determination signal (region identification signal) determined by the color blur determination unit 21 of the region separation processing unit 14.
[0082]
  If the black generation amount in the color blur area is the same as that in the black character area, the black character becomes thick.1 (F1 > 0), the coefficient in the color blur area is F2 (F2 > 0), the coefficients in other areas are FThree (FThree > 0), F1 > F2 > FThree Set the values so that Since the other areas correspond to the color picture parts, it is possible to reduce the generation amount of black with a large contrast and to form an image with three colors of CMY.Three Make it smaller.
[0083]
  If simply replacing min (C, M, Y) with K, FThree However, since K is not necessarily equal to a mixture of equal amounts of CMY, min (C, M, Y) cannot simply be replaced with K. Therefore, it is desirable for color reproduction.Three The value of is not always 1. Further, since there are a plurality of combinations of CMYK representing a certain color, a combination with a small K may be good. In this case, FThree Is an image area of other chromatic color, and is preferably less than 1.
[0084]
  F1 , F2 , FThree In this case, various values may be set for many images in advance to form an image, and an optimum value may be set based on the result.
[0085]
  In the under color removal unit 15b in the black generation / under color removal unit 15, as shown in FIG. 8, the K signal K calculated by the black generation unit from the original CMY signal.i A new CMY signal C′M′Y ′ is generated by subtracting (i = 1 to 3) multiplied by a constant α (0 <α <1). A formula for calculating the CMY signal C′M′Y ′ in the under color removing unit 15 b is shown in Formula (3).
[0086]
[Expression 7]
Figure 0003734703
[0087]
  Note that C′M′Y ′ calculated by the equation (3) may be a negative value. For example, the coefficient F in the color blur area2 Is 1 and the constant α is 1, the smallest one among C′M′Y ′ calculated by the equation (3) is {min (C, M, Y) −max (C, M, Y )} / 2 and is always negative. As described above, a signal having a negative calculation result of the expression (3) is converted to a signal having a value of 0. In addition, although 0 <α <1 here, there is no problem even if the coefficient α is 1 or more.
[0088]
  As described above, in the image processing apparatus 1 according to the present embodiment, when the RGB input image data is converted into YMCK output image data, the region separation processing unit 14 converts the input image data into the character region / halftone dot region. In addition to separating the photograph area, the character area is further classified into a black character area, a color blur area, and other areas that do not belong to any of these areas, and the black generation / under color removal unit 15 performs the black character area / color blur area / Since the amount of black generation is controlled for each other area, the color bleed area can be distinguished from the black character area and other areas, and the amount of black generated in the color bleed area can be determined. Thus, it becomes possible to reproduce black characters, black lines and the like satisfactorily without problems such as difficulty in reading small black characters and coloring the black lines.
[0089]
  In the image processing apparatus 1, the black generation / under color removal unit 15 sets the black generation amount of the black character area to K.1 , The amount of black generated in the color blur area2 , The amount of black generation in other areasThree And K1 > K2 > KThree Since the black generation amount is controlled so as to satisfy the above relationship, it is possible to prevent the black character from becoming thick and to form a good image without color turbidity.
[0090]
  Further, in the image processing apparatus 1, the black generation / under color removal unit 15 determines the black generation amount of the color blur area based on the average value of the maximum value and the minimum value of the output image data of a plurality of color components. Therefore, it is possible to determine the black generation amount that is less affected by the shift of the CMY signal, and it is possible to reproduce black characters, black lines, and the like even better.
[0091]
  [Embodiment 2]
  The following will describe another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as those shown in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
[0092]
  In the first embodiment, a character region is extracted by performing region separation processing on the input image data, and the character region is further separated into a black character region, a color blur region, and other regions that do not belong to either of these, A method of changing the black generation amount for each region has been described.
[0093]
  However, in this method, only the black generation process is controlled for each area, and the under color removal process for reducing the CMY signal is not controlled for each area. That is, in the first embodiment, only the black generation amount is changed (increased or decreased) for each of the black character area, the color blur area, and the other areas. The amount by which the CMY signal is decreased with respect to the black generation amount is set to a constant ratio in the entire region without being controlled for each region. For this reason, there is a problem that the color blur cannot be sufficiently removed, and the density and saturation of other regions (for example, patterns and color characters) may be lowered.
[0094]
  In this embodiment, the color blur is further reduced by switching the under color removal process (and under color addition (UCA) process) according to the black character area, the color blur area, and the other areas. At the same time, the density and saturation of other areas (for example, patterns and color characters) are prevented from decreasing.
[0095]
  In the present embodiment, black generation processing and undercolor removal processing suitable for other regions are performed. Processing suitable for other regions means processing that produces an average good result for many colors. Yes. Therefore, since it is not necessarily optimized for all colors, there is a possibility that saturation is lowered depending on the color. For example, there is a tendency that saturation is likely to occur in dark and vivid colors such as dark green. Therefore, if such a color is output as it is after the undercolor removal process, the image quality may be deteriorated. Therefore, in this embodiment, under color addition processing is performed after under color removal processing in order to prevent such deterioration of image quality.
[0096]
  FIG. 9 shows a configuration of an image processing apparatus 31 to which the configuration of the image processing method and the image processing apparatus of the present invention is applied. As shown in FIG. 9, the image processing apparatus 31 includes a black generation / undercolor removal unit (black generation / undercolor removal unit) 25 instead of the black generation / undercolor removal unit 15, and black generation / undercolor removal. A lower color adding unit (lower color adding means) 26 is further provided in the subsequent stage of the unit 25 and has the same configuration as that of the image processing apparatus 1 of the first embodiment except that it is connected to the operation panel 31. In the present embodiment, the image processing device 31, the color image input device 2, the color image forming device 3, and the operation panel 31 constitute a digital color copying machine as an image forming device.
[0097]
  The region separation processing unit 14 sends a region identification signal (halftone dot / photo region identification signal) indicating that the pixel of interest belongs to a halftone dot region and a photographic region to the spatial filter processing unit 16 and the gradation reproduction processing unit 18. And send. In addition, an area identification signal indicating to which of the black character area, the color blur area, and other areas the pixel of interest belongs is sent to the black generation / under color removal section 25 and the under color addition section 26.
[0098]
  The black generation / under color removal unit 25 includes a black generation unit 25a and an under color removal unit (under color removal unit) 25b. The black generation unit 25a has the same configuration as the black generation unit 25a described in the first embodiment, and performs black (K) generation processing based on the color-corrected CMY signal and the region identification signal. The under color removal unit 25b subtracts the amount of under color calculated from the black signal from the CMY signal by a calculation formula corresponding to the region identification signal, and converts the sub color to data of CMYK four colors. Details of the black generation process and the under color removal process will be described later.
[0099]
  The under color addition unit 26 performs under color addition processing for increasing the CMY signal in order to compensate for saturation reduction due to black generation based on the CMYK signal and the region identification signal obtained by the black generation processing and the under color removal processing. Do. Details of the undercolor addition process will also be described later.
[0100]
  The operation panel 30 displays a group of buttons for the user to operate to control operations of the image processing apparatus 31, the color image input apparatus 2, and the color image forming apparatus 3, information necessary for the user's operation, and the like. And a display unit composed of a liquid crystal display or the like.
[0101]
  Next, details of processing in the black generation / under color removal unit 25 and the under color addition unit 26 will be described in detail.
[0102]
  FIG. 10 shows configurations of the area separation processing unit 14, the black generation / under color removal unit 25, and the under color addition unit 26.
[0103]
  In the first embodiment, only the black generation unit 15a switches the processing based on the determination result of the color blur determination unit 21, but in this embodiment, not only the black generation unit 25a but also the under color removal unit. Also in 25b and the under color addition unit 26, the processing is switched based on the determination result of the color blur determination unit 21.
[0104]
  In the under color removal unit 25b, as shown in FIG. 8, the K signal K calculated by the black generation unit 25a from the original CMY signal.i A new CMY signal C′M′Y ′ is generated by subtracting (i = 1 to 3) multiplied by a constant α (0 <α <1). That is, the calculation formulas for the C signal C ′, the M signal M ′, and the Y signal Y ′ in the under color removal unit 25 b are the same as the formula (3) in the first embodiment.
[0105]
  Here, the coefficient α in the black character region is α1 , The coefficient α in the color blur area α2 , Α in other areasThree Then α1 , Α2 , And αThree Are set to different values. In other words, the under color removal unit 25b calculates the following expression (4) in the black character area and the following expression in the color blur area as the expression for calculating the C signal C ′, the M signal M ′, and the Y signal Y ′. Equation (5) is used, and the following equation (6) is used in other areas.
[0106]
[Equation 8]
Figure 0003734703
[0107]
  In the black character area, in order to increase the black generation amount and output in a state close to K single color,1 Is relatively large (α2 And αThree Make it bigger). In the color blur area, the coefficient α is used to reduce the amount of CMY that causes color blur.2 Is relatively large. However, when CMY of the color blur area is completely removed, the density of the color blur area is lowered, and it appears that a gap (a linear white spot) is generated between the black character and the other areas. Therefore, in order to prevent such a problem, the optimum coefficient α2 It is advisable to obtain the value of by experiment or the like in advance. In this way, the coefficient α in the black character area and the color blur area1 And α2 Is relatively large, the CMY amount of the black character area and the color blur area can be reduced, and the black character area and the color blur area can be made a color close to a single black color. For this reason, it is possible to more effectively remove the color blur generated in the color blur area. In other areas, in order to give priority to color reproducibility, the coefficient α is used so as to remove the lower color that gives the same effect as the K amount added by the black generator 25a.Three Determine. Therefore, this coefficient αThree Is basically the coefficient α1 And α2 Smaller than. As described in the first embodiment, K is not necessarily equal to a mixture of equal amounts of CMY.Three A value of 1 is not necessarily desirable.
[0108]
  The under color addition unit 26 performs under color addition processing for increasing the amount of CMY in order to compensate for the saturation decreased by the under color removal processing. The under color addition process will be described with reference to FIG. A signal represented by shading is added to each of the C ′, M ′, and Y ′ signals before processing represented by hatching, and the obtained signals are set as new CMY signals C ″, M ″, and Y ″. By increasing the saturation.
[0109]
  As a lower color addition processing method in the lower color addition unit 26, for example, a method described in Japanese Patent Laid-Open No. 63-180270 (Japanese Patent Publication No. 6-44801) can be used. In this method, the CMY signals C ′, M ′, Y ′ remaining after the undercolor removal process are emphasized according to the amount of the K signal. Assuming that the coefficient depending on the K signal is β, the calculation formula of the CMY signals C ″, M ″, Y ″ is expressed by the following formula (7). Here, C ′, M ′, Y ′. , K, C ″, M ″, and Y ″ are 8-bit digital signals having values from 0 to 255.
[0110]
[Equation 9]
Figure 0003734703
[0111]
  The coefficient γ in Expression (7) is switched by the area identification signal output from the color blur determination unit 21. That is, if the region identification signal represents a black character region, the coefficient γ is set to γ.1 If the area identification signal represents a color blur area, the coefficient γ is set to γ2 If the region identification signal is a signal representing another region, the coefficient γ is γThree And
[0112]
  These coefficients γ1 , Γ2 , And γThree Is
  γ1 ≦ γ2 <ΓThree
It is good to set to satisfy the relationship. That is, the value γ of the coefficient γ in the black character area and the color blur area γ1 ・ Γ2 Is set to a relatively small value (0 or a small value), and the value γ of the coefficient γ in other regionsThree Is the value γ of the coefficient γ in the black character area and the color blur area γ1 ・ Γ2 A larger value is recommended. By doing so, it is possible to compensate for the decrease in saturation in the other areas due to the black generation process and the undercolor removal process without increasing the saturation in the black character area and the color blur area.
[0113]
  The under color addition process is for compensating for the decrease in saturation when the saturation is decreased by the black generation process and the under color removal process. Therefore, the lower color addition process may be performed only when the saturation is lowered by the black generation process and the lower color removal process, and particularly when the saturation is lowered in other areas.
[0114]
  Therefore, the lower color addition unit 26 of this embodiment normally does not perform the lower color addition process, and performs the lower color addition process only when a user instruction is received from the operation panel 30. That is, the lower color adding unit 26 is normally in an OFF state (a state in which a signal passes as it is). Then, when the user performs copying in a normal state and feels desaturation to be output and presses the lower color addition processing button provided on the operation panel 30 when he / she wants to output a more vivid image, A lower color addition control signal is sent to the adding unit 26, and the lower color adding unit 26 is switched to the ON state.
[0115]
  Whether the lower color addition unit 26 performs the lower color addition process may be performed when various parameters are set in the black generation / lower color removal unit 25 (when color correction data is created). That is, at this time, first, image data that has undergone black generation processing and undercolor removal processing in the black generation / undercolor removal unit 25 without performing undercolor addition processing is output to the color image forming apparatus 3 and paper An image is formed on a recording medium such as Then, the saturation is measured visually or with a colorimeter, and it is determined whether or not the saturation is lowered.
[0116]
  Further, the coefficient F in the black generation unit 25a1 , F2 And FThree And the coefficient α in the under color removal unit 25b1 , Α2 , And αThree Is appropriate, and it is not necessary to perform the under color addition process for color reproduction when the saturation of the other areas is not reduced by the black generation process and the under color removal process.
[0117]
  As described above, in the image processing apparatus 31 according to the present embodiment, the black generation / undercolor removal unit 25 performs the black generation amount in the black generation processing and the color components other than black in the undercolor removal processing (C, M, Y). In addition to the image processing apparatus 1 of the first embodiment, the following effects can be obtained. In other words, the color blur can be further reduced by reducing the color components other than black in the color blur area, and the color generation amount other than black is generated in the other areas, i.e., colored portions such as patterns and color characters. By reducing the amount according to the value, it is possible to avoid a decrease in the saturation of the colored portion.
[0118]
  Each of the above-described embodiments is merely an example of the present invention, and the present invention can be applied to embodiments other than the above-described embodiments.
[0119]
  For example, the region separation processing unit 14 of each embodiment described above performs region separation processing on the CMY signal (color correction image data) obtained by performing color conversion on the RGB signal by the color correction unit 13, Although the identification signal is generated, the image data subjected to the region separation process may be input image data before color conversion, for example, an RGB signal output from the input tone correction unit 12. .
[0120]
  An example of an image processing apparatus that performs region separation processing on RGB signals will be described with reference to FIG. The color image processing apparatus (image processing apparatus) 41 of this example is the same as the image processing apparatus 1 of Embodiment 1 except that it includes a region separation processing unit 44 instead of the region separation processing unit 14 as shown in FIG. It has the composition of. The region separation processing unit 44 performs region separation except that the region separation processing is performed based on the RGB signal output from the input tone correction unit 12 instead of the CMY signal, and the point that the RGB signal is output to the color correction unit 13. This is the same as the processing unit 14. That is, the region separation processing unit 14 separates each pixel in the input image data (RGB signal) into a character region, a halftone dot region, and a photographic region, and further separates each pixel in the character region and its neighboring region into a black character region / color. It is classified into the blur area and other areas not belonging to either of these. Further, the region separation processing unit 44 generates a region identification signal indicating which region each pixel belongs to based on the region separation result, the black generation / under color removal unit 15, the spatial filter processing unit 16, and the gradation reproduction process. In addition to the output to the unit 18, the input signal output from the input tone correction unit 12 is output to the subsequent color correction unit 13 as it is.
[0121]
  Also with the above configuration, as in the first embodiment, the color blur area can be distinguished from the black character area and other areas, and the amount of black generated in the color blur area can be determined, and the color blur area is generated. Thus, it becomes possible to reproduce black characters, black lines and the like satisfactorily without problems such as difficulty in reading small black characters and coloring the black lines.
[0122]
  In each of the above-described embodiments, the case where the present invention is applied to an image processing apparatus of a digital color copying machine has been described. However, the present invention is a computer having a function of converting RGB image data into CMYK image data. It is also possible to apply to. In this case, the function of converting RGB image data into CMYK image data can be realized by, for example, a printer driver that can convert RGB image data into CMYK image data for printing.
[0123]
  In each of the above-described embodiments, the image processing apparatus that outputs CMYK image data has been described. However, the present invention is an image that outputs image data including more than four color components (including black). It can also be applied to a processing apparatus.
[0124]
【The invention's effect】
  As described above, the image processing method of the present invention separates input image data or color-corrected image data into a character area, a halftone dot area, and a photographic area, and further converts the character area and its neighboring area into a black character area and a color blur area.・ Classify into other areas that do not belong to either of these, and control the amount of black generated for each black character area, color blur area, and other areaThen, the black generation amount in the color blur area is determined based on the average value of the CMY maximum and minimum values of the pixel of interest included in the color correction image data.Is.
[0125]
  As a result, the character area is further classified into a black character area, a color blur area, and other areas, and the black generation amount is individually controlled for each area, so that the color blur area is distinguished from the black character area and the other areas. It can be set as the black generation amount suitable for the blur area. As a result, since a color blur area is generated, it is possible to reproduce black characters, black lines, etc. well without problems such as difficulty in reading small black characters and coloring of black lines. Play.
[0126]
  The image processing method of the present invention further performs undercolor removal processing for reducing color components other than black in the output image data, and reduces the amount of color components other than black for each of the black character region, color blur region, and other regions. It is preferable that the method controls the above.
[0127]
  As a result, in the black character area and the color blur area, color components other than black (for example, CMY components) are reduced, while in a colored portion such as a pattern or color character in the other area, a black generation amount of color components other than black is generated. It can be reduced by an amount depending on. Therefore, in addition to the above-described effect, the above method has an effect that the color blur can be further reduced while avoiding the decrease in the saturation of the colored portion.
[0128]
  In addition, the image processing method of the present invention further performs undercolor addition processing for increasing color components other than black in the output image data, and increases the amount of color components other than black for each of the black character region, color blur region, and other regions. It may be a method of controlling.
[0129]
  As a result, even when the saturation of the colored portion such as a pattern or color character in the other area is reduced by the under color removal process, the color component other than black in the other area can be increased by the under color addition process. In addition, the amount of increase in color components other than black in the color blur area due to the undercolor addition process can be suppressed to a low level. Therefore, in addition to the above-described effect, the above method has an effect that the saturation of the colored portion can be reproduced more faithfully while avoiding an increase in color blur.
[0130]
  In the image processing apparatus according to the present invention, as described above, the area separation unit includes the color blur determination unit that classifies the character area and the vicinity thereof into a black character area, a color blur area, and other areas that do not belong to either of them. The black generation means controls the black generation amount for each black character area, color blur area, and other areas classified by the color blur determination means.Then, the black generation means determines the black generation amount of the color blur area based on the average value of the maximum and minimum values of CMY of the target pixel included in the color correction image data.It is a configuration.
[0131]
  As a result, the character area is further classified into a black character area, a color blur area, and other areas, and the black generation amount is individually controlled for each area, so that the color blur area is distinguished from the black character area and the other areas. It can be set as the black generation amount suitable for the blur area. As a result, since a color blur area is generated, it is possible to reproduce black characters, black lines, etc. well without problems such as difficulty in reading small black characters and coloring of black lines. Play.
[0132]
  Furthermore, in the image processing apparatus of the present invention, the black generation means determines the black generation amount of the color blur area based on the average value of the maximum and minimum CMY values of the pixel of interest included in the color correction image data. By adopting such a configuration, it is possible to determine the black generation amount that is less affected by the shift of the CMY signal, and it is possible to reproduce black characters, black lines, and the like even better.
[0133]
  The image processing apparatus according to the present invention further includes a lower color removing unit that performs a lower color removing process for reducing a color component other than black in the output image data, and the lower color removing unit includes the color blur determining unit. It is preferable that the reduction amount of the color component other than black is controlled for each classified black character region, color blur region, and other region.
[0134]
  As a result, in the black character area and the color blur area, color components other than black (for example, CMY components) are reduced, while in a colored portion such as a pattern or color character in the other area, a black generation amount of color components other than black is generated. It can be reduced by an amount depending on. Therefore, in addition to the above-described effects, the above configuration has an effect that the color blur can be further reduced while avoiding the decrease in the saturation of the colored portion.
[0135]
  In the image processing apparatus of the present invention, the black generation means isFrom the color-corrected image data consisting of CMY,
[0136]
[Expression 10]
Figure 0003734703
[0137]
K signal K representing black generation amount in black character area 1 K signal K representing the amount of black generation in the color blur area 2 , And K signal K representing the black generation amount in other regions Three And the coefficient F in the black character region 1 , Coefficient F in the color blur area 2 , And other factors F Three The value of F 1 > F 2 > F Three Set to beWith this configuration, it is possible to prevent a black character from becoming thicker and to form a good image without color turbidity..
[0138]
The image processing apparatus according to the present invention further includes a lower color addition unit that performs a lower color addition process for increasing a color component other than black in the output image data, and the lower color addition unit is the color blur determination unit. A configuration may be used in which the amount of increase in color components other than black is controlled for each classified black character area, color blur area, and other areas.
[0139]
  As a result, even when the saturation of the colored portion such as a pattern or color character in the other area is reduced by the under color removal process, the color component other than black in the other area can be increased by the under color addition process. In addition, the amount of increase in color components other than black in the color blur area due to the undercolor addition process can be kept low. Therefore, in addition to the above-described effect, the above configuration has an effect that the saturation of the colored portion can be reproduced more faithfully while avoiding an increase in color blur.
[Brief description of the drawings]
FIG. 1, showing an embodiment of the present invention, is a block diagram mainly showing a configuration of an image processing apparatus.
FIG. 2 is a block diagram illustrating a configuration of an area separation processing unit and a black generation / undercolor removal unit in the image processing apparatus.
FIG. 3 is a flowchart showing a flow of processing for separating a character region into a black character region, a color blur region, and other regions by the region separation processing unit.
FIG. 4 is an explanatory diagram illustrating a determination method for determining whether a chromatic color or an achromatic color by a chromatic color determination unit in the region separation processing unit.
FIG. 5 is an explanatory diagram illustrating an example of a Sobel filter used when the edge extraction processing unit in the region separation processing unit performs edge extraction processing;
FIG. 6 is an explanatory diagram illustrating an example of a range of a target pixel and neighboring pixels in the vicinity thereof.
FIG. 7 is an explanatory diagram showing the contents of black generation processing in a black generation / undercolor removal unit in the image processing apparatus.
FIG. 8 is an explanatory diagram showing the content of under color removal processing in a black generation / under color removal unit in the image processing apparatus.
FIG. 9, showing another embodiment of the present invention, is a block diagram mainly showing a configuration of an image processing apparatus.
10 is a block diagram illustrating configurations of an area separation processing unit, a black generation / under color removal unit, and an under color addition unit in the image processing apparatus illustrated in FIG. 9;
11 is an explanatory diagram showing the content of a lower color addition process in a lower color addition unit in the image processing apparatus shown in FIG. 9;
FIG. 12, showing still another embodiment of the present invention, is a block diagram mainly showing a configuration of an image processing apparatus.
[Explanation of symbols]
  1 Image processing device
  2 Color image input device (image input means)
  3 Color image forming apparatus (image forming means)
13 color correction unit (color correction means)
14 Region separation processing unit (region separation means)
15 Black generation / under color removal unit (black generation / under color removal means)
15a Black generator (black generator)
15b Under color removal part (under color removal means)
21 Color blur determination unit (color blur determination means)
21a Chromatic color determination unit
21b Edge extraction processing unit
21c Neighboring pixel determination unit
25 Black generation / under color removal unit (black generation / under color removal means)
25a Black generator (black generator)
25b Under color remover (under color remover)
26 Under color addition part (under color addition means)
30 Operation panel
31 Image processing device
41 Image processing apparatus
44 Region separation processing unit (region separation means)

Claims (8)

R(赤)G(緑)B(青)からなる入力画像データをC(シアン)M(マゼンタ)Y(イエロー)からなる色補正画像データに色変換した後、上記色補正画像データを基に黒とCMYとからなる出力画像データを生成する黒生成処理を行う画像処理方法において、
上記入力画像データあるいは上記色補正画像データを文字領域・網点領域・写真領域に分離し、さらに上記文字領域およびその近傍領域を、黒文字領域・色にじみ領域・これらのどちらにも属さないその他領域に分類し、黒文字領域・色にじみ領域・その他領域毎に黒の生成量を制御し、
上記色にじみ領域における黒の生成量を、色補正画像データに含まれる注目画素のCMYの最大値と最小値との平均値に基づいて決定することを特徴とする画像処理方法。
Input image data composed of R (red), G (green), and B (blue) is color-converted into color-corrected image data composed of C (cyan), M (magenta), and Y (yellow) , and then based on the color-corrected image data. In an image processing method for performing black generation processing for generating output image data composed of black and CMY ,
The input image data or the color-corrected image data is separated into a character area, a halftone dot area, and a photographic area, and the character area and its neighboring area are divided into a black character area, a color blur area, and other areas that do not belong to any of these areas. Control the amount of black generation for each black character area, color blur area, and other areas ,
An image processing method, comprising: determining a black generation amount in the color blur area based on an average value of CMY maximum and minimum values of a pixel of interest included in color correction image data .
さらに、出力画像データにおける黒以外の色成分を減少させる下色除去処理を行い、
黒文字領域・色にじみ領域・その他領域毎に黒以外の色成分の減少量を制御することを特徴とする請求項1記載の画像処理方法。
Furthermore, under color removal processing to reduce color components other than black in the output image data is performed,
2. The image processing method according to claim 1, wherein a reduction amount of a color component other than black is controlled for each of a black character area, a color blur area, and other areas.
さらに、出力画像データにおける黒以外の色成分を増加させる下色追加処理を行い、
黒文字領域・色にじみ領域・その他領域毎に黒以外の色成分の増加量を制御することを特徴とする請求項1または2に記載の画像処理方法。
Furthermore, under color addition processing that increases color components other than black in the output image data is performed,
The image processing method according to claim 1, wherein an increase amount of a color component other than black is controlled for each of a black character area, a color blur area, and other areas.
画像入力手段より読み込まれたR(赤)G(緑)B(青)からなる入力画像データをC(シアン)M(マゼンタ)Y(イエロー)からなる色補正画像データに色変換する色補正手段と、上記入力画像データあるいは上記色補正画像データを文字領域・網点領域・写真領域に分離する領域分離手段と、上記CMYからなる色補正画像データを基に、黒生成量を決定し、黒とCMYとからなる出力画像データを生成する黒生成手段とを備えた画像処理装置において、
上記領域分離手段は、上記文字領域およびその近傍領域を、黒文字領域・色にじみ領域・これらのどちらにも属さないその他領域に分類する色にじみ判定手段を備えており、上記黒生成手段は、上記色にじみ判定手段にて分類された黒文字領域・色にじみ領域・その他領域毎に黒生成量を制御し、
上記黒生成手段は、色にじみ領域の黒生成量を、色補正画像データに含まれる注目画素のCMYの最大値と最小値との平均値に基づいて決定することを特徴とする画像処理装置。
Color correction means for color-converting input image data consisting of R (red), G (green), and B (blue) read from the image input means into color correction image data consisting of C (cyan), M (magenta), and Y (yellow) A black generation amount is determined based on the color separation image data composed of the CMY and the area separation means for separating the input image data or the color correction image data into a character area, a halftone dot area, and a photographic area. And an image processing apparatus comprising black generation means for generating output image data composed of CMY ,
The area separating means includes color blur determining means for classifying the character area and its neighboring areas into a black character area, a color blur area, and other areas not belonging to any of these areas, and the black generating means controls black generation amount black character area, color fringing region and other respective regions classified by determining means color fringing,
The black processing unit determines the black generation amount of the color blur area based on an average value of the maximum and minimum values of CMY of the target pixel included in the color correction image data .
出力画像データにおける黒以外の色成分を減少させる下色除去処理を行う下色除去手段をさらに備え、
上記下色除去手段は、上記色にじみ判定手段にて分類された黒文字領域・色にじみ領域・その他領域毎に黒以外の色成分の減少量を制御することを特徴とする請求項4記載の画像処理装置。
Under color removal means for performing under color removal processing to reduce color components other than black in the output image data,
5. The image according to claim 4, wherein the under color removing unit controls a reduction amount of a color component other than black for each of the black character region, the color blur region, and the other region classified by the color blur determination unit. Processing equipment.
上記黒生成手段は、CMYからなる色補正画像データから、次式
Figure 0003734703
を用いて、黒文字領域での黒生成量を表すK信号K 1 、色にじみ領域での黒生成量を表す K信号K 2 、およびその他の領域での黒生成量を表すK信号K 3 を計算し、黒文字領域での係数F 1 、色にじみ領域での係数F 2 、およびその他の領域での係数F 3 の値をF 1 >F 2 >F 3 となるように設定することを特徴とする請求項4または5に記載の画像処理装置。
The black generation means calculates the following equation from the color correction image data composed of CMY.
Figure 0003734703
Using, calculate K signals K 1, K signals K 3 representing a black generation amount of K signals K 2, and the other region represents the black generation amount in the color fringing region representing a black generation amount in the black character area and, and setting the coefficient F 1 in the black area, the coefficient F 2 in the color fringing region, and the value of the coefficient F 3 in the other areas so that F 1> F 2> F 3 The image processing apparatus according to claim 4 or 5.
出力画像データにおける黒以外の色成分を増加させる下色追加処理を行う下色追加手段をさらに備え、Under color addition means for performing under color addition processing to increase color components other than black in the output image data,
上記下色追加手段は、上記色にじみ判定手段にて分類された黒文字領域・色にじみ領域・その他領域毎に黒以外の色成分の増加量を制御することを特徴とする請求項4ないし6のいずれか1項に記載の画像処理装置。7. The under color addition means controls an increase amount of a color component other than black for each of the black character area, color blur area, and other areas classified by the color blur determination means. The image processing apparatus according to any one of the above.
請求項4ないし7のいずれか1項に記載の画像処理装置と、An image processing apparatus according to any one of claims 4 to 7,
上記画像処理装置で生成された出力画像データに基づいて記録媒体上に画像を形成する画像形成手段とを備えることを特徴とする画像形成装置。An image forming apparatus comprising: an image forming unit that forms an image on a recording medium based on output image data generated by the image processing apparatus.
JP2000365572A 1999-12-01 2000-11-30 Image processing method, image processing apparatus, and image forming apparatus Expired - Fee Related JP3734703B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000365572A JP3734703B2 (en) 1999-12-01 2000-11-30 Image processing method, image processing apparatus, and image forming apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP11-342586 1999-12-01
JP34258699 1999-12-01
JP2000365572A JP3734703B2 (en) 1999-12-01 2000-11-30 Image processing method, image processing apparatus, and image forming apparatus

Publications (2)

Publication Number Publication Date
JP2001223915A JP2001223915A (en) 2001-08-17
JP3734703B2 true JP3734703B2 (en) 2006-01-11

Family

ID=26577300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000365572A Expired - Fee Related JP3734703B2 (en) 1999-12-01 2000-11-30 Image processing method, image processing apparatus, and image forming apparatus

Country Status (1)

Country Link
JP (1) JP3734703B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4331159B2 (en) * 2005-11-25 2009-09-16 シャープ株式会社 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor
JP4683654B2 (en) 2006-07-07 2011-05-18 キヤノン株式会社 Image processing apparatus, image processing apparatus control method, and program
JP2008205967A (en) * 2007-02-21 2008-09-04 Kyocera Mita Corp Image processor
JP5206396B2 (en) * 2008-12-24 2013-06-12 富士ゼロックス株式会社 Image processing device
JP5293517B2 (en) * 2009-09-10 2013-09-18 株式会社リコー Image processing apparatus, color image forming apparatus, image processing method, image processing program, and recording medium
JP5293530B2 (en) * 2009-09-17 2013-09-18 ブラザー工業株式会社 Print control apparatus and print control program
JP5316460B2 (en) * 2010-03-30 2013-10-16 ブラザー工業株式会社 Image data processing apparatus, liquid ejection apparatus, and program
JP2019101137A (en) * 2017-11-30 2019-06-24 国立大学法人東京工業大学 Sight line guiding system

Also Published As

Publication number Publication date
JP2001223915A (en) 2001-08-17

Similar Documents

Publication Publication Date Title
JP4331159B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor
US7502150B2 (en) Color converting device, image forming apparatus, color conversion method, computer program and recording medium
JP4139834B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, image processing program, and computer-readable recording medium recording image processing program
JP4531606B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
JP3734703B2 (en) Image processing method, image processing apparatus, and image forming apparatus
JP2002325182A (en) Image processing method, image processing unit and image forming device provided with the unit
JP2005286571A (en) Image processing apparatus, image forming apparatus provided with image processing apparatus, image processing method, image processing program, and recording medium with image processing program recorded thereon
US6157462A (en) Method and apparatus for error diffusion and undercolor removal/grey component replacement of digital color images
JP3360476B2 (en) Image processing method and apparatus
JP7266462B2 (en) IMAGE PROCESSING APPARATUS, IMAGE FORMING APPARATUS, IMAGE PROCESSING METHOD AND PROGRAM
JP4545766B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing program, and recording medium
JP2002218271A (en) Image processor, image formation device and image, processing method
JP4176656B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium recording the program
JP3927426B2 (en) Image processing method, image processing apparatus, and image forming apparatus including the same
JP2003264701A (en) Image processing method, image processor and image forming device provided with the same
JP4101741B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP3714449B2 (en) Image processing apparatus and image forming system
JP7076268B2 (en) Image processing equipment, image processing method and recording medium
JP3770802B2 (en) Image processing method, image processing apparatus, and image forming apparatus
JP3944032B2 (en) Image processing apparatus and method
JP2011015172A (en) Device for processing image, device for forming image, method and program for processing image, and recording medium recording program for processing image
JP2005072635A (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, image processing program, and computer-readable recording medium stored with the image processing program
JP4958626B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP4266002B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050920

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051019

R150 Certificate of patent or registration of utility model

Ref document number: 3734703

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081028

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091028

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091028

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101028

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111028

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121028

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131028

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees