JP3700456B2 - Color image processing device - Google Patents

Color image processing device Download PDF

Info

Publication number
JP3700456B2
JP3700456B2 JP08754999A JP8754999A JP3700456B2 JP 3700456 B2 JP3700456 B2 JP 3700456B2 JP 08754999 A JP08754999 A JP 08754999A JP 8754999 A JP8754999 A JP 8754999A JP 3700456 B2 JP3700456 B2 JP 3700456B2
Authority
JP
Japan
Prior art keywords
image data
density
unit
correction
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP08754999A
Other languages
Japanese (ja)
Other versions
JP2000287092A (en
Inventor
秀之 鳥山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP08754999A priority Critical patent/JP3700456B2/en
Priority to US09/495,899 priority patent/US7339699B1/en
Publication of JP2000287092A publication Critical patent/JP2000287092A/en
Application granted granted Critical
Publication of JP3700456B2 publication Critical patent/JP3700456B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、カラー複写機などに搭載されるカラー画像処理装置であって、黒文字や黒細線の再現性を改善したカラー画像処理装置に関する。
【0002】
【従来の技術】
従来のカラー画像処理装置において、CCDセンサを含む読み取り手段により読み取られた波長成分の異なる複数の画像データ(R、G、B)について、注目画素が黒線(又は黒文字)のエッジ部かどうかを判別し、そうであれば、エッジ強調などの画像処理を行うことが一般的である。この画像処理により、カラー画像に含まれる黒細線及び黒文字の再現品質が改善される。以下、その画像処理について簡単に説明する。
【0003】
まず、原稿を読み取って得られたカラー画像データを一次微分フィルタ及び二次微分フィルタに通すことにより、エッジ部を判別する。また、R、G、Bのカラー画像信号から、後述のようにして黒線又は黒文字の黒領域を判別する。これらの判別結果から黒エッジ部(エッジ部かつ黒領域)が判別される。また、二次微分フィルタの出力が正であるか負であるかによって、エッジの外側(背景側)であるか内側(黒領域上)であるかを判別することができる。以下の説明において、黒エッジの外側を黒外エッジ部といい、エッジの内側を黒内エッジ部という。
【0004】
黒文字又は黒細線の再現品質を向上させるために、黒内エッジ部と黒外エッジ部に関して以下のような処理を行う。黒内エッジ部の画素については、黒色成分の画像データBkに対して、明度エッジ成分を加算するエッジ強調処理を行う。また、カラー成分の画像データC(シアン)、M(マゼンタ)、Y(イエロー)に対しては、エッジ強調処理を行わず、5×5又は3×3の画素マトリクス内において最も小さな値の(つまり、最も濃度が低い)画素データで注目画素の画像データを置き換える処理を行う。
【0005】
黒外エッジ部の画素については、黒色成分及びカラー成分いずれの画像データBk,C,M,Yに対してもエッジ強調は行わず、5×5又は3×3の画素マトリクス内において最も小さな値の画素データで注目画素の画像データを置き換える処理を行う。
【0006】
このような処理により、原稿画像中の黒文字又は黒細線のエッジ近傍において、C,M,Yのカラー成分が抑えられるとともに、黒内エッジが強調され、黒文字又は黒細線の再現性が向上する。
【0007】
上述のように、黒エッジ部の判別部は、注目画素がエッジ部にあるか否かのエッジ判別部と、注目画素が黒(無彩色)領域にあるか否かの彩度判別部とからなる。そして、彩度判別部は、R、G、Bのカラー画像信号の最大値と最小値との差を彩度値として求め、一方、最小値を明度値とし、明度値に応じたしきい値より彩度値が小さければ無彩色の黒領域(黒線又は黒文字)であると判別する。
【0008】
【発明が解決しようとする課題】
しかしながら、従来の彩度判別部は、光学系における収差やライン間補正の影響により3原色(R、G、B)間のバランスが崩れたときに、黒領域の判別を適確に行うことが難しかった。このような現象は特に細線で生じ易い。例えば、1又は2ドットの黒細線や黒文字が正しく無彩色と判定されず、再現性が悪くなる。
【0009】
図6に、光学系の収差により、R,G,BのMTF(光学伝達関数)の間に差が生ずる様子を示す。黒色の画像を読み取ったとき、理想的にはR,G,BのMTFは等しくなるが、実際にはR,G,B各色の分光波長の違いにより、光学系のデフォーカス量(ピントずれ)に対するMTFカーブがR,G,Bごとにシフトする。そして、図6に示すように、Gの画像データのデフォーカス量がゼロになるようにピント面を合わせると、結果的にR及びBのMTF値、ひいては濃度値が低下することになる。
【0010】
図7及び図8に基づいて、ライン間補正によりR、G、Bの濃度間のバランスが崩れる様子を説明する。図7はCCDのR,G,Bライン間の位置ずれを示す図であり、図8は、一例としてB信号(画像データ)のピーク値BPがライン間補正部の補間処理によって、BP’まで低下し、G信号(画像データ)のピーク値GPとの差が生ずる現象を模式的に示す図である。
【0011】
縮小型と呼称されるCCDラインセンサは、図7に模式的に示すように、R,G,Bの素子列が副走査方向に所定ピッチで配置されている。このピッチは、例えば拡大・縮小倍率が1の場合は4ライン分に相当する。通常、R,G,Bの順番で原稿面が走査されるので、R信号に対してG信号は4ライン分遅延し、B信号は8ライン分遅延する。
【0012】
この場合に、ライン間補正部は、B信号に対してG信号を4ライン分遅延させ、R信号を更に4ライン分(B信号に対して8ライン分)遅延させるライン間補正を行う。これにより、R,G,Bの画像データの位相が揃うことになる。
【0013】
ところが、拡大・縮小倍率が整数倍でない場合は、遅延量が整数ライン分にならずに端数が生ずる。例えば図7に示すように、拡大・縮小倍率が0.7の場合は、R信号に対してG信号は2.8ライン分遅延し、B信号は5.6ライン分遅延する。このように、小数ライン分の遅延が生ずる場合は、上記の整数ライン分の遅延とは別に小数ライン分の遅延を補間処理によって擬似的に行う。
【0014】
例えば、B信号を基準としてG信号を5.6ライン分遅延させる場合は、5ライン分遅延させたデータと6ライン分遅延させたデータとの補間処理によって5.6ライン分遅延させたデータを生成する。実際には、目立ちやすいG信号が補間処理によって変化するのを回避するために、小数ライン分についてはG信号を基準としてB信号について補間処理を行うことが多い。この結果、図8に示したように、B信号のピーク値BPが補間処理によって、BP’まで低下し、G信号のピーク値GPとの差が生ずることになる。R信号についても同様に、補間処理によってピーク値が低下し、G信号のピーク値との差が生ずる。
【0015】
上述のように、光学系における収差やライン間補正の影響により、基準となるGの画像データと他のR又はBの画像データとの間で濃度バランスが崩れると、前述のような最大値と最小値との差(彩度値)に基づいて有彩色か無彩色かの判別を正確に行うことが難しくなる。その結果、1又は2ドットの黒細線や黒文字のエッジ強調処理が行われずに、緑がかった線として印刷されることになる。
【0016】
本発明は、上述の問題に鑑みてなされたもので、、黒細線又は黒文字の再現性を高めたカラー画像処理装置を提供することを目的とする。
【0017】
【課題を解決するための手段】
請求項1の発明に係る装置は、読み取り手段により読み取られた複数の異なる波長成分からなる画像データにおける注目画素が細線かどうかを判別する細線判別部と、細線判別部からの信号に基づいて、注目画素が細線であるとき、注目画素を構成する複数の波長成分の画像データ間の濃度の差を小さくするべく、注目画素を構成する複数の波長成分の画像データのうちの少なくとも1つの波長成分の画像データの濃度を増加させる補正を行う濃度補正部と、濃度補正部の出力値を用いて、注目画素が有彩色か無彩色かを判別する彩度判別部とを備えている。
【0018】
好ましくは、細線判別部は、1又は2ドット幅の高濃度の細線を検出する。また、濃度補正部の出力値を用いて注目画素が有彩色か無彩色かを判別するだけでなく、濃度補正部の出力値(補正後の画像データ)を用いて印刷画像データ生成部が印刷用の画像データを生成することも好ましい。
【0019】
請求項4の発明に係る装置では、濃度補正部は、MTF特性の最もよい波長成分を除く他の波長成分の画像データについて、濃度を増加させる補正を行う。例えば、光学系の基準をGの波長に合わせた場合は、基準となるG波長成分のMTF特性が最も良くなるので、Gの画像データについては補正を行わず、R及びBの画像データについてのみ、濃度を増加させる補正を行う。
【0020】
請求項5の発明に係る装置では、読み取り手段に含まれるラインセンサは、異なる波長成分の複数の素子列が副走査方向に離間して配列されており、複数の素子列間の位置ずれに起因する複数の波長成分の画像データ間の位相ずれを補正するライン間補正部をさらに備え、濃度補正部は、ライン間補正部による補正の際に、補間処理の対象となる波長成分の画像データについて、濃度を増加させる補正を行う。例えば従来技術で述べたように、ライン間補正部がGの画像データを基準として、R及びBの画像データについて補間処理を行う場合は、Gの画像データについては補正を行わず、R及びBの画像データについてのみ、濃度を増加させる補正を行う。
【0021】
請求項6の発明に係る装置では、濃度補正部は、注目画素が細線であると細線判別部が判別したときの第1の濃度補正量と、注目画素が黒以外の色の細線であると細線判別部が判別したときの第2の濃度補正量とを切り替えて少なくとも1つの波長成分の画像データの濃度を増加させる補正を実行するものであり、第2の濃度補正量は第1の濃度補正量より小に設定されている。
【0022】
なお、本明細書において「黒細線」と記載されている場合には、通常、黒細線及び黒文字などを包含する。
【0023】
【発明の実施の形態】
図5は本発明のカラー画像処理装置が適用されるディジタルカラー複写機の概略構成を示す図である。
【0024】
図5において、ディジタルカラー複写機100は、上部に配置された画像読み取り装置(読み取り手段)110と下部に配置された画像記録装置120とにより構成されている。画像読み取り装置110は、手置き原稿読み取り装置116及び原稿流し撮り装置117を含む。
【0025】
画像読み取り装置110は、光源111からの光を原稿に照射し、原稿面からの反射光を、ミラー112及びレンズ113を含む縮小光学系を介して、リニアイメージセンサであるCCD114に結像させる。CCD114は、光電変換及び電荷転送によって原稿の像をアナログ信号に変換する。例えば、CCD114の解像度は400dpi、最大原稿サイズはA3である。この場合に、主走査方向の1ラインは約5000ドットである。
【0026】
CCD114から出力されたアナログ信号は、画像処理装置115に与えられる。画像処理装置115は、アナログ信号をディジタルデータに変換した後、変倍や画質補正などの画像処理を行い、処理後のディジタルデータを画像読み取り装置110からディジタル画像データとして出力する。
【0027】
原稿の読み取りにおける走査は、CCD114を構成する素子の走査方向(CCD114の長手方向)を主走査方向、これと垂直の方向を副走査方向として行われる。副走査方向は、手置き原稿の場合はミラー112の水平方向移動によって行われ、原稿流し撮りの場合は原稿の搬送によって行われる。いずれの場合も、画像信号は主走査方向の1ラインごとに順次転送される。
【0028】
画像記録装置120は、画像読み取り装置110から出力されたディジタル画像データをレーザダイオード駆動ユニット121でアナログ信号に変換し、さらにレーザダイオード122で光に変換し、ポリゴンミラー123を介して感光体ドラム124に結像させる。レーザダイオード122に入力される電流が制御され、その光量が画素単位で制御される。これによって感光体ドラム124上に潜像が形成され、これがトナーで現像された後、記録用紙125に転写される。このように、電子写真方式によって、400dpi、256階調の画像が形成される。
【0029】
図1は本発明に係る実施形態の画像処理装置115の全体構成を示すブロック図である。
図1において、CCD114から出力されたアナログ信号、すなわち、R,G,B各色のカラー画像信号は、A/D変換器13に入力される。A/D変換器13は、アナログ信号であるR,G,Bカラー画像信号を8ビットのディジタルデータ(256階調の濃度データ)であるR,G,Bカラー画像データに変換する。得られたR,G,Bカラー画像データは、シェーディング補正部14によって、主走査方向の光量むらを補正するシェーディング補正が施された後、ライン間補正部15に入力される。
【0030】
ライン間補正部15は、CCD114のR,G,Bライン間の位置ずれに起因するR,G,Bカラー画像信号(データ)の位相ずれを補正する回路である。
図2はライン間補正部15の概略構成を示すブロック図である。
【0031】
ライン間補正部15は、ライン遅延回路31〜33、FIFO(ラインメモリ)34,36、補間回路35,37を含む。従来技術で述べたように、B画像データに対してR画像データとG画像データを整数ライン分遅延させるのがライン遅延回路31〜33である。また、小数ライン分に相当する端数の遅延を補間処理によって行うのが、FIFO34,36と補間回路35,37である。補間処理は、目立ちやすいG画像データを基準として、R及びBの画像データについてのみ行う。
【0032】
ライン間補正部15で位相ずれが補正されたR,G,Bカラー画像データは、色収差補正部16で色収差の補正が施され、さらに、変倍用ラインメモリを含む変倍・移動処理部17にて、変倍率に応じた主走査方向の拡大・縮小処理が施された後、領域判別部21に入力される。
【0033】
領域判別部21は、後の図3で詳しく説明するように、細線判別部41、濃度補正部42、及び彩度判別部43を有する。領域判別部21では、注目画素が細線であるか否かを判別し、細線であれば、R及びBの画像データの濃度を高める補正を行い、それを色変換部18に出力する。
【0034】
また、領域判別部21には、図示しないエッジ判別部及び網点判別部が設けられている。エッジ判別部からは、注目画素が画像のエッジ部であることを示す判別信号EDGEが出力される。網点判別部からは、注目画素が網点画像であることを示す判別信号AMIが出力される。また、彩度判別部43によって黒色領域であると判別され、且つエッジ判別部によってエッジ部であると判別された場合には、その注目画素が黒エッジであると判別し、判別信号BKEDGをMTF補正部20に出力する。
【0035】
色変換部18において、カラー画像データR,G,Bの間の調整が行われる。色補正部19は、RGB系(加色系)のカラー画像データからCMY系(減色系)の印刷用カラー画像データC(シアン)、M(マゼンタ)、Y(イエロー)、Bk(ブラック)を生成する。生成された印刷用カラー画像データC,M,Y,Bkは、MTF補正部20に与えられる。
【0036】
MTF補正部20は、領域判別部21からの判別信号BKEDGに基づいて、黒エッジと判別された領域について、エッジ強調などの画像処理を施す。領域判別部21が網点領域の判別をも行い、その判別信号に基づいてMTF補正部20がスムージングなどの画像処理を施す場合もある。MTF補正部20から出力された印刷用カラー画像データC,M,Y,Bkは、画像記録装置120に与えられる。
【0037】
図3は領域判別部21の構成の一部を示すブロック図である。
図3において、領域判別部21は、黒細線又は他の色の細線を判別する細線判別部41、その判別結果である信号RBEN,REN,BENに基づいてR及びGの画像データのいずれか一方、又は両方の濃度を増加させる濃度補正部42、そして、濃度補正後のR,G,B画像データに基づいて注目画素が有彩色か無彩色かを判別する彩度判別部43を備えている。
【0038】
細線判別部41は、R,G,Bの各画像データについて、1ライン分遅延させるラインメモリ44,46,48と、2ライン分遅延させるラインメモリ45,47,49を有する。また、R,G,Bの各画像データについて、遅延量ゼロの画像データ、1ライン分遅延したデータ、2ライン分遅延したデータの3種類のデータに基づいてピークの有無を検出するピーク検出部50,51,52を有する。
【0039】
例えば、R画像データのピーク検出部50は、3ライン分の画像データ、つまり、注目画素とその前後の画像データの変化から、水平方向のピークの有無を検出し、ピークがある場合は出力信号RHPをL(低)レベルにする。ピークがない場合は出力信号RHPをH(高)レベルにする。また、注目画素の存在する1ライン分遅延した画像データにおいて、注目画素とその前後(上下)の画像データの変化から、垂直方向のピークの有無を検出し、ピークがある場合は出力信号RVPをLレベルにする。ピークがない場合は出力信号RVPをHレベルにする。
【0040】
G画像データのピーク検出部51及びB画像データのピーク検出部52についても同様に、水平方向のピークがあれば出力信号GHP又はBHPをLレベルとし、ピークが無ければ出力信号GHP又はBHPをHレベルとする。垂直方向のピークがあれば出力信号GVP又はBVPをLレベルとし、ピークが無ければ出力信号GVP又はBVPをHレベルとする。
【0041】
上記のようにしてピークの有無を検出することは、1ドット幅の細線か否かを検出していることに相当する。なお、注目画素の前後の変化を5ライン分(5ドット分)まで拡大してピーク検出を行うことにより、2ドット幅の細線か否かを検出することも可能である。
【0042】
3つのピーク検出部50,51,52が水平方向及び垂直方向についてそれぞれ検出して得られた計6個の出力RHP,RVP,GHP,GVP,BHP,BVPは、論理演算部53に入力される。論理演算部53は、これら6つのデータに下記の論理演算を施して、3つの出力RBEN,REN,BENを得る。
【0043】
まず、出力RBENは、水平方向又は垂直方向にR,G,Bすべての画像データ(すべての波長成分)がピークを有するときにLレベル、それ以外ではHレベルとなり、下記の論理式で表される。
【0044】
RBEN=〔(RHP+GHP+BHP)・(RVP+GVP+BVP)〕
この信号RBENがLレベルであることは、注目画素が黒細線である可能性が高いことを意味する。
【0045】
出力RENは、水平方向又は垂直方向にR画像データがピークを有し、且つ、RBENがLレベルではないときにLレベル、それ以外ではHレベルとなる。換言すれば、すべての波長成分ではないが、少なくともR成分がピークを有するときにLレベル、それ以外ではHレベルとなり、下記の論理式で表される。この信号RENがLレベルであることは、注目画素が黒細線ではなく、赤を含む色の細線である可能性が高いことを意味する。
【0046】
REN=(RHP・RVP+RBEN)
出力BENは、水平方向又は垂直方向にB画像データがピークを有し、且つ、RBENがLレベルではないとき、つまり、すべての波長成分ではないが、少なくともB成分がピークを有するときにLレベル、それ以外ではHレベルとなり、下記の論理式で表される。この信号BENがLレベルであることは、注目画素が黒細線ではなく、青を含む色の細線である可能性が高いことを意味する。
【0047】
BEN=(BHP・BVP+RBEN)
以上のようにして求められた3つの判別信号RBEN,REN及びBENは、濃度補正部42に与えられる。濃度補正部42には、注目画素についてのR,G,B画素データも入力される。濃度補正部42は、3つの判別信号RBEN,REN及びBENに基づいて、R,B画素データの両方又は一方の濃度を増加させる補正を実行する。濃度補正部42による濃度の補正の様子が図9に示されている。
【0048】
すなわち、図9において、左側が補正前であり、右側が補正後である。この例では、補正の前後において、G画素データの濃度には変化はないが、R,B画素データの濃度が補正によって増加している。補正前においては、R,B画素データの濃度とG画素データの濃度とが大きく異なっているので、色文字であると誤判別されやすいが、補正後においては、R,B画素データの濃度がG画素データの濃度に近づき、黒細線又は黒文字であると認識し易くなる。次に、濃度補正部42の構成の例について説明する。
【0049】
図4は濃度補正部42の構成の例を示すブロック図である。
図4において、濃度補正部42は、R画像データの濃度を増加させるための乗算器60,62と、セレクタ61,63を有する。同様に、B画像データの濃度を増加させるための乗算器64,66と、セレクタ65,67を有する。G画像データは基準となるデータであるから、濃度補正を行わずに、そのまま出力する。
【0050】
以下の説明はR画像データの濃度補正について行うが、B画像データの濃度補正も同様である。まず、第1の乗算器60は、A入力であるR画像データとB入力であるRM1との積を求める。RM1は第1の濃度補正係数であり、1より大きい値に設定される。第1のセレクタ61は、S入力であるRBENの値に応じてA入力であるR信号又はB入力である乗算器60の出力を選択する。RBENがLレベルであれば乗算器60の出力、つまり濃度補正後のR信号が選択され、RBENがHレベルであれば濃度補正前のR信号が選択される。
【0051】
第2の乗算器62は、A入力であるセレクタ61の出力とB入力であるRM2との積を求める。RMは第2の濃度補正係数であり、1より大きく、かつ、RMより小さい値に設定される。第2のセレクタ63は、S入力であるRENの値に応じてA入力であるセレクタ61の出力又はB入力である乗算器62の出力を選択する。RENがLレベルであれば(このとき、前述のようにRBENは必ずHレベルである)乗算器62の出力、つまり、第2の乗算器62による濃度補正後のR信号が選択され、RENがHレベルであればセレクタ61の出力、つまり、濃度補正前のR信号又は第1の乗算器60による濃度補正後のR信号が選択される。
【0052】
第1の乗算器60は、RBENがLレベルのとき、つまり黒細線が検出されたときにR信号の濃度を高める補正を行い、第2の乗算器62は、RENがLレベルのとき、つまり、赤を含む色の細線が検出されたときにR信号の濃度を高める補正を行うことになる。原稿の複写において通常は、黒文字の再現性が色の再現性より重視される。また、1又は2の波長成分のみがピークを有すると検出された場合は、すべての波長成分がピークを有すると検出された場合に比べて、ノイズの影響による誤検出である可能性が高い。このため、上記のように、第2の乗算器62の補正係数RM2(すなわち、黒細線が検出されたときの濃度補正量)を第1の乗算器60の補正係数RM1(すなわち、赤を含む色の細線が検出されたとき濃度補正量)より小さく設定する。
【0053】
B画像データの濃度補正を行うための乗算器64,66とセレクタ65,67の動作については、上記のR画像データの濃度補正を行うための乗算器60,62とセレクタ61,63の動作と同様である。この場合も上記の理由により、第2の乗算器66の補正係数BM2は第1の乗算器64の補正係数BM1より小さく設定される。
【0054】
濃度補正部42から出力される濃度補正後のR,G,B画像データは、図3に示すように彩度判別部43に入力される。彩度判別部43は、従来技術の項で説明したように、R,G,B画像データの最大値と最小値との差を彩度値として求め、明度値(R,G,B画像データの最小値)に応じて定められたしきい値より彩度値が低ければ無彩色(黒色領域)であると判別し、判別信号BKAREAを出力する。判別信号BKAREAがLレベルであれば、黒色領域であると判別されたことを表している。
【0055】
この判別信号BKAREAは、上に述べたように、エッジ判別部の判別信号との論理積がとられ、図1に示す黒エッジ部判別信号BKEDGとして領域判別部21から出力され、MTF補正部20に与えられる。また、領域判別部21の濃度補正部42から出力されたR,G,B画像データは、彩度判別部43に与えられる以外に、濃度補正後のR,G,B画像データ(ただし、G画像データは濃度補正なし)として領域判別部21から出力される。
【0056】
図1に示すように、これらの濃度補正後のR,G,B画像データは、色変換部18及び色補正部19(印刷画像データ生成部)を経て、印刷用画像データC,M,Y,Bkに変換される。
【0057】
上に述べた実施形態において、領域判別部21、画像処理装置115、その他の全体又は各部の構成、処理内容、処理順序などは、本発明の趣旨に沿って適宜変更することができる。
【0058】
【発明の効果】
本発明によると、注目画素が細線か否かを判別し、細線の場合は、注目画素を構成する複数の波長成分の画像データ間の濃度の差を小さくするべく、その注目画素を構成する複数の波長成分の画像データのうちの少なくとも1つの波長成分(例えばR及びB)の画像データの濃度を増加させる補正を行うので、光学系における収差やライン間補正の影響によりR、G、B間の濃度バランスが崩れたときでも、その濃度バランスが回復し、彩度判別部による黒領域の判別を的確に行うことができる。その結果、黒細線のエッジ強調などの処理が正しく行われるので、黒細線又は黒文字の再現性が向上する。
【0059】
請求項3の発明によると、印刷画像データ生成部が濃度補正後の画像データに基づいて印刷用の画像データを生成するので、黒細線又は黒文字領域における黒色の再現性が一層改善される。
【0060】
請求項6の発明によると、黒以外の色(R又はB)の細線が検出されたときに、その色の濃度を増加させる補正量を、黒細線が検出されたときにR及びBの濃度を増加させる補正量より小さく設定することにより、黒色の再現性を優先するとともに、ノイズの影響を小さくすることができる。
【図面の簡単な説明】
【図1】本発明の実施形態に係るカラー画像処理装置のブロック図である。
【図2】ライン間補正部の内部構成を示すブロック図である。
【図3】領域判別部の内部構成の一部を示すブロック図である。
【図4】濃度補正部の内部構成を示す回路図である。
【図5】ディジタルカラー複写機の概略構成を示す図である。
【図6】光学系の収差により、R,G,BのMTFの間に差が生ずる様子を示す図である。
【図7】CCDのR,G,Bライン間の位置ずれを示す図である。
【図8】ライン間補正部の補間処理によって、B画像データのピーク値が低下し、G画像データのピーク値との差が生ずる現象を模式的に示す図である。
【図9】濃度補正部による濃度の補正の様子を示す図である。
【符号の説明】
15 ライン間補正部
18 色変換部
19 色補正部(印刷画像データ生成部)
20 MTF補正部
21 領域判別部
41 細線判別部
42 濃度補正部
43 彩度判別部
44〜49 ラインメモリ
50〜52 ピーク検出部
53 論理演算部
60,62,64,66 乗算器
61,63,65,67 セレクタ
114 CCD(ラインセンサ)
115 画像処理装置
RM1,BM1 第1の濃度補正係数
RM2,BM2 第2の濃度補正係数
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a color image processing apparatus mounted on a color copying machine or the like, and relates to a color image processing apparatus with improved reproducibility of black characters and black thin lines.
[0002]
[Prior art]
In a conventional color image processing apparatus, for a plurality of image data (R, G, B) having different wavelength components read by a reading means including a CCD sensor, it is determined whether the target pixel is an edge portion of a black line (or black character). Generally, it is determined, and if so, image processing such as edge enhancement is performed. By this image processing, the reproduction quality of black thin lines and black characters included in the color image is improved. The image processing will be briefly described below.
[0003]
First, the color image data obtained by reading a document is passed through a primary differential filter and a secondary differential filter, thereby discriminating an edge portion. Further, a black line or black character black region is determined from the R, G, B color image signals as described below. From these determination results, the black edge portion (edge portion and black region) is determined. Further, it is possible to determine whether the output is the outside (background side) or the inside (on the black region) of the edge depending on whether the output of the secondary differential filter is positive or negative. In the following description, the outer side of the black edge is referred to as an outer black edge portion, and the inner side of the edge is referred to as an inner black edge portion.
[0004]
In order to improve the reproduction quality of black characters or black thin lines, the following processing is performed on the black inner edge portion and the black outer edge portion. For the pixels in the black inner edge portion, an edge enhancement process for adding a lightness edge component to the black component image data Bk is performed. Further, the color component image data C (cyan), M (magenta), and Y (yellow) are not subjected to edge enhancement processing, and have the smallest value in the 5 × 5 or 3 × 3 pixel matrix ( That is, a process of replacing the image data of the target pixel with the pixel data having the lowest density is performed.
[0005]
For pixels outside the black edge, edge enhancement is not performed on the image data Bk, C, M, and Y of the black component and the color component, and the smallest value in the 5 × 5 or 3 × 3 pixel matrix. The pixel data of the target pixel is replaced with the pixel data.
[0006]
By such processing, the C, M, and Y color components are suppressed in the vicinity of the edge of the black character or black thin line in the original image, and the black inner edge is enhanced, thereby improving the reproducibility of the black character or black thin line.
[0007]
As described above, the determination unit for the black edge portion includes the edge determination unit for determining whether or not the target pixel is in the edge portion, and the saturation determination unit for determining whether or not the target pixel is in the black (achromatic) region. Become. Then, the saturation determination unit obtains the difference between the maximum value and the minimum value of the color image signals of R, G, and B as the saturation value, while setting the minimum value as the brightness value, and a threshold value corresponding to the brightness value If the saturation value is smaller, it is determined that the region is an achromatic black region (black line or black character).
[0008]
[Problems to be solved by the invention]
However, the conventional saturation determination unit can accurately determine the black region when the balance between the three primary colors (R, G, B) is lost due to the influence of aberration in the optical system and correction between lines. was difficult. Such a phenomenon is particularly likely to occur with fine lines. For example, black fine lines or black characters of 1 or 2 dots are not correctly determined as achromatic colors, and reproducibility is deteriorated.
[0009]
FIG. 6 shows how a difference occurs between the MTFs (optical transfer functions) of R, G, and B due to the aberration of the optical system. When a black image is read, the MTFs of R, G, and B are ideally equal, but in reality, the defocus amount (out-of-focus) of the optical system is caused by the difference in spectral wavelength of each color of R, G, and B. The MTF curve for shifts for each of R, G, and B. Then, as shown in FIG. 6, when the focus plane is adjusted so that the defocus amount of the G image data becomes zero, the RTF and B MTF values, and consequently the density values, are lowered as a result.
[0010]
Based on FIG. 7 and FIG. 8, the manner in which the balance between the R, G, and B densities is lost due to the interline correction will be described. FIG. 7 is a diagram showing a positional deviation between the R, G, and B lines of the CCD. FIG. 8 shows an example in which the peak value BP of the B signal (image data) is reduced to BP ′ by the interpolation processing of the interline correction unit. It is a figure which shows typically the phenomenon which falls and the difference with the peak value GP of G signal (image data) arises.
[0011]
In a CCD line sensor called a reduction type, as schematically shown in FIG. 7, R, G, and B element rows are arranged at a predetermined pitch in the sub-scanning direction. This pitch corresponds to, for example, four lines when the enlargement / reduction magnification is 1. Normally, since the original surface is scanned in the order of R, G, and B, the G signal is delayed by 4 lines and the B signal is delayed by 8 lines with respect to the R signal.
[0012]
In this case, the inter-line correction unit performs inter-line correction that delays the G signal by four lines with respect to the B signal and further delays the R signal by four lines (eight lines with respect to the B signal). As a result, the phases of the R, G, and B image data are aligned.
[0013]
However, when the enlargement / reduction ratio is not an integer multiple, the delay amount is not equal to the integer line and a fraction is generated. For example, as shown in FIG. 7, when the enlargement / reduction ratio is 0.7, the G signal is delayed by 2.8 lines and the B signal is delayed by 5.6 lines with respect to the R signal. As described above, when a delay corresponding to a decimal line occurs, a delay corresponding to a decimal line is artificially performed by interpolation processing in addition to the delay corresponding to the integer line.
[0014]
For example, when the G signal is delayed by 5.6 lines with the B signal as a reference, the data delayed by 5.6 lines by the interpolation process between the data delayed by 5 lines and the data delayed by 6 lines is performed. Generate. Actually, in order to avoid the conspicuous G signal from being changed by the interpolation processing, interpolation processing is often performed on the B signal with respect to the decimal line for the G signal. As a result, as shown in FIG. 8, the peak value BP of the B signal is reduced to BP ′ by the interpolation process, and a difference from the peak value GP of the G signal is generated. Similarly, the peak value of the R signal is lowered by the interpolation process, and a difference from the peak value of the G signal is generated.
[0015]
As described above, when the density balance between the reference G image data and the other R or B image data is lost due to the aberration in the optical system or the effect of correction between lines, the maximum value as described above is obtained. It becomes difficult to accurately determine whether the color is chromatic or achromatic based on the difference (saturation value) from the minimum value. As a result, the edge enhancement processing of 1 or 2 dots of black fine lines or black characters is not performed, and the lines are printed as greenish lines.
[0016]
The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a color image processing apparatus with improved black thin line or black character reproducibility.
[0017]
[Means for Solving the Problems]
The device according to the invention of claim 1 is read by the reading means. Multiple Different Consists of wavelength components To image data Can Based on the signal from the fine line discriminating unit and the thin line discriminating unit that discriminates whether or not the pixel of interest is a thin line, when the pixel of interest is a thin line, the pixel of interest At least one of the image data of the plurality of wavelength components constituting the pixel of interest in order to reduce the difference in density between the image data of the plurality of wavelength components constituting the pixel A density correction unit that performs correction to increase the density of the image data of the wavelength component, and a saturation determination unit that determines whether the pixel of interest is a chromatic color or an achromatic color using the output value of the density correction unit.
[0018]
Preferably, the thin line discriminating unit detects a high density thin line having a width of 1 or 2 dots. In addition to determining whether the pixel of interest is chromatic or achromatic using the output value of the density correction unit, the print image data generation unit prints using the output value of the density correction unit (image data after correction). It is also preferable to generate image data for use.
[0019]
In the apparatus according to the fourth aspect of the invention, the density correction unit performs correction for increasing the density of image data of other wavelength components excluding the wavelength component having the best MTF characteristics. For example, when the reference of the optical system is adjusted to the wavelength of G, the MTF characteristic of the reference G wavelength component is the best, so correction is not performed for the G image data, and only the R and B image data is corrected. , Correction to increase the density.
[0020]
In the apparatus according to the fifth aspect of the invention, the line sensor included in the reading unit includes a plurality of element rows having different wavelength components arranged apart from each other in the sub-scanning direction, and is caused by a positional deviation between the plurality of element rows. And an inter-line correction unit that corrects a phase shift between the image data of the plurality of wavelength components, and the density correction unit is configured to correct the wavelength component image data to be interpolated during correction by the inter-line correction unit. , Correction to increase the density. For example, as described in the related art, when the interline correction unit performs interpolation processing on R and B image data with reference to G image data, the G image data is not corrected, and R and B For only the image data, correction for increasing the density is performed.
[0021]
In the apparatus according to the invention of claim 6, the density correction unit is ,note Eye pixel black A first density correction amount when the fine line discriminating unit discriminates that it is a fine line; ,note Eye pixel Other than black Switch the second density correction amount when the fine line discriminating unit discriminates that it is a fine line Increase the density of image data of at least one wavelength component Correction is executed, and the second density correction amount is set smaller than the first density correction amount.
[0022]
In the present specification, the term “black thin line” usually includes black thin lines and black characters.
[0023]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 5 is a diagram showing a schematic configuration of a digital color copying machine to which the color image processing apparatus of the present invention is applied.
[0024]
In FIG. 5, the digital color copying machine 100 is composed of an image reading device (reading means) 110 disposed at the upper portion and an image recording device 120 disposed at the lower portion. The image reading device 110 includes a manually placed document reading device 116 and a document panning device 117.
[0025]
The image reading device 110 irradiates the original with light from the light source 111 and forms an image of reflected light from the original surface on the CCD 114 that is a linear image sensor via a reduction optical system including a mirror 112 and a lens 113. The CCD 114 converts an image of a document into an analog signal by photoelectric conversion and charge transfer. For example, the resolution of the CCD 114 is 400 dpi, and the maximum document size is A3. In this case, one line in the main scanning direction is about 5000 dots.
[0026]
The analog signal output from the CCD 114 is given to the image processing device 115. The image processing device 115 converts the analog signal into digital data, performs image processing such as scaling and image quality correction, and outputs the processed digital data from the image reading device 110 as digital image data.
[0027]
Scanning in reading a document is performed with the scanning direction of the elements constituting the CCD 114 (longitudinal direction of the CCD 114) as the main scanning direction and the direction perpendicular thereto as the sub-scanning direction. The sub-scanning direction is performed by moving the mirror 112 in the horizontal direction in the case of a manually placed document, and is performed by transporting the document in the case of document panning. In either case, the image signal is sequentially transferred for each line in the main scanning direction.
[0028]
The image recording device 120 converts the digital image data output from the image reading device 110 into an analog signal by the laser diode driving unit 121, further converts it into light by the laser diode 122, and passes through the polygon mirror 123 to the photosensitive drum 124. To form an image. The current input to the laser diode 122 is controlled, and the amount of light is controlled in units of pixels. As a result, a latent image is formed on the photosensitive drum 124, which is developed with toner and then transferred to the recording paper 125. In this manner, an image with 400 dpi and 256 gradations is formed by electrophotography.
[0029]
FIG. 1 is a block diagram showing the overall configuration of an image processing apparatus 115 according to an embodiment of the present invention.
In FIG. 1, analog signals output from the CCD 114, that is, color image signals of R, G, and B colors are input to the A / D converter 13. The A / D converter 13 converts an R, G, B color image signal that is an analog signal into R, G, B color image data that is 8-bit digital data (256-gradation density data). The obtained R, G, B color image data is input by the shading correction unit 14 to the interline correction unit 15 after being subjected to shading correction for correcting unevenness in the amount of light in the main scanning direction.
[0030]
The interline correction unit 15 is a circuit that corrects the phase shift of the R, G, B color image signals (data) caused by the positional shift between the R, G, B lines of the CCD 114.
FIG. 2 is a block diagram showing a schematic configuration of the interline correction unit 15.
[0031]
The interline correction unit 15 includes line delay circuits 31 to 33, FIFO (line memories) 34 and 36, and interpolation circuits 35 and 37. As described in the prior art, the line delay circuits 31 to 33 delay the R image data and the G image data by integer lines with respect to the B image data. Also, the FIFOs 34 and 36 and the interpolation circuits 35 and 37 perform the fractional delay corresponding to the decimal line by interpolation processing. The interpolation process is performed only for the R and B image data with the conspicuous G image data as a reference.
[0032]
The R, G, B color image data in which the phase shift is corrected by the interline correction unit 15 is subjected to chromatic aberration correction by the chromatic aberration correction unit 16 and further includes a magnification / movement processing unit 17 including a magnification line memory. Then, after being subjected to enlargement / reduction processing in the main scanning direction in accordance with the variable magnification, it is input to the area determination unit 21.
[0033]
As will be described in detail later with reference to FIG. 3, the region determination unit 21 includes a thin line determination unit 41, a density correction unit 42, and a saturation determination unit 43. The region discriminating unit 21 discriminates whether or not the target pixel is a fine line. If the target pixel is a thin line, the region discriminating unit 21 performs correction to increase the density of the R and B image data and outputs the correction to the color conversion unit 18.
[0034]
The area discriminating unit 21 includes an edge discriminating unit and a halftone discriminating unit (not shown). The edge determination unit outputs a determination signal EDGE indicating that the target pixel is an edge portion of the image. A determination signal AMI indicating that the target pixel is a halftone image is output from the halftone determination unit. If the saturation determination unit 43 determines that the region is a black region and the edge determination unit determines that the region is an edge portion, the pixel of interest is determined to be a black edge, and the determination signal BKEDG is set to MTF. Output to the correction unit 20.
[0035]
The color conversion unit 18 adjusts the color image data R, G, and B. The color correction unit 19 converts CMY (subtractive color) printing color image data C (cyan), M (magenta), Y (yellow), and Bk (black) from RGB (additional color) color image data. Generate. The generated color image data for printing C, M, Y, Bk is given to the MTF correction unit 20.
[0036]
The MTF correction unit 20 performs image processing such as edge enhancement on the area determined to be a black edge based on the determination signal BKEDG from the area determination unit 21. The region discriminating unit 21 may also discriminate the halftone dot region, and the MTF correcting unit 20 may perform image processing such as smoothing based on the discrimination signal. The color image data for printing C, M, Y, Bk output from the MTF correction unit 20 is given to the image recording device 120.
[0037]
FIG. 3 is a block diagram illustrating a part of the configuration of the area determination unit 21.
In FIG. 3, an area discriminating unit 21 is a thin line discriminating unit 41 that discriminates a black thin line or another color thin line, and one of R and G image data based on signals RBEN, REN, and BEN that are the discrimination results. Or a density correction unit 42 that increases both densities, and a saturation determination unit 43 that determines whether the pixel of interest is a chromatic color or an achromatic color based on the R, G, and B image data after density correction. .
[0038]
The fine line discriminating unit 41 has line memories 44, 46, and 48 for delaying each line of R, G, and B image data by one line, and line memories 45, 47, and 49 for delaying by two lines. In addition, for each of the R, G, and B image data, a peak detection unit that detects the presence or absence of a peak based on three types of data: image data with zero delay amount, data delayed by one line, and data delayed by two lines 50, 51, 52.
[0039]
For example, the peak detection unit 50 for R image data detects the presence or absence of a peak in the horizontal direction from the image data for three lines, that is, the change in the pixel of interest and the image data before and after the target pixel. Set RHP to L (low) level. When there is no peak, the output signal RHP is set to the H (high) level. In addition, in the image data delayed by one line where the pixel of interest exists, the presence or absence of a peak in the vertical direction is detected from the change in the pixel of interest and the image data before and after (up and down), and if there is a peak, the output signal RVP is Set to L level. When there is no peak, the output signal RVP is set to H level.
[0040]
Similarly, for the peak detector 51 for G image data and the peak detector 52 for B image data, if there is a horizontal peak, the output signal GHP or BHP is set to L level, and if there is no peak, the output signal GHP or BHP is set to H level. Level. If there is a peak in the vertical direction, the output signal GVP or BVP is set to L level, and if there is no peak, the output signal GVP or BVP is set to H level.
[0041]
Detecting the presence or absence of a peak as described above corresponds to detecting whether or not a thin line has a width of 1 dot. Note that it is also possible to detect whether or not the line is a thin line having a width of 2 dots by enlarging changes before and after the pixel of interest up to 5 lines (5 dots) and performing peak detection.
[0042]
A total of six outputs RHP, RVP, GHP, GVP, BHP, and BVP obtained by detecting the three peak detection units 50, 51, and 52 in the horizontal direction and the vertical direction are input to the logic operation unit 53. . The logical operation unit 53 performs the following logical operation on these six data to obtain three outputs RBEN, REN, and BEN.
[0043]
First, the output RBEN is L level when all the R, G, B image data (all wavelength components) have a peak in the horizontal direction or the vertical direction, and is H level in other cases, and is expressed by the following logical expression. The
[0044]
RBEN = [(RHP + GHP + BHP). (RVP + GVP + BVP)]
If the signal RBEN is at L level, it means that there is a high possibility that the target pixel is a black thin line.
[0045]
The output REN is at the L level when the R image data has a peak in the horizontal direction or the vertical direction and RBEN is not at the L level, and at the H level otherwise. In other words, not all the wavelength components, but at least when the R component has a peak, it is at the L level, otherwise it is at the H level, and is represented by the following logical expression. If the signal REN is at the L level, it means that there is a high possibility that the target pixel is not a black thin line but a thin line of a color including red.
[0046]
REN = (RHP ・ RVP + RBEN)
The output BEN is L level when the B image data has a peak in the horizontal direction or the vertical direction and RBEN is not at the L level, that is, not all wavelength components but at least the B component has a peak. Otherwise, it is at the H level and is represented by the following logical expression. When the signal BEN is at the L level, it means that there is a high possibility that the target pixel is not a black thin line but a thin line of a color including blue.
[0047]
BEN = (BHP ・ BVP + RBEN)
The three determination signals RBEN, REN and BEN obtained as described above are given to the density correction unit 42. The density correction unit 42 also receives R, G, and B pixel data for the pixel of interest. Based on the three determination signals RBEN, REN, and BEN, the density correction unit 42 performs correction for increasing the density of both or one of the R and B pixel data. The state of density correction by the density correction unit 42 is shown in FIG.
[0048]
That is, in FIG. 9, the left side is before correction, and the right side is after correction. In this example, there is no change in the density of the G pixel data before and after the correction, but the density of the R and B pixel data is increased by the correction. Before the correction, the density of the R and B pixel data and the density of the G pixel data are greatly different from each other, so that it is easy to be misidentified as a color character. However, after the correction, the density of the R and B pixel data is It approaches the density of the G pixel data, and it becomes easy to recognize that it is a black thin line or a black character. Next, an example of the configuration of the density correction unit 42 will be described.
[0049]
FIG. 4 is a block diagram illustrating an example of the configuration of the density correction unit 42.
In FIG. 4, the density correction unit 42 includes multipliers 60 and 62 and selectors 61 and 63 for increasing the density of the R image data. Similarly, multipliers 64 and 66 and selectors 65 and 67 for increasing the density of the B image data are provided. Since the G image data is reference data, it is output as it is without performing density correction.
[0050]
The following description will be made on the density correction of the R image data, but the same applies to the density correction of the B image data. First, the first multiplier 60 obtains a product of R image data as an A input and RM1 as a B input. RM1 is a first density correction coefficient and is set to a value larger than 1. The first selector 61 selects the R signal as the A input or the output of the multiplier 60 as the B input according to the value of RBEN that is the S input. If RBEN is at L level, the output of multiplier 60, that is, the R signal after density correction is selected, and if RBEN is at H level, the R signal before density correction is selected.
[0051]
The second multiplier 62 calculates the product of the output of the selector 61 that is the A input and RM2 that is the B input. RM 2 Is a second density correction coefficient, greater than 1 and RM 1 Set to a smaller value. The second selector 63 selects the output of the selector 61 that is the A input or the output of the multiplier 62 that is the B input according to the value of the REN that is the S input. If REN is at the L level (in this case, RBEN is always at the H level as described above), the output of the multiplier 62, that is, the R signal after density correction by the second multiplier 62 is selected. RE If N is H level, the output of the selector 61, that is, the R signal before density correction or the R signal after density correction by the first multiplier 60 is selected.
[0052]
The first multiplier 60 performs correction to increase the density of the R signal when RBEN is at L level, that is, when a black thin line is detected, and the second multiplier 62 performs correction when REN is at L level, that is, , Correction is performed to increase the density of the R signal when a thin color line including red is detected. In copying a manuscript, normally, black character reproducibility is more important than color reproducibility. In addition, when it is detected that only one or two wavelength components have a peak, there is a higher possibility of erroneous detection due to the influence of noise than when all wavelength components are detected to have a peak. Therefore, as described above, the correction coefficient RM2 (that is, the density correction amount when the black thin line is detected) of the second multiplier 62 is included in the correction coefficient RM1 of the first multiplier 60 (that is, red is included). It is set smaller than the density correction amount when a fine color line is detected.
[0053]
The operations of the multipliers 64 and 66 and the selectors 65 and 67 for correcting the density of the B image data are the same as the operations of the multipliers 60 and 62 and the selectors 61 and 63 for correcting the density of the R image data. It is the same. Also in this case, for the above reason, the correction coefficient BM2 of the second multiplier 66 is set smaller than the correction coefficient BM1 of the first multiplier 64.
[0054]
The density-corrected R, G, B image data output from the density correction unit 42 is input to the saturation determination unit 43 as shown in FIG. As described in the section of the prior art, the saturation determination unit 43 obtains the difference between the maximum value and the minimum value of the R, G, B image data as the saturation value, and the brightness value (R, G, B image data). If the saturation value is lower than the threshold value determined in accordance with (minimum value), it is determined that the color is an achromatic color (black region), and a determination signal BKAREA is output. If the determination signal BKAREA is at the L level, it indicates that the black region is determined.
[0055]
As described above, the determination signal BKARE is logically ANDed with the determination signal of the edge determination unit, and is output from the region determination unit 21 as the black edge determination signal BKEDG shown in FIG. Given to. In addition, the R, G, B image data output from the density correction unit 42 of the area determination unit 21 is supplied to the saturation determination unit 43, and R, G, B image data after density correction (however, G The image data is output from the area discriminating unit 21 as no density correction).
[0056]
As shown in FIG. 1, the R, G, and B image data after density correction pass through a color conversion unit 18 and a color correction unit 19 (print image data generation unit), and print image data C, M, and Y , Bk.
[0057]
In the embodiment described above, the configuration, processing contents, processing order, and the like of the entire region determination unit 21, the image processing device 115, and other units or each unit can be appropriately changed in accordance with the spirit of the present invention.
[0058]
【The invention's effect】
According to the present invention, it is determined whether or not the target pixel is a thin line. In order to reduce the difference in density between the image data of the plurality of wavelength components constituting the pixel of interest, at least one of the image data of the plurality of wavelength components constituting the pixel of interest Since correction is performed to increase the density of image data of wavelength components (for example, R and B), even when the density balance between R, G, and B is lost due to the influence of aberration in the optical system or correction between lines, the density balance Can be recovered, and the saturation determination unit can accurately determine the black region. As a result, processing such as edge enhancement of the black thin line is correctly performed, so that the reproducibility of the black thin line or the black character is improved.
[0059]
According to the invention of claim 3, since the print image data generation unit generates the image data for printing based on the image data after the density correction, the black reproducibility in the black thin line or the black character region is further improved.
[0060]
According to the invention of claim 6, when a fine line of a color other than black (R or B) is detected, the correction amount for increasing the density of the color is set as the density of R and B when the black fine line is detected. By setting the correction amount smaller than the correction amount, priority is given to the black reproducibility and the influence of noise can be reduced.
[Brief description of the drawings]
FIG. 1 is a block diagram of a color image processing apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing an internal configuration of an interline correction unit.
FIG. 3 is a block diagram illustrating a part of an internal configuration of an area determination unit.
FIG. 4 is a circuit diagram showing an internal configuration of a density correction unit.
FIG. 5 is a diagram showing a schematic configuration of a digital color copying machine.
FIG. 6 is a diagram illustrating a state in which a difference occurs between R, G, and B MTFs due to aberration of the optical system.
FIG. 7 is a diagram showing a positional shift between R, G, and B lines of a CCD.
FIG. 8 is a diagram schematically illustrating a phenomenon in which a peak value of B image data is lowered and a difference from a peak value of G image data is generated by the interpolation processing of the interline correction unit.
FIG. 9 is a diagram illustrating a state of density correction by a density correction unit.
[Explanation of symbols]
15 Line correction unit
18 color converter
19 color correction unit (print image data generation unit)
20 MTF correction unit
21 Area discriminator
41 Fine line discriminator
42 Density correction unit
43 Saturation Discriminator
44-49 line memory
50 to 52 Peak detector
53 Logical operation part
60, 62, 64, 66 multiplier
61, 63, 65, 67 selector
114 CCD (line sensor)
115 Image processing apparatus
RM1, BM1 first density correction coefficient
RM2, BM2 Second density correction coefficient

Claims (6)

読み取り手段により読み取られた複数の異なる波長成分からなる画像データにおける注目画素が細線かどうかを判別する細線判別部と、
前記細線判別部からの信号に基づいて、前記注目画素が細線であるとき、前記注目画素を構成する複数の波長成分の画像データ間の濃度の差を小さくするべく、前記注目画素を構成する複数の波長成分の画像データのうちの少なくとも1つの波長成分の画像データの濃度を増加させる補正を行う濃度補正部と、
前記濃度補正部の出力値を用いて、注目画素が有彩色か無彩色かを判別する彩度判別部と
を備えていることを特徴とするカラー画像処理装置。
A thin line determination unit that the pixel of interest definitive the image data composed of a plurality of different wavelength components read by the reading means to determine whether thin lines,
Based on a signal from the thin line determination unit, when the target pixel is a thin line, a plurality of pixels constituting the target pixel are configured to reduce a difference in density between image data of a plurality of wavelength components constituting the target pixel. A density correction unit that performs correction to increase the density of the image data of at least one wavelength component of the image data of the wavelength component;
A color image processing apparatus comprising: a saturation determination unit that determines whether a pixel of interest is a chromatic color or an achromatic color using an output value of the density correction unit.
前記細線判別部は、1又は2ドット幅の高濃度の細線を検出する、
請求項1記載のカラー画像処理装置。
The fine line discriminating unit detects a high-density thin line having a width of 1 or 2 dots.
The color image processing apparatus according to claim 1.
前記濃度補正部の出力値を用いて印刷用の画像データを生成する印刷画像データ生成部をさらに備えている、
請求項1又は請求項2記載のカラー画像処理装置。
A print image data generation unit that generates image data for printing using the output value of the density correction unit;
The color image processing apparatus according to claim 1.
前記濃度補正部は、MTF特性が最も良い波長成分を除く他の波長成分の画像データについて、濃度を増加させる補正を行う、
請求項1乃至請求項3のいずれかに記載のカラー画像処理装置。
The density correction unit performs correction for increasing the density of image data of other wavelength components excluding the wavelength component having the best MTF characteristics.
The color image processing apparatus according to claim 1.
前記読み取り手段に含まれるラインセンサは、異なる波長成分の複数の素子列が副走査方向に離間して配列されており、
前記複数の素子列間の位置ずれに起因する前記複数の波長成分の画像データ間の位相ずれを補正するライン間補正部をさらに備え、
前記濃度補正部は、前記ライン間補正部による補正の際に、補間処理の対象となる波長成分の画像データについて、濃度を増加させる補正を行う、
請求項1乃至請求項3のいずれかに記載のカラー画像処理装置。
In the line sensor included in the reading unit, a plurality of element rows having different wavelength components are arranged separately in the sub-scanning direction,
An inter-line correction unit that corrects a phase shift between the image data of the plurality of wavelength components due to a positional shift between the plurality of element rows;
The density correction unit performs correction for increasing the density of the image data of the wavelength component to be interpolated during correction by the interline correction unit.
The color image processing apparatus according to claim 1.
前記濃度補正部は、注目画素が細線であると前記細線判別部が判別したときの第1の濃度補正量と、注目画素が黒以外の色の細線であると前記細線判別部が判別したときの第2の濃度補正量とを切り替えて前記少なくとも1つの波長成分の画像データの濃度を増加させる補正を実行するものであり、第2の濃度補正量は第1の濃度補正量より小に設定されている、
請求項1乃至請求項5のいずれかに記載のカラー画像処理装置。
The density correction unit includes a first density correction amount when the attention pixel is the thin line determination unit has determined that the black thin lines, and the thin line determination unit attention pixel is a color thin line other than black The correction is performed by switching the second density correction amount at the time of determination to increase the density of the image data of the at least one wavelength component , and the second density correction amount is greater than the first density correction amount. Set to small,
The color image processing apparatus according to any one of claims 1 to 5.
JP08754999A 1999-02-03 1999-03-30 Color image processing device Expired - Fee Related JP3700456B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP08754999A JP3700456B2 (en) 1999-03-30 1999-03-30 Color image processing device
US09/495,899 US7339699B1 (en) 1999-02-03 2000-02-02 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08754999A JP3700456B2 (en) 1999-03-30 1999-03-30 Color image processing device

Publications (2)

Publication Number Publication Date
JP2000287092A JP2000287092A (en) 2000-10-13
JP3700456B2 true JP3700456B2 (en) 2005-09-28

Family

ID=13918081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08754999A Expired - Fee Related JP3700456B2 (en) 1999-02-03 1999-03-30 Color image processing device

Country Status (1)

Country Link
JP (1) JP3700456B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3855800B2 (en) 2002-02-27 2006-12-13 ブラザー工業株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2000287092A (en) 2000-10-13

Similar Documents

Publication Publication Date Title
JP3777785B2 (en) Image processing device
JP3700381B2 (en) Image processing device
JP3887951B2 (en) Image forming apparatus
US6868180B2 (en) Image processing apparatus, image forming apparatus, and image processing method
US20070236707A1 (en) Image processing apparatus, image processing method and image processing program
US7099520B2 (en) Image processing apparatus, image processing method, and program product for image processing
JP2002232708A (en) Image processing device, image forming device using the same, and image processing method
US7339699B1 (en) Image processing apparatus
JP4329271B2 (en) Image processing apparatus, image forming apparatus, and image processing method
US7099045B2 (en) Image processing apparatus, image forming apparatus, and image processing method for judging pixels in edge area of character in halftone-dot area
JP3736535B2 (en) Document type identification device
JP3302041B2 (en) Image processing device
JP3861498B2 (en) Black edge discrimination device and image processing device
JP3923293B2 (en) Image processing method, image processing apparatus, and image forming apparatus
JP3700456B2 (en) Color image processing device
JP2007067908A (en) Image processor, image forming apparatus, image processing method, and image processing program
JP4047356B2 (en) Image processing device
JPH0541796A (en) Copying machine
JP4176053B2 (en) Image processing method, image processing apparatus, image forming apparatus, and computer program
JP3989636B2 (en) Image processing device
US6999632B2 (en) Image processing apparatus, image forming apparatus and image processing method
JP2002232709A (en) Image processing device, image forming device using the same, and image processing method
JP3700453B2 (en) Image processing apparatus and image processing method
JPH11266360A (en) Image processor
JP6808974B2 (en) Image processing equipment and computer programs

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041130

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050125

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050704

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080722

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090722

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090722

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100722

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110722

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120722

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130722

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees