JP3944032B2 - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP3944032B2
JP3944032B2 JP2002257849A JP2002257849A JP3944032B2 JP 3944032 B2 JP3944032 B2 JP 3944032B2 JP 2002257849 A JP2002257849 A JP 2002257849A JP 2002257849 A JP2002257849 A JP 2002257849A JP 3944032 B2 JP3944032 B2 JP 3944032B2
Authority
JP
Japan
Prior art keywords
color
pixel
target pixel
determination
achromatic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002257849A
Other languages
Japanese (ja)
Other versions
JP2004096625A (en
Inventor
茂雄 山形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002257849A priority Critical patent/JP3944032B2/en
Publication of JP2004096625A publication Critical patent/JP2004096625A/en
Application granted granted Critical
Publication of JP3944032B2 publication Critical patent/JP3944032B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Color, Gradation (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は画像処理装置およびその方法に関し、例えば、画像を領域分割する画像処理に関する。
【0002】
【従来の技術】
文字や網点画像が混在する原稿をコピーする場合、複写機は、スキャナから出力される画像データに様々な処理を施した後、プリント出力する。例えば、文字をシャープにする場合はシャープネスフィルタを適用する。しかし、網点画像に同様のフィルタ処理を施すとモワレが発生する。そこで、複写機などには、文字の再現を重視するモード、網点画像の再現を重視するモードなど、複数の複写モードが用意され、複写モードに応じたフィルタ処理が行われる。
【0003】
また、カラー複写機には、文字および線画領域と、中間調画像領域とを分離(像域分離)して、各領域に施すフィルタ処理を切り替えるものがある。
【0004】
カラー複写機には、さらに、文字および線画領域や分離された画像が無彩色か否かを判定して、無彩色の場合は、ブラックの色材のみを使用してプリントすることで、黒文字や黒細線の再現性を向上させるものがある。無彩色か否かの判定の際、ノイズによる誤判定を抑制するために、判定の前処理として、注目画素データにスムージング処理を行うものがある。
【0005】
【発明が解決しようとする課題】
スキャナによる画像読取時に発生するRGB信号の位相差により、無彩色の文字および線画領域のエッジ部に色成分が発生する(以下「読取色ずれ」と呼ぶ)。読取色ずれが発生すると、本来、無彩色の文字および線画領域であるにもかかわらず、その領域が無彩色と判定されない。読取色ずれの原因であるRGB信号の位相差は、スキャナヘッドを走査する際の機械的振動や、レンズなどの光学系の色収差などに起因する。振動や色収差を抑制しようとすると、装置はかなりのコストアップになる。
【0006】
白い下地(以下「白地」と呼ぶ)上の黒文字や黒細線のエッジ部に発生する読取色ずれを抑圧する手法として、上述したスムージング処理は有効な方法であるが、色が付いた下地(以下「色地」と呼ぶ)上の黒細線や黒文字に対してスムージング処理を行えば、黒細線や黒文字のエッジ部に色が発生して、無彩色領域と判定できなくなる。
【0007】
本発明は、上述の問題を個々にまたはまとめて解決するためのもので、像域分離を行う際の読取色ずれの影響を抑制することを目的とする。
【0008】
【課題を解決するための手段】
本発明は、前記の目的を達成する一手段として、以下の構成を備える。
【0009】
本発明にかかる画像処理装置は、入力される画像信号の注目画素周辺の領域を参照して、前記注目画素の色成分を平均化する平均化手段と、平均化された画像信号に基づき、画素が無彩色か有彩色かを判定する判定手段と、注目画素を含む連続する複数画素予め定められた前記判定手段の判定結果の並び方および明度の変化を有する場合に、前記注目画素に対する前記判定手段による無彩色の判定結果を有彩色の判定結果に補正する補正手段とを有することを特徴とする。
【0010】
本発明にかかる画像処理方法は、入力される画像信号の注目画素周辺の領域を参照して、前記注目画素の色成分を平均化し、平均化された画像信号に基づき、画素が無彩色か有彩色かを判定し、注目画素を含む連続する複数画素予め定められた前記判定の判定結果の並び方および明度の変化を有する場合に、前記注目画素に対する前記判別による無彩色の判定結果を有彩色の判定結果に補正することを特徴とする。
【0011】
【発明の実施の形態】
以下、本発明にかかる一実施形態の画像処理装置を図面を参照して詳細に説明する。
【0012】
[構成]
図1は実施形態の画像処理装置である、カラー複写機の構成例を示すブロック図である。
【0013】
画像入力部1は、カラー画像の各画素について、RGB三色に色分解されたディジタル画像信号R1、G1、B1を出力する。画像入力部1は、例えばランプ、ミラーやレンズなどの光学系、RGB3ラインのCCD、および、A/D変換器などで構成される、カラー複写機のイメージリーダに対応する。3ラインのCCDは、それらの間隔が6ライン分の距離になるよう配置されている。画像入力部1は、例えばB画像信号に合わせてRおよびG画像信号を遅延することで、RGB画像信号の副走査方向の位置を合わせる。なお、画像入力部1は、イメージリーダに限られず、コンピュータ機器などから画像を入力するインタフェイスでもよい。
【0014】
画像入力部1から出力される画像信号R1、G1、B1は、入力マスキング部2において、3×3画素のマトリクス演算を用いる色補正処理が施されて標準的な色空間、例えばNTSC-RGBやsRGBの画像信号R2、G2、B2に変換され、空間フィルタ3、後述する文字線画検出部8および色判定部9に入力される。
【0015】
文字線画検出部8は、画像信号R2、G2、B2から、入力画像領域が文字線画領域か否かを判定し、その判定結果を示すMJDET信号を空間フィルタ部3および彩度抑圧部4に出力する。また、色判定部9は、画像信号R2、G2、B2から、入力画像が無彩色か否かを判定し、その判定結果を示すBWDET信号を彩度抑圧部4に出力する。
【0016】
空間フィルタ3は、画像信号R2、G2、B2に空間フィルタ処理を施すが、その空間フィルタの特性は、文字線画検出部8から出力されるMJDET信号によって切り替えられる。なお、空間フィルタ3は、文字線画検出部8および色判定部9の検出・判定タイミングに画像信号を同期させるためのバッファを有する。同様に、文字線画検出部8は、色判定部9の判定タイミングに判定結果を同期させるためのバッファを有するが、当業者であれば容易に理解されることであるから、バッファの詳細な説明は省略する。
【0017】
空間フィルタ3から出力される画像信号R3、G3、B3は、彩度抑圧部4に入力され、MJDET信号およびBWDET信号に基づき、彩度を抑圧する処理が施される。
【0018】
彩度抑圧部4から出力される画像信号R4、G4、B4は、出力マスキング部5に入力され、対数変換(輝度濃度変換)された後、マスキングおよびUCR処理が施されて、C1、M1、Y1、K1の濃度信号に変換される。
【0019】
出力マスキング部5から出力される画像信号C1、M1、Y1、K1は、ガンマ変換部6に入力されて、プリンタ部7の階調特性に基づく階調変換が施される。
【0020】
ガンマ変換部6から出力される画像信号C2、M2、Y2、K2は、プリンタ部7に入力され、プリント画像が形成される。
【0021】
[文字線画検出部]
文字線画検出部8は、画像信号を画素単位に判定して、文字または線画を構成する画素か否かを判別し、MJDET信号として、文字または線画を構成する画素と判定した場合は‘1’を、文字または線画を構成する画素ではないと判定した場合は‘0’を出力する。
【0022】
図2は文字線画検出部8の構成例を示すブロック図である。
【0023】
明度信号生成部11は、下式により、画像信号を明度信号Lに変換する。
L = (R + 2×G + B)/4 …(1)
【0024】
明度信号生成部11から出力される信号Lは、エッジ量判定部12および二値化部13に入力される。エッジ量判定部12は、信号Lのラプラシアン(エッジ量)を演算し、出力信号EDとして、ラプラシアンの絶対値が所定値以上の場合は‘1’を、所定値未満の場合は‘0’を出力する。
【0025】
二値化部13は、注目画素周辺の所定領域(例えば5×5画素領域)の画素値の平均値を閾値として、注目画素を二値化する。図3は線画領域の、図4は網点領域の二値化結果(二値化部13の出力BD)の例を示す図である。
【0026】
二値化部13の出力信号BDを入力する孤立量判定部14は、注目画素周辺の所定領域(例えば9×9画素領域)を参照して、注目画素の孤立状態に応じた出力信号SUMを出力する。つまり、注目画素周辺の所定領域において、BD=‘1’の画素に隣接するBD=‘0’の画素を計数して、その計数値(孤立量)が所定値以下であればSUM=‘1’を、所定値を超えればSUM=‘0’を出力する。
【0027】
図3に示す線画領域の例では、BD=‘1’の画素が連続しているから、孤立量は所定値以下になりSUM=‘1’が出力される。一方、図4に示す網点領域の例では、BD=‘1’の画素が孤立して存在するから、孤立量は所定値を超えてSUM=‘0’が出力される。なお、線画領域だけでなく、文字領域の場合もBD=‘1’の画素が連続する傾向にあり、文字領域に対する孤立量判定部14の出力信号SUMは‘1’になる。このように、孤立量判定部14は、文字線画領域と網点領域とを分離する信号SUMを出力する。
【0028】
エッジ量判定部12の出力信号EDおよび孤立量判定部14の出力信号SUMを入力する判定部15は、ED=‘1’(エッジ量が大)かつSUM=‘1’(孤立量が小)の場合、注目画素が文字線画領域にあることを示すMJDET=‘1’を出力する。
【0029】
銀塩写真などの連続中間調領域の場合、画像によっては孤立量判定部14の出力信号SUMが‘1’になる場合と、‘0’になる場合があり、文字線画領域と連続中間調領域との分離が充分ではない。しかし、連続中間調領域のエッジ量は小さいから、エッジ量判定部12からED=‘0’(エッジ量が小)が出力され、判定部15が連続中間調領域を文字線画領域と判定する誤りを防ぐことができる。
【0030】
[色判定部]
図5は色判定部9の構成例を示すブロック図である。
【0031】
色空間変換部31は、画像信号の色空間を変換するもので、入力画像信号の色空間を、明るさを表す明度信号成分および色味を表す色度成分に変換する。具体的には、式(2)によって簡易的に、画像信号R2、G2、B2を明度信号Lおよび色度信号Ca、Cbに変換する。
L = (R2 + 2×G2 + B2)/4
Ca = (R2 - G2)/2 …(2)
Cb = (R2 + G2- 2×B2)/4
【0032】
色空間変換部31から出力される明度信号Lおよび色度信号Ca、Cbはそれぞれラインメモリ32、33、34に入力され、1ライン分遅延された信号、および、2ライン分遅延された信号としてエリア処理部34に入力される。なお、図5に示す信号名は、その添字によって遅延量(副走査方向の相対的な位置)を表し、例えば、L(0)に対してL(-1)は1ライン前の信号を、L(-2)は2ライン前の信号をそれぞれ表す。
【0033】
エリア処理部34は、注目画素周辺の3×3画素領域を参照して、明度信号Lおよび色度信号Ca、Cbそれぞれに平均化処理を施す。つまり、エリア処理部34は、3×3画素領域の九画素を参照して、明度信号の平均値aveL、および、色度信号Ca、Cbの平均値aveCa、aveCbを出力する。
【0034】
エリア処理部34から出力される信号aveCa、aveCbは、彩度算出部35に入力され、式(3)により、注目画素の彩度Sが算出される。
S = √(aveCa2 + aveCb2) …(3)
【0035】
なお、彩度Sの算出は、簡略化のため、絶対値|aveCa|および|aveCb|を比較して、大きい方の絶対値を彩度Sとしてもよい。図6は式(3)によって算出される彩度S0と、簡略的に算出される彩度S1との関係を示す図である。
【0036】
彩度算出部35から出力される彩度Sは、判定部36に入力されて所定の閾値と比較される。判定部36は、彩度Sが所定の閾値以下の場合は注目画素が無彩色と判定して信号MONO=‘1’を出力し、所定の閾値を超える場合は注目画素が有彩色と判定して信号MONO=‘0’を出力する。
【0037】
ラインメモリ37は、信号MONOに最大4ライン分の遅延を与え、信号MONOを1、2、3および4ライン分遅延した信号を補正部39に入力する。また、ラインメモリ38は、信号aveLに最大4ライン分の遅延を与え、信号aveLを1、2、3および4ライン分遅延した信号を補正部39に入力する。
【0038】
[読取色ずれ]
補正部39の動作を説明する前に、読取色ずれについて詳細に説明する。
【0039】
図7は原稿画像と画像入力部1によって光電変換されたRGB信号との関係を示す模式図で、原稿画像の各サンプリング位置0から5に対応するRGB信号の読取値および彩度Sを示し、R信号の位相が、GおよびB信号の位相に対して1サンプリング分ずれた例を示している。
【0040】
このRGB信号の位相差により、原稿画像の黒エッジ部に相当するサンプリング位置1および4で、原稿画像には存在しない彩度Sが発生し、黒エッジ部に色が付いた画像が発生する。RGB読取信号で発生した彩度Sは、図7に示すように、エリア処理部34の平均化処理によって抑圧されるが、それでも判定部36は黒エッジ部を有彩色と判定する場合がある。これは、判定部36の判定閾値の設定にも依存するが、原稿の下地の彩度がほぼ零の場合、RGB信号の位相差が小さければ、エリア処理部34の平均化処理によって黒エッジ部で発生した彩度Sは効果的に抑圧され、判定部36が黒エッジ部を有彩色と誤判定することはない。しかし、RGB信号の位相差が0.5画素以上になると、判定部36が黒エッジ部を有彩色と判定される傾向が強くなる。
【0041】
図8および図9は判定部36の出力を示す模式図である。図8にX(-1)で示す画素は図7のサンプリング位置0に、X(0)で示す画素はサンプリング位置1に、X(1)で示す画素はサンプリング位置2に対応する。同様に、図9にX(-1)で示す画素は図7のサンプリング位置3に、X(0)で示す画素はサンプリング位置4に、X(1)で示す画素はサンプリング位置5に対応する。図8(a)および図9(a)において、X(0)の画素は、前述したRGB信号の位相差により、有彩色と判定されている。
【0042】
[補正部]
図10は補正部39の補正処理を示すフローチャートである。
【0043】
補正部39は、注目画素X(0)およびその前後を含む、連続する三画素分の信号MONO(-3)を参照して、画素X(-1)、X(0)、X(1)に対する判定部36の判定結果の並び方(配列)が「無彩色、有彩色、無彩色」か否かを判定し(S1)、判定部36の判定結果の並び方が「無彩色、有彩色、無彩色」の場合は、連続する三画素分の信号aveL(-3)を参照して、画素X(-1)、X(0)、X(1)の明度を判定する(S2、S3)。
XL(-1) > XL(0) > XL(1) …(4)
XL(-1) < XL(0) < XL(1) …(5)
ここで、XL(-1)はX(-1)の画素の明度aveL(-3)
XL(0)はX(0)の画素の明度aveL(-3)
XL(1)はX(1)の画素の明度aveL(-3)
【0044】
そして、式(4)または式(5)の条件を満たす場合、注目画素X(0)を黒エッジ部の画素と判別して、注目画素X(0)の判定結果を有彩色から無彩色に補正し、無彩色画素を示すBWDET=‘1’を出力する(S4)。一方、判定部36の判定結果の並び方が「無彩色、有彩色、無彩色」を示さない場合、あるいは、式(4)または式(5)の条件を満たさない場合は、注目画素X(0)の判定結果を補正せずにBWDET=MONO(-3)を出力する(S5)。そして、注目画素を一画素進め(S6)、その後、処理をステップS1へ戻す。
【0045】
このように、無彩色か有彩色かの判定結果MONOの並び方(配列)と、それらに対応する明度aveLの大小関係を判別することで、RGB信号の位相差により黒エッジ部で発生する有彩色画素に対する判定結果を、図8(b)および図9(b)に示すように、「無彩色」に補正することが可能になる。
【0046】
なお、上記では、ライン方向(主走査方向)に無彩色か有彩色かを判定する際の判定の補正を説明したが、補正部39は、ラインに直交する方向(副走査方向)についても同様に、副走査方向に連続する三画素の判定結果を補正する。その際、補正部39は、ラインメモリ37から出力される信号MONO(-2)、MONO(-3)、MONO(-4)と、それらに対応する、ラインメモリ38から出力される信号aveL(-2)、aveL(-3)、aveL(-4)を参照して、必要ならば注目画素X(0)の判定結果を補正する。
【0047】
従って、主走査方向および副走査方向の両方で注目画素X(0)の判定結果の補正が不要と判定された場合に限り、BWDET=MONO(-3)が出力されることになり、それ以外の場合は、注目画素X(0)の判定結果として文字線画領域を示すBWDET=‘1’が出力される。
【0048】
●有彩色画素の補正
上記では、RGB信号の位相差によって黒エッジ部に発生する有彩色画素に対する判定結果を「無彩色」に補正する例を示したが、以下では、無彩色画素の判定結果を「有彩色」に補正する例を説明する。
【0049】
図11は白地(無彩色領域)に色領域がある原稿画像の彩度信号を模式的に示す図である。
【0050】
エリア処理部34の平均化処理により、サンプリング位置2、4の彩度Sは低下し、サンプリング位置1、5の彩度Sは上昇する。色領域の彩度が低い場合、平均化処理によって彩度が上昇するサインプリング位置1、5の画素は無彩色と判定されるが、彩度が低下するサンプリング位置2、4の画素も無彩色と判定される可能性がある。
【0051】
図12および図13は、このような場合の判定部36の出力を示す模式図である。図12(a)および図13(a)に示すように、サンプリング位置2、4に対応する画素位置をX(0)として示し、画素X(0)は、平均化による彩度Sの低下によって無彩色と判定されている。
【0052】
図14は補正部39の補正処理を示すフローチャートである。
【0053】
補正部39は、注目画素X(0)近傍の連続する四画素分の信号MONO(-3)を参照して、画素X(-1)、X(0)、X(1)、X(2)に対する判定部36の判定結果の並び方(配列)が「無彩色、無彩色、有彩色、無彩色」か否かを判定し(S11)、判定部36の判定結果の並び方が「無彩色、無彩色、有彩色、無彩色」の場合は、連続する四画素分の信号aveL(-3)を参照して、画素X(-1)、X(0)、X(1)、X(2)の明度を判定する(S12)。
XL(-1) > XL(0) > XL(1) < XL(2) …(6)
【0054】
そして、式(6)の条件を満たす場合は、注目画素X(0)を色エッジ部の画素と判別して、注目画素X(0)の判定結果を無彩色から有彩色に補正し、有彩色画素を示すBWDET=‘0’を出力する(S13)。一方、判定部36の判定結果の並び方が「無彩色、無彩色、有彩色、無彩色」を示さない場合、または、式(6)の条件を満たさない場合は、注目画素X(0)の判定結果を補正せずにBWDET=MONO(-3)を出力する(S14)。そして、注目画素を一画素進める(S15)。
【0055】
続いて、補正部39は、注目画素X(0)近傍の連続する四画素分の信号MONO(-3)を参照して、画素X(-2)、X(-1)、X(0)、X(1)に対する判定部36の判定結果の並び方が「無彩色、有彩色、無彩色、無彩色」か否かを判定し(S16)、判定部36の判定結果の並び方が「無彩色、有彩色、無彩色、無彩色」の場合は、連続する四画素分の信号aveL(-3)を参照して、画素X(-2)、X(-1)、X(0)、X(1)の明度を判定する(S17)。
XL(-2) > XL(-1) < XL(0) < XL(1) …(7)
【0056】
そして、式(7)の条件を満たす場合、注目画素X(0)を色エッジ部の画素と判別して、注目画素X(0)の判定結果を無彩色から有彩色に補正し、有彩色画素を示すBWDET=‘0’を出力する(S18)。一方、判定部36の判定結果の並び方が「無彩色、有彩色、無彩色、無彩色」を示さない場合、または、式(7)の条件を満たさない場合は、注目画素X(0)の判定結果を補正せずにBWDET=MONO(-3)を出力する(S19)。そして、注目画素を一画素進め(S15)、処理をステップS11へ戻す。
【0057】
このように、無彩色か有彩色かの判定結果MONOの並び方(配列)と、それらに対応する明度aveLの大小関係を判別することで、RGB信号の位相差により、低彩度領域の色エッジ部で発生する、無彩色画素とする誤判定を、図12(b)および図13(b)に示すように、「有彩色」に補正することが可能になる。勿論、副走査方向についても、上述した黒領域と同様に判定および補正すればよい。
【0058】
また、判定結果の有彩色を無彩色へ、また、無彩色を有彩色へ補正する例は、上記に限定されるものではない。例えば、RGBの位相差が大きい場合や、平均化処理の参照領域が3×3画素よりも大きい場合に、黒エッジ領域の二画素に亘り有彩色と判定された際に判定結果を「無彩色」へ補正する例を図15に示す。また、図16には、同様の条件で、低彩度領域の色エッジに発生する、無彩色画素の誤判定を「有彩色」に補正する例を示す。
【0059】
[空間フィルタ部]
空間フィルタ部3は、文字線画検出部8の出力信号MJDETに基づき、文字線画領域と、それ以外の領域に対して、異なる空間周波数特性を与える処理を行う。
【0060】
図17は空間フィルタの空間周波数特性を示す図である。MJDET=‘1’の画素に対しては、文字線画領域の再現性を向上するために、エッジ強調特性の空間フィルタ処理を施し、MJDET=‘0’の画素に対しては、エッジ強調特性を弱め、モワレの発生を抑制する空間フィルタ処理を施す。
【0061】
[彩度抑圧部]
彩度抑圧部4は、文字線画検出部8の出力信号MJDETおよび色判定部9の出力信号BWDETに基づき、RGB画像信号の彩度を抑圧する。
【0062】
図18は彩度抑圧部4の構成例を示すブロック図である。
【0063】
色空間変換部41は、画像信号の色空間を変換するもので、入力画像信号の色空間を、明るさを表す明度信号成分および色味を表す色度成分に変換する。具体的には、式(8)によって、簡易的に、入力画像信号R3、G3、B3を明度信号Lおよび色度信号Ca、Cbに変換する。
L = (R3 + 2×G3 + B3)/4
Ca = (R3 - G3)/2 …(8)
Cb = (R3 + G3 - 2×B3)/4
【0064】
セレクタ42は、ANDゲート43から出力される信号MJDETおよび信号BWDETの論理積信号により制御され、論理積信号が‘1’の場合はレベル0の信号を、論理積信号が‘0’の場合は色空間変換部41から出力される色度信号を選択する。すなわち、注目画素が、文字線画領域(MJDET=‘1’)、かつ、無彩色領域(BWDET=‘1’)にある場合、セレクタ42はレベルが零の色度信号を出力する。
【0065】
色空間変換部41から出力される明度信号、および、セレクタ42から出力される色度信号は、色空間逆変換部44に入力され、式(9)により、RGB色空間の画像信号に変換される
R4 = (4×L + 5×Ca + 2×Cb)/4
G4 = (4×L - 3×Ca + 2×Cb)/4 …(9)
B4 = (4×L + Ca - 6×Cb)/4
【0066】
従って、注目画素が文字線画領域かつ無彩色領域にある場合は、セレクタ42がCa=Cb=0を出力するので色成分がなくなり、式(8)による逆変換の結果はR4=G4=B4=Lになり、RGBの各成分がすべて等しいグレイスケールの画像信号になる。
【0067】
また、注目画素が非文字線画領域にある、または、無彩色領域外にある場合は、式(8)による逆変換の結果はR4=R3、G4=G3、B4=B3になり、入力されるRGB画像信号がそのまま出力される。
【0068】
なお、彩度抑圧部4から出力される画像信号は、出力マスキング部5に入力されて、CMYK画像信号に変換されるが、その際、CMY信号の最小値min(C, Y, M)をK信号成分とし、CMY信号値とK信号値の差分をCMY画像信号として出力する、所謂100%UCRが行われる。従って、出力マスキング部5に入力されるRGB信号値がR=G=Bの場合は、出力されるCMY信号値はすべて零になり、K信号成分のみで画像がプリントされることになる。
【0069】
このように、画素を有彩色と無彩色に切り分ける判定において、入力RGB信号の1位相ずれ(読取色ずれ)によって生じる、無彩色画像領域のエッジ部の彩度成分が起因する、同エッジ部の画素を「有彩色」と判定する誤判定を回避することができる。これにより、黒文字や黒線画などのエッジ部を黒単色で再現することが可能になり、黒文字や黒線画、とくに細線の黒文字や黒線画の再現性を向上することができる。さらに、平均化処理により、色文字や色線画領域のエッジ部に彩度の低下が生じた場合でも、「無彩色」と判定する誤判定を回避することができ、プリント画像の画質の向上が図れる。
【0070】
【他の実施形態】
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
【0071】
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0072】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0073】
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
【0074】
【発明の効果】
以上説明したように、本発明によれば、像域分離する際に読取色ずれの影響を抑制することができる。
【図面の簡単な説明】
【図1】カラー複写機の構成例を示すブロック図、
【図2】文字線画検出部の構成例を示すブロック図、
【図3】線画領域の二値化結果(二値化部の出力BD)の例を示す図、
【図4】網点領域の二値化結果(二値化部の出力BD)の例を示す図、
【図5】色判定部の構成例を示すブロック図、
【図6】色度信号と彩度との関係を示す図、
【図7】原稿画像とRGB信号との関係を示す模式図、
【図8】判定部の出力を示す模式図、
【図9】判定部の出力を示す模式図、
【図10】補正部の補正処理を示すフローチャート、
【図11】白地に色領域がある原稿画像の彩度信号を模式的に示す図、
【図12】判定部の出力を示す模式図、
【図13】判定部の出力を示す模式図、
【図14】補正部の補正処理を示すフローチャート、
【図15】判定部の出力を示す模式図、
【図16】判定部の出力を示す模式図、
【図17】空間フィルタの空間周波数特性を示す図、
【図18】彩度抑圧部の構成例を示すブロック図である。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and a method thereof, and for example, relates to image processing for dividing an image into regions.
[0002]
[Prior art]
When copying a document in which characters and halftone images are mixed, the copying machine performs various processes on the image data output from the scanner, and then prints it out. For example, when sharpening characters, a sharpness filter is applied. However, moire occurs when the same filter processing is applied to the halftone image. Accordingly, a plurality of copy modes, such as a mode in which character reproduction is emphasized and a mode in which dot image reproduction is emphasized, are prepared in a copying machine and the like, and filter processing corresponding to the copy mode is performed.
[0003]
Some color copying machines separate character and line drawing areas and halftone image areas (image area separation), and switch the filtering process applied to each area.
[0004]
The color copier further determines whether the character and line drawing area or the separated image is achromatic, and if it is achromatic, prints using only the black color material, Some improve the reproducibility of black thin lines. In order to suppress erroneous determination due to noise when determining whether or not the color is achromatic, there is a preprocessing for performing a smoothing process on the target pixel data.
[0005]
[Problems to be solved by the invention]
Due to the phase difference of the RGB signals generated when the image is read by the scanner, a color component is generated at the edge portion of the achromatic character and the line drawing area (hereinafter referred to as “reading color shift”). When the reading color misregistration occurs, the area is not determined to be an achromatic color although it is originally an achromatic character and line drawing area. The RGB signal phase difference, which is the cause of reading color misregistration, is caused by mechanical vibration when scanning the scanner head, chromatic aberration of an optical system such as a lens, and the like. If it is attempted to suppress vibration and chromatic aberration, the cost of the device will increase considerably.
[0006]
The smoothing process described above is an effective method for suppressing the color misregistration that occurs at the edges of black characters and black thin lines on a white background (hereinafter referred to as “white background”). If smoothing processing is performed on black thin lines or black characters (called “color ground”), a color is generated at the edge of the black thin lines or black characters, making it impossible to determine an achromatic region.
[0007]
The present invention is for solving the above-described problems individually or collectively, and an object thereof is to suppress the influence of reading color misregistration when performing image area separation.
[0008]
[Means for Solving the Problems]
The present invention has the following configuration as one means for achieving the above object.
[0009]
An image processing apparatus according to the present invention refers to an area around a target pixel of an input image signal, an averaging unit that averages the color components of the target pixel, and a pixel based on the averaged image signal A determination unit that determines whether the pixel is an achromatic color or a chromatic color, and when a plurality of consecutive pixels including the target pixel have a predetermined arrangement of determination results of the determination unit and a change in brightness, And correction means for correcting the determination result of the achromatic color by the determination means to the determination result of the chromatic color.
[0010]
The image processing method according to the present invention refers to an area around the target pixel of the input image signal, averages the color components of the target pixel, and determines whether the pixel is achromatic based on the averaged image signal. If a plurality of continuous pixels including the target pixel have a predetermined arrangement of determination results and a change in brightness, the determination result of the achromatic color by the determination with respect to the target pixel is present . The correction is made to the determination result of coloring.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.
[0012]
[Constitution]
FIG. 1 is a block diagram illustrating a configuration example of a color copying machine as an image processing apparatus according to an embodiment.
[0013]
The image input unit 1 outputs digital image signals R1, G1, and B1 color-separated into RGB three colors for each pixel of the color image. The image input unit 1 corresponds to an image reader of a color copying machine, which includes an optical system such as a lamp, a mirror and a lens, an RGB 3-line CCD, an A / D converter, and the like. The 3-line CCD is arranged so that the distance between them is 6 lines. The image input unit 1 adjusts the position of the RGB image signal in the sub-scanning direction, for example, by delaying the R and G image signals in accordance with the B image signal. The image input unit 1 is not limited to an image reader, and may be an interface for inputting an image from a computer device or the like.
[0014]
The image signals R1, G1, and B1 output from the image input unit 1 are subjected to color correction processing using a matrix operation of 3 × 3 pixels in the input masking unit 2, and a standard color space such as NTSC-RGB or The signals are converted into sRGB image signals R2, G2, and B2 and input to the spatial filter 3, a character / line image detection unit 8 and a color determination unit 9 described later.
[0015]
The character / line image detection unit 8 determines whether or not the input image region is a character / line image region from the image signals R2, G2, and B2, and outputs an MJDET signal indicating the determination result to the spatial filter unit 3 and the saturation suppression unit 4. To do. The color determination unit 9 determines whether the input image is an achromatic color from the image signals R2, G2, B2, and outputs a BWDET signal indicating the determination result to the saturation suppression unit 4.
[0016]
The spatial filter 3 performs spatial filter processing on the image signals R2, G2, and B2, and the characteristics of the spatial filter are switched by the MJDET signal output from the character / line image detection unit 8. The spatial filter 3 includes a buffer for synchronizing the image signal with the detection / determination timing of the character / line image detection unit 8 and the color determination unit 9. Similarly, the character / line image detection unit 8 has a buffer for synchronizing the determination result to the determination timing of the color determination unit 9, but it will be easily understood by those skilled in the art. Is omitted.
[0017]
The image signals R3, G3, and B3 output from the spatial filter 3 are input to the saturation suppression unit 4, and processing for suppressing the saturation is performed based on the MJDET signal and the BWDET signal.
[0018]
Image signals R4, G4, and B4 output from the saturation suppression unit 4 are input to the output masking unit 5, subjected to logarithmic conversion (luminance density conversion), and then subjected to masking and UCR processing to obtain C1, M1, Converted to Y1 and K1 density signals.
[0019]
The image signals C1, M1, Y1, and K1 output from the output masking unit 5 are input to the gamma conversion unit 6 and subjected to gradation conversion based on the gradation characteristics of the printer unit 7.
[0020]
Image signals C2, M2, Y2, and K2 output from the gamma conversion unit 6 are input to the printer unit 7 to form a print image.
[0021]
[Character line drawing detection unit]
The character / line image detection unit 8 determines the image signal in units of pixels, determines whether or not it is a pixel constituting a character or a line image, and if it is determined as a pixel constituting a character or a line image as an MJDET signal, '1' If it is determined that the pixel is not a pixel constituting a character or line drawing, “0” is output.
[0022]
FIG. 2 is a block diagram illustrating a configuration example of the character / line image detection unit 8.
[0023]
The brightness signal generation unit 11 converts the image signal into a brightness signal L by the following equation.
L = (R + 2 x G + B) / 4… (1)
[0024]
The signal L output from the lightness signal generation unit 11 is input to the edge amount determination unit 12 and the binarization unit 13. The edge amount determination unit 12 calculates the Laplacian (edge amount) of the signal L and outputs “1” when the absolute value of the Laplacian is equal to or greater than a predetermined value as the output signal ED, and “0” when the absolute value is less than the predetermined value. Output.
[0025]
The binarization unit 13 binarizes the target pixel using an average value of pixel values in a predetermined area (for example, a 5 × 5 pixel area) around the target pixel as a threshold value. FIG. 3 shows an example of the binarization result of the line drawing area, and FIG. 4 shows an example of the binarization result of the halftone dot area (the output BD of the binarization unit 13).
[0026]
The isolation amount determination unit 14 that receives the output signal BD of the binarization unit 13 refers to a predetermined area (for example, a 9 × 9 pixel area) around the target pixel and outputs an output signal SUM corresponding to the isolation state of the target pixel. Output. That is, in the predetermined area around the target pixel, the BD = '0' pixel adjacent to the BD = '1' pixel is counted, and if the count value (isolation amount) is less than the predetermined value, SUM = '1 If 'exceeds a predetermined value, SUM =' 0 'is output.
[0027]
In the example of the line drawing area shown in FIG. 3, since the pixels of BD = “1” are continuous, the isolated amount is equal to or less than a predetermined value, and SUM = “1” is output. On the other hand, in the example of the halftone dot area shown in FIG. 4, since the pixel of BD = “1” exists in isolation, the isolation amount exceeds a predetermined value and SUM = “0” is output. Note that the pixel of BD = “1” tends to be continuous not only in the line drawing area but also in the character area, and the output signal SUM of the isolated amount determination unit 14 for the character area becomes “1”. In this way, the isolation amount determination unit 14 outputs the signal SUM that separates the character line drawing area and the halftone dot area.
[0028]
The determination unit 15 that receives the output signal ED of the edge amount determination unit 12 and the output signal SUM of the isolation amount determination unit 14 has ED = '1' (large edge amount) and SUM = '1' (small isolation amount) In this case, MJDET = '1' indicating that the pixel of interest is in the character / line drawing area is output.
[0029]
In the case of a continuous halftone area such as a silver halide photograph, the output signal SUM of the isolated amount determination unit 14 may be '1' or '0' depending on the image. Separation from is not sufficient. However, since the edge amount of the continuous halftone area is small, ED = '0' (edge amount is small) is output from the edge amount determination unit 12, and the determination unit 15 determines that the continuous halftone area is a character line drawing area. Can be prevented.
[0030]
[Color judgment part]
FIG. 5 is a block diagram illustrating a configuration example of the color determination unit 9.
[0031]
The color space conversion unit 31 converts the color space of the image signal, and converts the color space of the input image signal into a lightness signal component representing brightness and a chromaticity component representing color. Specifically, the image signals R2, G2, and B2 are simply converted into the lightness signal L and the chromaticity signals Ca and Cb by the equation (2).
L = (R2 + 2 x G2 + B2) / 4
Ca = (R2-G2) / 2… (2)
Cb = (R2 + G2-2 x B2) / 4
[0032]
The lightness signal L and the chromaticity signals Ca and Cb output from the color space conversion unit 31 are input to the line memories 32, 33, and 34, respectively, as a signal delayed by one line and a signal delayed by two lines. The data is input to the area processing unit 34. The signal name shown in FIG. 5 represents the delay amount (relative position in the sub-scanning direction) by its subscript. For example, L (-1) is the signal one line before L (0), L (−2) represents the signal two lines before.
[0033]
The area processing unit 34 performs an averaging process on each of the lightness signal L and the chromaticity signals Ca and Cb with reference to the 3 × 3 pixel area around the target pixel. That is, the area processing unit 34 refers to nine pixels in the 3 × 3 pixel region, and outputs the average value aveL of the brightness signal and the average values aveCa and aveCb of the chromaticity signals Ca and Cb.
[0034]
The signals aveCa and aveCb output from the area processing unit 34 are input to the saturation calculation unit 35, and the saturation S of the target pixel is calculated by Expression (3).
S = √ (aveCa 2 + aveCb 2 )… (3)
[0035]
For the sake of simplicity, the saturation S may be compared with the absolute values | aveCa | and | aveCb |, and the larger absolute value may be used as the saturation S. FIG. 6 is a diagram showing the relationship between the saturation S0 calculated by the equation (3) and the saturation S1 calculated simply.
[0036]
The saturation S output from the saturation calculation unit 35 is input to the determination unit 36 and compared with a predetermined threshold value. The determination unit 36 determines that the target pixel is an achromatic color when the saturation S is equal to or less than a predetermined threshold and outputs a signal MONO = '1', and if the saturation S exceeds the predetermined threshold, the target pixel is determined to be a chromatic color. Signal MONO = '0'.
[0037]
The line memory 37 gives a delay of up to four lines to the signal MONO, and inputs a signal obtained by delaying the signal MONO by 1, 2, 3 and 4 lines to the correction unit 39. Further, the line memory 38 gives a delay of up to 4 lines to the signal aveL, and inputs a signal obtained by delaying the signal aveL by 1, 2, 3 and 4 lines to the correction unit 39.
[0038]
[Scanning color shift]
Before describing the operation of the correction unit 39, the reading color misregistration will be described in detail.
[0039]
FIG. 7 is a schematic diagram showing the relationship between the original image and the RGB signal photoelectrically converted by the image input unit 1, showing the read value and saturation S of the RGB signal corresponding to each sampling position 0 to 5 of the original image, In the example, the phase of the R signal is shifted by one sampling with respect to the phase of the G and B signals.
[0040]
Due to the phase difference of the RGB signals, saturation S that does not exist in the original image is generated at sampling positions 1 and 4 corresponding to the black edge portion of the original image, and an image with a color on the black edge portion is generated. As shown in FIG. 7, the saturation S generated by the RGB read signal is suppressed by the averaging process of the area processing unit 34, but the determination unit 36 may still determine the black edge portion as a chromatic color. This depends on the setting of the determination threshold of the determination unit 36, but when the saturation of the background of the original is almost zero, if the phase difference of the RGB signal is small, the black edge portion is obtained by the averaging processing of the area processing unit 34. Saturation S generated in the above is effectively suppressed, and the determination unit 36 does not erroneously determine the black edge portion as a chromatic color. However, when the phase difference of the RGB signal is 0.5 pixels or more, the determination unit 36 is more likely to determine the black edge portion as a chromatic color.
[0041]
8 and 9 are schematic diagrams showing the output of the determination unit 36. FIG. The pixel indicated by X (-1) in FIG. 8 corresponds to the sampling position 0 in FIG. 7, the pixel indicated by X (0) corresponds to the sampling position 1, and the pixel indicated by X (1) corresponds to the sampling position 2. Similarly, the pixel indicated by X (-1) in FIG. 9 corresponds to the sampling position 3 in FIG. 7, the pixel indicated by X (0) corresponds to the sampling position 4, and the pixel indicated by X (1) corresponds to the sampling position 5. . In FIG. 8 (a) and FIG. 9 (a), the pixel of X (0) is determined to be a chromatic color based on the phase difference of the RGB signals described above.
[0042]
[Correction section]
FIG. 10 is a flowchart showing the correction process of the correction unit 39.
[0043]
The correction unit 39 refers to the signal MONO (-3) for three consecutive pixels including the pixel of interest X (0) and its front and back, and the pixels X (-1), X (0), and X (1) It is determined whether or not the arrangement (arrangement) of the determination results of the determination unit 36 is “achromatic, chromatic, achromatic” (S1), and the arrangement of the determination results of the determination unit 36 is “achromatic, chromatic, no In the case of “coloration”, the brightness of the pixels X (−1), X (0), and X (1) is determined with reference to the signal aveL (−3) for three consecutive pixels (S2 and S3).
XL (-1)> XL (0)> XL (1)… (4)
XL (-1) <XL (0) <XL (1)… (5)
Where XL (-1) is the brightness of the pixel of X (-1) aveL (-3)
XL (0) is the pixel brightness of X (0) aveL (-3)
XL (1) is the pixel brightness of X (1) aveL (-3)
[0044]
If the condition of Expression (4) or Expression (5) is satisfied, the target pixel X (0) is determined as a pixel at the black edge, and the determination result of the target pixel X (0) is changed from chromatic to achromatic. Correction is performed and BWDET = '1' indicating an achromatic pixel is output (S4). On the other hand, if the arrangement of the determination results of the determination unit 36 does not indicate `` achromatic color, chromatic color, achromatic color '' or if the condition of Expression (4) or Expression (5) is not satisfied, the target pixel X (0 ) BWDET = MONO (-3) is output without correcting the determination result (S5). Then, the pixel of interest is advanced by one pixel (S6), and then the process returns to step S1.
[0045]
In this way, the chromatic color generated at the black edge due to the phase difference of the RGB signal by determining the arrangement (arrangement) of the determination result MONO between achromatic color and chromatic color and the magnitude relationship between the lightness aveL corresponding to them The determination result for the pixel can be corrected to “achromatic color” as shown in FIGS. 8B and 9B.
[0046]
In the above description, correction of determination when determining whether the line direction (main scanning direction) is an achromatic color or a chromatic color has been described. However, the correction unit 39 also applies to the direction orthogonal to the line (sub-scanning direction). In addition, the determination result of three pixels continuous in the sub-scanning direction is corrected. At that time, the correction unit 39 outputs signals MONO (-2), MONO (-3), and MONO (-4) output from the line memory 37, and signals aveL ( -2), aveL (-3), and aveL (-4) are referred to, and the determination result of the target pixel X (0) is corrected if necessary.
[0047]
Therefore, BWDET = MONO (-3) is output only when it is determined that correction of the determination result of the target pixel X (0) is unnecessary in both the main scanning direction and the sub-scanning direction. In this case, BWDET = '1' indicating the character / line drawing area is output as the determination result of the target pixel X (0).
[0048]
● Correction of chromatic color pixels In the above example, the judgment result for chromatic pixels generated at the black edge due to the phase difference of the RGB signal is corrected to “achromatic”. An example of correcting the color to “chromatic color” will be described.
[0049]
FIG. 11 is a diagram schematically showing a saturation signal of a document image having a color area on a white background (achromatic area).
[0050]
By the averaging process of the area processing unit 34, the saturation S at the sampling positions 2 and 4 decreases, and the saturation S at the sampling positions 1 and 5 increases. When the saturation of the color area is low, the pixels at the signing positions 1 and 5 where the saturation is increased by the averaging process are determined to be achromatic, but the pixels at the sampling positions 2 and 4 where the saturation is decreased are also achromatic. May be determined.
[0051]
12 and 13 are schematic diagrams showing the output of the determination unit 36 in such a case. As shown in FIG. 12 (a) and FIG. 13 (a), the pixel position corresponding to the sampling positions 2 and 4 is shown as X (0), and the pixel X (0) is caused by the decrease in saturation S due to averaging. It is determined as an achromatic color.
[0052]
FIG. 14 is a flowchart showing the correction processing of the correction unit 39.
[0053]
The correction unit 39 refers to the signal MONO (-3) for four consecutive pixels in the vicinity of the target pixel X (0), and the pixels X (-1), X (0), X (1), X (2 ) Is determined whether or not the arrangement (array) of the determination results of the determination unit 36 is “achromatic, achromatic, chromatic, achromatic” (S11), and the arrangement of the determination results of the determination unit 36 is “achromatic, In the case of `` achromatic, chromatic, achromatic '', refer to the signal aveL (-3) for four consecutive pixels, and pixel X (-1), X (0), X (1), X (2 ) Is determined (S12).
XL (-1)> XL (0)> XL (1) <XL (2)… (6)
[0054]
If the condition of Equation (6) is satisfied, the target pixel X (0) is determined as a pixel at the color edge portion, and the determination result of the target pixel X (0) is corrected from an achromatic color to a chromatic color. BWDET = '0' indicating the chromatic pixel is output (S13). On the other hand, when the arrangement of the determination results of the determination unit 36 does not indicate `` achromatic color, achromatic color, chromatic color, achromatic color '' or when the condition of Expression (6) is not satisfied, the pixel of interest X (0) BWDET = MONO (-3) is output without correcting the judgment result (S14). Then, the target pixel is advanced by one pixel (S15).
[0055]
Subsequently, the correction unit 39 refers to the signal MONO (-3) for four consecutive pixels in the vicinity of the target pixel X (0), and the pixels X (-2), X (-1), and X (0) , It is determined whether the alignment of the determination result of the determination unit 36 for X (1) is `` achromatic, chromatic, achromatic, achromatic '' (S16), and the alignment of the determination result of the determination unit 36 is `` achromatic color '' , Chromatic color, achromatic color, achromatic color '', refer to the signal aveL (-3) for four consecutive pixels, and pixel X (-2), X (-1), X (0), X The brightness of (1) is determined (S17).
XL (-2)> XL (-1) <XL (0) <XL (1)… (7)
[0056]
If the condition of Equation (7) is satisfied, the target pixel X (0) is determined as a pixel at the color edge portion, and the determination result of the target pixel X (0) is corrected from an achromatic color to a chromatic color. BWDET = '0' indicating a pixel is output (S18). On the other hand, when the arrangement of the determination results of the determination unit 36 does not indicate `` achromatic color, chromatic color, achromatic color, achromatic color '' or when the condition of Expression (7) is not satisfied, the pixel of interest X (0) BWDET = MONO (-3) is output without correcting the determination result (S19). Then, the pixel of interest is advanced by one pixel (S15), and the process returns to step S11.
[0057]
In this way, by determining the arrangement (arrangement) of the determination result MONO whether achromatic or chromatic and the magnitude relationship between the lightness aveL corresponding to them, the color edge of the low saturation region is determined by the phase difference of the RGB signal. As shown in FIGS. 12 (b) and 13 (b), it is possible to correct a misjudgment that occurs in the section as an achromatic pixel, and correct it to “chromatic color”. Of course, the sub-scanning direction may be determined and corrected in the same manner as the black region described above.
[0058]
Moreover, the example which correct | amends the chromatic color of a determination result to an achromatic color, and corrects an achromatic color to a chromatic color is not limited above. For example, if the RGB phase difference is large or the reference area of the averaging process is larger than 3 × 3 pixels, the determination result is displayed as `` achromatic color '' when it is determined that the chromatic color covers two pixels in the black edge area. FIG. 15 shows an example of correction to “.” FIG. 16 shows an example in which an erroneous determination of an achromatic color pixel occurring at a color edge in a low saturation region is corrected to “chromatic color” under the same conditions.
[0059]
[Spatial filter section]
Based on the output signal MJDET from the character / line image detection unit 8, the spatial filter unit 3 performs processing to give different spatial frequency characteristics to the character / line image region and other regions.
[0060]
FIG. 17 is a diagram showing the spatial frequency characteristics of the spatial filter. For pixels with MJDET = '1', edge enhancement characteristics are spatially filtered to improve the reproducibility of the character / line drawing area. For pixels with MJDET = '0', edge enhancement characteristics are applied. A spatial filter process is performed to weaken and suppress the occurrence of moire.
[0061]
[Saturation suppression section]
The saturation suppression unit 4 suppresses the saturation of the RGB image signal based on the output signal MJDET of the character / line drawing detection unit 8 and the output signal BWDET of the color determination unit 9.
[0062]
FIG. 18 is a block diagram illustrating a configuration example of the saturation suppression unit 4.
[0063]
The color space conversion unit 41 converts the color space of the image signal, and converts the color space of the input image signal into a lightness signal component representing brightness and a chromaticity component representing color. Specifically, the input image signals R3, G3, and B3 are simply converted into lightness signals L and chromaticity signals Ca and Cb by Expression (8).
L = (R3 + 2 x G3 + B3) / 4
Ca = (R3-G3) / 2… (8)
Cb = (R3 + G3-2 × B3) / 4
[0064]
The selector 42 is controlled by the logical product signal of the signal MJDET and the signal BWDET output from the AND gate 43. When the logical product signal is '1', the level 0 signal is displayed. When the logical product signal is '0', A chromaticity signal output from the color space conversion unit 41 is selected. That is, when the target pixel is in the character / line drawing area (MJDET = '1') and the achromatic color area (BWDET = '1'), the selector 42 outputs a chromaticity signal having a level of zero.
[0065]
The lightness signal output from the color space conversion unit 41 and the chromaticity signal output from the selector 42 are input to the color space inverse conversion unit 44 and converted into an image signal in the RGB color space by Equation (9). Ru
R4 = (4 × L + 5 × Ca + 2 × Cb) / 4
G4 = (4 × L-3 × Ca + 2 × Cb) / 4… (9)
B4 = (4 × L + Ca-6 × Cb) / 4
[0066]
Therefore, when the target pixel is in the character line drawing area and the achromatic color area, the selector 42 outputs Ca = Cb = 0, so that there is no color component, and the result of the inverse conversion according to the equation (8) is R4 = G4 = B4 = L, and RGB components are all equal gray scale image signals.
[0067]
Also, if the target pixel is in the non-character line drawing area or outside the achromatic area, the result of the inverse transformation by equation (8) is R4 = R3, G4 = G3, B4 = B3, and is input RGB image signal is output as it is.
[0068]
The image signal output from the saturation suppression unit 4 is input to the output masking unit 5 and converted into a CMYK image signal. At this time, the minimum value min (C, Y, M) of the CMY signal is set. A so-called 100% UCR is performed in which the difference between the CMY signal value and the K signal value is output as a CMY image signal as the K signal component. Therefore, when the RGB signal value input to the output masking unit 5 is R = G = B, the output CMY signal values are all zero, and the image is printed with only the K signal component.
[0069]
As described above, in the determination of dividing the pixel into the chromatic color and the achromatic color, due to the saturation component of the edge portion of the achromatic image area caused by one phase shift (reading color shift) of the input RGB signal, It is possible to avoid erroneous determination of determining a pixel as a “chromatic color”. As a result, it is possible to reproduce the edge portion of a black character or black line drawing with a single black color, and it is possible to improve the reproducibility of the black character or black line drawing, particularly a fine black character or black line drawing. In addition, even if the saturation process causes a decrease in saturation at the edge of a color character or color line drawing area, it is possible to avoid misjudgment to determine “achromatic color” and improve the quality of the printed image. I can plan.
[0070]
[Other Embodiments]
Note that the present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, and a printer), and a device (for example, a copying machine and a facsimile device) including a single device. You may apply to.
[0071]
Another object of the present invention is to supply a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and the computer (or CPU or CPU) of the system or apparatus. Needless to say, this can also be achieved by the MPU) reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
[0072]
Furthermore, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
[0073]
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.
[0074]
【The invention's effect】
As described above, according to the present invention, it is possible to suppress the influence of the reading color shift when the image area is separated.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration example of a color copying machine;
FIG. 2 is a block diagram showing a configuration example of a character / line image detection unit;
FIG. 3 is a diagram showing an example of a binarization result (binary unit output BD) of a line drawing area;
FIG. 4 is a diagram illustrating an example of a binarization result (binary unit output BD) of a halftone dot region;
FIG. 5 is a block diagram illustrating a configuration example of a color determination unit;
FIG. 6 is a diagram showing a relationship between a chromaticity signal and saturation;
FIG. 7 is a schematic diagram showing a relationship between an original image and an RGB signal;
FIG. 8 is a schematic diagram showing an output of a determination unit;
FIG. 9 is a schematic diagram showing the output of the determination unit;
FIG. 10 is a flowchart showing correction processing of the correction unit;
FIG. 11 is a diagram schematically showing a saturation signal of a document image having a color area on a white background;
FIG. 12 is a schematic diagram showing the output of the determination unit;
FIG. 13 is a schematic diagram showing the output of the determination unit;
FIG. 14 is a flowchart showing correction processing of the correction unit;
FIG. 15 is a schematic diagram showing the output of the determination unit;
FIG. 16 is a schematic diagram showing the output of the determination unit;
FIG. 17 is a diagram showing the spatial frequency characteristics of the spatial filter;
FIG. 18 is a block diagram illustrating a configuration example of a saturation suppression unit.

Claims (7)

入力される画像信号の注目画素周辺の領域を参照して、前記注目画素の色成分を平均化する平均化手段と、
平均化された画像信号に基づき、画素が無彩色か有彩色かを判定する判定手段と、
注目画素を含む連続する複数画素予め定められた前記判定手段の判定結果の並び方および明度の変化を有する場合に、前記注目画素に対する前記判定手段による無彩色の判定結果を有彩色の判定結果に補正する補正手段とを有することを特徴とする画像処理装置。
An averaging means for averaging the color components of the target pixel with reference to a region around the target pixel of the input image signal;
Determination means for determining whether a pixel is an achromatic color or a chromatic color based on the averaged image signal;
When a plurality of consecutive pixels including the target pixel have a predetermined arrangement of determination results of the determination unit and a change in brightness, the determination result of the achromatic color by the determination unit for the target pixel is determined as the determination result of the chromatic color. And an image processing apparatus.
前記補正手段は、前記注目画素を含む連続する4画素が、予め定められた前記判定結果の並び方および前記明度の変化を有する場合に、前記補正を行うことを特徴とする請求項1に記載された画像処理装置。Wherein the correction means 4 consecutive pixels including the pixel of interest, is described in the case with a change in the arrangement and the intensity of the predetermined said determination result, to claim 1, characterized in that the correction Image processing device. さらに、前記補正手段から出力される判定結果に基づき、前記画像信号の彩度成分を制御する制御手段を有することを特徴とする請求項1または請求項2に記載された画像処理装置。  3. The image processing apparatus according to claim 1, further comprising a control unit that controls a saturation component of the image signal based on a determination result output from the correction unit. さらに、画素が文字線画領域にあるか否かを判別する判別手段と、
前記文字線画領域にあると判別された画素の彩度成分を、前記補正手段から出力される判定結果に基づき制御する制御手段とを有することを特徴とする請求項1または請求項2に記載された画像処理装置。
A discriminating means for discriminating whether or not the pixel is in the character line drawing area;
3. The control unit according to claim 1, further comprising: a control unit that controls a saturation component of a pixel determined to be in the character / line drawing area based on a determination result output from the correction unit. Image processing device.
入力される画像信号の注目画素周辺の領域を参照して、前記注目画素の色成分を平均化し、
平均化された画像信号に基づき、画素が無彩色か有彩色かを判定し、
注目画素を含む連続する複数画素予め定められた前記判定の判定結果の並び方および明度の変化を有する場合に、前記注目画素に対する前記判別による無彩色の判定結果を有彩色の判定結果に補正することを特徴とする画像処理方法。
With reference to the area around the target pixel of the input image signal, the color components of the target pixel are averaged,
Based on the averaged image signal, determine whether the pixel is achromatic or chromatic,
When a plurality of consecutive pixels including the target pixel have a predetermined arrangement of determination results of the determination and a change in brightness, the determination result of the achromatic color by the determination for the target pixel is corrected to the determination result of chromatic color An image processing method.
画像処理装置に、
入力される画像信号の注目画素周辺の領域を参照して、前記注目画素の色成分を平均化する手順と、
平均化された画像信号に基づき、画素が無彩色か有彩色かを判定する手順と、
注目画素を含む連続する複数画素が、予め定められた前記判定の判定結果の並び方および明度の変化を有する場合に、前記注目画素に対する前記判別による無彩色の判定結果を有彩色の判定結果に補正する手順と、
を実行させるためのプログラム。
In the image processing device ,
A procedure for averaging the color components of the target pixel with reference to a region around the target pixel of the input image signal;
A procedure for determining whether a pixel is achromatic or chromatic based on the averaged image signal;
When a plurality of consecutive pixels including the target pixel have a predetermined arrangement of determination results and a change in brightness, the determination result of the achromatic color by the determination for the target pixel is corrected to a determination result of chromatic color And the steps to
A program for running
画像処理装置に、
入力される画像信号の注目画素周辺の領域を参照して、前記注目画素の色成分を平均化する手順と、
平均化された画像信号に基づき、画素が無彩色か有彩色かを判定する手順と、
注目画素を含む連続する複数画素が、予め定められた前記判定の判定結果の並び方および明度の変化を有する場合に、前記注目画素に対する前記判別による無彩色の判定結果を有彩色の判定結果に補正する手順と、
を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
In the image processing device,
A procedure for averaging the color components of the target pixel with reference to a region around the target pixel of the input image signal;
A procedure for determining whether a pixel is achromatic or chromatic based on the averaged image signal;
When a plurality of consecutive pixels including the target pixel have a predetermined arrangement of determination results and a change in brightness, the determination result of the achromatic color by the determination for the target pixel is corrected to a determination result of chromatic color And the steps to
The computer-readable recording medium which recorded the program for performing this .
JP2002257849A 2002-09-03 2002-09-03 Image processing apparatus and method Expired - Lifetime JP3944032B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002257849A JP3944032B2 (en) 2002-09-03 2002-09-03 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002257849A JP3944032B2 (en) 2002-09-03 2002-09-03 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2004096625A JP2004096625A (en) 2004-03-25
JP3944032B2 true JP3944032B2 (en) 2007-07-11

Family

ID=32062662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002257849A Expired - Lifetime JP3944032B2 (en) 2002-09-03 2002-09-03 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP3944032B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9013770B2 (en) 2013-03-26 2015-04-21 Brother Kogyo Kabushiki Kaisha Image processing device determining whether image is chromatic color image or achromatic color image

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006042267A (en) 2004-07-30 2006-02-09 Canon Inc Image processing method, image processor, and program
JP5489584B2 (en) 2009-08-11 2014-05-14 キヤノン株式会社 Image processing apparatus, image processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9013770B2 (en) 2013-03-26 2015-04-21 Brother Kogyo Kabushiki Kaisha Image processing device determining whether image is chromatic color image or achromatic color image

Also Published As

Publication number Publication date
JP2004096625A (en) 2004-03-25

Similar Documents

Publication Publication Date Title
JP3399486B2 (en) Color image processing apparatus and method
JP3436828B2 (en) Image processing device
US8477324B2 (en) Image processor and image processing method that uses s-shaped gamma curve
US7502150B2 (en) Color converting device, image forming apparatus, color conversion method, computer program and recording medium
US7903872B2 (en) Image-processing apparatus and method, computer program, and storage medium
JPH01198870A (en) Digital color picture processor
JP3362749B2 (en) Color image forming equipment
US6178010B1 (en) Image processing device
JP3944032B2 (en) Image processing apparatus and method
JP2004350240A (en) Image processing apparatus and image processing method
JP2001223915A (en) Image processing method, image processor, and image forming device
US20120019869A1 (en) Method and system for automatically detecting and processing halftone regions in scanned documents
JPH02244876A (en) Sharpness improving system for picture processor
JP5165043B2 (en) Device, method and program capable of detecting line
JP3761979B2 (en) Image processing apparatus and method
JP3767210B2 (en) Document type determination device and image processing device
JP2018174420A (en) Image processing apparatus and computer program
JP4176656B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium recording the program
JP6834701B2 (en) Image processing equipment and computer programs
JP4007849B2 (en) Image data processing apparatus, program, and recording medium
JP6794901B2 (en) Image processing equipment and computer programs
JPH0195673A (en) Digital color picture processor
JP2004104248A (en) Image processing apparatus, image reader, image forming apparatus, and image processing method
JP5165137B2 (en) Device, method and program capable of detecting line
JP2000125139A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060908

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070406

R150 Certificate of patent or registration of utility model

Ref document number: 3944032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110413

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130413

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130413

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140413

Year of fee payment: 7