JP4105539B2 - Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium - Google Patents

Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium Download PDF

Info

Publication number
JP4105539B2
JP4105539B2 JP2002382460A JP2002382460A JP4105539B2 JP 4105539 B2 JP4105539 B2 JP 4105539B2 JP 2002382460 A JP2002382460 A JP 2002382460A JP 2002382460 A JP2002382460 A JP 2002382460A JP 4105539 B2 JP4105539 B2 JP 4105539B2
Authority
JP
Japan
Prior art keywords
edges
threshold
pixel
filter coefficient
threshold value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002382460A
Other languages
Japanese (ja)
Other versions
JP2004214977A (en
Inventor
裕理 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2002382460A priority Critical patent/JP4105539B2/en
Publication of JP2004214977A publication Critical patent/JP2004214977A/en
Application granted granted Critical
Publication of JP4105539B2 publication Critical patent/JP4105539B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、文字領域や網点領域など複数種類の領域が混在する画像データに対して画質向上のためにフィルタ処理を行う画像処理装置およびそれを備えた画像形成装置ならびに画像処理方法、画像処理プログラムおよび記録媒体に関する。
【0002】
【従来の技術】
現在、デジタル複写機などの画像形成装置で行われる画像処理では、入力された原稿の画像データに対して、出力画像の画質向上のためにフィルタ処理と呼ばれる処理が行われる。フィルタ処理は、所定の領域内の画素に対し、その階調値を一定の係数によって変換することで出力画像の特性を変化させる処理である。原稿画像を読み取る読取装置は、CCD(Charge Coupled Device)を一列に並べたラインセンサから構成され、原稿からの反射光を電気信号に変換して画像データを出力する。このような読取装置では、CCDと同じ間隔で原稿が読み取られるので、読取装置から出力される画像データは、周期性を有することになる。また、原稿の画像が網点画像の場合は、読み取り対象の原稿画像そのものが周期的に配置されている。したがって、これらの周期が干渉することで読み取られた画像データにモアレが発生する。さらに、画像出力時の階調再現処理で網点を用いた処理を行う場合は、出力画像の網点が周期的に配置されるので、原稿画像の周期や読み取り時の周期と干渉して出力画像にモアレが発生する。このようなモアレの発生を抑制するために、フィルタ処理では、画像データを平滑化することで画質の向上を図っている。
【0003】
画像には、文字と背景との境界部分などのいわゆるエッジ部分が存在する。このエッジ部分を強調するために、フィルタ処理では、画像データを鮮鋭化することで画質の向上を図っている。
【0004】
画像データに対して上記のようなフィルタ処理を行う場合には、2種類の方法がある。1つ目は画像データ全体に対して、平滑化やエッジ強調など同様のフィルタ処理を行う方法である。2つ目は領域分離処理により画像データを、網点領域、文字領域および写真領域といった異なる種類の領域に分離し、各領域に応じて最適なフィルタ処理を行う方法である。
【0005】
1つ目の方法でフィルタ処理を行う場合、画像データ全体に平滑化を行うと、文字のエッジ部分がぼけるため再現性が悪くなり、画像データ全体に鮮鋭化を行うと、網点によるモアレが発生し、画質が劣化してしまう。また、2つ目の方法でフィルタ処理を行う場合、網点領域を文字領域と誤判定するなどして領域の分離を誤ることにより、不適切なフィルタ処理を行うこととなる。不適切なフィルタ処理を行った場合は、著しい画質劣化が生じてしまう。たとえば、フィルタ処理を行った結果、平滑化が行われ滑らかな濃度変化を示している領域の中に、誤って部分的な鮮鋭化が行われると、その箇所だけ濃度変化が急激に大きくなり、周辺の画素と出力特性が大きく異なって見えてしまう。このように画像処理において、フィルタ処理は出力画像の画質に最も影響を与える処理となっている。
【0006】
領域分離処理およびフィルタ処理を行う具体的な従来技術として、特許文献1記載の画像形成装置は、入力画像情報中のエッジの立上り/立下りから画像の特徴量を抽出し、その特徴量を識別基準と比較して領域分離を行っている。また、分離した領域に応じて画質補正を行っている。なお、実際に抽出している特徴量は、立上りエッジと立下りエッジとの距離であり、距離が短ければ網点領域、距離が長ければ文字領域、中程度の距離であれば中間調領域として領域分離を行っている。
【0007】
【特許文献1】
特開平6−62230号公報
【0008】
【発明が解決しようとする課題】
特許文献1記載の画像形成装置には、以下のような問題がある。第一の問題として、エッジの立上り/立下りの検出にゼロクロス点を用いているため、正確な領域判定が行えないことが挙げられる。たとえば写真領域などにも立上り/立下りが多く検出されるため、立上りエッジと立下りエッジとの距離によっては網点として誤判定されて平滑化されたり、文字として誤判定されてエッジ強調されたりしてしまう。第二の問題として、領域判定を行う範囲が明確でないことが挙げられる。すなわち、どの程度の範囲に渡って立上り/立下りを検出し識別を行うのか、選択されたフィルタ処理をどの画素に対して適用するのかなどの構成が明確に記載されていない。第三の問題として、網点の周期(線数)に応じてフィルタ処理を切り替えているが、これを実現するためには、網点領域の識別を行う処理に加え、網点の周期を検出するための処理を別途設ける必要がある。
【0009】
本発明の目的は、最適なフィルタ処理を行うことで画像の画質向上を実現することが可能な画像処理装置およびそれを備えた画像形成装置ならびに画像処理方法、画像処理プログラムおよび記録媒体を提供することである。
【0010】
【課題を解決するための手段】
本発明は、複数の画素からなる画像を示す画像データに含まれる注目画素とその周辺画素とからなる画素ブロック内のエッジ数を計数する計数部と、
計数されたエッジ数に基づいて、複数のフィルタ係数の中から1つのフィルタ係数を選択する係数設定部と、
前記係数設定部によって選択されたフィルタ係数を用いて、入力された画像データに対してフィルタ処理を行う空間フィルタ部とを備え
前記計数部は、前記画素ブロック内の主走査方向の立上りエッジおよび立下りエッジの数と副走査方向の立上りエッジおよび立下りエッジの数とをそれぞれ個別に計数し、4つのエッジ数の総和を計数し、
前記係数設定部は、第1の閾値、第1の閾値より小さい第2の閾値および第1の閾値より小さく第2の閾値より大きい中間閾値と、計数されたエッジ数とを比較し、エッジ数が前記第1の閾値以上であるときは、平滑化特性を有するフィルタ係数を選択し、エッジ数が前記第1の閾値より小さくかつ前記中間閾値以上であるときは、高周波成分の平滑化と低周波成分の強調とを兼ね備えた特性を有するフィルタ係数を選択し、エッジ数が前記中間閾値より小さくかつ第2の閾値以上であるときは、鮮鋭化特性を有するフィルタ係数を選択し、エッジ数が第2の閾値未満であるときは、注目画素の濃度値がそのまま変換値となる特性を有するフィルタ係数を選択することを特徴とする画像処理装置である。
【0011】
空間フィルタ部が入力された画像データに対して行うフィルタ処理は、所定の画素に対して、予め定めるフィルタ係数を用いて画素値の変換を行う処理である。フィルタ係数は、変換の特性、たとえば平滑化および鮮鋭化などに応じて、画素ブロック内の各画素に対応する係数をマトリクス状に配置した数値の集合として設定される。
【0012】
画素ブロック内のエッジ数は、注目画素の特徴を表している。エッジ数が多ければ、注目画素は網点領域を構成する画素であり、エッジ数が少なければ、注目画素は、写真領域および下地領域を構成する画素であり、エッジ数が中程度であれば、注目画素は文字領域を構成する画素である。本発明は、これらの相関性に着目し、注目画素に最適なフィルタ係数を選択する。
【0013】
本発明に従えば、計数部が注目画素とその周辺画素とからなる画素ブロック内のエッジ数を計数する。詳細には、前記画素ブロック内の主走査方向の立上りエッジおよび立下りエッジの数と副走査方向の立上りエッジおよび立下りエッジの数とをそれぞれ個別に計数し、4つのエッジ数の総和を計数する。係数設定部は、計数されたエッジ数に基づいて、複数のフィルタ係数の中から1つのフィルタ係数を選択する。エッジ数は、注目画素の特徴を表しているので、係数設定部は、注目画素の特徴に応じて最適なフィルタ係数を選択することができる。たとえば、注目画素が網点領域を構成する画素であれば、モアレを抑制するために、平滑化特性を有するフィルタ係数を選択し、注目画素が文字領域を構成する画素であれば、エッジを強調するために、鮮鋭化特性を有するフィルタ係数を選択する。詳細には、第1の閾値、第1の閾値より小さい第2の閾値および第1の閾値より小さく第2の閾値より大きい中間閾値と、計数されたエッジ数とを比較し、エッジ数が前記第1の閾値以上であるときは、平滑化特性を有するフィルタ係数を選択し、エッジ数が前記第1の閾値より小さくかつ前記中間閾値以上であるときは、高周波成分の平滑化と低周波成分の強調とを兼ね備えた特性を有するフィルタ係数を選択し、エッジ数が前記中間閾値より小さくかつ第2の閾値以上であるときは、鮮鋭化特性を有するフィルタ係数を選択し、エッジ数が第2の閾値未満であるときは、注目画素の濃度値がそのまま変換値となる特性を有するフィルタ係数を選択する。
【0014】
空間フィルタ部は、係数設定部により選択されたフィルタ係数を用いてフィルタ処理を行う。
【0015】
これにより、画素ブロック内のエッジ数に基づいて注目画素の特徴に応じた適切なフィルタ処理を行うことができ、出力画像の画質を向上させることができる。
【0016】
また本発明は、複数の画素からなる画像を示す画像データが入力され、
入力された画像データに対してフィルタ処理を行う空間フィルタ部と、
入力された画像データが複数色からなるカラー画像データである場合に、各色がほぼ同じ画素濃度となる部分をブラックとして置き換え、ブラックをさらに加えたカラー画像データに変換する黒生成/下色除去部と、
入力された画像データに対して出力先に応じた階調再現処理を行う中間調生成部と、
注目画素が、少なくとも文字領域および網点領域を含む複数の領域のいずれに属するかを判定する領域判定部とを備え、
少なくとも前記黒生成/下色除去部および中間調生成部のいずれかが前記領域判定部の判定結果に応じた処理を行う画像処理装置において、
注目画素とその周辺画素とからなる画素ブロック内のエッジ数を計数する計数部と、
計数されたエッジ数に基づいて、複数のフィルタ係数の中から1つのフィルタ係数を選択する係数設定部とを有し、
前記計数部は、前記画素ブロック内の主走査方向の立上りエッジおよび立下りエッジの数と副走査方向の立上りエッジおよび立下りエッジの数とをそれぞれ個別に計数し、4つのエッジ数の総和を計数し、
前記係数設定部は、第1の閾値、第1の閾値より小さい第2の閾値および第1の閾値より小さく第2の閾値より大きい中間閾値と、計数されたエッジ数とを比較し、エッジ数が前記第1の閾値以上であるときは、平滑化特性を有するフィルタ係数を選択し、エッジ数が前記第1の閾値より小さくかつ前記中間閾値以上であるときは、高周波成分の平滑化と低周波成分の強調とを兼ね備えた特性を有するフィルタ係数を選択し、エッジ数が前記中間閾値より小さくかつ第2の閾値以上であるときは、鮮鋭化特性を有するフィルタ係数を選択し、エッジ数が第2の閾値未満であるときは、注目画素の濃度値がそのまま変換値となる特性を有するフィルタ係数を選択し、
前記空間フィルタ部は、前記係数設定部によって選択されたフィルタ係数を用いてフィルタ処理を行うことを特徴とする画像処理装置である。
【0017】
本発明に従えば、計数部が注目画素とその周辺画素とからなる画素ブロック内のエッジ数を計数する。詳細には、前記画素ブロック内の主走査方向の立上りエッジおよび立下りエッジの数と副走査方向の立上りエッジおよび立下りエッジの数とをそれぞれ個別に計数し、4つのエッジ数の総和を計数する。係数設定部は、計数されたエッジ数に基づいて、複数のフィルタ係数の中から1つのフィルタ係数を選択する。エッジ数は、注目画素の特徴を表しているので、係数設定部は、注目画素の特徴に応じて最適なフィルタ係数を選択することができる。たとえば、注目画素が網点領域を構成する画素であれば、モアレを抑制するために、平滑化特性を有するフィルタ係数を選択し、注目画素が文字領域を構成する画素であれば、エッジを強調するために、鮮鋭化特性を有するフィルタ係数を選択する。詳細には、第1の閾値、第1の閾値より小さい第2の閾値および第1の閾値より小さく第2の閾値より大きい中間閾値と、計数されたエッジ数とを比較し、エッジ数が前記第1の閾値以上であるときは、平滑化特性を有するフィルタ係数を選択し、エッジ数が前記第1の閾値より小さくかつ前記中間閾値以上であるときは、高周波成分の平滑化と低周波成分の強調とを兼ね備えた特性を有するフィルタ係数を選択し、エッジ数が前記中間閾値より小さくかつ第2の閾値以上であるときは、鮮鋭化特性を有するフィルタ係数を選択し、エッジ数が第2の閾値未満であるときは、注目画素の濃度値がそのまま変換値となる特性を有するフィルタ係数を選択する。
【0018】
また、黒生成/下色除去部は、入力された画像データがCMY(C:シアン・M:マゼンタ・Y:イエロー)の3色からなるカラー画像データである場合にシアン、マゼンタ、イエローがほぼ同じ画素濃度となる部分をブラックとして置き換え、CMYK(K:ブラック)の4色からなるカラー画像データに変換する。中間調生成部は、出力先、すなわち、解像度など画像出力装置の出力特性に応じた階調再現処理を行う。
【0019】
領域判定部は、注目画素が、少なくとも文字領域および網点領域を含む複数の領域のいずれに属するかを判定し、少なくとも黒生成/下色除去部および中間調生成部のいずれかは領域判定部の判定結果に応じた処理を行う。
【0020】
これにより、画素ブロック内のエッジ数に基づいて注目画素の特徴に応じた適切なフィルタ処理を行うことができ、出力画像の画質を向上させることができる。さらに、フィルタ処理は領域判定結果に依存しないので、領域判定が誤判定した際の画質劣化を抑制し、領域判定処理では明確に分離できない領域、たとえば網点領域中の文字などについても適切に処理を行うことができる。
【0021】
また本発明は、前記領域判定部は、計数されたエッジ数に基づいて、注目画素が、少なくとも文字領域および網点領域を含む複数の領域のいずれに属するかを判定することを特徴とする。
【0022】
本発明に従えば、領域判定部は、計数されたエッジ数に基づいて、注目画素が、少なくとも文字領域および網点領域を含む複数の領域のいずれに属するかを判定し、黒生成/下色除去部・中間調生成部は、領域判定部の判定結果に応じた処理を行う。
【0023】
これにより、従来の領域判定処理に比べて必要な計算量を削減し、回路規模を縮小することができる。
【0030】
また本発明は、前記計数部は、画素ブロック内の所定の画素と所定の画素に走査方向前方で隣接する画素との濃度差が第3の閾値より大きく、かつ濃度が走査方向に上昇している部分を立上りエッジとして検出し、画素ブロック内の所定の画素と所定の画素に走査方向前方で隣接する画素との濃度差が第3の閾値より大きく、かつ濃度が走査方向に下降している部分を立下りエッジとして検出することを特徴とする。
【0031】
本発明に従えば、計数部は、立上りエッジとして、画素ブロック内の所定の画素と所定の画素に走査方向前方で隣接する画素との濃度差が第3の閾値より大きく、かつ濃度が走査方向に上昇している部分を検出する。また、立下りエッジとして、画素ブロック内の所定の画素と所定の画素に走査方向前方で隣接する画素との濃度差が第3の閾値より大きく、かつ濃度が走査方向に下降している部分を検出する。なお、第3の閾値は、写真領域や下地領域における隣接画素間の濃度変化より十分大きく設定する。
【0032】
これにより、写真領域や下地領域のように局所領域における濃度変化が小さい領域に関してはエッジとして検出しないので、より正確にエッジ数を計数することができる。
【0033】
また本発明は、上記の画像処理装置と、
画像処理装置によって処理された画像データを出力する画像出力装置とを備えることを特徴とする画像形成装置である。
【0034】
本発明に従えば、上記の画像処理装置によって処理された画像データを、画像出力装置から出力する。
【0035】
これにより、適切にフィルタ処理が施された画像データを出力することができるので、高画質な静止画像を形成することができる。
【0036】
また本発明は、複数の画素からなる画像を示す画像データに含まれる注目画素とその周辺画素とからなる画素ブロック内のエッジ数を計数する計数工程と、
計数されたエッジ数に基づいて、複数のフィルタ係数の中から1つのフィルタ係数を選択する係数設定工程と、
前記係数設定工程で選択されたフィルタ係数を用いて、入力された画像データに対してフィルタ処理を行う空間フィルタ工程とを備え
前記計数工程では、前記画素ブロック内の主走査方向の立上りエッジおよび立下りエッジの数と副走査方向の立上りエッジおよび立下りエッジの数とをそれぞれ個別に計数し、4つのエッジ数の総和を計数し、
前記係数設定工程では、第1の閾値、第1の閾値より小さい第2の閾値および第1の閾値より小さく第2の閾値より大きい中間閾値と、計数されたエッジ数とを比較し、エッジ数が前記第1の閾値以上であるときは、平滑化特性を有するフィルタ係数を選択し、エッジ数が前記第1の閾値より小さくかつ前記中間閾値以上であるときは、高周波成分の平滑化と低周波成分の強調とを兼ね備えた特性を有するフィルタ係数を選択し、エッジ数が前記中間閾値より小さくかつ第2の閾値以上であるときは、鮮鋭化特性を有するフィルタ係数を選択し、エッジ数が第2の閾値未満であるときは、注目画素の濃度値がそのまま変換値となる特性を有するフィルタ係数を選択することを特徴とする画像処理方法である。
【0037】
本発明に従えば、計数工程で注目画素とその周辺画素とからなる画素ブロック内のエッジ数を計数する。詳細には、前記画素ブロック内の主走査方向の立上りエッジおよび立下りエッジの数と副走査方向の立上りエッジおよび立下りエッジの数とをそれぞれ個別に計数し、4つのエッジ数の総和を計数する。係数設定工程では、計数されたエッジ数に基づいて、複数のフィルタ係数の中から1つのフィルタ係数を選択する。エッジ数は、注目画素の特徴を表しているので、係数設定工程では、注目画素の特徴に応じて最適なフィルタ係数を選択することができる。たとえば、注目画素が網点領域を構成する画素であれば、モアレを抑制するために、平滑化特性を有するフィルタ係数を選択し、注目画素が文字領域を構成する画素であれば、エッジを強調するために、鮮鋭化特性を有するフィルタ係数を選択する。詳細には、第1の閾値、第1の閾値より小さい第2の閾値および第1の閾値より小さく第2の閾値より大きい中間閾値と、計数されたエッジ数とを比較し、エッジ数が前記第1の閾値以上であるときは、平滑化特性を有するフィルタ係数を選択し、エッジ数が前記第1の閾値より小さくかつ前記中間閾値以上であるときは、高周波成分の平滑化と低周波成分の強調とを兼ね備えた特性を有するフィルタ係数を選択し、エッジ数が前記中間閾値より小さくかつ第2の閾値以上であるときは、鮮鋭化特性を有するフィルタ係数を選択し、エッジ数が第2の閾値未満であるときは、注目画素の濃度値がそのまま変換値となる特性を有するフィルタ係数を選択する。
【0038】
空間フィルタ工程では、係数設定工程により選択されたフィルタ係数を用いてフィルタ処理を行う。
【0039】
これにより、画素ブロック内のエッジ数に基づいて注目画素の特徴に応じた適切なフィルタ処理を行うことができ、出力画像の画質を向上させることができる。
【0040】
また本発明は、複数の画素からなる画像を示す画像データが入力され、
入力された画像データに対してフィルタ処理を行う空間フィルタ工程と、
注目画素が、少なくとも文字領域および網点領域を含む複数の領域のいずれに属するかを判定する領域判定工程と、
入力された画像データが複数色からなるカラー画像データである場合に、各色がほぼ同じ画素濃度となる部分をブラックとして置き換え、ブラックをさらに加えたカラー画像データに変換する黒生成/下色除去工程と、
入力された画像データに対して出力先に応じた階調再現処理を行う中間調生成工程とを備え、
少なくとも前記黒生成/下色除去工程および中間調生成工程のいずれかで前記領域判定工程の判定結果に応じた処理を行う画像処理方法において、
注目画素とその周辺画素とからなる画素ブロック内のエッジ数を計数する計数工程と、
計数されたエッジ数に基づいて、複数のフィルタ係数の中から1つのフィルタ係数を選択する係数設定工程とを有し、
前記計数工程では、前記画素ブロック内の主走査方向の立上りエッジおよび立下りエッジの数と副走査方向の立上りエッジおよび立下りエッジの数とをそれぞれ個別に計数し、4つのエッジ数の総和を計数し、
前記係数設定工程では、第1の閾値、第1の閾値より小さい第2の閾値および第1の閾値より小さく第2の閾値より大きい中間閾値と、計数されたエッジ数とを比較し、エッジ数が前記第1の閾値以上であるときは、平滑化特性を有するフィルタ係数を選択し、エッジ数が前記第1の閾値より小さくかつ前記中間閾値以上であるときは、高周波成分の平滑化と低周波成分の強調とを兼ね備えた特性を有するフィルタ係数を選択し、エッジ数が前記中間閾値より小さくかつ第2の閾値以上であるときは、鮮鋭化特性を有するフィルタ係数を選択し、エッジ数が第2の閾値未満であるときは、注目画素の濃度値がそのまま変換値となる特性を有するフィルタ係数を選択し、
前記空間フィルタ工程では、前記係数設定工程によって選択されたフィルタ係数を用いてフィルタ処理を行うことを特徴とする画像処理方法である。
【0041】
本発明に従えば、計数工程で注目画素とその周辺画素とからなる画素ブロック内のエッジ数を計数する。詳細には、前記画素ブロック内の主走査方向の立上りエッジおよび立下りエッジの数と副走査方向の立上りエッジおよび立下りエッジの数とをそれぞれ個別に計数し、4つのエッジ数の総和を計数する。係数設定工程では、計数されたエッジ数に基づいて、複数のフィルタ係数の中から1つのフィルタ係数を選択する。エッジ数は、注目画素の特徴を表しているので、係数設定工程では、注目画素の特徴に応じて最適なフィルタ係数を選択することができる。たとえば、注目画素が網点領域を構成する画素であれば、モアレを抑制するために、平滑化特性を有するフィルタ係数を選択し、注目画素が文字領域を構成する画素であれば、エッジを強調するために、鮮鋭化特性を有するフィルタ係数を選択する。詳細には、第1の閾値、第1の閾値より小さい第2の閾値および第1の閾値より小さく第2の閾値より大きい中間閾値と、計数されたエッジ数とを比較し、エッジ数が前記第1の閾値以上であるときは、平滑化特性を有するフィルタ係数を選択し、エッジ数が前記第1の閾値より小さくかつ前記中間閾値以上であるときは、高周波成分の平滑化と低周波成分の強調とを兼ね備えた特性を有するフィルタ係数を選択し、エッジ数が前記中間閾値より小さくかつ第2の閾値以上であるときは、鮮鋭化特性を有するフィルタ係数を選択し、エッジ数が第2の閾値未満であるときは、注目画素の濃度値がそのまま変換値となる特性を有するフィルタ係数を選択する。
【0042】
領域判定工程では、注目画素が、少なくとも文字領域および網点領域を含む複数の領域のいずれに属するかを判定し、少なくとも黒生成/下色除去工程および中間調生成工程のいずれかは領域判定工程での判定結果に応じた処理を行う。
【0043】
また、黒生成/下色除去工程では、入力された画像データがCMYの3色からなるカラー画像データである場合にシアン、マゼンタ、イエローがほぼ同じ画素濃度となる部分をブラックとして置き換え、CMYKの4色からなるカラー画像データに変換する。中間調生成工程では、解像度など画像出力装置の出力特性に応じた階調再現処理を行う。
【0044】
これにより、画素ブロック内のエッジ数に基づいて注目画素の特徴に応じた適切なフィルタ処理を行うことができ、出力画像の画質を向上させることができる。さらに、フィルタ処理は領域判定結果に依存しないので、領域判定が誤判定した際の画質劣化を抑制し、領域判定処理では明確に分離できない領域、たとえば網点領域中の文字などについても適切に処理を行うことができる。
【0045】
また本発明は、前記領域判定工程は、計数されたエッジ数に基づいて、注目画素が、少なくとも文字領域および網点領域を含む複数の領域のいずれに属するかを判定することを特徴とする。
【0046】
本発明に従えば、領域判定工程は、計数されたエッジ数に基づいて、注目画素が、少なくとも文字領域および網点領域を含む複数の領域のいずれに属するかを判定し、黒生成/下色除去部・中間調生成部は、領域判定工程の判定結果に応じた処理を行う。
【0047】
これにより、領域判定処理に必要な計算量を削減し、回路規模を縮小することができる。
【0048】
また本発明は、上記の画像処理方法をコンピュータに実行させるための画像処理プログラムである。
【0049】
本発明に従えば、上記の画像処理方法をコンピュータに実行させるための画像処理プログラムとして提供することができる。
【0050】
上記の画像処理方法をコンピュータに実行させるための画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体である。
【0051】
本発明に従えば、上記の画像処理方法をコンピュータに実行させるための画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体として提供することができる。
【0052】
【発明の実施の形態】
以下では、図面を参照して本発明を詳細に説明する。
【0053】
図1は、本発明の第1の実施形態である画像形成装置1の構成を示すブロック図である。画像形成装置1は、いわゆるデジタルカラー複写機、デジタルカラーファクシミリやこれらの複合機などで実現され、画像入力装置2、画像処理装置3および画像出力装置4から構成される。
【0054】
画像入力装置2は、たとえばCCDラインセンサを備えたスキャナからなり、読み取ろうとする原稿に光を照射し、原稿が反射した光をRGB(R:赤・G:緑・B:青)に色分解された電気信号(反射率信号)に変換する。
【0055】
画像処理装置3は、A/D(アナログ/デジタル)変換部5、シェーディング補正部6、入力処理部7、色補正部8、黒生成/下色除去部9、空間フィルタ部10、中間調生成部11、立上り/立下りエッジカウント部12およびフィルタ係数設定部13からなる。
【0056】
画像入力装置2により入力されたカラー画像信号(RGBアナログ信号)は、A/D変換部5にてデジタル信号(画像データ)に変換され、シェーディング補正部6にて画像入力装置2の照明系、結像系、撮像系で生じる各種の歪みが取り除かれる。
【0057】
その後、入力処理部7において反射率信号が、画像処理に適した濃度信号に変換され、RGB信号の補色信号であるCMY(C:シアン・M:マゼンタ・Y:イエロー)信号が生成される。次に、色補正部8にて色再現性を高める処理が施され、黒生成/下色除去部9にてCMYK(K:ブラック)4色信号に変換される。
【0058】
また、空間フィルタ部10ではCMYK信号に対してエッジ強調処理や平滑化処理がなされ、中間調生成部11では画像出力装置4の解像度など出力特性に応じた階調再現処理がなされる。そして、電子写真方式やインクジェット方式のプリンタなどで実現される画像出力装置4にて出力画像が形成される。この画像出力装置4は、液晶ディスプレイなどの画像表示装置であっても構わない。この場合、色補正部8ではRGB信号を画像表示装置の色再現に適したR’G’B’信号に変換する処理が行われ、黒生成/下色除去部9における処理は不要である。そして、空間フィルタ部10から出力されたR’G’B’信号は、中間調生成部11において画像表示装置の特性に応じて階調の調整がなされ出力される。
一方、入力処理部7からの出力信号は、計数部である立上り/立下りエッジカウント部12に引き渡され、注目画素を含む複数の画素からなる画素ブロック内の立上りエッジおよび立下りエッジの数が計数される。その後、エッジの数を基にフィルタ係数設定部13にて最適なフィルタ係数が設定され、その係数は空間フィルタ部10に引き渡される。フィルタ係数は、エッジ数に応じて予め複数種類を記憶しておけばよい。以上の処理はたとえば、CPU(Central Processing
Unit)により制御される。
【0059】
立上り/立下りエッジカウント部12について詳細に説明する。図2は、立上り/立下りエッジカウント部12の構成を示すブロック図である。立上り/立下りエッジカウント部12は、ライン内カウント部121と総和算出部122とからなる。図3は、画素ブロック100の一例を示す図である。画素ブロック100は、注目画素を中心とするM×N画素からなり、主走査方向のラインをラインX、副走査方向のラインをラインYとする。M×N画素であることから、主走査方向ラインはラインX〜ラインX、副走査方向ラインはラインY〜ラインYとする。図4は、立上りエッジおよび立下りエッジを示す模式図である。図では、画素数が9画素のラインを左から右に走査する場合を示している。立上りエッジは、画素A(濃度値fa)と右隣の画素B(濃度値fb)とのように、隣接画素間の濃度差が大きく、所定値以上であり、かつ濃度が上昇している(fb>fa)部分のことをいう。立下りエッジは、画素A’(濃度値fa’)と右隣の画素B’(濃度値fb’)とのように、隣接画素間の濃度差が大きく、所定値以上であり、かつ濃度が下降している(fb’<fa’)部分のことをいう。したがって、図に示すラインには、立上りエッジおよび立下りエッジがそれぞれ1つずつ含まれていることになる。
【0060】
ライン内カウント部121は、主走査方向のラインX〜ラインXおよび副走査方向ラインのラインY〜ラインYにそれぞれ対応するライン内カウント回路121X〜121Xおよびライン内カウント部121Y〜121Yからなる。ライン内カウント部121が、ラインごとに立上りエッジおよび立下りエッジを計数し、主走査方向の1ライン内の立上りエッジ数としてNumUp_Xを出力し、主走査方向の1ライン内の立下りエッジ数としてNumDown_Xを出力し、副走査方向の1ライン内の立上りエッジ数としてNumUp_Yを出力し、副走査方向の1ライン内の立下りエッジ数としてNumDown_Yを出力する。たとえば、主走査方向のラインXの計数結果は、NumUp_X1およびNumDown_X1として出力される。
【0061】
総和算出部122は、主走査方向立上りエッジ数、主走査方向立下りエッジ数、副走査方向立上りエッジ数および副走査方向立下りエッジ数のそれぞれに対応するSUM回路122a〜122dからなる。SUM回路122a〜122dは、ライン内カウント部121から出力された計数値の総和を算出する。SUM回路122aは、主走査方向立上りエッジ数の総和SumX_Upを算出し、SUM回路122bは、主走査方向立下りエッジ数の総和SumX_Downを算出し、SUM回路122cは、副走査方向立上りエッジ数の総和SumY_Upを算出し、SUM回路122dは、副走査方向立下りエッジ数の総和SumY_Downを算出し、フィルタ係数設定部13に出力する。
【0062】
図5は、ライン内カウント回路121Xの構成を示すブロック図である。ライン内カウント回路121X〜121Xおよびライン内カウント回路121Y〜121Yについては、ライン内カウント回路121Xの構成と同様の構成であるので、ここではライン内カウント回路121Xの構成について説明する。ライン内カウント部121は、差分器20、絶対値算出部21、比較器22a,22b、AND回路23a,23b、SUM回路24a,24bおよびインバータ回路25からなる。差分器20が、ライン内で隣接する2画素a,bの濃度値fa,fbの差(fa - fb)を算出すると、絶対値算出部21は、算出された差分値の絶対値を算出する。なお、画素bは画素aの走査方向前方に位置している。比較器22aは、差分絶対値と第3の閾値である閾値THとを比較し、差分絶対値が閾値TH以上であれば「1」そうでなければ「0」を出力する。また、比較器22bは、差分値が0以上の値であるか否か、すなわち正の値か負の値かを判断し、0以上であれば「1」そうでなければ「0」を出力する。
【0063】
比較器22aおよび22bの出力信号は、AND回路23aおよび23bへ引き渡され、立上り/立下りエッジであるか否かの判断がなされる。比較器22bからAND回路23bへの出力信号はインバータ回路25で反転される。AND回路23aは、比較器22aからの出力が「1」であり、比較器22bからの出力が「1」であるとき、すなわち差分値が閾値以上でありかつ正であるときは、立下りエッジであるので、出力信号Downとして「1」を出力し、そうでない場合は「0」を出力する。一方、AND回路23bは、比較器22aからの出力が「1」であり、比較器22bからの出力が「0」であるとき、すなわち差分値が閾値以上でありかつ負であるときは、立上りエッジであるので、出力信号Upとして「1」を出力し、そうでない場合は「0」を出力する。
【0064】
ライン内で対象とする画素を、走査方向に1画素ずつずらしながら上記の算出処理を繰り返す。SUM回路24aは、算出処理の繰り返し中に「Down=1」が出力された数をカウントしてライン内総和NumDown_X1を出力する。SUM回路24bは、「Up=1」が出力された数をカウントしてライン内総和NumUp_X1を出力する。
【0065】
なお、立上り/立下りエッジを検出する方法はこれに限らず、たとえばゼロクロス点を求め、その周辺の濃度変化を見て検出するといった方法でもよい。
【0066】
図6は、立上り/立下りエッジカウント処理を示すフローチャートである。まず、ステップs1において、注目画素を含むM×N画素の濃度値をCMY各色プレーンごとに保持する。その後ステップs2ではCプレーンに対し主走査方向のラインX1〜XNにおける立上り/立下りエッジのそれぞれの総和SumX_Up、SumX_Downが求められる。ステップs3では副走査方向のラインY1〜Yにおける立上り/立下りエッジのそれぞれの総和SumY_Up、SumY_Downが求められる。またこのとき、Mプレーン、Yプレーンに対しても同様の処理が並列して行われる。そしてステップs4にて各プレーンでの最大値MAX{SumX_Up、SumX_Down、SumY_Up、SumY_Down}が求められ、それが最も大きい値を示すプレーンにおけるSumX_Up、SumX_Down、SumY_Up、SumY_Downの値が、フィルタ係数設定部13に引き渡される。
【0067】
図7は、フィルタ係数設定処理を示すフローチャートである。まず、ステップs11では、上記のように、立上り/立下りエッジカウント部12により、画素ブロック内における主走査方向の立上りエッジの数SumX_Upと立下りエッジの数SumX_Down、および副走査方向の立上りエッジの数SumY_Upと立下りエッジの数SumY_Downがそれぞれ計数される。図8は、各領域の画素濃度変化を示す模式図である。なお上向き矢印は立上りエッジを示し、下向き矢印は立下りエッジを示している。網点領域は略円形状の網点を含むため、図8(a)に示すように、1ラインに含まれるエッジ数が多く、さらに主走査方向および副走査方向のエッジが多く、立上りおよび立下りのエッジも多く存在する。したがって、エッジ数の総和が他の領域に比べて大きくなる。
【0068】
文字領域は、線状の部分を多く含み、図8(b)に示すように、立上りエッジと立下りエッジとの距離が網点領域よりも大きい。さらに、主走査方向、副走査方向のいずれかに偏ってエッジが存在する。したがって、エッジ数の総和が網点領域より小さく、写真領域や下地領域よりは大きくなる。
【0069】
写真領域は、他の領域と同様に高濃度の画素と低濃度の画素を含むが、図8(c)に示すように、濃度変化が緩やかで隣接画素との濃度差が小さいので、立上りエッジ、立下りエッジともにほとんど存在しない。また下地領域は、図8(d)に示すように、低濃度の画素のみからなるので、立上りエッジ、立下りエッジともに存在しない。したがって、エッジ数の総和は非常に小さくなる。
【0070】
以上のような各領域とエッジ数の総和との対応に基づいて、フィルタ係数を設定する。フィルタ係数は、マトリクス状に配置された数値からなり、マトリクスに対応する画素の階調値とこれらの数値とを畳み込み演算することにより新たな階調値が算出される。
【0071】
ステップs12では、エッジ数SumX_Up,SumX_Down,SumY_Up,SumY_Downの総和Totalが算出される。ステップs13では、総和Totalが第1の閾値である閾値thA以上であるか否かが判断される。閾値thA以上であればステップs15に進み、閾値thAより小さければステップs14に進む。ステップs15では、予め記憶されている複数種類のフィルタ係数の中から網点領域に適したフィルタ係数が選択され、空間フィルタ部10へ引き渡される。網点領域に適したフィルタ係数としては、平滑化が可能なフィルタ係数が好ましい。
【0072】
ステップs14では、総和Totalが第2の閾値である閾値thB(<閾値thA)以上であるか否かが判断される。閾値thB以上であればステップs16に進み、閾値thBより小さければステップs17に進む。ステップs16では、予め記憶されている複数種類のフィルタ係数の中から文字領域に適したフィルタ係数が選択され、空間フィルタ部10へ引き渡される。文字領域に適したフィルタ係数としては、エッジ強調が可能なフィルタ係数が好ましい。
【0073】
ステップs17では、写真領域および下地領域などに適したフィルタ係数が選択され、空間フィルタ部10へ引き渡される。
【0074】
上記の例では2段階の閾値を用いてエッジ数の総和を3種類に切り分け、それぞれに対応するフィルタ係数から選択する構成としたが、さらに多くの閾値を設けてより詳細に設定することも可能である。図9に閾値による切り分けとそれに応じたフィルタ係数の選択の例を示す。図9(a)は、図7のフローチャートで説明した場合と同様に閾値を3段階にした場合の例を示している。図9(b)は閾値を4段階にした場合の例を示している。
【0075】
総和Totalの値は、画素ブロック内のエッジ数の総和であることから、網点が細かいほど画素ブロック内に存在する網点の数が多く、エッジ数の総和も多くなる。したがって、同じ網点領域の中でも、総和Totalの値によって網点の細かさ(線数)を判断することが可能である。そのため網点の線数を検出する処理を別途設ける必要がない。たとえば、総和Totalが閾値thA’以上の場合は高線数の網点領域に適したフィルタ係数A’が選択され、総和Totalが閾値thA’より小さく、閾値thB’以上の場合は低線数の網点領域に適したフィルタ係数B’が選択される。
【0076】
また、網点領域とも文字領域とも判断できないような特性を持つ領域については、そのいずれの場合でも好ましい処理ができるようなフィルタ係数(混合フィルタなど)を設定することも可能である。総和Totalが閾値thB’より小さく、閾値thC’以上の場合は網点領域および文字領域に適したフィルタ係数C’が選択される。文字領域、写真領域および下地領域については、総和Totalが閾値thC’より小さく、閾値thD’以上の場合は文字領域に適したフィルタ係数D’が選択され、総和Totalが閾値thD’より小さい場合は写真領域および下地領域に適したフィルタ係数E’が選択される。
【0077】
図10は、図9(b)に示したフィルタ係数の例を示す図である。フィルタ係数A’(図10(a))は、高周波成分の平滑化に重点を置いた特性を持つため、高周波成分を多く含む高線数の網点領域に適している。フィルタ係数B’(図10(b))は、低周波成分の平滑化に重点を置いた特性を持つため、低周波成分を多く含む低線数の網点領域に適している。フィルタ係数C’(図10(c))は、高周波成分の平滑化と低周波成分の強調を兼ね備えた特性を持つため、網点領域とも文字領域とも判断し難い領域に適している。フィルタ係数D’(図10(d))は全ての周波数成分に対し強調を行うことに重点を置いた特性を持つため、文字領域に最適である。フィルタ係数E’(図10(e))は、注目画素の濃度値がそのまま変換値となる特性を持ち、写真領域や下地領域など特にフィルタ処理を施す必要がない場合に適用する。なお、フィルタ係数の値やサイズはこれに限定されるものではない。
【0078】
以上のように、画素ブロック内のエッジ数に基づいてフィルタ係数を選択することで、注目画素の特徴に応じた適切なフィルタ処理を行うことができる。
【0079】
図11は、本発明の第2の実施形態である画像形成装置51の構成を示すブロック図である。画像形成装置51は、画像入力装置2、画像出力装置4および画像処理装置53からなる。第1の実施形態である画像形成装置1を構成する部位と同様の動作を行う部位については、同じ符号を付して説明を省略する。画像形成装置1と異なるのは、画像処理装置53が、領域分離処理部14をさらに備えること、黒生成/下色除去部15および中間調生成部16が、領域分離処理部14による領域分離結果に基づいて処理を変更することである。
【0080】
入力処理部7からの出力信号は、立上り/立下りエッジカウント部12に引き渡される一方、領域分離処理部14にも引き渡される。領域分離処理部14は、有彩/無彩判定部141、文字判定部142、網点判定部143および総合判定部144から構成され、注目画素が黒文字、色文字、網点、その他(写真や下地など)のいずれの領域に属するものであるかが判定される。そしてその判定結果を示す領域分離信号は、黒生成/下色除去部15および中間調生成部16にそれぞれ引き渡される。
【0081】
図12は、有彩/無彩判定部141の構成を示すブロック図である。有彩/無彩判定部141は、最大値算出部31、最小値算出部32、差分器33および比較器34からなり、注目画素が有彩色であるか無彩色であるかの判定を行い、その結果を信号Colorとして出力する。
【0082】
まず、最大値算出部31および最小値算出部32において、注目画素のCMY濃度値の最大値と最小値が検出される。次に、差分器33によって最大値と最小値との差分値が求められる。そして、比較器34においてその差分値が閾値THcolと比較される。差分値が閾値THcol以下の場合、すなわち注目画素におけるCMY濃度値の差異が小さい場合、注目画素は無彩色であると判定され、信号Colorとして「1」が出力される。差分値が閾値THcolより大きい場合、すなわち注目画素におけるCMY濃度値の差異が大きい場合、注目画素は有彩色であると判定され、信号Colorとして「0」が出力される。
【0083】
文字判定部142では、文字領域に属する画素は周辺画素との濃度差が大きい(エッジが高い)という特徴を利用して文字領域を識別する。たとえば、注目画素を中心とする3×3画素ブロックを設定し、注目画素とそれに隣接する8近傍画素との濃度差をそれぞれ求める。濃度差のいずれかひとつが閾値THtextより大きければ、注目画素は文字画素であると判定され、そうでなければ非文字画素と判定される。なお、この処理はCMY各色ごとに個別に行われ、そのいずれかにおいて注目画素が文字画素と判定された場合に信号Textとして「1」が出力され、そうでない場合は「0」が出力される。
【0084】
網点判定部143では、網点領域は「小領域における濃度の変動が大きい」「背景に比べて網点の濃度は高い」という特徴を利用して網点領域を識別する。注目画素を中心としたP×Q(P、Qは自然数)画素のブロック内で以下の処理が行われ、注目画素が網点領域に属する画素か否か判定される。なお、この処理はCMY各色ごとに個別に行われ、そのいずれかにおいて注目画素が“網点画素”と判定された場合に信号Screenとして「1」が出力され、そうでない場合は「0」が出力される。
【0085】
1.たとえば、画素ブロック内の中央の9画素に対して平均濃度値Daveを求め、その平均値を用いてブロック内の各画素を「0」もしくは「1」に2値化する。また、最大値Dmax、最小値Dminも同時に求める。
2.2値化されたデータに対して主走査、副走査方向でそれぞれ0から1への変化点数、1から0への変化点数を求め、それぞれKR、KVとする。
3.次の判定を行う。(B1、B2、TR、TV:閾値)
【0086】
【数1】

Figure 0004105539
【0087】
図13は、領域分離処理を示すフローチャートである。ステップs21では注目画素が網点領域に属する画素であるか否かを表す信号Screenが生成され、ステップs22では注目画素が文字領域に属する画素であるか否かを表す信号Textが生成され、そしてステップs23では注目画素が有彩であるか無彩であるかを表す信号Colorが生成される。それぞれ並列に処理され得られた3つの信号を基に、ステップs24にて総合判定処理が行われる。ステップs25では、総合判定処理の結果を示す領域分離信号が、黒生成/下色除去部15および中間調生成部16へ引き渡される。
【0088】
図14は、総合判定処理を示すフローチャートである。ステップs31では信号Screenが「1」であるか否かを判断し、「1」であればステップs34に進み、「0」であればステップs32に進む。ステップs34では、注目画素が網点領域に属すると判定し、領域分離信号として網点を示す「00」を出力する。ステップs32では、信号Textが「1」であるか否かを判断する。信号Textが「1」であればステップs33に進み、「0」であればステップs37に進む。
【0089】
ステップs37では、注目画素が写真領域または下地領域に属すると判定し、領域分離信号として写真領域または下地領域を示す「11」を出力する。ステップs33では、信号Colorが「1」であるか否かを判断する。信号Colorが「1」であればステップs35に進み、「0」であればステップs36に進む。ステップs35では、注目画素が黒文字領域に属すると判定し、領域分離信号として黒文字を示す「01」を出力する。ステップs36では、注目画素が色文字に属すると判定し、領域分離信号として色文字を示す「10」を出力する。
【0090】
以上のように、黒生成/下色除去部15および中間調生成部16は、領域分離信号を受け取り、それぞれの領域に応じた最適な処理を行うことができる。空間フィルタ部10は、第1の実施形態と同様に、フィルタ係数設定部13によりエッジ数を基に設定されたフィルタ係数を用いることで、領域分離結果によらず最適なフィルタ処理を行うことができる。
【0091】
領域分離結果に基づいてフィルタ係数を切り替えた場合、たとえば、領域を誤判定した箇所については不適切なフィルタ処理が行われ周囲とのギャップが発生するので局所的に目立つ画質劣化を招くことになる。また、網点領域とも文字領域とも判断し難い箇所に対しては、はっきりとした領域分離結果を割り当てることができず、最適なフィルタ処理が行えないという問題もある。しかしながら、立上り/立下りエッジの数に応じてフィルタ係数を切り替えれば、領域を誤判定した箇所でも局所的なギャップが生じることはなく、また領域を確定できない箇所に対しても図10(c)に示したフィルタ係数C’のように最適なフィルタ係数を用いて処理を行うことができるため、出力画質の向上が実現できる。
【0092】
図15は、本発明の第3の実施形態である画像形成装置61の構成を示すブロック図である。画像形成装置61は、画像入力装置2、画像出力装置4および画像処理装置63からなる。第2の実施形態の画像形成装置51を構成する部位と同様の動作を行う部位については、同じ符号を付して説明を省略する。画像形成装置51と異なるのは、領域分離処理部17が立上り/立下りエッジ数に基づいて領域分離を行うことである。領域分離処理部17は、有彩/無彩判定部171、立上り/立下りエッジカウント部172および総合判定部173から構成され、注目画素が黒文字、色文字、網点、その他(写真や下地など)のいずれの領域に属するものであるかが判定される。そしてその判定結果を示す領域分離信号は、黒生成/下色除去部15および中間調生成部16にそれぞれ引き渡される。
【0093】
有彩/無彩判定部171は、入力処理部7からの出力信号に基づいて、注目画素が有彩であるか無彩であるかの判定を行う。立上り/立下りエッジカウント部172は、入力処理部7からの出力信号に基づいて、SumX_Up,SumX_Down,SumY_Up,SumY_Downを計数する。総合判定部173は、有彩/無彩判定部171の判定結果および立上り/立下りエッジカウント部172が計数したエッジ数に基づいて領域判定を行う。
【0094】
フィルタ係数設定部13は、立上り/立下りエッジカウント部172が計数したエッジ数に基づいてフィルタ係数を設定し、空間フィルタ部10に出力する。
【0095】
図16は、領域分離処理を示すフローチャートである。ステップs41では、立上り/立下りエッジカウント部172がSumX_Up,SumX_Down,SumY_Up,SumY_Downを計数して出力する。ステップS42では、有彩/無彩判定部171が有彩か否かを判断して信号Colorを出力する。ステップs43では、総合判定部173が注目画素の属する領域を判定して領域分離信号を出力する。ステップs44では、領域分離信号が黒生成/下色除去部15および中間調生成部16へ引き渡される。
【0096】
図17は、総合判定処理を示すフローチャートである。ステップs51では、SumX_Up > th_J1かつSumX_Down > th_J1かつSumY_Up > th_J1かつSumY_Down > th_J1(th_J1は閾値)の条件を満たすか否かを判断する。この条件式は、主走査方向における立上りエッジおよび立下りエッジの数がいずれも多く、かつ副走査方向においてもそれが成り立つような領域、つまり網点領域の特徴を表すものである。ステップS51で条件を満たす場合は、ステップs54に進み、注目画素が網点領域に属すると判定し、領域分離信号として網点を示す「00」を出力する。
【0097】
ステップS51で条件を満たさない場合はステップs52に進み、th_J1≧SumX_Up>th_J2かつth_J1≧SumX_Down>th_J2の条件、またはth_J1≧SumY_Up>th_J2かつth_J1≧SumY_Down>th_J2の条件(th_J2は閾値)のいずれかを満たすか否かを判断する。この条件式は、主走査方向における立上りエッジおよび立下りエッジの数がいずれもある程度多い領域、もしくは副走査方向においてそれが成り立つ領域、つまり文字領域の特徴を表すものである。条件を満たす場合はステップs53へ進み、条件を満たさない場合はステップs57に進む。
【0098】
ステップs57では、注目画素が写真領域または下地領域に属すると判定し、領域分離信号として写真領域または下地領域を示す「11」を出力する。
【0099】
ステップs53では、信号Colorが「1」であるか否かを判断する。信号Colorが「1」であればステップs55に進み、「0」であればステップs56に進む。ステップs55では、注目画素が黒文字領域に属すると判定し、領域分離信号として黒文字を示す「01」を出力する。ステップs56では、注目画素が色文字に属すると判定し、領域分離信号として色文字を示す「10」を出力する。
【0100】
黒生成/下色除去部15および中間調生成部16は、領域分離信号を受け取り、それぞれの領域に応じた最適な処理を行うことができる。空間フィルタ部10は、第1の実施形態と同様に、フィルタ係数設定部13によりエッジ数を基に設定されたフィルタ係数を用いることで、領域分離結果によらず最適なフィルタ処理を行うことができる。さらに領域分離処理において、各種領域の判定には、立上り/立下りエッジカウント部172のエッジ数の計数結果を用いるので、処理データ量を削減して処理を高速化することができ、第2の実施形態と比較して回路規模を大幅に縮小できる。
【0101】
以上では、本発明の実施形態として画像形成装置を用いて説明したが、本発明はコンピュータに実行させるための画像処理プログラムおよび画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体とすることもできる。
【0102】
この結果、適切なフィルタ処理や領域分離処理を備える画像処理方法をコンピュータに実行させる画像処理プログラムおよび画像処理プログラムを記録した記録媒体を提供することができる。なお、本実施形態では、この記録媒体としては、マイクロコンピュータで処理が行われるためにメモリ、たとえばROMのようなものそのものであっても良いし、また、外部記憶装置としてプログラム読み取り装置が設けられ、そこに記録媒体を挿入することで読み取り可能な記録媒体であっても良い。
【0103】
いずれの場合においても、格納されている画像処理プログラムは、マイクロプロセッサがアクセスして実行させる構成であっても良いし、あるいは、画像処理プログラムを読み出し、読み出した画像処理プログラムを、マイクロコンピュータのプログラム記憶エリアにダウンロードし、そのプログラムを実行する方式であってもよい。このダウンロード用のプログラムは予め本体装置に格納されているものとする。
【0104】
ここで、上記記録媒体としては、本体と分離可能に構成される記録媒体であり、磁気テープやカセットテープなどのテープ系、フレキシブルディスクやハードディスクなどの磁気ディスクやCD−ROM(Compact Disc-Read Only Memory)/MO(Magneto Optical)ディスク/MD(Mini Disk)/DVD(Digital Versatile Disk)などの光ディスクのディスク系、IC(Integrated Circuit)カード(メモリカードを含む)/光カードなどのカード系、あるいはマスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュROMなどの半導体メモリを含めた固定的にプログラムを担持する媒体であっても良い。
【0105】
また、上記のような記録媒体に限らず、インターネットを含む通信ネットワークを接続可能なコンピュータシステムが通信ネットワークからプログラムをダウンロードするように流動的にプログラムを担持する媒体であっても良い。なお、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード用のプログラムは予めコンピュータシステムに格納しておくか、あるいは別な記録媒体からインストールされるものであっても良い。
【0106】
上記記録媒体は、デジタルカラー画像形成装置やコンピュータシステムに備えられるプログラム読み取り装置により読み取られることで上述した画像処理方法が実行される。特に、後者の場合、閾値の変更など画像処理方法をユーザの好みに応じて使用することが可能となる。
【0107】
図18は、コンピュータシステム101の構成例を示す図である。コンピュータシステム101は、フラットベッドスキャナ、フィルムスキャナ、デジタルカメラなどの画像入力装置102、所定の画像処理プログラムがロードされることにより上記画像処理方法を含む様々な処理が行われるコンピュータ103、コンピュータの処理結果を表示するCRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイなどの画像表示装置104およびコンピュータの処理結果を紙などに出力するプリンタ105、画像処理の指示などをユーザが入力するためのキーボード106aおよびマウス106bなどの入力装置106から構成されるさらには、電話線を介してサーバーなどに接続するための通信手段としてのモデムなどが備えられる。
【0108】
画像処理方法をこのコンピュータシステムで実行する場合、閾値の設定を任意に変更することが容易になり、また、画像表示装置に示される結果に応じて改めて設定し直すなどユーザの好みに応じた処理が可能となる。閾値の変更を行うには、キーボードやマウスを用いて直接数値を入力したり、閾値を表すシンボルをドラッグしたりすることにより設定される。
【0109】
【発明の効果】
以上のように本発明によれば、画素ブロック内のエッジ数に基づいて、複数のフィルタ係数から1つのフィルタ係数を選択するので、画素ブロックの特徴に応じた適切なフィルタ処理を行うことができ、出力画像の画質を向上させることができる。
【0110】
また本発明によれば、画素ブロック内のエッジ数に基づいて、複数のフィルタ係数から1つのフィルタ係数を選択するので、画素ブロックの特徴に応じた適切なフィルタ処理を行うことができ、出力画像の画質を向上させることができる。さらに、フィルタ処理は領域判定結果に依存しないので、領域判定の誤判定などによる画質劣化を抑制し、領域判定処理では明確に分離できない領域についても適切に処理を行うことができる。
【0111】
また本発明によれば、領域判定部は計数部が計数したエッジ数に基づいて領域判定を行うので、従来の領域判定処理に比べて必要な計算量を削減し、回路規模を縮小することができる。
【0112】
また本発明によれば、閾値を用いることで、容易にフィルタ係数を選択することができる。
【0113】
また本発明によれば、走査方向および立上り、立下りを区別してエッジ数を計数することで、より適したフィルタ係数を選択することができる。
【0114】
また本発明によれば、隣接する画素間の濃度差と、適切に設定した第3の閾値とを比較して立上りおよび立下りエッジを検出するので、写真領域や下地領域のエッジを検出せず、より正確にエッジ数を計数することができる。
【0115】
また本発明によれば、適切にフィルタ処理が施された画像データを出力することができるので、高画質な静止画像を形成することができる。
【0116】
また本発明によれば、上記の画像処理方法をコンピュータに実行させるための画像処理プログラムとして提供することができる。
【0117】
また本発明によれば、上記の画像処理方法をコンピュータに実行させるための画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体として提供することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態である画像形成装置1の構成を示すブロック図である。
【図2】立上り/立下りエッジカウント部12の構成を示すブロック図である。
【図3】画素ブロック100の一例を示す図である。
【図4】立上りエッジおよび立下りエッジを示す模式図である。
【図5】ライン内カウント部121の構成を示すブロック図である。
【図6】立上り/立下りエッジカウント処理を示すフローチャートである。
【図7】フィルタ係数設定処理を示すフローチャートである。
【図8】各領域の画素濃度変化を示す模式図である。
【図9】閾値による切り分けとそれに応じたフィルタ係数の選択の例を示す図である。
【図10】フィルタ係数の例を示す図である。
【図11】本発明の第2の実施形態である画像形成装置51の構成を示すブロック図である。
【図12】有彩/無彩判定部141の構成を示すブロック図である。
【図13】領域分離処理を示すフローチャートである。
【図14】総合判定処理を示すフローチャートである。
【図15】本発明の第3の実施形態である画像形成装置61の構成を示すブロック図である。
【図16】領域分離処理を示すフローチャートである。
【図17】総合判定処理を示すフローチャートである。
【図18】コンピュータシステム101の構成例を示す図である。
【符号の説明】
1,51,61 画像形成装置
2,102 画像入力装置
3,53,63 画像処理装置
4 画像出力装置
5 A/D(アナログ/デジタル)変換部
6 シェーディング補正部
7 入力処理部
8 色補正部
9,15 黒生成/下色除去部
10 空間フィルタ部
11,16 中間調生成部
12,172 立上り/立下りエッジカウント部
13 フィルタ係数設定部
14,17 領域分離処理部
20,33 差分器
21 絶対値算出部
22,34 比較器
23 AND回路
24 SUM回路
31 最大値算出部
32 最小値算出部
100 画素ブロック
101 コンピュータシステム
103 コンピュータ
104 画像表示装置
105 プリンタ
106 入力装置
106a キーボード
106b マウス
121 ライン内カウント部
122 総和算出部
141,171 有彩/無彩判定部
142 文字判定部
143 網点判定部
144,173 総合判定部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus that performs filter processing for improving image quality on image data in which a plurality of types of areas such as character areas and halftone areas are mixed, an image forming apparatus including the same, an image processing method, and image processing The present invention relates to a program and a recording medium.
[0002]
[Prior art]
Currently, in image processing performed in an image forming apparatus such as a digital copying machine, processing called filter processing is performed on input document image data in order to improve the quality of an output image. The filter process is a process of changing the characteristics of the output image by converting the gradation value of a pixel in a predetermined region by a certain coefficient. A reading device that reads a document image is composed of a line sensor in which CCDs (Charge Coupled Devices) are arranged in a line, and converts reflected light from the document into an electrical signal and outputs image data. In such a reading apparatus, since the document is read at the same interval as the CCD, the image data output from the reading apparatus has periodicity. When the original image is a halftone image, the original image itself to be read is periodically arranged. Therefore, moire occurs in the read image data due to interference between these cycles. In addition, when processing using halftone dots is performed in the gradation reproduction process when outputting an image, the halftone dots of the output image are periodically arranged, so that the output is interfered with the period of the original image and the period at the time of reading. Moire occurs in the image. In order to suppress the occurrence of such moire, the filter processing is intended to improve image quality by smoothing image data.
[0003]
The image has a so-called edge portion such as a boundary portion between the character and the background. In order to emphasize this edge portion, in the filter processing, image quality is improved by sharpening the image data.
[0004]
There are two types of methods for performing the filter processing as described above on image data. The first is a method of performing similar filter processing such as smoothing and edge enhancement on the entire image data. The second is a method in which image data is separated into different types of areas such as a halftone dot area, a character area, and a photographic area by area separation processing, and optimum filtering is performed according to each area.
[0005]
When filtering is performed by the first method, if the entire image data is smoothed, the edge portion of the character is blurred, resulting in poor reproducibility. If the entire image data is sharpened, moire due to halftone dots is generated. Occurs and the image quality deteriorates. In addition, when performing the filtering process by the second method, improper filtering process is performed by erroneously separating the areas by erroneously determining the halftone dot area as a character area. If inappropriate filter processing is performed, significant image quality degradation will occur. For example, as a result of performing the filtering process, if the partial sharpening is mistakenly performed in the area where smoothing is performed and the smooth density change is performed, the density change is rapidly increased only at that point, Peripheral pixels and output characteristics look very different. As described above, in the image processing, the filter processing is the processing that most affects the image quality of the output image.
[0006]
As a specific conventional technique for performing region separation processing and filter processing, the image forming apparatus described in Patent Document 1 extracts image feature amounts from rising / falling edges in input image information, and identifies the feature amounts. Region separation is performed in comparison with the standard. Also, image quality correction is performed according to the separated area. Note that the feature quantity that is actually extracted is the distance between the rising edge and the falling edge. If the distance is short, it is a halftone area. If the distance is long, it is a character area. Domain separation is performed.
[0007]
[Patent Document 1]
JP-A-6-62230
[0008]
[Problems to be solved by the invention]
The image forming apparatus described in Patent Document 1 has the following problems. The first problem is that an accurate region determination cannot be performed because the zero cross point is used for detecting the rising / falling edge. For example, since many rising / falling edges are detected in the photograph area, etc., depending on the distance between the rising edge and the falling edge, it may be misjudged as a halftone dot and smoothed, or it may be misjudged as a character and edge enhanced. Resulting in. The second problem is that the range for performing region determination is not clear. That is, there is no clear description of the configuration such as how much range the rising / falling is detected and discriminated, and to which pixel the selected filter processing is applied. The third problem is that the filter processing is switched according to the dot period (number of lines). To achieve this, in addition to the process of identifying the dot area, the dot period is detected. It is necessary to provide a separate process for this.
[0009]
An object of the present invention is to provide an image processing apparatus capable of improving the image quality of an image by performing optimum filter processing, an image forming apparatus including the image processing apparatus, an image processing method, an image processing program, and a recording medium. That is.
[0010]
[Means for Solving the Problems]
  The present invention includes a counting unit that counts the number of edges in a pixel block composed of a target pixel and its peripheral pixels included in image data indicating an image composed of a plurality of pixels,
  A coefficient setting unit that selects one filter coefficient from a plurality of filter coefficients based on the counted number of edges;
  A spatial filter unit that performs a filtering process on the input image data using the filter coefficient selected by the coefficient setting unit.,
  The counting unit individually counts the number of rising and falling edges in the main scanning direction and the number of rising and falling edges in the sub-scanning direction in the pixel block, and sums the number of four edges. Count,
  The coefficient setting unit compares the first threshold value, the second threshold value smaller than the first threshold value, and the intermediate threshold value smaller than the first threshold value and larger than the second threshold value with the counted edge number, and the number of edges Is equal to or greater than the first threshold, a filter coefficient having a smoothing characteristic is selected, and when the number of edges is smaller than the first threshold and equal to or greater than the intermediate threshold, smoothing and low frequency components are reduced. When a filter coefficient having a characteristic that combines frequency component enhancement is selected and the number of edges is smaller than the intermediate threshold and equal to or greater than the second threshold, a filter coefficient having a sharpening characteristic is selected, and the number of edges is When it is less than the second threshold, a filter coefficient having a characteristic that the density value of the target pixel becomes the converted value as it is is selected.An image processing apparatus.
[0011]
The filtering process performed on the image data to which the spatial filter unit is input is a process of converting a pixel value for a predetermined pixel using a predetermined filter coefficient. The filter coefficient is set as a set of numerical values in which coefficients corresponding to each pixel in the pixel block are arranged in a matrix according to conversion characteristics such as smoothing and sharpening.
[0012]
The number of edges in the pixel block represents the feature of the pixel of interest. If the number of edges is large, the pixel of interest is a pixel constituting a halftone dot region, and if the number of edges is small, the pixel of interest is a pixel constituting a photographic region and a background region, and if the number of edges is medium, The target pixel is a pixel constituting the character area. The present invention pays attention to these correlations and selects the optimum filter coefficient for the target pixel.
[0013]
  According to the present invention, the counting unit counts the number of edges in the pixel block including the target pixel and its peripheral pixels.Specifically, the number of rising edges and falling edges in the main scanning direction and the number of rising edges and falling edges in the sub-scanning direction in the pixel block are individually counted, and the total number of four edges is counted. To do.The coefficient setting unit selects one filter coefficient from a plurality of filter coefficients based on the counted number of edges. Since the number of edges represents the feature of the target pixel, the coefficient setting unit can select an optimum filter coefficient according to the feature of the target pixel. For example, if the target pixel is a pixel constituting a halftone dot region, a filter coefficient having a smoothing characteristic is selected to suppress moire, and if the target pixel is a pixel constituting a character region, the edge is emphasized. In order to achieve this, a filter coefficient having a sharpening characteristic is selected.Specifically, the first threshold, the second threshold smaller than the first threshold, and the intermediate threshold smaller than the first threshold and larger than the second threshold are compared with the counted number of edges, When it is equal to or greater than the first threshold, a filter coefficient having smoothing characteristics is selected, and when the number of edges is smaller than the first threshold and equal to or greater than the intermediate threshold, smoothing of the high frequency component and low frequency component When the filter coefficient having the characteristic of combining the enhancement of the image is selected and the number of edges is smaller than the intermediate threshold and not less than the second threshold, the filter coefficient having the sharpening characteristic is selected and the number of edges is the second. If it is less than the threshold value, a filter coefficient having a characteristic that the density value of the pixel of interest becomes the converted value as it is is selected.
[0014]
The spatial filter unit performs a filtering process using the filter coefficient selected by the coefficient setting unit.
[0015]
Accordingly, it is possible to perform an appropriate filter process according to the feature of the target pixel based on the number of edges in the pixel block, and it is possible to improve the image quality of the output image.
[0016]
  In the present invention, image data indicating an image composed of a plurality of pixels is input.
  A spatial filter unit that performs a filtering process on the input image data;
  When the input image data is color image data composed of a plurality of colors, a black generation / under color removal unit that replaces the portion where each color has substantially the same pixel density with black and converts it to color image data further added with black When,
  A halftone generation unit that performs gradation reproduction processing according to the output destination on the input image data;
  An area determination unit that determines which of the plurality of areas including at least the character area and the halftone dot area the target pixel belongs to;
  In the image processing apparatus in which at least one of the black generation / undercolor removal unit and the halftone generation unit performs processing according to the determination result of the region determination unit,
  A counting unit for counting the number of edges in a pixel block composed of a pixel of interest and its surrounding pixels;
  A coefficient setting unit that selects one filter coefficient from a plurality of filter coefficients based on the counted number of edges;
  The counting unit individually counts the number of rising and falling edges in the main scanning direction and the number of rising and falling edges in the sub-scanning direction in the pixel block, and sums the number of four edges. Count,
  The coefficient setting unit compares the first threshold value, the second threshold value smaller than the first threshold value, and the intermediate threshold value smaller than the first threshold value and larger than the second threshold value with the counted edge number, and the number of edges Is equal to or greater than the first threshold, a filter coefficient having a smoothing characteristic is selected, and when the number of edges is smaller than the first threshold and equal to or greater than the intermediate threshold, smoothing and low frequency components are reduced. When a filter coefficient having a characteristic that combines frequency component enhancement is selected and the number of edges is smaller than the intermediate threshold and equal to or greater than the second threshold, a filter coefficient having a sharpening characteristic is selected, and the number of edges is When it is less than the second threshold, a filter coefficient having a characteristic that the density value of the target pixel is directly converted into a converted value is selected,
  The spatial filter unit is an image processing device that performs filter processing using a filter coefficient selected by the coefficient setting unit.
[0017]
  According to the present invention,The counting unit counts the number of edges in the pixel block including the target pixel and its surrounding pixels. Specifically, the number of rising edges and falling edges in the main scanning direction and the number of rising edges and falling edges in the sub-scanning direction in the pixel block are individually counted, and the total number of four edges is counted. To do.The coefficient setting unit selects one filter coefficient from a plurality of filter coefficients based on the counted number of edges. Since the number of edges represents the feature of the target pixel, the coefficient setting unit can select an optimum filter coefficient according to the feature of the target pixel. For example, if the target pixel is a pixel constituting a halftone dot region, a filter coefficient having a smoothing characteristic is selected to suppress moire, and if the target pixel is a pixel constituting a character region, the edge is emphasized. In order to achieve this, a filter coefficient having a sharpening characteristic is selected.Specifically, the first threshold, the second threshold smaller than the first threshold, and the intermediate threshold smaller than the first threshold and larger than the second threshold are compared with the counted number of edges, When it is equal to or greater than the first threshold, a filter coefficient having smoothing characteristics is selected, and when the number of edges is smaller than the first threshold and equal to or greater than the intermediate threshold, smoothing of the high frequency component and low frequency component When the filter coefficient having the characteristic of combining the enhancement of the image is selected and the number of edges is smaller than the intermediate threshold and not less than the second threshold, the filter coefficient having the sharpening characteristic is selected and the number of edges is the second. If it is less than the threshold value, a filter coefficient having a characteristic that the density value of the pixel of interest becomes the converted value as it is is selected.
[0018]
Also, the black generation / under color removal unit has almost all of cyan, magenta, and yellow when the input image data is color image data composed of three colors of CMY (C: cyan, M: magenta, Y: yellow). A portion having the same pixel density is replaced with black and converted to color image data composed of four colors of CMYK (K: black). The halftone generation unit performs tone reproduction processing according to the output destination, that is, the output characteristics of the image output device such as resolution.
[0019]
The region determination unit determines whether the target pixel belongs to at least one of a plurality of regions including a character region and a halftone dot region, and at least one of the black generation / undercolor removal unit and the halftone generation unit is a region determination unit The process according to the determination result is performed.
[0020]
Accordingly, it is possible to perform an appropriate filter process according to the feature of the target pixel based on the number of edges in the pixel block, and it is possible to improve the image quality of the output image. Furthermore, since the filter process does not depend on the area determination result, image quality deterioration when the area determination is erroneously determined is suppressed, and an area that cannot be clearly separated by the area determination process, for example, a character in a halftone area is appropriately processed. It can be performed.
[0021]
In the invention, it is preferable that the area determination unit determines which of the plurality of areas including at least the character area and the halftone dot area the pixel of interest belongs based on the counted number of edges.
[0022]
According to the present invention, the region determination unit determines, based on the counted number of edges, whether the pixel of interest belongs to at least a plurality of regions including a character region and a dot region, and generates black / under color The removal unit / halftone generation unit performs processing according to the determination result of the region determination unit.
[0023]
As a result, it is possible to reduce the amount of calculation required compared to the conventional area determination processing and reduce the circuit scale.
[0030]
In the invention, it is preferable that the counting unit has a density difference greater than a third threshold value between a predetermined pixel in the pixel block and a pixel adjacent to the predetermined pixel in the scanning direction, and the density increases in the scanning direction. Is detected as a rising edge, and the density difference between a predetermined pixel in the pixel block and a pixel adjacent to the predetermined pixel in the scanning direction is larger than the third threshold value, and the density decreases in the scanning direction. A part is detected as a falling edge.
[0031]
According to the present invention, the counting unit has, as the rising edge, the density difference between the predetermined pixel in the pixel block and the pixel adjacent to the predetermined pixel in the scanning direction is larger than the third threshold, and the density is in the scanning direction. The part that is rising is detected. Further, as a falling edge, a portion where the density difference between a predetermined pixel in the pixel block and a pixel adjacent to the predetermined pixel in the scanning direction is larger than the third threshold and the density is decreasing in the scanning direction. To detect. Note that the third threshold value is set to be sufficiently larger than the density change between adjacent pixels in the photographic region and the background region.
[0032]
As a result, an area having a small density change in the local area, such as a photographic area or a background area, is not detected as an edge, so that the number of edges can be counted more accurately.
[0033]
The present invention also provides the above image processing apparatus,
An image forming apparatus comprising: an image output device that outputs image data processed by the image processing device.
[0034]
According to the present invention, the image data processed by the image processing apparatus is output from the image output apparatus.
[0035]
As a result, image data appropriately filtered can be output, and a high-quality still image can be formed.
[0036]
  Further, the present invention is a counting step for counting the number of edges in a pixel block composed of a target pixel and its peripheral pixels included in image data indicating an image composed of a plurality of pixels,
  A coefficient setting step of selecting one filter coefficient from a plurality of filter coefficients based on the counted number of edges;
  A spatial filter step of performing a filtering process on the input image data using the filter coefficient selected in the coefficient setting step.,
  In the counting step, the number of rising edges and falling edges in the main scanning direction and the number of rising edges and falling edges in the sub-scanning direction in the pixel block are individually counted, and the total number of four edges is calculated. Count,
  In the coefficient setting step, the first threshold value, the second threshold value smaller than the first threshold value, and the intermediate threshold value smaller than the first threshold value and larger than the second threshold value are compared with the counted number of edges, and the number of edges Is equal to or greater than the first threshold, a filter coefficient having a smoothing characteristic is selected, and when the number of edges is smaller than the first threshold and equal to or greater than the intermediate threshold, smoothing and low frequency components are reduced. When a filter coefficient having a characteristic that combines frequency component enhancement is selected and the number of edges is smaller than the intermediate threshold and equal to or greater than the second threshold, a filter coefficient having a sharpening characteristic is selected, and the number of edges is When it is less than the second threshold, a filter coefficient having a characteristic that the density value of the pixel of interest becomes the converted value as it is is selected.An image processing method characterized by this.
[0037]
  According to the present invention, the number of edges in the pixel block composed of the target pixel and its surrounding pixels is counted in the counting step.Specifically, the number of rising edges and falling edges in the main scanning direction and the number of rising edges and falling edges in the sub-scanning direction in the pixel block are individually counted, and the total number of four edges is counted. To do.In the coefficient setting step, one filter coefficient is selected from a plurality of filter coefficients based on the counted number of edges. Since the number of edges represents the feature of the target pixel, in the coefficient setting step, an optimum filter coefficient can be selected according to the feature of the target pixel. For example, if the target pixel is a pixel constituting a halftone dot region, a filter coefficient having a smoothing characteristic is selected to suppress moire, and if the target pixel is a pixel constituting a character region, the edge is emphasized. In order to achieve this, a filter coefficient having a sharpening characteristic is selected.Specifically, the first threshold, the second threshold smaller than the first threshold, and the intermediate threshold smaller than the first threshold and larger than the second threshold are compared with the counted number of edges, When it is equal to or greater than the first threshold, a filter coefficient having smoothing characteristics is selected, and when the number of edges is smaller than the first threshold and equal to or greater than the intermediate threshold, smoothing of the high frequency component and low frequency component When the filter coefficient having the characteristic of combining the enhancement of the image is selected and the number of edges is smaller than the intermediate threshold and not less than the second threshold, the filter coefficient having the sharpening characteristic is selected and the number of edges is the second. If it is less than the threshold value, a filter coefficient having a characteristic that the density value of the pixel of interest becomes the converted value as it is is selected.
[0038]
In the spatial filter process, a filter process is performed using the filter coefficient selected in the coefficient setting process.
[0039]
Accordingly, it is possible to perform an appropriate filter process according to the feature of the target pixel based on the number of edges in the pixel block, and it is possible to improve the image quality of the output image.
[0040]
  In the present invention, image data indicating an image composed of a plurality of pixels is input.
  A spatial filter process for performing filtering on input image data;
  An area determination step for determining whether the target pixel belongs to at least one of a plurality of areas including a character area and a halftone dot area;
  When the input image data is color image data composed of a plurality of colors, a black generation / under color removal step of replacing the portion where each color has substantially the same pixel density with black and converting it to color image data further adding black When,
  A halftone generation step for performing gradation reproduction processing according to the output destination for the input image data,
  In the image processing method for performing processing according to the determination result of the region determination step in at least one of the black generation / under color removal step and the halftone generation step,
  A counting step of counting the number of edges in a pixel block composed of a pixel of interest and its surrounding pixels;
  A coefficient setting step of selecting one filter coefficient from a plurality of filter coefficients based on the counted number of edges,
  In the counting step, the number of rising edges and falling edges in the main scanning direction and the number of rising edges and falling edges in the sub-scanning direction in the pixel block are individually counted, and the total number of four edges is calculated. Count,
  In the coefficient setting step, the first threshold value, the second threshold value smaller than the first threshold value, and the intermediate threshold value smaller than the first threshold value and larger than the second threshold value are compared with the counted number of edges, and the number of edges Is equal to or greater than the first threshold, a filter coefficient having a smoothing characteristic is selected, and when the number of edges is smaller than the first threshold and equal to or greater than the intermediate threshold, smoothing and low frequency components are reduced. When a filter coefficient having a characteristic that combines frequency component enhancement is selected and the number of edges is smaller than the intermediate threshold and equal to or greater than the second threshold, a filter coefficient having a sharpening characteristic is selected, and the number of edges is When it is less than the second threshold, a filter coefficient having a characteristic that the density value of the target pixel is directly converted into a converted value is selected,
  In the spatial filter process, the filter process is performed using the filter coefficient selected in the coefficient setting process.
[0041]
  According to the present invention,In the counting step, the number of edges in the pixel block including the target pixel and its surrounding pixels is counted. Specifically, the number of rising edges and falling edges in the main scanning direction and the number of rising edges and falling edges in the sub-scanning direction in the pixel block are individually counted, and the total number of four edges is counted. To do.In the coefficient setting step, one filter coefficient is selected from a plurality of filter coefficients based on the counted number of edges. Since the number of edges represents the feature of the target pixel, in the coefficient setting step, an optimum filter coefficient can be selected according to the feature of the target pixel. For example, if the target pixel is a pixel constituting a halftone dot region, a filter coefficient having a smoothing characteristic is selected to suppress moire, and if the target pixel is a pixel constituting a character region, the edge is emphasized. In order to achieve this, a filter coefficient having a sharpening characteristic is selected.Specifically, the first threshold, the second threshold smaller than the first threshold, and the intermediate threshold smaller than the first threshold and larger than the second threshold are compared with the counted number of edges, When it is equal to or greater than the first threshold, a filter coefficient having smoothing characteristics is selected, and when the number of edges is smaller than the first threshold and equal to or greater than the intermediate threshold, smoothing of the high frequency component and low frequency component When the filter coefficient having the characteristic of combining the enhancement of the image is selected and the number of edges is smaller than the intermediate threshold and not less than the second threshold, the filter coefficient having the sharpening characteristic is selected and the number of edges is the second. If it is less than the threshold value, a filter coefficient having a characteristic that the density value of the pixel of interest becomes the converted value as it is is selected.
[0042]
In the region determination step, it is determined whether the target pixel belongs to at least one of a plurality of regions including a character region and a halftone dot region, and at least one of the black generation / undercolor removal step and the halftone generation step is a region determination step The process according to the determination result is performed.
[0043]
Further, in the black generation / under color removal step, when the input image data is color image data composed of three colors of CMY, a portion where cyan, magenta, and yellow have substantially the same pixel density is replaced with black, and CMYK Convert to color image data consisting of four colors. In the halftone generation step, gradation reproduction processing according to the output characteristics of the image output device such as resolution is performed.
[0044]
Accordingly, it is possible to perform an appropriate filter process according to the feature of the target pixel based on the number of edges in the pixel block, and it is possible to improve the image quality of the output image. Furthermore, since the filter process does not depend on the area determination result, image quality deterioration when the area determination is erroneously determined is suppressed, and an area that cannot be clearly separated by the area determination process, for example, a character in a halftone area is appropriately processed. It can be performed.
[0045]
In the invention, it is preferable that the region determination step determines whether the pixel of interest belongs to at least a plurality of regions including a character region and a halftone region based on the counted number of edges.
[0046]
According to the present invention, the region determination step determines whether the pixel of interest belongs to at least a plurality of regions including a character region and a halftone region based on the counted number of edges, and generates black / under color The removal unit / halftone generation unit performs processing according to the determination result of the region determination step.
[0047]
Thereby, it is possible to reduce the amount of calculation required for the area determination processing and reduce the circuit scale.
[0048]
The present invention is also an image processing program for causing a computer to execute the above image processing method.
[0049]
According to the present invention, an image processing program for causing a computer to execute the above-described image processing method can be provided.
[0050]
A computer-readable recording medium recording an image processing program for causing a computer to execute the image processing method described above.
[0051]
According to the present invention, it can be provided as a computer-readable recording medium on which an image processing program for causing a computer to execute the above-described image processing method is recorded.
[0052]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail with reference to the drawings.
[0053]
FIG. 1 is a block diagram showing a configuration of an image forming apparatus 1 according to the first embodiment of the present invention. The image forming apparatus 1 is realized by a so-called digital color copying machine, digital color facsimile, or a complex machine of these, and includes an image input device 2, an image processing device 3, and an image output device 4.
[0054]
The image input device 2 is composed of, for example, a scanner having a CCD line sensor. The image input device 2 irradiates light on a document to be read and separates the light reflected by the document into RGB (R: red, G: green, B: blue). Converted into an electrical signal (reflectance signal).
[0055]
The image processing apparatus 3 includes an A / D (analog / digital) conversion unit 5, a shading correction unit 6, an input processing unit 7, a color correction unit 8, a black generation / under color removal unit 9, a spatial filter unit 10, and a halftone generation. Part 11, rising / falling edge counting part 12, and filter coefficient setting part 13.
[0056]
A color image signal (RGB analog signal) input by the image input device 2 is converted into a digital signal (image data) by the A / D conversion unit 5, and an illumination system of the image input device 2 is converted by the shading correction unit 6. Various distortions generated in the imaging system and imaging system are removed.
[0057]
Thereafter, the reflectance signal is converted into a density signal suitable for image processing in the input processing unit 7, and a CMY (C: cyan, M: magenta, Y: yellow) signal that is a complementary color signal of the RGB signal is generated. Next, a process for improving color reproducibility is performed in the color correction unit 8, and converted into a CMYK (K: black) 4-color signal in the black generation / under color removal unit 9.
[0058]
Further, the spatial filter unit 10 performs edge enhancement processing and smoothing processing on the CMYK signal, and the halftone generation unit 11 performs gradation reproduction processing according to output characteristics such as the resolution of the image output device 4. Then, an output image is formed by the image output device 4 realized by an electrophotographic or inkjet printer. The image output device 4 may be an image display device such as a liquid crystal display. In this case, the color correction unit 8 performs a process of converting the RGB signal into an R′G′B ′ signal suitable for color reproduction of the image display device, and the process in the black generation / under color removal unit 9 is unnecessary. The R′G′B ′ signal output from the spatial filter unit 10 is output after the gradation is adjusted in the halftone generation unit 11 according to the characteristics of the image display device.
On the other hand, the output signal from the input processing unit 7 is transferred to the rising / falling edge counting unit 12 which is a counting unit, and the number of rising edges and falling edges in a pixel block including a plurality of pixels including the target pixel is determined. Counted. Thereafter, an optimum filter coefficient is set by the filter coefficient setting unit 13 based on the number of edges, and the coefficient is delivered to the spatial filter unit 10. A plurality of types of filter coefficients may be stored in advance according to the number of edges. The above processing is performed by, for example, CPU (Central Processing
Unit).
[0059]
The rising / falling edge counting unit 12 will be described in detail. FIG. 2 is a block diagram showing a configuration of the rising / falling edge counting unit 12. The rising / falling edge counting unit 12 includes an in-line counting unit 121 and a sum calculation unit 122. FIG. 3 is a diagram illustrating an example of the pixel block 100. The pixel block 100 is composed of M × N pixels centered on the target pixel, and a line in the main scanning direction is a line X and a line in the sub-scanning direction is a line Y. Since there are M × N pixels, the main scanning direction line is the line X1~ Line XNThe sub-scanning direction line is line Y1~ Line YMAnd FIG. 4 is a schematic diagram showing a rising edge and a falling edge. In the figure, a case where a line having 9 pixels is scanned from left to right is shown. The rising edge, like the pixel A (density value fa) and the right adjacent pixel B (density value fb), has a large density difference between adjacent pixels, is equal to or greater than a predetermined value, and the density is increased ( This refers to the part fb> fa). The falling edge has a large density difference between adjacent pixels such as the pixel A ′ (density value fa ′) and the right adjacent pixel B ′ (density value fb ′), and is equal to or greater than a predetermined value. This means the part that is descending (fb ′ <fa ′). Therefore, the line shown in the figure includes one rising edge and one falling edge.
[0060]
The in-line count unit 121 generates a line X in the main scanning direction.1~ Line XNAnd line Y of the sub-scanning direction line1~ Line YMIn-line count circuit 121X corresponding to each1~ 121XNAnd the in-line count unit 121Y1~ 121YMConsists of. The in-line counting unit 121 counts rising edges and falling edges for each line, outputs NumUp_X as the number of rising edges in one line in the main scanning direction, and sets the number of falling edges in one line in the main scanning direction. NumDown_X is output, NumUp_Y is output as the number of rising edges in one line in the sub-scanning direction, and NumDown_Y is output as the number of falling edges in one line in the sub-scanning direction. For example, line X in the main scanning direction1The counting result of NumUp_X1And NumDown_X1Is output as
[0061]
The sum total calculation unit 122 includes SUM circuits 122a to 122d corresponding to the number of rising edges in the main scanning direction, the number of falling edges in the main scanning direction, the number of rising edges in the sub scanning direction, and the number of falling edges in the sub scanning direction. The SUM circuits 122a to 122d calculate the sum of the count values output from the in-line count unit 121. The SUM circuit 122a calculates the sum SumX_Up of the number of rising edges in the main scanning direction, the SUM circuit 122b calculates the sum SumX_Down of the number of falling edges in the main scanning direction, and the SUM circuit 122c calculates the sum of the number of rising edges in the sub scanning direction. SumY_Up is calculated, and the SUM circuit 122 d calculates the sum SumY_Down of the number of falling edges in the sub-scanning direction, and outputs it to the filter coefficient setting unit 13.
[0062]
FIG. 5 shows an in-line count circuit 121X.1It is a block diagram which shows the structure of these. In-line count circuit 121X2~ 121XNAnd in-line count circuit 121Y1~ 121YMIn-line count circuit 121X1In this case, the in-line count circuit 121X is the same as the configuration in FIG.1The configuration of will be described. The in-line count unit 121 includes a difference unit 20, an absolute value calculation unit 21, comparators 22a and 22b, AND circuits 23a and 23b, SUM circuits 24a and 24b, and an inverter circuit 25. When the differentiator 20 calculates the difference (fa−fb) between the density values fa and fb of two adjacent pixels a and b in the line, the absolute value calculator 21 calculates the absolute value of the calculated difference value. . The pixel b is located in front of the pixel a in the scanning direction. The comparator 22a compares the difference absolute value with the threshold TH that is the third threshold, and outputs “1” if the difference absolute value is equal to or greater than the threshold TH and outputs “0” otherwise. Further, the comparator 22b determines whether or not the difference value is 0 or more, that is, a positive value or a negative value. If the difference value is 0 or more, “1” is output, otherwise “0” is output. To do.
[0063]
The output signals of the comparators 22a and 22b are transferred to the AND circuits 23a and 23b, and it is determined whether or not they are rising / falling edges. The output signal from the comparator 22b to the AND circuit 23b is inverted by the inverter circuit 25. The AND circuit 23a has a falling edge when the output from the comparator 22a is "1" and the output from the comparator 22b is "1", that is, when the difference value is greater than or equal to a threshold value and is positive. Therefore, “1” is output as the output signal Down, and “0” is output otherwise. On the other hand, the AND circuit 23b rises when the output from the comparator 22a is “1” and the output from the comparator 22b is “0”, that is, when the difference value is equal to or greater than the threshold value and negative. Since it is an edge, “1” is output as the output signal Up, and “0” is output otherwise.
[0064]
The above calculation process is repeated while shifting the target pixel in the line by one pixel in the scanning direction. The SUM circuit 24a counts the number of outputs of “Down = 1” during the repetition of the calculation process, and calculates the total in-line NumDown_X1Is output. The SUM circuit 24b counts the number of output “Up = 1” and counts the sum NumUp_X in the line.1Is output.
[0065]
The method for detecting the rising / falling edge is not limited to this, and for example, a method may be used in which a zero cross point is obtained and the density change in the vicinity thereof is detected.
[0066]
FIG. 6 is a flowchart showing rising / falling edge count processing. First, in step s1, density values of M × N pixels including the target pixel are held for each color plane. After that, in step s2, the line X in the main scanning direction with respect to the C plane1~ XNSums SumX_Up and SumX_Down of the rising / falling edges in FIG. In step s3, the line Y in the sub-scanning direction1~ YMSums SumY_Up and SumY_Down of the rising / falling edges in FIG. At this time, the same processing is performed in parallel for the M plane and the Y plane. In step s4, the maximum values MAX {SumX_Up, SumX_Down, SumY_Up, SumY_Down} in each plane are obtained. To be handed over.
[0067]
FIG. 7 is a flowchart showing the filter coefficient setting process. First, in step s11, as described above, the rising / falling edge counting unit 12 causes the number of rising edges SumX_Up and the number of falling edges SumX_Down in the main scanning direction and the rising edges in the sub-scanning direction in the pixel block. The number SumY_Up and the number of falling edges SumY_Down are counted. FIG. 8 is a schematic diagram showing a change in pixel density in each region. The upward arrow indicates a rising edge, and the downward arrow indicates a falling edge. Since the halftone dot area includes substantially circular halftone dots, as shown in FIG. 8A, the number of edges included in one line is large, and there are many edges in the main scanning direction and sub-scanning direction. There are many downstream edges. Therefore, the sum of the number of edges becomes larger than in other areas.
[0068]
The character area includes many linear portions, and the distance between the rising edge and the falling edge is larger than the halftone dot area as shown in FIG. 8B. Furthermore, there is an edge biased in either the main scanning direction or the sub-scanning direction. Therefore, the total number of edges is smaller than the halftone dot region and larger than the photographic region and the background region.
[0069]
The photographic area includes high density pixels and low density pixels as in the other areas. However, as shown in FIG. 8C, the density change is gradual and the density difference between adjacent pixels is small. There is almost no falling edge. Further, as shown in FIG. 8D, the base region is composed of only low density pixels, and therefore there is no rising edge or falling edge. Accordingly, the total number of edges is very small.
[0070]
A filter coefficient is set based on the correspondence between each region and the total number of edges as described above. The filter coefficient is composed of numerical values arranged in a matrix, and a new gradation value is calculated by performing a convolution operation on the gradation values of the pixels corresponding to the matrix and these numerical values.
[0071]
In step s12, the sum Total of the number of edges SumX_Up, SumX_Down, SumY_Up, and SumY_Down is calculated. In step s13, it is determined whether or not the total Total is equal to or greater than a threshold thA that is a first threshold. If it is equal to or greater than the threshold thA, the process proceeds to step s15, and if it is smaller than the threshold thA, the process proceeds to step s14. In step s15, a filter coefficient suitable for the halftone dot region is selected from a plurality of types of filter coefficients stored in advance, and delivered to the spatial filter unit 10. As a filter coefficient suitable for a halftone dot region, a filter coefficient that can be smoothed is preferable.
[0072]
In step s14, it is determined whether or not the total Total is equal to or greater than a second threshold value threshold value thB (<threshold value thA). If it is equal to or greater than the threshold thB, the process proceeds to step s16. In step s16, a filter coefficient suitable for the character region is selected from a plurality of types of filter coefficients stored in advance, and delivered to the spatial filter unit 10. As a filter coefficient suitable for the character region, a filter coefficient capable of edge enhancement is preferable.
[0073]
In step s17, filter coefficients suitable for the photographic region and the background region are selected and delivered to the spatial filter unit 10.
[0074]
In the above example, the sum of the number of edges is divided into three types using threshold values in two stages and selected from the filter coefficients corresponding to each. However, more threshold values can be provided and set in more detail. It is. FIG. 9 shows an example of separation by a threshold value and selection of a filter coefficient corresponding to the separation. FIG. 9A shows an example in which the threshold value is set in three stages as in the case described with reference to the flowchart of FIG. FIG. 9B shows an example when the threshold value is set in four stages.
[0075]
Since the value of the sum Total is the sum of the number of edges in the pixel block, the finer the halftone dot, the greater the number of halftone dots present in the pixel block, and the greater the sum of the number of edges. Therefore, it is possible to determine the fineness (number of lines) of the halftone dot based on the value of the total Total even within the same halftone dot region. Therefore, it is not necessary to provide a separate process for detecting the number of lines of halftone dots. For example, when the total Total is equal to or greater than the threshold thA ', a filter coefficient A' suitable for a high-line number halftone dot region is selected, and when the total Total is smaller than the threshold thA 'and equal to or greater than the threshold thB', the low-line count is selected. A filter coefficient B ′ suitable for the halftone dot region is selected.
[0076]
In addition, for an area having characteristics that cannot be determined as a halftone dot area or a character area, it is possible to set a filter coefficient (such as a mixed filter) that can perform preferable processing in any case. When the total Total is smaller than the threshold thB 'and is equal to or larger than the threshold thC', a filter coefficient C 'suitable for the halftone area and the character area is selected. For the text area, photo area, and background area, the total Total is smaller than the threshold thC ', and if it is greater than or equal to the threshold thD', a filter coefficient D 'suitable for the text area is selected, and if the total Total is smaller than the threshold thD' A filter coefficient E ′ suitable for the photographic area and the background area is selected.
[0077]
FIG. 10 is a diagram illustrating an example of the filter coefficient illustrated in FIG. Since the filter coefficient A ′ (FIG. 10A) has characteristics with an emphasis on smoothing high-frequency components, it is suitable for a high-line-number halftone dot region containing many high-frequency components. Since the filter coefficient B '(FIG. 10B) has characteristics with an emphasis on smoothing low frequency components, it is suitable for a low-line-number halftone dot region containing many low frequency components. The filter coefficient C ′ (FIG. 10C) has characteristics that combine smoothing of high-frequency components and emphasis of low-frequency components, and is therefore suitable for regions that are difficult to determine as a halftone region or a character region. The filter coefficient D ′ (FIG. 10D) is optimal for the character region because it has characteristics focused on emphasizing all frequency components. The filter coefficient E ′ (FIG. 10E) is applied when the density value of the pixel of interest has a conversion value as it is, and it is not necessary to perform a filter process such as a photographic area or a background area. Note that the value and size of the filter coefficient are not limited to this.
[0078]
As described above, by selecting the filter coefficient based on the number of edges in the pixel block, it is possible to perform an appropriate filter process according to the feature of the target pixel.
[0079]
FIG. 11 is a block diagram showing a configuration of an image forming apparatus 51 according to the second embodiment of the present invention. The image forming apparatus 51 includes an image input apparatus 2, an image output apparatus 4, and an image processing apparatus 53. Parts that perform the same operations as the parts constituting the image forming apparatus 1 according to the first embodiment are denoted by the same reference numerals and description thereof is omitted. The difference from the image forming apparatus 1 is that the image processing device 53 further includes a region separation processing unit 14, and the black generation / undercolor removal unit 15 and the halftone generation unit 16 are the region separation results obtained by the region separation processing unit 14. Is to change the process based on
[0080]
The output signal from the input processing unit 7 is delivered to the rising / falling edge counting unit 12 and is also delivered to the region separation processing unit 14. The region separation processing unit 14 includes a chromatic / achromatic determination unit 141, a character determination unit 142, a halftone dot determination unit 143, and an overall determination unit 144. The pixel of interest is black characters, color characters, halftone dots, and others (photographs It is determined in which region of the background or the like it belongs. Then, the region separation signal indicating the determination result is delivered to the black generation / undercolor removal unit 15 and the halftone generation unit 16, respectively.
[0081]
FIG. 12 is a block diagram illustrating a configuration of the chromatic / achromatic determination unit 141. The chromatic / achromatic determination unit 141 includes a maximum value calculation unit 31, a minimum value calculation unit 32, a difference unit 33, and a comparator 34, and determines whether the target pixel is a chromatic color or an achromatic color. The result is output as a signal Color.
[0082]
First, the maximum value calculation unit 31 and the minimum value calculation unit 32 detect the maximum and minimum CMY density values of the target pixel. Next, a difference value between the maximum value and the minimum value is obtained by the subtractor 33. Then, the comparator 34 compares the difference value with the threshold value THcol. When the difference value is equal to or smaller than the threshold THcol, that is, when the difference in CMY density values of the target pixel is small, it is determined that the target pixel is an achromatic color, and “1” is output as the signal Color. When the difference value is larger than the threshold value THcol, that is, when the difference in CMY density values in the target pixel is large, it is determined that the target pixel is a chromatic color, and “0” is output as the signal Color.
[0083]
In the character determination unit 142, the character region is identified by utilizing the feature that the pixels belonging to the character region have a large density difference from the surrounding pixels (the edge is high). For example, a 3 × 3 pixel block centered on the target pixel is set, and the density difference between the target pixel and eight neighboring pixels adjacent thereto is obtained. If any one of the density differences is larger than the threshold THtext, the target pixel is determined to be a character pixel, and otherwise, it is determined to be a non-character pixel. This process is performed for each color of CMY individually, and if one of the pixels is determined to be a character pixel, “1” is output as the signal Text, otherwise “0” is output. .
[0084]
In the halftone dot determination unit 143, the halftone dot region is identified using the characteristics that “the density variation in the small area is large” and “the halftone dot density is higher than the background”. The following processing is performed within a block of P × Q (P and Q are natural numbers) pixels centered on the target pixel, and it is determined whether or not the target pixel is a pixel belonging to a halftone dot region. This process is performed individually for each color of CMY, and if one of the pixels is determined to be a “halftone pixel”, “1” is output as the signal Screen, otherwise “0” is output. Is output.
[0085]
1. For example, the average density value D for the central nine pixels in the pixel blockaveAnd binarize each pixel in the block to “0” or “1” using the average value. The maximum value Dmax, Minimum value DminAlso ask for.
2. Obtain the number of change points from 0 to 1 in the main scanning and sub-scan directions for the binarized data, respectively, and obtain the number of change points from 1 to 0.R, KVAnd
3. Make the following decision: (B1, B2, TR, TV: Threshold)
[0086]
[Expression 1]
Figure 0004105539
[0087]
FIG. 13 is a flowchart showing the region separation process. In step s21, a signal Screen is generated indicating whether or not the pixel of interest is a pixel belonging to the halftone dot region, and in step s22, a signal Text is generated indicating whether or not the pixel of interest is a pixel belonging to the character region. In step s23, a signal Color indicating whether the target pixel is chromatic or achromatic is generated. Based on the three signals obtained in parallel with each other, a comprehensive determination process is performed in step s24. In step s 25, a region separation signal indicating the result of the comprehensive determination process is delivered to the black generation / undercolor removal unit 15 and the halftone generation unit 16.
[0088]
FIG. 14 is a flowchart showing the comprehensive determination process. In step s31, it is determined whether or not the signal Screen is “1”. If “1”, the process proceeds to step s34, and if “0”, the process proceeds to step s32. In step s34, it is determined that the target pixel belongs to the halftone dot region, and "00" indicating the halftone dot is output as the region separation signal. In step s32, it is determined whether or not the signal Text is “1”. If the signal Text is “1”, the process proceeds to step s33, and if it is “0”, the process proceeds to step s37.
[0089]
In step s37, it is determined that the target pixel belongs to the photographic area or the background area, and “11” indicating the photographic area or the background area is output as an area separation signal. In step s33, it is determined whether or not the signal Color is “1”. If the signal Color is “1”, the process proceeds to step s35, and if it is “0”, the process proceeds to step s36. In step s35, it is determined that the target pixel belongs to the black character region, and “01” indicating the black character is output as the region separation signal. In step s36, it is determined that the target pixel belongs to the color character, and “10” indicating the color character is output as the region separation signal.
[0090]
As described above, the black generation / undercolor removal unit 15 and the halftone generation unit 16 can receive the region separation signal and perform optimal processing according to each region. As in the first embodiment, the spatial filter unit 10 uses the filter coefficient set based on the number of edges by the filter coefficient setting unit 13 to perform optimum filter processing regardless of the region separation result. it can.
[0091]
When the filter coefficient is switched based on the region separation result, for example, inadequate filter processing is performed on a portion where the region is erroneously determined, and a gap with the surroundings is generated, leading to locally noticeable image quality degradation. . Further, there is a problem that a clear region separation result cannot be assigned to a portion that is difficult to determine as a halftone dot region or a character region, and optimal filter processing cannot be performed. However, if the filter coefficient is switched according to the number of rising / falling edges, a local gap does not occur even at a location where the region is erroneously determined, and the region where the region cannot be determined is also shown in FIG. Since it is possible to perform processing using an optimum filter coefficient such as the filter coefficient C ′ shown in the above, it is possible to improve the output image quality.
[0092]
FIG. 15 is a block diagram showing a configuration of an image forming apparatus 61 according to the third embodiment of the present invention. The image forming apparatus 61 includes an image input apparatus 2, an image output apparatus 4, and an image processing apparatus 63. Parts that perform the same operations as those constituting the image forming apparatus 51 of the second embodiment are denoted by the same reference numerals and description thereof is omitted. The difference from the image forming apparatus 51 is that the region separation processing unit 17 performs region separation based on the number of rising / falling edges. The region separation processing unit 17 includes a chromatic / achromatic determination unit 171, a rising / falling edge count unit 172, and a comprehensive determination unit 173, and the pixel of interest is black characters, color characters, halftone dots, and others (photograph, background, etc.) ) To which area it belongs. Then, the region separation signal indicating the determination result is delivered to the black generation / undercolor removal unit 15 and the halftone generation unit 16, respectively.
[0093]
The chromatic / achromatic determination unit 171 determines whether the target pixel is chromatic or achromatic based on the output signal from the input processing unit 7. The rising / falling edge counting unit 172 counts SumX_Up, SumX_Down, SumY_Up, and SumY_Down based on the output signal from the input processing unit 7. The overall determination unit 173 performs region determination based on the determination result of the chromatic / achromatic determination unit 171 and the number of edges counted by the rising / falling edge counting unit 172.
[0094]
The filter coefficient setting unit 13 sets a filter coefficient based on the number of edges counted by the rising / falling edge counting unit 172 and outputs the filter coefficient to the spatial filter unit 10.
[0095]
FIG. 16 is a flowchart showing the region separation process. In step s41, the rising / falling edge counting unit 172 counts and outputs SumX_Up, SumX_Down, SumY_Up, and SumY_Down. In step S42, the chromatic / achromatic determining unit 171 determines whether the color is chromatic or not, and outputs a signal Color. In step s43, the comprehensive determination unit 173 determines a region to which the target pixel belongs and outputs a region separation signal. In step s44, the area separation signal is delivered to the black generation / undercolor removal unit 15 and the halftone generation unit 16.
[0096]
FIG. 17 is a flowchart showing the comprehensive determination process. In step s51, it is determined whether or not the conditions of SumX_Up> th_J1, SumX_Down> th_J1, SumY_Up> th_J1, and SumY_Down> th_J1 (th_J1 is a threshold value) are satisfied. This conditional expression represents the characteristics of an area where the number of rising edges and falling edges in the main scanning direction are both large and in the sub scanning direction, that is, a halftone dot area. If the condition is satisfied in step S51, the process proceeds to step s54, where it is determined that the pixel of interest belongs to the halftone dot region, and “00” indicating the halftone dot is output as the region separation signal.
[0097]
If the condition is not satisfied in step S51, the process proceeds to step s52, and either th_J1 ≧ SumX_Up> th_J2 and th_J1 ≧ SumX_Down> th_J2 or th_J1 ≧ SumY_Up> th_J2 and th_J1 ≧ SumY_Down> th_J2 (th_J2 is a threshold value) It is determined whether or not the above is satisfied. This conditional expression represents the characteristics of an area where the number of rising edges and falling edges in the main scanning direction are both large to some extent, or an area where it is established in the sub-scanning direction, that is, a character area. If the condition is satisfied, the process proceeds to step s53. If the condition is not satisfied, the process proceeds to step s57.
[0098]
In step s57, it is determined that the target pixel belongs to the photographic area or the background area, and “11” indicating the photographic area or the background area is output as an area separation signal.
[0099]
In step s53, it is determined whether or not the signal Color is “1”. If the signal Color is “1”, the process proceeds to step s55, and if it is “0”, the process proceeds to step s56. In step s55, it is determined that the target pixel belongs to the black character region, and “01” indicating the black character is output as the region separation signal. In step s56, it is determined that the target pixel belongs to the color character, and “10” indicating the color character is output as the region separation signal.
[0100]
The black generation / undercolor removal unit 15 and the halftone generation unit 16 can receive the region separation signal and perform optimum processing according to each region. As in the first embodiment, the spatial filter unit 10 uses the filter coefficient set based on the number of edges by the filter coefficient setting unit 13 to perform optimum filter processing regardless of the region separation result. it can. Further, in the region separation processing, the count result of the number of edges of the rising / falling edge counting unit 172 is used for the determination of various regions, so that the processing data amount can be reduced and the processing speed can be increased. The circuit scale can be greatly reduced as compared with the embodiment.
[0101]
The image forming apparatus has been described above as an embodiment of the present invention. However, the present invention can also be an image processing program to be executed by a computer and a computer-readable recording medium on which the image processing program is recorded.
[0102]
As a result, it is possible to provide an image processing program for causing a computer to execute an image processing method including appropriate filter processing and region separation processing, and a recording medium on which the image processing program is recorded. In the present embodiment, the recording medium may be a memory such as a ROM itself because processing is performed by a microcomputer, and a program reading device is provided as an external storage device. The recording medium may be a recording medium that can be read by inserting the recording medium therein.
[0103]
In any case, the stored image processing program may be configured to be accessed and executed by the microprocessor, or the image processing program is read out and the read image processing program is stored in the microcomputer program. A method of downloading to a storage area and executing the program may be used. It is assumed that this download program is stored in the main device in advance.
[0104]
Here, the recording medium is a recording medium configured to be separable from the main body, such as a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a flexible disk or a hard disk, or a CD-ROM (Compact Disc-Read Only). Memory) / MO (Magneto Optical) disk / MD (Mini Disk) / DVD (Digital Versatile Disk) optical disk system, IC (Integrated Circuit) card (including memory card) / optical card system, etc. A medium carrying a fixed program including a semiconductor memory such as a mask ROM, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Programmable Read Only Memory), or a flash ROM may be used.
[0105]
Further, the present invention is not limited to the recording medium as described above, and may be a medium that fluidly carries a program so that a computer system that can connect to a communication network including the Internet downloads the program from the communication network. When the program is downloaded from the communication network in this way, the download program may be stored in advance in a computer system or may be installed from another recording medium.
[0106]
The recording medium is read by a program reading device provided in a digital color image forming apparatus or a computer system, whereby the above-described image processing method is executed. In particular, in the latter case, it is possible to use an image processing method such as changing a threshold according to the user's preference.
[0107]
FIG. 18 is a diagram illustrating a configuration example of the computer system 101. The computer system 101 includes an image input device 102 such as a flatbed scanner, a film scanner, and a digital camera, a computer 103 in which various processes including the image processing method are performed by loading a predetermined image processing program, and computer processing An image display device 104 such as a CRT (Cathode Ray Tube) display and a liquid crystal display for displaying the results, a printer 105 for outputting the processing results of the computer to paper, a keyboard 106a and a mouse for the user to input image processing instructions and the like Furthermore, a modem configured as a communication unit for connecting to a server or the like via a telephone line is provided.
[0108]
When the image processing method is executed by this computer system, it becomes easy to arbitrarily change the threshold setting, and the processing according to the user's preference such as re-setting according to the result shown in the image display device. Is possible. In order to change the threshold value, it is set by directly inputting a numerical value using a keyboard or a mouse or dragging a symbol representing the threshold value.
[0109]
【The invention's effect】
As described above, according to the present invention, since one filter coefficient is selected from a plurality of filter coefficients based on the number of edges in the pixel block, it is possible to perform appropriate filter processing according to the characteristics of the pixel block. The image quality of the output image can be improved.
[0110]
Further, according to the present invention, since one filter coefficient is selected from a plurality of filter coefficients based on the number of edges in the pixel block, it is possible to perform appropriate filter processing according to the characteristics of the pixel block, and output image Image quality can be improved. Furthermore, since the filter process does not depend on the area determination result, image quality deterioration due to an area determination error determination or the like can be suppressed, and an area that cannot be clearly separated by the area determination process can be appropriately processed.
[0111]
Further, according to the present invention, since the region determination unit performs region determination based on the number of edges counted by the counting unit, it is possible to reduce the required calculation amount and reduce the circuit scale as compared with the conventional region determination processing. it can.
[0112]
Further, according to the present invention, the filter coefficient can be easily selected by using the threshold value.
[0113]
Further, according to the present invention, it is possible to select a more suitable filter coefficient by counting the number of edges while distinguishing between the scanning direction, rising edge, and falling edge.
[0114]
Further, according to the present invention, since the rising edge and the falling edge are detected by comparing the density difference between adjacent pixels with the appropriately set third threshold value, the edges of the photographic area and the background area are not detected. The number of edges can be counted more accurately.
[0115]
In addition, according to the present invention, it is possible to output image data that has been appropriately filtered, so that a high-quality still image can be formed.
[0116]
Further, according to the present invention, it is possible to provide an image processing program for causing a computer to execute the above image processing method.
[0117]
The present invention can also be provided as a computer-readable recording medium that records an image processing program for causing a computer to execute the above-described image processing method.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an image forming apparatus 1 according to a first embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of a rising / falling edge counting unit 12;
3 is a diagram illustrating an example of a pixel block 100. FIG.
FIG. 4 is a schematic diagram showing a rising edge and a falling edge.
5 is a block diagram showing a configuration of an in-line count unit 121. FIG.
FIG. 6 is a flowchart showing rising / falling edge count processing;
FIG. 7 is a flowchart showing a filter coefficient setting process.
FIG. 8 is a schematic diagram showing a change in pixel density in each region.
FIG. 9 is a diagram illustrating an example of separation by a threshold and selection of a filter coefficient according to the separation.
FIG. 10 is a diagram illustrating an example of filter coefficients.
FIG. 11 is a block diagram illustrating a configuration of an image forming apparatus 51 according to a second embodiment of the present invention.
12 is a block diagram illustrating a configuration of a chromatic / achromatic determination unit 141. FIG.
FIG. 13 is a flowchart showing region separation processing.
FIG. 14 is a flowchart showing a comprehensive determination process.
FIG. 15 is a block diagram illustrating a configuration of an image forming apparatus 61 according to a third embodiment of the present invention.
FIG. 16 is a flowchart showing region separation processing;
FIG. 17 is a flowchart showing a comprehensive determination process.
FIG. 18 is a diagram illustrating a configuration example of a computer system 101.
[Explanation of symbols]
1, 51, 61 Image forming apparatus
2,102 image input device
3, 53, 63 Image processing device
4 Image output device
5 A / D (analog / digital) converter
6 Shading correction part
7 Input processing section
8 color correction part
9,15 Black generation / under color removal part
10 Spatial filter section
11, 16 Halftone generator
12,172 Rising / falling edge count section
13 Filter coefficient setting part
14, 17 Region separation processing unit
20, 33 Differencer
21 Absolute value calculator
22, 34 Comparator
23 AND circuit
24 SUM circuit
31 Maximum value calculator
32 Minimum value calculator
100 pixel block
101 Computer system
103 computer
104 Image display device
105 Printer
106 Input device
106a keyboard
106b mouse
121 In-line count section
122 Total calculation unit
141,171 Chromatic / Achromatic Judgment Unit
142 Character determination part
143 Halftone dot determination unit
144,173 Total judgment part

Claims (10)

複数の画素からなる画像を示す画像データに含まれる注目画素とその周辺画素とからなる画素ブロック内のエッジ数を計数する計数部と、
計数されたエッジ数に基づいて、複数のフィルタ係数の中から1つのフィルタ係数を選択する係数設定部と、
前記係数設定部によって選択されたフィルタ係数を用いて、入力された画像データに対してフィルタ処理を行う空間フィルタ部とを備え
前記計数部は、前記画素ブロック内の主走査方向の立上りエッジおよび立下りエッジの数と副走査方向の立上りエッジおよび立下りエッジの数とをそれぞれ個別に計数し、4つのエッジ数の総和を計数し、
前記係数設定部は、第1の閾値、第1の閾値より小さい第2の閾値および第1の閾値より小さく第2の閾値より大きい中間閾値と、計数されたエッジ数とを比較し、エッジ数が前記第1の閾値以上であるときは、平滑化特性を有するフィルタ係数を選択し、エッジ数が前記第1の閾値より小さくかつ前記中間閾値以上であるときは、高周波成分の平滑化と低周波成分の強調とを兼ね備えた特性を有するフィルタ係数を選択し、エッジ数が前記中間閾値より小さくかつ第2の閾値以上であるときは、鮮鋭化特性を有するフィルタ係数を選択し、エッジ数が第2の閾値未満であるときは、注目画素の濃度値がそのまま変換値となる特性を有するフィルタ係数を選択することを特徴とする画像処理装置。
A counting unit that counts the number of edges in a pixel block composed of a target pixel and its peripheral pixels included in image data indicating an image composed of a plurality of pixels;
A coefficient setting unit that selects one filter coefficient from a plurality of filter coefficients based on the counted number of edges;
A spatial filter unit that performs filter processing on input image data using the filter coefficient selected by the coefficient setting unit ;
The counting unit individually counts the number of rising and falling edges in the main scanning direction and the number of rising and falling edges in the sub-scanning direction in the pixel block, and sums the number of four edges. Count,
The coefficient setting unit compares the first threshold value, the second threshold value smaller than the first threshold value, and the intermediate threshold value smaller than the first threshold value and larger than the second threshold value with the counted edge number, and the number of edges Is equal to or greater than the first threshold, a filter coefficient having a smoothing characteristic is selected, and when the number of edges is smaller than the first threshold and equal to or greater than the intermediate threshold, smoothing and low frequency components are reduced. When a filter coefficient having a characteristic that combines frequency component enhancement is selected and the number of edges is smaller than the intermediate threshold and equal to or greater than the second threshold, a filter coefficient having a sharpening characteristic is selected, and the number of edges is when less than a second threshold value, the image processing apparatus according to claim you to select a filter coefficient having a characteristic density value of the pixel of interest is directly converted value.
複数の画素からなる画像を示す画像データが入力され、
入力された画像データに対してフィルタ処理を行う空間フィルタ部と、
入力された画像データが複数色からなるカラー画像データである場合に、各色がほぼ同じ画素濃度となる部分をブラックとして置き換え、ブラックをさらに加えたカラー画像データに変換する黒生成/下色除去部と、
入力された画像データに対して出力先に応じた階調再現処理を行う中間調生成部と、
注目画素が、少なくとも文字領域および網点領域を含む複数の領域のいずれに属するかを判定する領域判定部とを備え、
少なくとも前記黒生成/下色除去部および中間調生成部のいずれかが前記領域判定部の判定結果に応じた処理を行う画像処理装置において、
注目画素とその周辺画素とからなる画素ブロック内のエッジ数を計数する計数部と、
計数されたエッジ数に基づいて、複数のフィルタ係数の中から1つのフィルタ係数を選択する係数設定部とを有し、
前記計数部は、前記画素ブロック内の主走査方向の立上りエッジおよび立下りエッジの数と副走査方向の立上りエッジおよび立下りエッジの数とをそれぞれ個別に計数し、4つのエッジ数の総和を計数し、
前記係数設定部は、第1の閾値、第1の閾値より小さい第2の閾値および第1の閾値より小さく第2の閾値より大きい中間閾値と、計数されたエッジ数とを比較し、エッジ数が前記第1の閾値以上であるときは、平滑化特性を有するフィルタ係数を選択し、エッジ数が前記第1の閾値より小さくかつ前記中間閾値以上であるときは、高周波成分の平滑化と低周波成分の強調とを兼ね備えた特性を有するフィルタ係数を選択し、エッジ数が前記中間閾値より小さくかつ第2の閾値以上であるときは、鮮鋭化特性を有するフィルタ係数を選択し、エッジ数が第2の閾値未満であるときは、注目画素の濃度値がそのまま変換値となる特性を有するフィルタ係数を選択し、
前記空間フィルタ部は、前記係数設定部によって選択されたフィルタ係数を用いてフィルタ処理を行うことを特徴とする画像処理装置。
Image data indicating an image composed of a plurality of pixels is input,
A spatial filter unit that performs a filtering process on the input image data;
When the input image data is color image data composed of a plurality of colors, a black generation / under color removal unit that replaces the portion where each color has substantially the same pixel density with black and converts it to color image data further added with black When,
A halftone generation unit that performs gradation reproduction processing according to the output destination on the input image data;
An area determination unit that determines which of the plurality of areas including at least the character area and the halftone dot area the target pixel belongs to;
In the image processing apparatus in which at least one of the black generation / undercolor removal unit and the halftone generation unit performs processing according to the determination result of the region determination unit,
A counting unit for counting the number of edges in a pixel block composed of a pixel of interest and its surrounding pixels;
A coefficient setting unit that selects one filter coefficient from a plurality of filter coefficients based on the counted number of edges;
The counting unit individually counts the number of rising and falling edges in the main scanning direction and the number of rising and falling edges in the sub-scanning direction in the pixel block, and sums the number of four edges. Count,
The coefficient setting unit compares the first threshold value, the second threshold value smaller than the first threshold value, and the intermediate threshold value smaller than the first threshold value and larger than the second threshold value with the counted edge number, and the number of edges Is equal to or greater than the first threshold, a filter coefficient having a smoothing characteristic is selected, and when the number of edges is smaller than the first threshold and equal to or greater than the intermediate threshold, smoothing and low frequency components are reduced. When a filter coefficient having a characteristic that combines frequency component enhancement is selected and the number of edges is smaller than the intermediate threshold and equal to or greater than the second threshold, a filter coefficient having a sharpening characteristic is selected, and the number of edges is When it is less than the second threshold, a filter coefficient having a characteristic that the density value of the target pixel is directly converted into a converted value is selected,
The image processing apparatus, wherein the spatial filter unit performs a filter process using a filter coefficient selected by the coefficient setting unit.
前記領域判定部は、計数されたエッジ数に基づいて、注目画素が、少なくとも文字領域および網点領域を含む複数の領域のいずれに属するかを判定することを特徴とする請求項2記載の画像処理装置。  The image according to claim 2, wherein the region determination unit determines, based on the counted number of edges, whether the target pixel belongs to at least one of a plurality of regions including a character region and a halftone dot region. Processing equipment. 前記計数部は、画素ブロック内の所定の画素と所定の画素に走査方向前方で隣接する画素との濃度差が第3の閾値より大きく、かつ濃度が走査方向に上昇している部分を立上りエッジとして検出し、画素ブロック内の所定の画素と所定の画素に走査方 向前方で隣接する画素との濃度差が第3の閾値より大きく、かつ濃度が走査方向に下降している部分を立下りエッジとして検出することを特徴とする請求項1〜3のいずれか1つに記載の画像処理装置。The counting unit has a rising edge where a density difference between a predetermined pixel in a pixel block and a pixel adjacent to the predetermined pixel in the scanning direction is larger than a third threshold and the density increases in the scanning direction. detected, the concentration difference between the predetermined pixel and an adjacent pixel in the scanning direction forward predetermined pixel in the pixel block is larger than the third threshold value, and a portion where the concentration is lowered in the scanning direction fall as The image processing apparatus according to claim 1, wherein the image processing apparatus is detected as an edge . 請求項1〜4のいずれかに記載の画像処理装置と、
画像処理装置によって処理された画像データを出力する画像出力装置とを備えることを特徴とする画像形成装置。
An image processing apparatus according to any one of claims 1 to 4,
An image forming apparatus comprising: an image output device that outputs image data processed by the image processing device.
複数の画素からなる画像を示す画像データに含まれる注目画素とその周辺画素とからなる画素ブロック内のエッジ数を計数する計数工程と、
計数されたエッジ数に基づいて、複数のフィルタ係数の中から1つのフィルタ係数を選択する係数設定工程と、
前記係数設定工程で選択されたフィルタ係数を用いて、入力された画像データに対してフィルタ処理を行う空間フィルタ工程とを備え
前記計数工程では、前記画素ブロック内の主走査方向の立上りエッジおよび立下りエッジの数と副走査方向の立上りエッジおよび立下りエッジの数とをそれぞれ個別に計数し、4つのエッジ数の総和を計数し、
前記係数設定工程では、第1の閾値、第1の閾値より小さい第2の閾値および第1の閾値より小さく第2の閾値より大きい中間閾値と、計数されたエッジ数とを比較し、エッジ数が前記第1の閾値以上であるときは、平滑化特性を有するフィルタ係数を選択し、エッジ数が前記第1の閾値より小さくかつ前記中間閾値以上であるときは、高周波成分の平滑化と低周波成分の強調とを兼ね備えた特性を有するフィルタ係数を選択し、エッジ数が前記中間閾値より小さくかつ第2の閾値以上であるときは、鮮鋭化特性を有するフィルタ係数を選択し、エッジ数が第2の閾値未満であるときは、注目画素の濃度値がそのまま変換値となる特性を有するフィルタ係数を選択することを特徴とする画像処理方法
A counting step of counting the number of edges in a pixel block composed of a target pixel and its peripheral pixels included in image data indicating an image composed of a plurality of pixels;
A coefficient setting step of selecting one filter coefficient from a plurality of filter coefficients based on the counted number of edges;
A spatial filter step of performing a filtering process on the input image data using the filter coefficient selected in the coefficient setting step.
In the counting step, the number of rising edges and falling edges in the main scanning direction and the number of rising edges and falling edges in the sub-scanning direction in the pixel block are individually counted, and the total number of four edges is calculated. Count,
In the coefficient setting step, the first threshold value, the second threshold value smaller than the first threshold value, and the intermediate threshold value smaller than the first threshold value and larger than the second threshold value are compared with the counted number of edges, and the number of edges Is equal to or greater than the first threshold, a filter coefficient having a smoothing characteristic is selected, and when the number of edges is smaller than the first threshold and equal to or greater than the intermediate threshold, smoothing and low frequency components are reduced. When a filter coefficient having a characteristic that combines frequency component enhancement is selected and the number of edges is smaller than the intermediate threshold and equal to or greater than the second threshold, a filter coefficient having a sharpening characteristic is selected, and the number of edges is when less than a second threshold value, images processing how to and selecting a filter coefficient having a characteristic density value of the pixel of interest is directly converted value.
複数の画素からなる画像を示す画像データが入力され、
入力された画像データに対してフィルタ処理を行う空間フィルタ工程と、
注目画素が、少なくとも文字領域および網点領域を含む複数の領域のいずれに属するかを判定する領域判定工程と、
入力された画像データが複数色からなるカラー画像データである場合に、各色がほぼ同じ画素濃度となる部分をブラックとして置き換え、ブラックをさらに加えたカラー画像データに変換する黒生成/下色除去工程と、
入力された画像データに対して出力先に応じた階調再現処理を行う中間調生成工程とを備え、
少なくとも前記黒生成/下色除去工程および中間調生成工程のいずれかで前記領域判定工程の判定結果に応じた処理を行う画像処理方法において、
注目画素とその周辺画素とからなる画素ブロック内のエッジ数を計数する計数工程と、
計数されたエッジ数に基づいて、複数のフィルタ係数の中から1つのフィルタ係数を選択する係数設定工程とを有し、
前記計数工程では、前記画素ブロック内の主走査方向の立上りエッジおよび立下りエッジの数と副走査方向の立上りエッジおよび立下りエッジの数とをそれぞれ個別に計数し、4つのエッジ数の総和を計数し、
前記係数設定工程では、第1の閾値、第1の閾値より小さい第2の閾値および第1の閾値より小さく第2の閾値より大きい中間閾値と、計数されたエッジ数とを比較し、エッジ数が前記第1の閾値以上であるときは、平滑化特性を有するフィルタ係数を選択し、エッジ数が前記第1の閾値より小さくかつ前記中間閾値以上であるときは、高周波成分の平滑化と低周波成分の強調とを兼ね備えた特性を有するフィルタ係数を選択し、エッジ数が前記中間閾値より小さくかつ第2の閾値以上であるときは、鮮鋭化特性を有するフィルタ係数を選択し、エッジ数が第2の閾値未満であるときは、注目画素の濃度値がそのまま変換値となる特性を有するフィルタ係数を選択し、
前記空間フィルタ工程では、前記係数設定工程によって選択されたフィルタ係数を用いてフィルタ処理を行うことを特徴とする画像処理方法
Image data indicating an image composed of a plurality of pixels is input,
A spatial filter process for performing filtering on input image data;
An area determination step for determining whether the target pixel belongs to at least one of a plurality of areas including a character area and a halftone dot area;
When the input image data is color image data composed of a plurality of colors, a black generation / under color removal step of replacing the portion where each color has substantially the same pixel density with black and converting it to color image data further adding black When,
A halftone generation step for performing gradation reproduction processing according to the output destination for the input image data,
In the image processing method for performing processing according to the determination result of the region determination step in at least one of the black generation / under color removal step and the halftone generation step,
A counting step of counting the number of edges in a pixel block composed of a pixel of interest and its surrounding pixels;
A coefficient setting step of selecting one filter coefficient from a plurality of filter coefficients based on the counted number of edges,
In the counting step, the number of rising edges and falling edges in the main scanning direction and the number of rising edges and falling edges in the sub-scanning direction in the pixel block are individually counted, and the total number of four edges is calculated. Count,
In the coefficient setting step, the first threshold value, the second threshold value smaller than the first threshold value, and the intermediate threshold value smaller than the first threshold value and larger than the second threshold value are compared with the counted number of edges, and the number of edges Is equal to or greater than the first threshold, a filter coefficient having a smoothing characteristic is selected, and when the number of edges is smaller than the first threshold and equal to or greater than the intermediate threshold, smoothing and low frequency components are reduced. When a filter coefficient having a characteristic that combines frequency component enhancement is selected and the number of edges is smaller than the intermediate threshold and equal to or greater than the second threshold, a filter coefficient having a sharpening characteristic is selected, and the number of edges is When it is less than the second threshold, a filter coefficient having a characteristic that the density value of the target pixel is directly converted into a converted value is selected,
Wherein the spatial filter process, image processing method characterized by performing the filtering process using the filter coefficient selected by the coefficient setting process.
前記領域判定工程は、計数されたエッジ数に基づいて、注目画素が、少なくとも文字領域および網点領域を含む複数の領域のいずれに属するかを判定することを特徴とする請求項7記載の画像処理方法。 The image according to claim 7 , wherein the region determination step determines whether the target pixel belongs to at least one of a plurality of regions including a character region and a halftone region based on the counted number of edges. Processing method. 請求項7または8に記載の画像処理方法をコンピュータに実行させるための画像処理プログラム An image processing program for causing a computer to execute the image processing method according to claim 7 or 8 . 請求項7または8に記載の画像処理方法をコンピュータに実行させるための画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体 A computer-readable recording medium on which an image processing program for causing a computer to execute the image processing method according to claim 7 or 8 is recorded .
JP2002382460A 2002-12-27 2002-12-27 Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium Expired - Fee Related JP4105539B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002382460A JP4105539B2 (en) 2002-12-27 2002-12-27 Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002382460A JP4105539B2 (en) 2002-12-27 2002-12-27 Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium

Publications (2)

Publication Number Publication Date
JP2004214977A JP2004214977A (en) 2004-07-29
JP4105539B2 true JP4105539B2 (en) 2008-06-25

Family

ID=32818008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002382460A Expired - Fee Related JP4105539B2 (en) 2002-12-27 2002-12-27 Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium

Country Status (1)

Country Link
JP (1) JP4105539B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100780151B1 (en) 2005-11-22 2007-11-27 주식회사 휴맥스 Apparatus and method for compensating edge using min/max filter
JP4753828B2 (en) * 2006-10-11 2011-08-24 京セラミタ株式会社 Image processing apparatus and image forming apparatus
JP4771428B2 (en) * 2007-03-09 2011-09-14 株式会社リコー Image processing apparatus, image processing method, program, and recording medium
JP5193089B2 (en) * 2009-02-20 2013-05-08 パナソニック株式会社 Signal processing apparatus and signal processing method
JP5312166B2 (en) * 2009-04-13 2013-10-09 キヤノン株式会社 Image processing apparatus, control method, and program
JP5419608B2 (en) * 2009-09-17 2014-02-19 キヤノン株式会社 Image forming apparatus and image forming method
JP5697132B2 (en) * 2010-06-30 2015-04-08 Necプラットフォームズ株式会社 Region separation apparatus, image forming apparatus, region separation method, and region separation program
JP5463261B2 (en) * 2010-10-28 2014-04-09 京セラドキュメントソリューションズ株式会社 Image reading apparatus and image reading method
JP4913246B1 (en) * 2011-01-25 2012-04-11 株式会社ナナオ Edge enhancement method or edge enhancement calculation method
JP2013165476A (en) 2011-11-11 2013-08-22 Mitsubishi Electric Corp Image processing device, image processing method, image display device, program, and recording medium
JP6681033B2 (en) * 2017-06-07 2020-04-15 京セラドキュメントソリューションズ株式会社 Image processing device
JP2020148615A (en) * 2019-03-13 2020-09-17 株式会社ニューフレアテクノロジー Method for generating reference image and method for inspecting pattern

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08149293A (en) * 1994-11-16 1996-06-07 Mita Ind Co Ltd Dot area detector
JPH09212642A (en) * 1996-02-07 1997-08-15 Mitsubishi Electric Corp Image processor
JP2001016442A (en) * 1999-06-25 2001-01-19 Canon Inc Picture processing method and picture processor
JP2001157059A (en) * 1999-11-30 2001-06-08 Canon Inc Device and method for forming image
JP3423665B2 (en) * 2000-03-31 2003-07-07 理想科学工業株式会社 Area determining method and device
JP3847565B2 (en) * 2001-02-06 2006-11-22 シャープ株式会社 Image processing apparatus, image forming apparatus including the same, and image processing method
JP2002281313A (en) * 2001-03-15 2002-09-27 Minolta Co Ltd Image processor and image forming apparatus having the same

Also Published As

Publication number Publication date
JP2004214977A (en) 2004-07-29

Similar Documents

Publication Publication Date Title
JP4137890B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP4495197B2 (en) Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program
JP4170353B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, program, and recording medium
JP4197346B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP4118886B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP4115999B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
JP4105539B2 (en) Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium
JP4361946B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium storing the program
JP2003219191A (en) Image processor and image forming apparatus comprising it
JP4522978B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP4260774B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP4039911B2 (en) Image processing apparatus and image processing method
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP4545167B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP4043982B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and computer-readable recording medium recording the same
JP3854060B2 (en) Image processing apparatus, image forming apparatus, image processing method, and recording medium
JP4808282B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program
JP2005267119A (en) Image processor, image forming device, image processing method, image processing program, and recording medium
JP4086537B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2004102551A (en) Image processor, image processing method, image reader equipped with that, image forming apparatus, program, and recording medium
JP2011015172A (en) Device for processing image, device for forming image, method and program for processing image, and recording medium recording program for processing image
JP2003224718A (en) Image processing method and image processor
JP2003125198A (en) Image processing apparatus and image processing method, and image forming device provided with the same, program, and recording medium
JP2003219178A (en) Image processing method, device thereof and image forming device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080327

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees