JP2004104610A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2004104610A
JP2004104610A JP2002265941A JP2002265941A JP2004104610A JP 2004104610 A JP2004104610 A JP 2004104610A JP 2002265941 A JP2002265941 A JP 2002265941A JP 2002265941 A JP2002265941 A JP 2002265941A JP 2004104610 A JP2004104610 A JP 2004104610A
Authority
JP
Japan
Prior art keywords
image
halftone
area
processing
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002265941A
Other languages
Japanese (ja)
Other versions
JP4184010B2 (en
Inventor
Yasushi Adachi
安達 靖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2002265941A priority Critical patent/JP4184010B2/en
Publication of JP2004104610A publication Critical patent/JP2004104610A/en
Application granted granted Critical
Publication of JP4184010B2 publication Critical patent/JP4184010B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method of suitably processing images according to the type of halftone dot areas; and also to provide a program, a recording medium, an image processor, and an imaging device apparatus therefor. <P>SOLUTION: A dot area identifier 3 identifies whether or not each pixel of an original document image belongs to the halftone dot area. A calculator 4 calculates an average density histogram 50 on the basis of the value of the density of each pixel identified by the identifier 3 as belonging to the halftone dot area, and calculates a feature in the screened halftone image on the basis of the histogram 50. A decider 5 for deciding the type of dot area decides the type of the halftone dot area in the original image. Consequently, the halftone dot areas in the original image can be divided depending on their types, and can be suitably converting-processed depending on the types. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、入力される画像全体および各画素に関する特徴量を算出して、画像における網点領域の種別を判定する画像処理方法、この方法を実行させるためのプログラムおよびこのプログラムを記録した記録媒体ならびに画像処理装置およびこれを備える画像形成装置に関する。
【0002】
【従来の技術】
従来技術の画像形成装置では、蓄積電荷結合素子(Charge Coupled Device:略称CCD)を用いたイメージセンサによって、原稿の全体画像を読取り、画像形成時に、原稿の再現性が向上するように各種の処理をする構成になっている。原稿の再現性の向上を図るための処理として、原稿の全体画像を表す画像信号に基づいて、全体画像における複数の画素を含む画像領域が、複数の画像領域のいずれであるかを識別し、その識別結果に基づいて、画素毎に適切に処理される。
【0003】
複数の画像領域を識別する従来技術の一例として、パターンマッチングを用いる従来技術(たとえば非特許文献1参照。)と、特徴量を用いる従来技術(たとえば特許文献1〜5参照。)とが挙げられる。パターンマッチングを用いる従来技術では、予め定めるパターンを数多く用意しておき、そのパターンを用いて、入力される画像から文字領域、網点領域および写真領域が識別される。
【0004】
特徴量を用いる従来技術の具体例として、第1〜第5の従来技術が挙げられる。
【0005】
第1の従来技術では、複数の画素を有する局所画素ブロックに対して画像領域の識別処理がそれぞれ行われる(特許文献1参照)。局所画素ブロックに関して、隣接する2つの画素の画素値が変化する回数を、2つの画素の画素値が主走査方向に連続する場合と、副走査方向に連続する場合とで個別に求めて、変化回数の総和をそれぞれ求める。主走査方向および副走査方向に関して求められる変化回数の総和が、予め定める値とそれぞれ比較され、それらの比較結果によって画像領域を識別する。
【0006】
第2の従来技術では、複数の画素を有する局所画素ブロックに対して画像領域の識別処理が行われる(特許文献2参照)。局所画素ブロック内の複数の画素に関して、各画素の画素値のうち最大値および最小値を求め、最大値と最小値との差を算出する。算出された差の値が、予め定める設定値と比較される。差の値が設定値よりも小さい場合、局所画素ブロックは、所定の走査方向に向かうにつれて、画素の画素値が穏やかに変化する部分であると判定される。差の値が設定値よりも大きい場合、局所画素ブロックは、所定の走査方向に向かうにつれて、画素の画素値が激しく変化する文字部分、写真部分の輪郭および網点写真部分を含む部分であると判定される。さらに局所画素ブロックにおいて、主走査方向および副走査方向の予め定める順序に従って、隣接する2つの画素の画素値が変化する回数をそれぞれ求める。前述の変化回数と予め定める値とを比較して、変化回数が予め定める値よりも大きい場合、局所画素ブロックは、網点部分を含む網点領域であると判定され、変化回数が予め定める値よりも小さい場合、局所画素ブロックは、網点領域でないと判定される。その判定結果に基づいて、局所画素ブロック内の画素に対して、各種の処理が行われる。
【0007】
第3の従来技術では、主走査方向における2つの水平極点間の画素数と、副走査方向における2つの垂直極点間の画素数とをそれぞれ計数し、それらの計数結果を特徴量として用いて、網点領域に属する網点画素を抽出する(特許文献3参照)。デジタル多値データを入力として、主走査方向に関して、濃度値が極大となる極大点および濃度値が極小となる極小点のいずれか一方を水平極点として、2つの水平極点間の画素数を計数する。副走査方向に関しても同様にして、濃度値が極大となる極大点および濃度値が極小となる極小点のいずれか一方を垂直極点として、2つの垂直極点を検出して、2つの垂直極点間の画素数を計数する。水平極点間の画素数が所定の範囲内にある場合、この水平極点間にある画素に関して、垂直極点間の画素数が所定の範囲内にある画素だけが網点画素として抽出される。
【0008】
第4の従来技術では、画素および局所画素ブロック単位の画像識別ではなく、入力される画像全体、すなわち原稿の種別を、特徴量を用いて識別する(特許文献4参照)。網点を表す画素の頻度と、文字を表す画素と網点を表す画素とが混在し、網点が背景となる網点上文字画素の頻度を特徴量として用いて、原稿が色地上文字を多く含むか否かを判定する。
【0009】
第5の従来技術では、入力される画像から画素の特徴を用いて画像領域を抽出し、抽出された領域の属性を識別するとともに、属性毎の領域の分布に基づいて、入力される画像の種類を識別する(特許文献5参照)。
【0010】
【特許文献1】
特公平6−66884号公報
【特許文献2】
特開昭62−147860号公報
【特許文献3】
特開平6−178097号公報
【特許文献4】
特開2000−151997号公報
【特許文献5】
特開2000−295468号公報
【非特許文献1】
南日俊彦、「文字・写真・網点印刷の混在する画像の2値化処理方法」平成元年度画像電子学会全国大会予稿、P91−94
【0011】
【発明が解決しようとする課題】
前述の各従来技術では、特徴量の不適合、すなわち特徴量が各画像領域の特性を充分に表していないので、各画像領域を精度よく識別できず、入力される画像の各画素が、いずれの画像領域に属するかを識別することができない。特に網点上文字領域に関しては、文字を表す画素が、網点領域に属する画素であると識別されるので、網点領域に対する最適な処理、たとえばモアレ低減のための平滑化フィルタ処理が行われる。これによって文字領域の再現性を著しく損なう処理が行われるので、網点上文字領域の再現性が低下して、画質劣化した画像が形成される。
【0012】
本発明の目的は、入力される画像の種別、具体的には網点領域の画像の種別を判定し、その種別に応じて適切に処理する画像処理方法、この方法を実行させるためのプログラムおよびこのプログラムを記録した記録媒体ならびに画像処理装置およびこれを備える画像形成装置を提供することである。
【0013】
【課題を解決するための手段】
本発明は、入力される画像の各画素が網点領域に属するかを識別する網点領域識別手段と、
前記網点領域識別手段で、網点領域に属すると識別された各画素の画素値に基づいて、画像における網点領域の特徴量を算出する特徴量算出手段と、
特徴量算出手段で算出される特徴量に基づいて、画像における網点領域の種別を判定する網点画像種別判定手段とを含むことを特徴とする画像処理装置である。
【0014】
本発明に従えば、入力される画像の各画素が網点領域に属するかが網点領域識別手段で識別される。網点領域は、複数種類の形態の画像の領域を含んでおり、たとえば網点と文字とが混在する領域と、文字のない単なる網点だけから成る領域とを含む。複数種類の形態の画像の領域を含む網点領域を1種類の形態の画像の領域として扱う場合、たとえば網点と文字とが混在する領域は、文字の画質が劣化する不具合が生じる。このような不具合を防止して、画像における網点領域の種別に応じた処理ができるように、画像における網点領域を、細かく種別しなければならない。網点領域識別手段で、網点領域に属すると識別された各画素の画素値に基づいて、画像における網点領域の特徴を表す特徴量が特徴量算出手段で算出され、その特徴量に基づいて、画像における網点領域の種別が網点画像種別判定手段で判定される。このように網点領域の複数種類の形態の画像の領域毎に、適した特徴量を算出することによって、画像における網点領域を細かく種別することができる。
【0015】
また本発明は、入力される画像を予め定める画像に変換処理する画像処理手段と、
網点画像種別判定手段の判定結果に基づいて、画像における網点領域の種別に応じた変換処理内容で網点領域が含まれる画像の変換処理をするように、画像処理手段を制御する制御手段とを、さらに含むことを特徴とする請求項1記載の画像処理装置である。
【0016】
本発明に従えば、入力される画像が、再現性が向上するように、予め定める画像に画像処理手段で変換処理される。網点画像種別判定手段の判定結果に基づいて、画像における網点領域の種別に応じた変換処理内容で網点領域が含まれる画像の変換処理をするように、画像処理手段が制御手段によって制御される。画像における網点領域の種別に応じた変換処理内容で変換処理するように制御して、網点領域が含まれる画像を予め定める画像に変換処理することができるので、網点領域を1種類の形態の画像の領域として扱う場合に生じる不具合をなくすことができる。
【0017】
また本発明は、画像処理手段は、入力される画像を、文字領域、網点領域および写真領域を含む複数の領域に分離する領域分離処理部を有することを特徴とする。
【0018】
本発明に従えば、入力される画像が、文字領域、網点領域および写真領域を含む複数の領域に画像処理手段の領域分離処理部で分離される。入力される画像を複数の領域に分離することによって、分離される領域毎に画質が向上するように、領域毎に適切に処理することができる。
【0019】
また本発明は、画像処理手段は、入力される画像を、領域の種別に応じた空間フィルタ処理する空間フィルタ処理部を有することを特徴とする。
【0020】
本発明に従えば、入力される画像が、画像処理手段の空間フィルタ処理部で、領域の種別に応じて空間フィルタ処理される。領域の種別に応じて適切に空間フィルタ処理することによって、画像形成時に形成される画像の画質劣化を防止して、画像の画質を向上させることができる。
【0021】
また本発明は、前述の画像処理装置を含むことを特徴とする画像形成装置である。
【0022】
本発明に従えば、原稿から読取った画像が、網点領域を含む場合、画像における網点領域の種別に応じて適切に処理することができるので、多種多様な印刷物を原稿とする画像に対して、高画質の画像を記録材に形成することができる。
【0023】
また本発明は、入力される画像の各画素が網点領域に属するかを識別する網点領域識別工程と、
前記網点領域識別工程で、網点領域に属すると識別された各画素の画素値に基づいて、画像における網点領域の特徴量を算出する特徴量算出工程と、
特徴量算出工程で算出される特徴量に基づいて、画像における網点領域の種別を判定する網点画像種別判定工程とを含むことを特徴とする画像処理方法である。
【0024】
本発明に従えば、入力される画像の各画素が網点領域に属するかが網点領域識別工程で識別される。網点領域は、複数種類の形態の画像の領域を含んでおり、たとえば網点と文字とが混在する領域と、文字のない単なる網点だけから成る領域とを含む。複数種類の形態の画像の領域を含む網点領域を1種類の形態の画像の領域として扱う場合、たとえば網点と文字とが混在する領域は、文字の画質が劣化する不具合が生じる。このような不具合を防止して、画像における網点領域の種別に応じた処理ができるように、画像における網点領域を、細かく種別しなければならない。入力される画像の各画素が網点領域に属するかを識別し、網点領域に属すると識別された各画素の画素値に基づいて、網点領域の特徴を表す特徴量が特徴量算出工程で算出され、その特徴量に基づいて、画像における網点領域の種別が網点画像種別判定工程で判定される。このように網点領域の複数種類の形態の画像の領域毎に、適した特徴量を算出することによって、画像における網点領域を細かく種別することができる。
【0025】
また本発明は、入力される画像を予め定める画像に変換処理する画像変換処理工程であって、
網点画像種別判定工程の判定結果に基づいて、画像における網点領域の種別に応じた変換処理内容で網点領域が含まれる画像の変換処理をする画像変換処理工程を、さらに含むことを特徴とする。
【0026】
本発明に従えば、画像変換処理工程で、入力される画像が、予め定める画像に変換処理される。具体的には画像変換処理工程で、網点画像種別判定工程の判定結果に基づいて、画像における網点領域の種別に応じた変換処理内容で網点領域が含まれる画像が変換処理される。画像における網点領域の種別に応じた変換処理内容で、網点領域が含まれる画像を予め定める画像に変換処理することができるので、網点領域を1種類の形態の画像の領域として扱う場合に生じる不具合をなくすことができる。
【0027】
また本発明は、画像変換処理工程は、入力される画像を、文字領域、網点領域および写真領域を含む複数の領域に分離する領域分離処理段階を有することを特徴とする。
【0028】
本発明に従えば、入力される画像が、文字領域、網点領域および写真領域を含む複数の領域に画像変換処理工程の領域分離処理段階で分離される。入力される画像を複数の領域に分離することによって、領域毎に適切に変換処理することができるので、分離された領域毎の画質を向上させることができる。
【0029】
また本発明は、画像変換処理工程は、入力される画像を、領域の種別に応じた空間フィルタ処理する空間フィルタ処理段階を有することを特徴とする。
【0030】
本発明に従えば、入力される画像が、画像変換処理工程の空間フィルタ処理段階で、領域の種別に応じて空間フィルタ処理される。領域の種別に応じて適切に空間フィルタ処理することによって、画像の画質劣化を防止して、画像の画質を向上させることができる。
【0031】
また本発明は、前述の画像処理方法を、コンピュータに実行させるためのプログラムである。
【0032】
本発明に従えば、画像における網点領域の種別を判定し、その種別に応じて処理する画像処理方法をプログラムで表すことによって、コンピュータに画像処理方法に基づく処理を実行させる。これによってコンピュータによって画像処理方法に基づく処理を自動的に実行させて、入力される画像における網点領域の種別に応じて適切な処理をすることができる。
【0033】
また本発明は、前述のプログラムが記録されたコンピュータ読取り可能な記録媒体である。
【0034】
本発明に従えば、画像における網点領域の種別を判定し、その種別に応じて処理する画像処理方法をコンピュータに実行させるためのプログラムを、コンピュータによって読取り可能な記録媒体に記録させる。記録媒体からコンピュータにプログラムを読込ませて、このプログラムをコンピュータに実行させることによって、入力される画像における網点領域の種別に応じて適切な処理をすることができる。
【0035】
【発明の実施の形態】
図1は、本発明の実施の一形態である画像処理装置1が備える原稿種別判定手段2の構成を示すブロック図である。画像処理装置1は、図13に示される画像入力装置62から入力される画像、具体的には原稿から読取られる原稿画像が、網点領域を含む場合、網点領域の種別を判定し、その判定結果に応じて処理する。画像処理装置1は、原稿画像における網点領域の種別に基づいて、原稿画像の種別を判定する原稿種別判定手段2を含んで構成される。
【0036】
原稿種別判定手段2は、原稿画像の種別を判定する。具体的には原稿種別判定手段2は、網点領域の種別に基づいて、原稿画像を判定する。原稿画像の種別は、たとえば文字だけで表される画像と、網点で表される印刷写真および印画紙写真の画像と、それらの画像を組合せた文字/印刷写真の画像とを含む。
【0037】
原稿種別判定手段2は、網点領域識別部(網点領域識別手段)3、網点種別特徴量算出部(特徴量算出手段)4、網点画像種別判定部(網点画像種別判定手段)5、種別判定手段入力端子6および種別判定手段出力端子7を含んで構成される。原稿種別判定手段2の種別判定手段入力端子6は、電気信号が受渡し可能な状態で、図13に示すシェーディング補正部65の図示しない出力端子と接続される。また原稿種別判定手段2の種別判定手段出力端子7は、電気信号が受渡し可能な状態で、図13に示す空間フィルタ処理部71の図示しない入力端子と接続される。
【0038】
原稿画像の各画素の画素値を表す画素値信号が、図13に示されるシューディング補正部65から、種別判定手段入力端子6を介して網点領域識別部3および網点種別特徴量算出部4に与えられる。本実施の形態では、画素の画素値は、濃度値である。
【0039】
網点領域識別手段である網点領域識別部3は、画素値信号、具体的には画素の濃度値に基づいて、原稿画像の各画素が、網点領域に属するかを識別する。
【0040】
特徴量算出手段である網点種別特徴量算出部4は、網点領域識別部3で、網点領域に属すると識別された各画素の濃度値を用いて網点画像特徴量を算出する。網点画像特徴量は、原稿画像における網点領域の特性を表し、原稿画像における網点領域の種別を判定するための特徴量である。網点種別特徴量算出部4は、網点画像特徴量を表す網点画像特徴量信号を網点画像種別判定部5に与える。
【0041】
網点画像種別判定手段である網点画像種別判定部5は、網点画像特徴量信号、具体的には網点種別特徴量算出部4で算出される網点画像特徴量に基づいて、原稿画像における網点領域の種別を判定する。網点領域は、複数種別の形態の画像の領域を含んでおり、たとえば網点が下地として扱われ、たとえば文字が混在する形態の画像の網点上文字領域と、文字のない単なる網点だけから成り、網点の面積率および密度を変えて写真を表す形態の画像の網点写真領域とを含む。下地は、白色および白色を除く複数種類の色地を含む。
【0042】
原稿画像の種別の一例として、網点画像種別判定部5で、網点領域が網点上文字領域であると判定される場合、原稿画像の種別は、網点を下地として、たとえば文字が混在する文字画像である、言換えると原稿画像は、網点上文字領域を有すると原稿種別判定手段2で判定される。原稿画像の種別の他の例として、網点画像種別判定部5で、網点領域が網点写真領域であると判定される場合、原稿画像の種別は、印刷写真である、言換えると原稿画像は、網点写真領域を有すると原稿種別判定手段2で判定される。このように原稿画像における網点領域の種別を判定することによって、原稿画像の種別を判定することができる。
【0043】
網点画像種別判定部5は、原稿画像における網点領域に対する種別の判定結果を表す網点画像種別判定信号を種別判定手段出力端子7を介して図13に示される領域分離処理部69および空間フィルタ処理部71に与える。
【0044】
前述のように原稿画像に、網点領域が存在する場合、網点領域に属する各画素の濃度値を用いて、網点領域の画像毎の網点画像特徴量を算出することができる。算出される網点画像特徴量を用いて、原稿画像における網点領域の種別を判定することによって、原稿画像における網点領域を細かく種別することができる。
【0045】
原稿画像における網点領域の種別に応じた変換処理、具体的には、網点上文字領域のように網点が下地である場合は、文字が含まれることが多く、現状の網点検出精度では、前記網点上文字までも網点だけから成る領域として誤検出することが多く、前記文字の再現性は大きく劣化する。また、網点が下地である場合、高線数である場合が多い。よって、網点検出などの領域分離処理部69による処理を行わず、文字を含む低周波成分はゲインが上がり(強調され)、網点を含む高周波成分はゲインがさがる(抑制される)ようなフィルタ処理を画像全体に適用することにより高画質化が達成できる。
【0046】
網点領域が網点写真領域である場合は、現状の網点検出処理でもほぼ検出することが可能であるため、網点検出などの領域分離処理部69による処理を行うとともに、検出された網点領域に対しては、モアレ抑制を目的とした平滑化フィルタ処理を適用することにより高画質化が達成できる。
【0047】
図2は、網点領域識別部3の構成を示すブロック図である。図3は、第1ブロックメモリ11、第2ブロックメモリおよび第3ブロックメモリに格納される信号の関係を説明する図である。網点領域識別部3は、エッジ判定部10、第1ブロックメモリ11、対象画像部分抽出部12、第2ブロックメモリ13、第1特徴量算出部14、エッジ種別判定部15、第3ブロックメモリ16、第2特徴量算出部17、網点領域判定部18、有無判定部入力端子19および有無判定部出力端子20を含んで構成される。
【0048】
有無判定部入力端子19は、電気信号が受渡し可能な状態で、原稿種別判定手段2の種別判定手段入力端子6と接続され、有無判定部出力端子20は、電気信号が受渡し可能な状態で、網点種別特徴量算出部4の入力端子(図示せず)と接続される。網点領域識別部3に与えられる画素値信号は、有無判定部入力端子19を介して、エッジ判定部10および対象画像部分抽出部12に与えられる。
【0049】
エッジ判定部10は、画素値信号、具体的には画素の濃度値に基づいて、原稿画像の各画素がエッジ画素であるか否かを判定する。エッジ判定部10は、その判定結果を表すエッジ判定信号を第1ブロックメモリ11に与える。本実施の形態では、エッジ画素は、その画素値が隣接する画素の画素値に比べて大きく異なる急峻な変化を示す画素である。
【0050】
エッジ判定部10は、たとえば第1局所画素ブロック26に含まれる第1注目画素25の画素値と、第1注目画素25に隣接する画素の画素値との差の絶対値が、予め定める閾値よりも大きい場合、第1注目画素25はエッジ画素であると判定する。エッジ判定部10は、前記差の絶対値が予め定める閾値以下である場合、第1注目画素25がエッジ画素でないと判定する。
【0051】
本実施の形態では、第1注目画素25は、原稿画像に含まれる任意の画素であって、第1局所画素ブロック26は、第1注目画素25を中心として、複数の画素を含む形態の画像の領域である。
【0052】
原稿画像の各画素が、予め定める順番で第1注目画素25に設定され、その第1注目画素25に対して、エッジ画素であるか否かがエッジ判定部10で判定される。エッジ判定部10は、第1注目画素25に対する判定結果を表すエッジ判定信号を第1ブロックメモリ11に与える。
【0053】
第1ブロックメモリ11は、主走査方向および副走査方向に複数の格納部が並ぶ格納領域、言換えるとM1×N1個の格納部を含む格納領域を有する。M1およびN1は、自然数であって相互に同一であってもよいし、異なっていてもよい。
【0054】
第1ブロックメモリ11には、複数ライン分のエッジ判定信号が与えられ、少なくとも第1局所画素ブロック26内の各画素に関して、エッジ判定信号が有する情報が格納される。図3の例では、第1ブロックメモリ11には、第1注目画素25と第1注目画素25の近傍にある複数の近傍画素29とに関するエッジ判定信号が有する情報が格納される。
【0055】
対象画像部分抽出部12は、画素値信号、具体的には画素の濃度値に基づいて、原稿画像の各画素が、対象画像部分46に含まれるか否かを判定し、図7(2)に示される対象画像部分46を抽出する。対象画像部分抽出部12は、原稿画像の各画素の濃度値が、予め定める値以上である場合、対象画像部分46に含まれると判定し、原稿画像の各画素の濃度値が、予め定める値よりも小さい場合、対象画像部分46に含まれないと判定する。
【0056】
予め定める値は、多くの原稿画像のサンプルに基づいて得られる値である。対象画像部分抽出部12は、第1注目画素25に対する判定結果を表す対象画像部分信号を第2ブロックメモリ13に与える。
【0057】
第2ブロックメモリ13は、主走査方向および副走査方向に複数の格納部が並ぶ格納領域、言換えるとM2×N2個の格納部を含む格納領域を有する。M2およびN2は、自然数であって相互に同一であってもよいし、異なっていてもよい。
【0058】
第2ブロックメモリ13には、複数ライン分の対象画像部分信号が与えられ、少なくとも第1局所画素ブロック26内の各画素に関して、対象画像部分信号が有する情報が格納される。図3の例では、第2ブロックメモリ13には、第1注目画素25と第1注目画素25の近傍にある複数の近傍画素29とに関する対象画像部分信号が有する情報が格納される。
【0059】
第1特徴量算出部14は、第2ブロックメモリ13に格納される対象画像部分信号、具体的には対象画像部分抽出部12による判定結果に基づいて、第1局所画素ブロック26内の対象画像部分46の特性を表す第1特徴量を算出する。第1局所画素ブロック内の対象画像部分46の特性を、第1特徴量として表すことによって、第1局所画素ブロック内の各エッジ画素の特性が表される。第1特徴量算出部14は、第1局所画素ブロック26の第1特徴量を表す第1特徴量信号をエッジ種別判定部15に与える。
【0060】
エッジ種別判定部15は、第1ブロックメモリ11に格納されるエッジ判定信号と第1特徴量信号、具体的にはエッジ判定部10による判定結果と第1特徴量算出部14による第1特徴量とに基づいて、エッジ画素が、複数の領域のいずれに属するかを判定する。具体的にはエッジ種別判定部15は、第1局所画素ブロック26内の各エッジ画素が、文字領域および網点領域のいずれに属するかを判定する。エッジ種別判定部15は、第1局所画素ブロック26内の各エッジ画素に対する判定結果を表すエッジ種別信号を第3ブロックメモリ16に与える。
【0061】
第3ブロックメモリ16は、主走査方向および副走査方向に複数の格納部が並ぶ格納領域、言換えるとM3×N3個の格納部を含む格納領域を有する。M3およびN3は、自然数であって相互に同一であってもよいし、異なっていてもよい。
【0062】
第3ブロックメモリ16には、複数ライン分のエッジ種別信号が与えられ、少なくとも第2局所画素ブロック28内の各画素に関して、エッジ種別信号が有する情報が格納される。図3の例では、第3ブロックメモリ16には、第2注目画素27と第2注目画素27の近傍にある複数の近傍画素29とに関するエッジ種別信号が有する情報が格納される。
【0063】
本実施の形態では、第2注目画素27は、原稿画像に含まれる任意の画素であって、第2局所画素ブロック28は、第2注目画素27を中心として、複数の画素を含む形態の画像の領域である。
【0064】
第2特徴量算出部17は、第3ブロックメモリ10に格納されるエッジ種別信号、具体的にはエッジ種別判定部15による判定結果に基づいて、第2局所画素ブロック28の特性を表す第2特徴量を算出する。第2特徴量算出部17は、第2特徴量を表す第2特徴量信号を網点領域判定部18に与える。第2特徴量算出部17は、エッジ種別信号に基づいて、網点領域の特性を表す第2特徴量を算出し、第2特徴量信号を網点領域判定部18に与える。
【0065】
網点領域判定部18は、第2特徴量信号、具体的には第2特徴量算出部17による第2特徴量に基づいて、原稿画像の各画素が、網点領域に属するか否かを判定する。具体的には、網点領域判定部18は、第2注目画素27が網点領域に属する画素であるか否かを判定する。網点領域判定部18は、第2注目画素27に対する判定結果を表す網点領域判定信号を、有無判定部出力端子20に与える。有無判定部出力端子20からは、第2注目画素27に対する網点領域判定信号が出力される。
【0066】
図4は、エッジ判定部10の構成を示すブロック図である。図5は、2次微分用フィルタ37のフィルタ係数の一例を説明するための図である。エッジ判定部10は、2次微分処理回路35およびゼロ交差検出回路36を含んで構成される。
【0067】
2次微分処理回路35は、エッジ判定部10に与えられる画素値信号、具体的には画素の濃度値に基づいて、原稿画像の各画素に対して2次微分処理する。2次微分処理回路35による2次微分処理は、第1注目画素25を中心とする3×3個の画素を含む画素ブロックに対して、予め定める係数を有する2次微分用フィルタ37を用いて畳込み演算し、第1注目画素25の画素値の2次微分値を求める処理である。
【0068】
畳込み演算は、3×3個の画素を含む画素ブロックにおいて、1つの画素の濃度値と、その画素と同一の行番号および列番号をもつ2次微分用フィルタ37の係数とを積算して積算値を求め、この積算値と他の各画素に関して求められる各積算値との総和を求める演算処理である。
【0069】
たとえば1行1列目の画素に関して、その画素の画素値と2次微分用フィルタ37の1行1列目の係数、すなわち図5において係数“0”とを積算した積算値を求める。1行1列目の画素に関して求められた積算値と、画素ブロック内の残りの画素に関して求められた各積算値との総和を求める。前記総和が、第1注目画素25の画素値の2次微分値を表す。畳込み演算は、原稿画像の各画素を予め定める順番に従って第1注目画素25に設定することによって、原稿画像のすべての画素に対して行われる。
【0070】
原稿画像に関して、予め定める走査方向に連続して並ぶ複数の画素にエッジ画素が含まれる場合、エッジ画素に隣接し、走査方向上流側にある画素の画素値の2次微分値は、正値および負値のいずれか一方の値になる。勾配が最大となるエッジ画素の濃度値の2次微分値は“0”、すなわち零になる。エッジ画素に隣接し、走査方向下流側にある画素の濃度値の2次微分値は、前述とは逆の正値および負値のいずれかの値になる。
【0071】
2次微分処理回路35は、第1注目画素25に対する2次微分処理の結果を表す2次微分値信号をゼロ交差検出回路36に与える。ゼロ交差検出回路36は、2次微分値信号、具体的には2次微分処理処理回路35による2次微分処理の結果に基づいて、ゼロ交差する画素をエッジ画素として判定する。
【0072】
ゼロ交差検出回路36は、2次微分処理部20による2次微分処理によって、ゼロ交差する画素を検出する、具体的には正値および負値のいずれか一方の値から、逆の正値および負値のいずれかの値に変化する2次微分値を検出するとともに、2次微分値が零の値をとる画素を検出する。
【0073】
ゼロ交差検出回路36は、ゼロ交差する第1注目画素25をエッジ画素であると判定し、その判定結果を表すエッジ判定信号を第1ブロックメモリ11に与える。ゼロ交差する画素を検出することによって、原稿画像からエッジ画素が抽出される。
【0074】
図6は、対象画像部分抽出部12の構成を示すブロック図である。図7は、第1局所画素ブロック26の一例を説明するための図であって、図7(1)は、2値化処理前の第1局所画素ブロック26を示し、図7(2)は、2値化処理後の第1局所画素ブロック26を示す。図8は、図7に示される第1局所画素ブロック26内の各画素の濃度値と度数との関係の一例を示すグラフであって、図8(1)は、濃度ヒストグラム44を示し、図8(2)は、累積濃度ヒストグラムを示す。対象画像部分抽出部12は、累積濃度ヒストグラム算出回路40、濃度順位閾値設定回路41、濃度閾値設定回路42および2値化処理回路43を含んで構成される。対象画像部分抽出部12に与えられる画素値信号は、累積濃度ヒストグラム算出回路40、濃度順位閾値設定回路41および2値化処理回路43に与えられる。
【0075】
累積濃度ヒストグラム算出回路40は、画素値信号、具体的には画素の濃度値に基づいて、第1局所画素ブロック26内の各画素に関する濃度ヒストグラム44を算出するとともに、その濃度ヒストグラム44に基づいて累積濃度ヒストグラム45を算出する。濃度ヒストグラム44は、複数の画素を含む領域、たとえば第1局所画素ブロック28において、予め定める濃度値の区分毎に、いくつの画素が存在するかを表すグラフである。
【0076】
累積濃度ヒストグラム45は、濃度ヒストグラム44に基づいて、画素の濃度値の最大値から最小値に向けて度数を累積する場合と、画素の濃度値の最小値から最大値に向けて度数を累積する場合とのいずれか一方におけるグラフである。
【0077】
累積濃度ヒストグラム算出回路40は、累積濃度ヒストグラム45の算出結果、たとえば濃度値の区分と、その区分毎の度数とを表す累積濃度ヒストグラム信号を濃度閾値設定回路42に与える。
【0078】
濃度順位閾値設定回路41は、画素値信号、具体的には画素の濃度値に基づいて、第1局所画素ブロック26内の各画素に関して、濃度値の昇順および降順のいずれかの情報を用いて、濃度順位閾値Nを設定する。濃度順位閾値設定回路41は、濃度順位閾値Nを表す濃度順位閾値信号を濃度閾値設定回路42に与える。
【0079】
本実施の形態では、順位閾値Nは、予め定める値が用いられ、たとえば、最大濃度値を有する画素から、7番目に大きい画素値を有する画素までの7個の画素を選択する場合、“7”に設定される。
【0080】
濃度閾値設定回路42は、累積濃度ヒストグラム信号および濃度順位閾値信号、具体的には累積濃度ヒストグラム算出回路40による累積濃度ヒストグラム45の算出結果と、濃度順位閾値設定回路41による濃度順位閾値Nとに基づいて、濃度閾値を設定する。
【0081】
濃度閾値は、第1局所画素ブロック26内の各画素の濃度値との比較に用いられ、対象画像部分46を算出するための閾値である。濃度閾値設定回路42は、設定される濃度閾値を表す濃度閾値信号を2値化処理回路43に与える。
【0082】
2値化処理回路43は、画素値信号および濃度閾値信号、具体的には画素の濃度値および濃度閾値設定回路42による濃度閾値に基づいて、第1局所画素ブロック26内の各画素の濃度値と、濃度閾値とを比較する。2値化処理回路43は、第1局所画素ブロック26内の各画素の濃度値と濃度閾値とを比較することによって、2つの画像部分に分別し、すなわち2値化処理して2値画像を求め、いずれか一方の画像部分を対象画像部分46として抽出する。
【0083】
図7(1)の例では、第1局所画素ブロック26内の各画素が、図解を容易にするために、予め定める濃度値の区分毎に種別してある。たとえば濃度値が200以上250未満の区分では、画素が黒色で示される。濃度値の区分設定は、任意に設定される。本実施の形態では、濃度値の区分は、“50”に設定される。具体的には0以上50未満、50以上100未満、100以上150未満、150以上200未満および200以上250未満の各区分毎に、度数、具体的には画素の個数を求める。
【0084】
図7(1)に示される第1局所画素ブロック26に関して、図8(1)に示される濃度ヒストグラム44が算出される。濃度ヒストグラム44において、横軸は画素の濃度値を示し、縦軸は度数を示す。算出された濃度ヒストグラム44を用いて、図8(2)に示される累積濃度ヒストグラム45が算出される。図8(2)の例では、画素の濃度値の最大値から最小値に向けて度数を累積した場合のグラフである。
【0085】
前述の濃度閾値設定回路42は、画素値信号、具体的には画素の濃度値に基づいて、濃度順位閾値Nに最も近い度数をもつ区分の濃度値を濃度閾値として設定する。本実施の形態において、順位閾値Nに最も近い度数を有する濃度値は、各濃度区分における最小濃度値に設定されるが、代表値たとえば各濃度区分における平均値であってもよい。
【0086】
たとえば濃度順位閾値設定回路41で濃度順位閾値Nが、“7”に設定される場合、図8(2)の例では、濃度閾値設定回路42は、濃度閾値を“200”に設定する。2値化処理回路43は、第1局所画素ブロック26内の各画素の濃度値が、200以上である場合、対象画像部分46であることを表す1とし、それ以外、具体的には200よりも小さい場合、対象画像部分46でないことを表す0とする。図7(2)の例では、抽出された対象画像部分46は、黒色で示される部分である。
【0087】
図9は、第1局所画素ブロック26に対する第1特徴量の算出処理の一例を説明するための図である。第1特徴量算出部14は、対象画像部分信号より、対象画像部分46のランレングスに基づいて第1特徴量を算出する。予め定める走査方向である主走査方向および副走査方向、ならびに第1局所画素ブロック26における対角方向である45度方向に関して、対象画像部分46に含まれる画素の連続数であるランレングスの最大値が、第1特徴量として算出される。
【0088】
図9の例では、主走査方向および副走査方向における対象画像部分46のランレングスは、“3”であって、45度方向における対象画像部分46のランレングスは、“3”および“1”であるので、第1特徴量は、ランレングスの最大値3である。対象画像部分46が網点のような点状で表される場合、ランレングスの最大値は、対象画像部分46が文字のような線状で表される場合に比べて小さくなる。
【0089】
このように対象画像部分46のランレングスの最大値を用いることによって、対象画像部分46の特性を容易に、かつ精度よく表すことができるので、エッジ画素が複数の領域のいずれに属するかを精度よく判定することができる。
【0090】
図10は、第2局所画素ブロック28の一例を説明するための図であって、図10(1)は、120線〜150線の中程度の線数を有する網点領域に対応する第2局所画素ブロック28を示し、図10(2)は、文字領域に対応する第2局所画素ブロック28を示す。第2特徴量算出部17は、第2局所画素ブロック28内のエッジ画素の数に基づいて、第2特徴量を算出する。具体的には第2特徴量算出部17は、第2局所画素ブロック28に関して、網点エッジ画素数と文字エッジ画素数との重み和を第2特徴量として算出する。
【0091】
網点エッジ画素数は、網点領域に属するエッジ画素の数であって、文字エッジ画素数は、文字領域に属するエッジ画素の数である。重み和は、網点エッジ画素数および文字エッジ画素数に対して、予め定める重みをつけた場合の和である。
【0092】
エッジ画素数、具体的には第2局所画素ブロック28内のエッジ画素の数は、図10(1)の例では“26”であって、図10(2)の例では“32”である。エッジ画素数を第2特徴量とした場合、文字領域に対応する第2局所画素ブロック28のエッジ画素数が、120線〜150線の中程度の線数を有する網点領域に対応する第2局所画素ブロック28に比べて大きくなる。このように領域の特性に適した特徴量を算出できないので、中程度の線数を有する網点領域に対応する第2局所画素ブロック28内の第2注目画素27が、文字領域に属すると判定されるおそれがある。
【0093】
たとえば網点エッジ画素数に対する重みを“2”とし、文字エッジ画素数に対する重みを“1”とした場合、第2局所画素ブロック28に関する重み和は、図10(1)の例では“47”であって、図10(2)の例では“35”である。
【0094】
網点エッジ画素数に対する重みを文字エッジ画素数に対する重みに比べて大きくした場合、中程度の線数を有する網点領域に対応する第2局所画素ブロック28における重み和は、文字領域に対応する第2局所画素ブロック28における重み和に比べて大きくなる。
【0095】
このように第2局所画素ブロック28における重み和を第2特徴量として用いることによって、領域の特性に適した特徴量を算出することができるので、網点領域に属する画素と文字領域に属する画素とを精度よく識別することができる。これによって網点領域識別部3は、原稿画像の各画素が網点領域に属するか否かを精度よく識別することができる。
【0096】
図11は、平均濃度ヒストグラム50の一例を示すグラフであって、図11(1)は、網点が下地である場合の平均濃度ヒストグラム50を示し、図11(2)は、網点が写真の画像を表す場合の平均濃度ヒストグラム50を示す。図12は、網点画像種別判定部5の構成を示すブロック図である。網点種別特徴量算出部4は、原稿画像において網点領域に属すると識別された画素に関して、画素の濃度値に基づいて、原稿画像の予め定めるブロック、たとえば7×7個の画素を含むブロックにおける平均濃度値を算出する。予め定めるブロックに含まれる画素は、網点領域に属する画素である。平均濃度値は、予め定めるブロックにおける画素の濃度値の平均値である。
【0097】
網点種別特徴量算出部4は、平均濃度値を原稿画像の予め定めるブロック毎に算出する。網点種別特徴量算出部4は、平均濃度ヒストグラム50、具体的には平均濃度値と予め定める濃度値の区分における度数との関係を表すグラフを算出する。網点種別特徴量算出部4は、平均濃度ヒストグラム50に基づいて、濃度値の区分毎の度数を網点画像特徴量として算出する。
【0098】
網点領域の種別によって平均濃度値の分布に違いが生じる。網点領域が網点上文字領域である場合、網点の面積率が均一であるので、平均濃度ヒストグラム50は、局所的な濃度値の区分における度数が、残余の度数に比べて大きなグラフになる。図11(1)の例では、最大度数が、残余の濃度値の区分における度数に比べて極端に大きな平均濃度ヒストグラム50になっている。最大度数は、度数の最大値である。
【0099】
網点領域が網点写真領域である場合、網点の面積率が不均一であるので、平均濃度ヒストグラム50は、濃度値の区分毎に差が生じるけれども、平均濃度値の分布がほとんど均一的なグラフになる。図11(2)の例では、最大度数が、残余の濃度値の区分における度数と差がほとんどない平均濃度ヒストグラム50になっている。
【0100】
網点画像種別判定部5は、最大度数算出部分55、度数閾値設定部分56、網点種別判定部分57、種別判定部入力端子58および種別判定部出力端子59を含んで構成される。種別判定部入力端子58は、電気信号が受渡し可能な状態で、網点種別特徴量算出部4の出力端子(図示せず)と接続され、種別判定部出力端子59は、電気信号が受渡し可能な状態で、原稿種別判定手段7の種別判定手段出力端子7と接続される。
【0101】
最大度数算出部分55は、網点種別特徴量算出部4に与えられる網点画像特徴量信号、具体的には網点画像特徴量に基づいて、最大度数を算出するとともに、度数合計値MAXを算出する。度数合計値MAXは、網点画像特徴量のうち、最大度数とその近傍の度数との合計値、具体的には最大度数と、最大度数における濃度値の区分に隣接する濃度値の区分における度数との合計値である。
【0102】
図11(1)および図11(2)の例では、度数合計値MAXは、斜線で表される部分である。最大度数算出部分55は、算出結果である度数合計値MAXを表す度数合計値信号を網点種別判定部分57に与える。
【0103】
度数閾値設定部分56は、度数合計値MAXとの比較に用いるための度数閾値THを設定し、その度数閾値THを表す度数閾値信号を網点種別判定部分57に与える。度数閾値THは、多くの原稿画像のサンプルに基づいて得られる値であって、たとえば平均濃度ヒストグラム50において、各濃度値の区分における度数を合計した値を、濃度値の区分の数で除算した値である。
【0104】
網点種別判定部分57は、度数合計値信号および度数閾値信号、具体的には最大度数算出部分55による度数合計値MAXと、度数閾値設定部分56による度数閾値THに基づいて、度数合計値MAXと度数閾値THとを比較する。網点種別判定部分57は、度数合計値MAXが度数閾値THよりも大きい場合、網点領域が網点上文字領域であると判定し、度数合計値MAXが度数閾値TH以下である場合、網点領域が網点写真領域であると判定する。
【0105】
前述のように原稿画像における網点領域の種別によって、平均濃度値の分布に違いが生じるので、その違いを表す特徴量を算出することによって、原稿画像における網点領域を細かく種別することができ、原稿画像が網点上文字領域および網点写真領域のいずれを含むかを判定することができる。
【0106】
図13は、画像形成装置60の構成を示すブロック図である。図14は、空間フィルタ処理に用いられるデジタルフィルタの一例を説明するための図であって、図14(1)は、網点領域が、網点上文字領域である場合の第1フィルタ78を示し、図14(2)は、網点領域が、網点写真領域である場合の第2フィルタ79を示す。画像形成装置60は、紙および紙以外の材料からなる記録用のシートを含む記録材に、画像を形成するための装置であって、操作パネル61、画像入力装置62、画像処理装置1、画像出力装置63を含んで構成される。
【0107】
操作者は、操作パネル61を操作することによって、画像形成装置60の動作指令、具体的には画像入力装置62、画像処理装置1および画像出力装置63に各種の動作指令を与えることができる。
【0108】
画像入力装置62は、原稿に形成される画像、すなわち原稿画像を読取るための装置であって、固体撮像素子、たとえば蓄積電荷結合素子(Charge Coupled
Device:略称CCD、以下CCDと呼ぶ場合がある)を用いたラインセンサを備えるスキャナ部を含んで構成される。
【0109】
画像入力装置62は、光源によって白色光を原稿に照射して、原稿からの反射光の色をCCDラインセンサによって、主走査方向および副走査方向に並ぶ複数の画素に分割して検出して、原稿の画像を読取り、各画素の色および強度によって原稿画像を表す原稿画像データを、電気信号によって画像処理装置1に与える。
【0110】
原稿画像データは、3つの色成分である赤、緑および青の濃度に対応する数値によって表され、赤信号R、緑信号Gおよび青信号Bとして画像入力装置62によって画像処理装置1に与えられる。
【0111】
赤信号Rは、原稿からの赤色光の反射率を画素毎にアナログで表す電気信号である。緑信号Gは、原稿からの緑色光の反射率を画素毎にアナログで表す電気信号である。青信号Bは、原稿からの青色光の反射率を画素毎にアナログで表す電気信号である。
【0112】
画像処理装置1は、アナログ/デジタル変換部(以下、A/D変換部という)64、シェーディング補正部65、画像処理手段68および制御手段53を含んで構成される。
【0113】
A/D変換部64は、与えられるアナログ信号をデジタル信号に変換する。具体的にはA/D変換部64は、アナログ信号であって、画像入力装置62によって与えられる赤信号R、緑信号Gおよび青信号Bを、各画素毎に赤色光、緑色光および青色光の反射率をデジタルで表すデジタル信号にそれぞれ変換する。A/D変換部64は、デジタル信号に変換された赤信号R、緑信号Gおよび青信号Bを、シェーディング補正部65に与える。
【0114】
シェーディング補正部65は、A/D変換部64からの赤信号R、緑信号Gおよび青信号Bの表すデータに含まれる歪み成分を取り除く処理をする。シェーディング補正部65は、A/D変換部64からの赤信号R、緑信号Gおよび青信号Bに対して、画像入力装置62の照明系、結像光学系および撮像系(受像系)で生じる各種の歪み成分を取り除く処理をし、処理後の赤信号R、緑信号Gおよび青信号Bを、原稿種別判定手段2に与える。
【0115】
原稿種別判定手段2は、シェーディング補正部65による処理後の赤信号R、緑信号Gおよび青信号Bを、画像処理装置1において扱いやすいデータの信号、たとえば濃度値を表す信号に変換する。具体的には原稿種別判定手段2は、赤色光、緑色光および青色光の各反射率値を、赤色光の濃度値と、緑色光の濃度値と、青色光の濃度値とを表す信号にそれぞれ変換し、変換後の信号である画素値信号に基づいて、原稿画像の種別を判定する。
【0116】
原稿種別判定手段2は、赤色光、緑色光および青色光の各濃度値に基づいて、画素値信号を補色反転したシアンの濃度値を表すシアン信号Cと、マゼンタの濃度値を表すマゼンタ信号Mと、イエローの濃度値を表すイエロー信号Yに変換する。シアン信号C、マゼンタ信号Mおよびイエロー信号Yは、入力階調補正部66に出力される。
【0117】
画像処理手段68は、入力階調補正部66、色補正部67、領域分離処理部69、黒生成下色除去部70、空間フィルタ処理部71、出力階調補正部72および階調再現処理部73を含んで構成される。
【0118】
画像処理手段68は、入力される画像を予め定める画像に変換処理する。具体的には画像処理手段68は、画像形成時に原稿画像の再現性および形成する画像の画質が向上するように、原稿画像の各画素に対して各種の画像処理、たとえば入力階調補正部66、色補正部67、領域分離処理部69、黒生成下色除去部70、空間フィルタ処理部71、出力階調補正部72および階調再現処理部73における処理をする。
【0119】
入力階調補正部66は、シアン信号C、マゼンタ信号Mおよびイエロー信号Yに基づいて、カラーバランスを整えるとともに、コントラスト調整および余分な背景を取除くための下地領域濃度の除去などの各種の画質調整処理が行われる。入力階調補正部66は、カラーバランスが整えられ、画質調整処理後のシアン信号C、マゼンタ信号Mおよびイエロー信号Yを色補正部67に与える。
【0120】
色補正部67は、入力階調補正部66からの各信号に基づいて、画像形成時に原稿画像の色の再現性を向上させるために、色材として用いられるシアン、マゼンタおよびイエローの不要吸収成分を、シアン、マゼンタおよびイエローの各色材の分光特性に基づいて色濁りを取除く色補正処理をする。色補正部67は、原稿画像の各画素に関して、色補正後のシアン信号C、マゼンタ信号Mおよびイエロー信号Yを画像処理手段68に与える。
【0121】
領域分離処理部69は、色補正部67からの各信号および網点画像種別判定信号、具体的には色補正後のシアン、マゼンタおよびイエローの各濃度値と、網点画像種別判定部5による判定結果に基づいて、原稿画像から複数の領域を分離する領域分離処理を行う。
【0122】
具体的には領域分離処理部69は、網点領域が網点上文字領域である場合、前述の領域分離処理を行わず、網点領域が網点写真領域である場合、原稿画像の各画素が文字領域、網点領域および写真領域を含む複数の領域のいずれに属するかを判定し、原稿画像を前記複数の領域に分離する。
【0123】
領域分離処理部69は、領域の分離結果に基づいて、原稿画像の各画素がいずれの領域に属するかを表す領域識別信号を、後段の黒生成下色除去部70、空間フィルタ処理部71、階調再現処理部73に与える。
【0124】
黒生成下色除去部70は、色補正部67による色補正後の信号と領域識別信号とに基づいて、黒を生成するための黒生成処理と、黒生成処理で得られる黒の濃度値を差し引いて、新たなシアン、マゼンタおよびイエローの各濃度値を求める下色除去処理とをする。黒生成下色除去部70では、領域識別信号、具体的には領域分離処理部69による領域分離の結果に基づいて、領域の種別に応じて黒生成量および下色除去量を切換える。
【0125】
色補正部36からのシアン信号C、マゼンタ信号Mおよびイエロー信号Yの3色の信号は、黒生成下色除去部70による処理で、シアン信号C、マゼンタ信号M、イエロー信号Yおよび黒信号Kの4色の信号に変換される。黒生成下色除去部70は、黒生成処理および下色除去処理後のシアン信号C、マゼンタ信号M、イエロー信号Yおよび黒信号Kを、空間フィルタ処理部71に与える。
【0126】
空間フィルタ処理部71は、黒生成下色除去部70からの各信号と、網点画像種別判定信号と、領域識別信号とに基づいて、デジタルフィルタを用いて空間フィルタ処理して、複数の画素を含む予め定める領域毎に、空間周波数特性を補正する。これによって記録材に形成される画像のぼやけおよび粒状性劣化を防止することができる。空間フィルタ処理部71は、空間フィルタ処理後のシアン信号C、マゼンタ信号M、イエロー信号Yおよび黒信号Kを、出力階調補正部72に与える。
【0127】
出力階調補正部72は、空間フィルタ処理部71からの各信号に基づいて、画像処理装置1において扱いやすい濃度値などの信号を、画像出力装置63の特性値である網点面積率に変換する出力階調補正処理をする。出力階調補正処理は、シアン、マゼンタ、イエローおよび黒の各濃度値を、画像出力装置63の特性値である網点面積率にそれぞれ変換する処理である。出力階調補正部72は、変換後のシアン信号C、マゼンタ信号M、イエロー信号Yおよび黒信号Kを階調再現処理部73に与える。
【0128】
階調再現処理部73は、出力階調補正部72からの各信号と、領域識別信号とに基づいて階調再現処理をする。階調再現処理部73は、最終的に画像を画素に分割してそれぞれの階調を再現するための処理であって、中間調を生成する中間調再現処理である。
【0129】
たとえば領域分離処理部69で、文字領域として原稿画像から分離された領域に関して、文字領域が、黒文字および色文字の形態の画像の領域である場合、黒文字および色文字との再現性が向上するように、空間フィルタ処理部71では、高周波数の強調量が大きくなるように鮮鋭強調処理される。黒文字は、黒色で表す文字であって、色文字は、有彩色で表す文字である。鮮鋭強調処理の後、階調再現処理部73では、高域周波数の再現に適した高解像度のスクリーンによる2値化処理および多値化処理のいずれかの処理が行われる。
【0130】
また領域分離処理部69で、網点領域として原稿画像から分離された領域に関して、空間フィルタ処理部71では、入力網点成分を除去し、モアレを抑制するための第2フィルタ79(図14(2)参照)を用いた平滑化フィルタ処理が行われる。平滑化フィルタ処理の後、出力階調補正部72では、前述の出力階調補正処理が行われる。階調再現処理部73では、階調再現性を重視したスクリーンによる2値化処理および多値化処理のいずれかの処理が行われる。
【0131】
また領域分離処理部69で、写真領域として原稿画像から分離された領域に関して、階調再現処理部73では、階調再現性を重視したスクリーンによる2値化処理および多値化処理のいずれかの処理が行われる。
【0132】
階調再現処理部73は、階調再現処理後のシアン信号C、マゼンタ信号M、イエロー信号Yおよび黒信号Kを、図示しない記憶手段に与える。記憶手段には、シアン信号C、マゼンタ信号M、イエロー信号Yおよび黒信号Kがそれぞれ有する情報である画像データが記憶される。
【0133】
前述の網点画像種別判定部5は、網点領域に対する種別の判定結果を表す信号である網点画像種別判定信号を、制御手段53にさらに与える。制御手段53は、網点画像種別判定信号、具体的には網点画像種別判定部5の判定結果に基づいて、原稿画像における網点領域の種別に応じた変換処理内容で網点領域が含まれる画像、すなわち原稿画像の変換処理をするように、画像処理手段68を制御する。
【0134】
網点が下地である網点上文字領域では、文字が含まれることが多く、網点上文字領域を網点領域として誤判定することが多いので、網点上文字領域を網点領域として扱うと、画像形成時に形成される文字の再現性が大きく劣化してしまう。また網点上文字領域は、高線数で表されることが多い。このような不具合をなくすために、領域分離処理部69において、原稿画像から複数の領域を分離する領域分離処理を行わず、空間フィルタ処理部71で、図14(1)に示されるデジタルフィルタである第1フィルタ78を用いて空間フィルタ処理する。
【0135】
前述のように網点領域が、網点上文字領域である場合、第1フィルタ78を用いて空間フィルタ処理、具体的には平滑化フィルタ処理することによって、文字を含む低周波成分は、ゲインが上がり、言換えるとゲインが強調され、網点を含む高周波成分は、ゲインが下がる、言換えるとゲインが抑制される。
【0136】
また網点領域が、網点写真領域である場合、領域分離処理部69による領域分離処理によって、原稿画像から複数の領域に精度よく分離することができるので、領域分離処理部69による領域分離処理を行うとともに、空間フィルタ処理部71で空間フィルタ処理する。
【0137】
たとえば原稿画像から分離された網点領域に対して、空間フィルタ処理部71において、図14(2)に示されるデジタルフィルタである第2フィルタ79を用いて空間フィルタ処理する。網点領域が網点写真領域である場合、第2フィルタ79を用いて空間フィルタ処理することによって、前述のように入力網点成分が除去され、モアレが抑制される。
【0138】
このように原稿画像における網点領域の種別に応じて、領域分離処理部69および空間フィルタ処理部71による処理を、制御手段53によって変換処理内容を切換えることができ、領域の種別、具体的には網点領域の種別に応じて適切な処理をすることができる。
【0139】
前述のように制御手段53は、網点画像種別判定部5の判定結果に応じて、画像処理手段68および画像処理手段68における処理のいずれかを切換えるので、原稿画像における網点領域の種別に応じて、画像形成時における画像の高画質化を実現することができる。
【0140】
前述の画像処理装置1によって各種の画像処理が行われた画像データである原稿画像データは、記憶手段に一旦記憶され、所定のタイミングで読み出されて、シアン信号C、マゼンタ信号M、イエロー信号Yおよび黒信号Kとして、画像出力装置63に与えられる。
【0141】
画像出力装置63は、画像処理装置1によって各種の処理が行われた原稿画像データ、具体的には記憶手段に記憶されるシアン信号C、マゼンタ信号M、イエロー信号Yおよび黒信号Kに基づいて、画像を記録材に形成する。画像出力装置63の一例として、たとえば電子写真方式およびインクジェット方式を用いたカラー画像出力装置などを挙げることができるが、特に限定されるものではない。また画像出力装置63の他の例として、画像表示装置たとえば液晶ディスプレイであってもよい。
【0142】
本実施の形態では、前述の制御手段53は、画像処理手段68の変換処理を制御することに加えて、原稿画像データに対する各種の処理を制御する構成であって、たとえば中央処理装置(Central Processing Unit:略称CPU)である。
【0143】
前述の原稿種別判断手段2では、局所的な領域から網点領域に属する画素を識別した情報と、大局的な濃度分布情報、具体的には前記局所的な領域に比べて大きな領域から得られる濃度分布情報とを組合わせて用いているので、画像における網点領域の種別を正確に判定することができる。これによって領域分離処理部69による処理を含む変換処理を、網点領域の種別に応じて適切に切換えることができる。したがって網点上文字領域および網点写真領域の高画質化を両立することができる。
【0144】
本実施の形態によれば、原稿画像の各画素が、網点領域に属するか否かが網点領域識別部3で識別される。網点領域識別部3で、網点領域に属すると識別された各画素の濃度値に基づいて、平均濃度ヒストグラム50が算出されることによって、網点画像特徴量が網点種別特徴量算出部4で算出される。網点種別特徴量算出部4による網点画像特徴量に基づいて、原稿画像における網点領域の種別が網点画像種別判定手段で判定される。このように網点領域に属する画素だけの濃度値の分布情報である平均濃度ヒストグラム50を用いることによって、網点領域が有する複数種類の形態の画像の領域毎に、適した特徴量を算出することができるので、原稿画像における網点領域を細かく種別することができる。
【0145】
本実施の形態によれば、原稿画像が予め定める画像に画像処理手段68で変換処理される。網点画像種別判定部5の判定結果に基づいて、網点領域の種別に応じた変換処理内容で網点領域が含まれる画像の変換処理をするように、画像処理手段68が制御手段53によって制御される。これによって原稿画像が予め定める画像に変換処理される。網点領域の種別に応じた変換処理内容で変換処理するように制御して、網点領域が含まれる画像を予め定める画像に変換処理することができるので、網点領域を1種類の形態の画像の領域として扱う場合に生じる不具合をなくすことができる。また原稿画像における網点領域の種別に応じて画像処理手段68の変換処理、具体的には領域分離処理部69および空間フィルタ処理部71の各変換処理内容を、制御手段53が切換えることができる。これによって、多種多様な印刷物を原稿とする原稿画像に対して、画像形成時に形成される画像の高画質化を実現することができる。
【0146】
さらに本実施の形態によれば、網点領域が網点写真領域である場合、原稿画像が、文字領域、網点領域および写真領域を含む複数の領域に画像処理手段の領域分離処理部69で精度よく分離される。網点領域の種別に応じて原稿画像を複数の領域に精度よく分離することによって、領域毎に適切に変換処理することができるので、分離された領域毎に画質を向上させることができる。
【0147】
さらに本実施の形態によれば、網点領域が網点写真領域である場合、モアレ抑制のための第2フィルタ79を用いて、空間フィルタ処理部71で空間フィルタ処理される。網点が下地として扱われる場合、文字を含むことが多いので、平滑化作用と強調作用とが混合されたような第1フィルタ78を用いて、空間フィルタ処理部71で空間フィルタ処理される。このように原稿画像における網点領域の種別に応じて空間フィルタ処理部71の処理内容を切換えるので、領域の種別に応じて適切な処理を行うことができ、画像形成時に形成される画像の高画質化を実現することができる。
【0148】
さらに本実施の形態によれば、原稿画像において、網点領域だけに関する濃度分布情報を用いることによって、原稿画像における網点領域の種別を精度よく、かつ簡単に行うことができるとともに、原稿画像における網点領域の種別に応じて、領域分離処理部69および空間フィルタ処理部71の各変換処理内容を切換えることができる。これによって画像形成装置60は、多種多様な印刷物を原稿とした原稿画像に対して、画像形成時に高画質な画像を形成することができる。
【0149】
図15は、画像処理装置1の画像処理方法に基づく処理の処理手順を示すフローチャートである。画像処理装置1の画像処理方法は、網点領域識別工程、網点種別特徴量算出工程および網点画像種別判定工程を含む。網点領域領域有無判定工程は、ステップs1における網点領域識別処理であって、入力される画像である原稿画像の各画素が、網点領域に属するか否かを識別する。
【0150】
網点種別特徴量工程は、ステップs2における処理であって、網点領域識別工程で、網点領域に属すると識別された各画素の画素値に基づいて、網点領域の特徴量を算出する特徴量算出工程である。網点画像種別判定工程は、ステップs3における処理であって、網点種別特徴量算出工程で算出される特徴量に基づいて、原稿画像における網点領域の種別を判定する。
【0151】
前述の画像処理方法は、原稿画像を予め定める画像に変換処理するステップs4、ステップs5、ステップs6およびステップs7における画像変換処理工程であって、網点画像種別判定工程の判定結果に基づいて、原稿画像における網点領域の種別に応じた変換内容で網点領域が含まれる画像、すなわち原稿画像の変換処理をする画像変換処理工程をさらに含む。
【0152】
画像変換処理工程は、原稿画像を、文字領域、網点領域および写真領域を含む複数の領域に分離するステップs4の領域分離処理段階を有する。画像変換処理工程は、原稿画像を、領域の種別に応じた空間フィルタ処理するステップ5およびステップs7の空間フィルタ処理段階を有する。
【0153】
ステップs0では、画像処理装置1の画像処理方法に基づく処理を開始して、ステップs1に進む。ステップs1の網点領域識別工程では、原稿画像の各画素に対して網点領域識別処理されて、原稿画像の各画素が、網点領域に属するか否かが識別されて、ステップs2の網点種別特徴量算出工程に進む。
【0154】
ステップs2の網点種別特徴量算出工程では、網点領域に属すると識別された各画素に関して、平均濃度ヒストグラム50を算出する。具体的には網点領域に属すると識別された各画素の濃度値に基づいて、前述の平均濃度ヒストグラム50を算出し、その平均濃度ヒストグラム50に基づいて、濃度値の区分毎の度数を網点画像特徴量として算出して、ステップs3の網点画像種別判定工程に進む。
【0155】
ステップs3の網点画像種別判定工程では、網点種別特徴量算出工程で算出された網点画像特徴量に基づいて、度数合計値MAXを算出し、その度数合計値MAXに基づいて、原稿画像における網点領域の種別を判定する。ステップs3では、網点領域の種別が網点上文字領域である場合、ステップs6に進み、網点領域の種別が、網点写真領域である場合、ステップs4の領域分離段階に進む。
【0156】
ステップs4の領域分離処理段階では、原稿画像を、文字領域、網点領域および写真領域を含む複数の領域に分離して、ステップs5の空間フィルタ処理段階に進む。
【0157】
ステップs5の空間フィルタ処理段階では、原稿画像を、領域の種別、具体的には網点領域の種別に応じて空間フィルタ処理する。具体的には空間フィルタ処理段階では、網点領域に対して平滑化フィルタ処理され、文字領域に対して鮮鋭強調処理される。空間フィルタ処理が終了すると、ステップs8に進んで画像処理方法に基づく処理のすべての処理手順を終了する。
【0158】
ステップs6では、原稿画像における網点領域の種別が、網点上文字領域であるので、領域分離処理段階における処理を行わずに、ステップs7の空間フィルタ処理段階に進む。
【0159】
ステップs7の空間フィルタ処理段階では、原稿画像を、領域の種別に応じた空間フィルタ処理する。具体的には原稿画像全体にわたって、低周波数成分を強調するとともに、高周波数成分を抑制するデジタルフィルタを用いて空間フィルタ処理して、ステップs8に進んで画像処理方法に基づく処理のすべての処理手順を終了する。
【0160】
図16は、ステップs1の網点領域識別工程における網点領域識別処理の処理手順を示すフローチャートである。ステップa0では、網点領域識別処理を開始して、ステップa1に進む。
【0161】
ステップa1では、原稿画像の各画素に対して、エッジ判定処理する。具体的には原稿画像の各画素が、エッジ画素であるか否かを判定する。エッジ判定処理が終了すると、ステップa2に進む。
【0162】
ステップa2では、エッジ判定処理の処理結果を第1ブロックメモリ11に格納して、ステップa3に進む。
【0163】
ステップa3では、原稿画像の各画素に対して、対象画像部分抽出処理する。具体的には原稿画像の各画素が、対象画像部分46に含まれるか否かを判定する。対象画像部分抽出処理が終了すると、ステップa4に進む。
【0164】
ステップa4では、対象画像部分抽出処理の処理結果を第2ブロックメモリ13に格納して、ステップa5に進む。
【0165】
ステップa5では、第2ブロックメモリ13に格納される対象画像部分抽出処理の処理結果を用いて、第1特徴量を算出して、ステップa6に進む。
【0166】
ステップa6では、第1特徴量を用いてエッジ種別判定処理する。具体的にはエッジ判定処理の判定結果と第1特徴量とに基づいて、エッジ画素が、複数の領域のいずれに属するかを判定する。エッジ種別判定処理が終了すると、ステップa7に進む。
【0167】
ステップa7では、エッジ種別判定処理の処理結果を第3ブロックメモリ16に格納して、ステップa8に進む。
【0168】
ステップa8では、第3ブロックメモリ16に格納されるエッジ種別判定処理の処理結果を用いて、第2特徴量を算出し、ステップa9に進む。
【0169】
ステップa9では、第2特徴量を用いて網点領域判定処理する。具体的には第2特徴量に基づいて、原稿画像の各画素が、網点領域に属するか否かを判定する。網点領域判定処理が終了すると、ステップa10に進んで網点領域識別処理のすべての処理手順を終了し、図15に示すステップs2進む。
【0170】
前述のように領域の特性に適した第1特徴量および第2特徴量を用いることによって、網点領域に属する画素と文字領域に属する画素とを精度よく識別することができる。これによって網点領域識別工程で、原稿画像の各画素が網点領域に属するか否かを精度よく識別することができる。
【0171】
本実施の形態によれば、原稿画像の各画素が、網点領域に属するか否かが網点領域識別工程で識別される。網点領域識別工程で、網点領域に属すると識別された各画素の濃度値に基づいて、平均濃度ヒストグラム50が算出されることによって、網点画像特徴量が網点種別特徴量算出工程で算出される。網点種別特徴量算出工程における網点画像特徴量に基づいて、原稿画像における網点領域の種別が網点画像種別判定工程で判定される。このように網点領域に属する画素だけの濃度値の分布情報である平均濃度ヒストグラム50を用いることによって、網点領域の複数種類の形態の画像の領域毎に、適した特徴量を算出することができるので、原稿画像における網点領域を細かく種別することができる。
【0172】
本実施の形態によれば、原稿画像が予め定める画像に画像変換処理工程で変換処理される。具体的には画像変換処理工程では、網点画像種別判定工程の判定結果に基づいて、原稿画像における網点領域の種別に応じた変換処理内容で網点領域が含まれる画像の変換処理をする。これによって原稿画像が予め定める画像に変換処理される。網点領域の種別に応じた変換処理内容で、網点領域が含まれる画像を予め定める画像に変換処理することができるので、網点領域を1種類の形態の画像の領域として扱う場合に生じる不具合をなくすことができる。
【0173】
また原稿画像における網点領域の種別に応じて画像変換処理工程の変換処理、具体的には領域分離処理段階および空間フィルタ処理段階の各変換処理内容が切換えられる。これによって多種多様な印刷物を原稿とする原稿画像に対して、画像形成時に形成される画像の高画質化を実現することができる。
【0174】
さらに本実施の形態によれば、網点領域が網点写真領域である場合、原稿画像が、文字領域、網点領域および写真領域を含む複数の領域に画像変換処理工程の領域分離処理段階で精度よく分離される。網点領域の種別に応じて原稿画像を複数の領域に精度よく分離することによって、領域毎に適切に変換処理することができるので、分離された領域毎に画質を向上させることができる。
【0175】
さらに本実施の形態によれば、網点領域が網点写真領域である場合、モアレ抑制のための第2フィルタ79を用いて、空間フィルタ処理段階で空間フィルタ処理される。網点が下地として扱われる場合、文字を含むことが多いので、平滑化作用と強調作用とが混合されたような第1フィルタ78を用いて、空間フィルタ処理段階で空間フィルタ処理される。このように原稿画像における網点領域の種別に応じて空間フィルタ処理段階の処理内容を切換えるので、領域の種別に応じて適切な処理を行うことができ、画像形成時に形成される画像の高画質化を実現することができる。
【0176】
さらに本実施の形態によれば、原稿画像において、網点領域だけに関する濃度分布情報を用いることによって、原稿画像における網点領域の種別を精度よく、かつ簡単に行うことができるとともに、原稿画像における網点領域の種別に応じて、領域分離処理段階および空間フィルタ処理段階の各変換処理内容を切換えることができる。このように処理することができる画像処理方法に従って、画像形成装置60に画像を形成させることによって、多種多様な印刷物を原稿とした原稿画像に対して、画像形成時に高画質な画像を形成することができる。
【0177】
本発明の実施の他の形態として、画像処理装置76および画像形成装置77は、前述の画像処理方法を利用可能であって、図1の仮想線で示されるプログラム読取り手段75を有する。本実施の形態では、プログラム読取り手段75は、画像処理装置76に設けられる。
【0178】
前述のプログラムをパッケージ化し、コンピュータ読取り可能な記録媒体74に記録する。プログラム読取り手段75が、記録媒体74に記録されるプログラムを読取ることによって、画像処理装置76および画像形成装置77に前述の画像処理方法に基づく処理を実行させることができる。
【0179】
前述のようにプログラム読取り手段75を画像処理装置1に設けることによって、画像処理装置76および画像形成装置77において、本発明に従う画像処理方法と異なる方法に基づく処理をする構成であった場合、画像処理方法のバージョンアップ、具体的には本発明に従う画像処理方法に変更することができる。これによって操作者は、画像処理装置76および画像形成装置77を新規に購入することなく、本発明に従う画像処理方法を実行することができる。
【0180】
また画像処理装置76および画像形成装置77の構成の他の例として、画像処理装置76および画像形成装置77のいずれか一方は、記録媒体74に記録されるプログラムの読取り手段75を備えるコンピュータと、ネットワークおよび通信回線を介して接続される構成であってもよい。この場合、コンピュータの読取り手段75で記録媒体74に記録されるプログラムを読取って、そのプログラムを前記ネットワークおよび通信回線を介して、画像処理装置76および画像形成装置77のいずれか一方に転送させる。転送されたプログラムを画像処理装置76および画像形成装置77のいずれか一方で実行させることによって、本発明に従う画像処理方法に基づく処理を実行することができる。
【0181】
前記記録媒体74は、マイクロコンピュータに含まれるメモリ、たとえばリードオンリーメモリ(Read Only Memory:略称ROM)であってもよいし、磁気テープおよびカセットテープなどのテープ系であってもよい。記録媒体74の他の例として、磁気ディスクの場合には、フレキシブルディスクおよびハードディスクであってもよい。
【0182】
光ディスクの場合には、記録媒体74は、コンパクトディスク−リードオンリーメモリ(compact disk−read only memory:略称CD−ROM)、マグネットオプティカル(mag neto optical:略称MO)、ミニディスク(minidisk:略称MD)およびデジタルバーサタイルディスク(digital versatile disk:略称DVD)であってもよい。
【0183】
さらにカードの場合には、記録媒体74は、メモリカードを含むアイシーカード(IC Card:略称ICカード)および光カードであってもよい。また記録媒体74は、半導体メモリであるマスクロム(mask read only memory:略称マスクROM)、イーピーロム(erasable programmable read only memory:略称EPROM)、イーイーピーロム(electrically erasable programmable read onlymemory:略称EEPROM)、およびフラッシュロムを含むとともに、固定的に前記プログラムを担持する媒体であってもよい。
【0184】
本実施の形態によれば、コンピュータに前述の画像処理方法を実行させることによって、画像処理方法に基づく処理を自動的に実行させて、原稿画像における網点領域の種別を細かく種別することができるとともに、領域の種別に応じて適切な処理、たとえば領域分離処理および空間フィルタ処理して、画像形成時に形成される画像の画質を向上させることができる。
【0185】
さらに本実施の形態によれば、原稿画像における網点領域の種別を判定し、その種別に応じて処理する画像処理方法をコンピュータに実行させるためのプログラムを、コンピュータによって読取り可能な記録媒体74に記録させる。記録媒体74からコンピュータにプログラムを読込ませて、このプログラムをコンピュータに実行させることによって、原稿画像の種別に応じて適切な処理をすることができる。また本発明に従う画像処理方法をプログラムで表すことによって、コンピュータに容易に供給することができるとともに、汎用的なものとすることができる。
【0186】
前述の実施の各形態は、本発明の例示に過ぎず、構成を変更してもよい。たとえば平均濃度ヒストグラム50を用いる換わりに、網点領域に属する画素の濃度値とその度数との関係を表す濃度ヒストグラムを用いて、網点種別特徴量を算出する構成であってもよい。また領域分離処理部69は、網点領域識別部3を有する構成であってもよいし、このような構成である場合、原稿種別判定手段2の網点領域識別部3の換わりに、領域分離処理部69の網点領域識別部3を用いて原稿画像に網点領域が存在するか否かを判定する構成であってもよい。
【0187】
【発明の効果】
本発明によれば、入力される画像の各画素が網点領域に属するかが網点領域識別手段で識別される。網点領域は、複数種類の形態の画像の領域を含んでおり、たとえば網点と文字とが混在する領域と、文字のない単なる網点だけから成る領域とを含む。複数種類の形態の画像の領域を含む網点領域を1種類の形態の画像の領域として扱う場合、たとえば網点と文字とが混在する領域は、文字が劣化する不具合が生じる。このような不具合を防止して、画像における網点領域の種別に応じた処理ができるように、画像における網点領域を、細かく種別しなければならない。網点領域識別手段で網点領域に属すると識別された各画素の画素値に基づいて、網点領域の特徴を表す特徴量が特徴量算出手段で算出され、その特徴量に基づいて、画像における網点領域の種別が網点画像種別判定手段で判定される。このように網点領域の複数種類の形態の画像の領域毎に、適した特徴量を算出することによって、画像における網点領域を細かく種別することができる。
【0188】
また本発明によれば、入力される画像が、再現性が向上するように、予め定める画像に画像処理手段で変換処理される。網点画像種別判定手段の判定結果に基づいて、画像における網点領域の種別に応じた変換処理内容で網点領域が含まれる画像の変換処理をするように、画像処理手段が制御手段によって制御される。画像における網点領域の種別に応じた変換処理内容で変換処理するように制御して、網点領域が含まれる画像を予め定める画像に変換処理することができるので、網点領域を1種類の形態の画像の領域として扱う場合に生じる不具合をなくすことができる。
【0189】
また本発明によれば、入力される画像が、文字領域、網点領域および写真領域を含む複数の領域に画像処理手段の領域分離処理部で分離される。入力される画像を複数の領域に分離することによって、分離される領域毎に画質が向上するように、領域毎に適切に処理することができる。
【0190】
また本発明によれば、入力される画像が、画像処理手段の空間フィルタ処理部で、領域の種別に応じて空間フィルタ処理される。領域の種別に応じて適切に空間フィルタ処理することによって、画像形成時に形成される画像の画質劣化を防止して、画像の画質を向上させることができる。
【0191】
また本発明によれば、原稿から読取った画像が、網点領域を含む場合、画像における網点領域の種別に応じて適切に処理することができるので、多種多様な印刷物を原稿とする画像に対して、高画質の画像を記録材に形成することができる。
【0192】
また本発明によれば、入力される画像の各画素が、網点領域に属するか否かが網点領域識別工程で識別される。網点領域は、複数種類の形態の画像の領域を含んでおり、たとえば網点と文字とが混在する領域と、文字のない単なる網点だけから成る領域とを含む。複数種類の形態の画像の領域を含む網点領域を1種類の形態の画像の領域として扱う場合、たとえば網点と文字とが混在する領域は、文字の画質が劣化する不具合が生じる。このような不具合を防止して、画像における網点領域の種別に応じた処理ができるように、網点領域を、細かく種別しなければならない。網点領域識別工程で網点領域に属すると識別された各画素の画素値に基づいて、画像における網点領域の特徴を表す特徴量が特徴量算出工程で算出され、その特徴量に基づいて、画像における網点領域の種別が網点画像種別判定工程で判定される。このように網点領域の複数種類の形態の画像の領域毎に、適した特徴量を算出することによって、画像における網点領域を細かく種別することができる。
【0193】
また本発明によれば、画像変換処理工程で、入力される画像が、予め定める画像に変換処理される。具体的には画像変換処理工程で、網点画像種別判定工程の判定結果に基づいて、画像における網点領域の種別に応じた変換処理内容で網点領域が含まれる画像が変換処理される。画像における網点領域の種別に応じた変換処理内容で、網点領域が含まれる画像を予め定める画像に変換処理することができるので、網点領域を1種類の形態の画像の領域として扱う場合に生じる不具合をなくすことができる。
【0194】
また本発明によれば、入力される画像が、文字領域、網点領域および写真領域を含む複数の領域に画像変換処理工程の領域分離処理段階で分離される。入力される画像を複数の領域に分離することによって、分離される領域毎に画質が向上するように、領域毎に適切に処理することができる。
【0195】
また本発明によれば、入力される画像が、画像変換処理工程の空間フィルタ処理段階で、領域の種別に応じて空間フィルタ処理される。領域の種別に応じて適切に空間フィルタ処理することによって、画像の画質劣化を防止して、画像の画質を向上させることができる。
【0196】
また本発明によれば、画像における網点領域の種別を判定し、その種別に応じて処理する画像処理方法をプログラムで表すことによって、コンピュータに画像処理方法に基づく処理を実行させる。これによってコンピュータによって画像処理方法に基づく処理を自動的に実行させて、入力される画像における網点領域の種別に応じて適切な処理をすることができる。
【0197】
また本発明によれば、画像における網点領域の種別を判定し、その種別に応じて処理する画像処理方法をコンピュータに実行させるためのプログラムを、コンピュータによって読取り可能な記録媒体に記録させる。記録媒体からコンピュータにプログラムを読込ませて、このプログラムをコンピュータに実行させることによって、入力される画像における網点領域の種別に応じて適切な処理をすることができる。
【図面の簡単な説明】
【図1】本発明の実施の一形態である画像処理装置1が備える原稿種別判定手段2の構成を示すブロック図である。
【図2】網点領域識別部3の構成を示すブロック図である。
【図3】第1ブロックメモリ11、第2ブロックメモリおよび第3ブロックメモリに格納される信号の関係を説明する図である。
【図4】エッジ判定部10の構成を示すブロック図である。
【図5】2次微分用フィルタ37のフィルタ係数の一例を説明するための図である。
【図6】対象画像部分抽出部12の構成を示すブロック図である。
【図7】第1局所画素ブロック26の一例を説明するための図であって、図7(1)は、2値化処理前の第1局所画素ブロック26を示し、図7(2)は、2値化処理後の第1局所画素ブロック26を示す。
【図8】図7に示される第1局所画素ブロック26内の各画素の濃度値と度数との関係の一例を示すグラフであって、図8(1)は、濃度ヒストグラム44を示し、図8(2)は、累積濃度ヒストグラムを示す。
【図9】第1局所画素ブロック26に対する第1特徴量の算出処理の一例を説明するための図である。
【図10】第2局所画素ブロック28の一例を説明するための図であって、図10(1)は、120線〜150線の中程度の線数を有する網点領域に対応する第2局所画素ブロック28を示し、図10(2)は、文字領域に対応する第2局所画素ブロック28を示す。
【図11】平均濃度ヒストグラム50の一例を示すグラフであって、図11(1)は、網点が下地である場合の平均濃度ヒストグラム50を示し、図11(2)は、網点が写真を表す場合の平均濃度ヒストグラム50を示す。
【図12】網点画像種別判定部5の構成を示すブロック図である。
【図13】画像形成装置60の構成を示すブロック図である。
【図14】空間フィルタ処理に用いられるデジタルフィルタの一例を説明するための図であって、図14(1)は、網点領域が、網点上文字領域である場合の第1フィルタ78を示し、図14(2)は、網点領域が、網点写真領域である場合の第2フィルタ79を示す。
【図15】画像処理装置1の画像処理方法に基づく処理の処理手順を示すフローチャートである。
【図16】ステップs1の網点領域識別工程における網点領域識別処理の処理手順を示すフローチャートである。
【符号の説明】
1,76 画像処理装置
2 原稿種別判定手段
3 網点領域識別部
4 網点種別特徴量算出部
5 網点画像種別判定部
50 平均濃度ヒストグラム
53 制御手段
55 最大度数算出部分
56 度数閾値設定部分
57 網点種別設定部分
60,77 画像形成装置
62 画像入力装置
63 画像出力装置
68 画像処理手段
69 領域分離処理部
71 空間フィルタ処理部
74 記録媒体
75 プログラム読取り手段
78 第1フィルタ
79 第2フィルタ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention is directed to an image processing method for calculating a feature amount of an entire input image and each pixel to determine the type of a halftone area in an image, a program for executing the method, and a recording medium storing the program And an image processing apparatus and an image forming apparatus including the same.
[0002]
[Prior art]
2. Description of the Related Art In an image forming apparatus of the related art, an entire image of a document is read by an image sensor using a charge coupled device (Charge Coupled Device: abbreviated CCD), and various processes are performed so as to improve the reproducibility of the document during image formation. It is configured to do. As a process for improving the reproducibility of the document, based on an image signal representing the whole image of the document, an image region including a plurality of pixels in the whole image is identified as one of a plurality of image regions, Appropriate processing is performed for each pixel based on the identification result.
[0003]
Examples of conventional techniques for identifying a plurality of image regions include a conventional technique using pattern matching (for example, see Non-Patent Document 1) and a conventional technique using feature values (for example, see Patent Documents 1 to 5). . In the related art using pattern matching, a large number of predetermined patterns are prepared, and a character area, a halftone area, and a photograph area are identified from an input image using the patterns.
[0004]
Specific examples of the related art using the feature amount include first to fifth related arts.
[0005]
In the first related art, an image region identification process is performed on a local pixel block having a plurality of pixels (see Patent Document 1). Regarding the local pixel block, the number of times that the pixel values of two adjacent pixels change is determined separately for the case where the pixel values of the two pixels are continuous in the main scanning direction and the case where the pixel values of the two pixels are continuous in the sub-scanning direction. Calculate the total number of times. The sum of the number of changes obtained in the main scanning direction and the sub-scanning direction is compared with predetermined values, respectively, and an image area is identified based on the comparison result.
[0006]
In the second related art, an image area identification process is performed on a local pixel block having a plurality of pixels (see Patent Document 2). For a plurality of pixels in the local pixel block, the maximum value and the minimum value are obtained from the pixel values of each pixel, and the difference between the maximum value and the minimum value is calculated. The calculated difference value is compared with a predetermined set value. When the value of the difference is smaller than the set value, the local pixel block is determined to be a portion where the pixel value of the pixel gradually changes in the predetermined scanning direction. When the value of the difference is larger than the set value, the local pixel block is a portion including a character portion in which the pixel value of the pixel changes drastically in the predetermined scanning direction, a contour of a photograph portion, and a halftone dot photograph portion. Is determined. Further, in the local pixel block, the number of times that the pixel value of two adjacent pixels changes is obtained according to a predetermined order in the main scanning direction and the sub-scanning direction. By comparing the number of changes described above with a predetermined value, if the number of changes is greater than a predetermined value, the local pixel block is determined to be a halftone dot region including a halftone dot portion, and the number of changes is determined by a predetermined value. If smaller, the local pixel block is determined not to be a halftone dot region. Various processes are performed on the pixels in the local pixel block based on the determination result.
[0007]
In the third related art, the number of pixels between two horizontal extreme points in the main scanning direction and the number of pixels between two vertical extreme points in the sub-scanning direction are counted, and the counting result is used as a feature amount. A halftone pixel belonging to a halftone area is extracted (see Patent Document 3). With digital multivalued data as an input, in the main scanning direction, one of a local maximum point where the density value becomes maximum and a local minimum point where the density value becomes minimum is used as a horizontal pole, and the number of pixels between the two horizontal poles is counted. . Similarly, in the sub-scanning direction, one of the local maximum point where the density value becomes maximum and the local minimum point where the density value becomes minimum is set as the vertical pole, and two vertical poles are detected. The number of pixels is counted. When the number of pixels between the horizontal extreme points is within a predetermined range, only pixels having the number of pixels between the vertical extreme points within a predetermined range are extracted as halftone pixels.
[0008]
In the fourth related art, the entire input image, that is, the type of the document is identified using the feature amount, instead of the image identification in pixel and local pixel block units (see Patent Document 4). The frequency of the pixels representing the halftone dots, and the pixels representing the characters and the pixels representing the halftone dots are mixed. It is determined whether or not many are included.
[0009]
In the fifth related art, an image region is extracted from an input image using the characteristics of pixels, the attributes of the extracted region are identified, and based on the distribution of the region for each attribute, the input image is extracted. The type is identified (see Patent Document 5).
[0010]
[Patent Document 1]
Japanese Patent Publication No. 6-66884
[Patent Document 2]
JP-A-62-147860
[Patent Document 3]
JP-A-6-178097
[Patent Document 4]
JP 2000-151997 A
[Patent Document 5]
JP 2000-295468 A
[Non-patent document 1]
Toshihiko Minamihi, "Binarization processing method for images with mixed characters, photographs, and halftone printing", Proceedings of the 1989 IEICE National Convention, pp. 91-94.
[0011]
[Problems to be solved by the invention]
In each of the above-described prior arts, the feature amount does not match, that is, since the feature amount does not sufficiently represent the characteristics of each image region, each image region cannot be accurately identified, and each pixel of the input image is It cannot be identified whether it belongs to the image area. In particular, as for a character region on a halftone dot, a pixel representing a character is identified as a pixel belonging to the halftone dot region, so that an optimal process for the halftone dot region, for example, a smoothing filter process for reducing moiré is performed. . As a result, processing that significantly impairs the reproducibility of the character area is performed, so that the reproducibility of the character area on the halftone dot is reduced, and an image with deteriorated image quality is formed.
[0012]
An object of the present invention is to determine the type of an input image, specifically, the type of an image in a halftone area, and to appropriately process the image in accordance with the type, an image processing method and a program for executing the method. An object of the present invention is to provide a recording medium recording the program, an image processing apparatus, and an image forming apparatus including the same.
[0013]
[Means for Solving the Problems]
The present invention provides a halftone dot region identifying means for identifying whether each pixel of an input image belongs to a halftone dot region,
A feature value calculating unit that calculates a feature value of a halftone dot region in an image based on a pixel value of each pixel identified as belonging to the halftone dot region,
An image processing apparatus comprising: a dot image type determining unit that determines a type of a dot region in an image based on a feature amount calculated by a feature amount calculating unit.
[0014]
According to the present invention, whether or not each pixel of the input image belongs to a halftone area is identified by the halftone area identifying means. The halftone dot region includes a plurality of types of image regions, and includes, for example, a region in which halftone dots and characters are mixed, and a region including only halftone dots without characters. In the case where a halftone dot region including a plurality of types of image regions is treated as a single type of image region, for example, in a region where halftone dots and characters are mixed, the image quality of characters deteriorates. In order to prevent such a problem and perform processing according to the type of the dot area in the image, it is necessary to finely classify the dot area in the image. Based on the pixel value of each pixel identified as belonging to the halftone dot area by the halftone dot area identification means, a feature quantity representing a feature of the halftone area in the image is calculated by the feature quantity calculation means, and based on the feature quantity. Then, the type of the dot area in the image is determined by the dot image type determining means. As described above, by calculating an appropriate feature amount for each of a plurality of types of images of the dot region, the dot region in the image can be finely classified.
[0015]
Further, according to the present invention, an image processing means for converting an input image into a predetermined image,
Control means for controlling the image processing means so as to convert the image including the halftone area with the conversion processing content corresponding to the type of the halftone area in the image based on the judgment result of the halftone image type judgment means The image processing apparatus according to claim 1, further comprising:
[0016]
According to the present invention, the input image is converted into a predetermined image by the image processing means so that the reproducibility is improved. The image processing means is controlled by the control means such that the image processing means performs the conversion processing of the image including the halftone area with the conversion processing content according to the type of the halftone area in the image based on the determination result of the halftone image type determination means. Is done. By controlling the conversion processing according to the conversion processing content according to the type of the halftone area in the image, the image including the halftone area can be converted into a predetermined image. It is possible to eliminate a problem that occurs when the image is treated as a region of an image of a form.
[0017]
Further, the invention is characterized in that the image processing means has an area separation processing unit for separating an input image into a plurality of areas including a character area, a halftone area, and a photograph area.
[0018]
According to the present invention, an input image is separated into a plurality of regions including a character region, a halftone dot region, and a photograph region by the region separation processing unit of the image processing means. By dividing an input image into a plurality of regions, appropriate processing can be performed for each region so that the image quality is improved for each region to be separated.
[0019]
Further, the invention is characterized in that the image processing means has a spatial filter processing section for performing a spatial filter processing on the input image according to the type of the region.
[0020]
According to the present invention, the input image is subjected to the spatial filter processing by the spatial filter processing unit of the image processing means according to the type of the region. By appropriately performing the spatial filter processing according to the type of the region, it is possible to prevent image quality deterioration of an image formed at the time of image formation and improve image quality of the image.
[0021]
According to another aspect of the invention, there is provided an image forming apparatus including the above-described image processing apparatus.
[0022]
According to the present invention, when an image read from a document includes a dot region, the image can be appropriately processed according to the type of the dot region in the image. Thus, a high-quality image can be formed on the recording material.
[0023]
Further, the present invention provides a halftone dot region identifying step of identifying whether each pixel of the input image belongs to a halftone dot region,
In the halftone dot region identification step, based on the pixel value of each pixel identified as belonging to the halftone dot region, a feature amount calculation step of calculating a feature amount of the halftone dot region in the image,
A halftone image type determining step of determining the type of a halftone area in an image based on the feature amount calculated in the feature amount calculating step.
[0024]
According to the present invention, whether or not each pixel of an input image belongs to a halftone area is identified in the halftone area identification step. The halftone dot region includes a plurality of types of image regions, and includes, for example, a region in which halftone dots and characters are mixed, and a region including only halftone dots without characters. In the case where a halftone dot region including a plurality of types of image regions is treated as a single type of image region, for example, in a region where halftone dots and characters are mixed, the image quality of characters deteriorates. In order to prevent such a problem and perform processing according to the type of the dot area in the image, it is necessary to finely classify the dot area in the image. Identifying whether each pixel of the input image belongs to a halftone area; and calculating a feature amount representing a feature of the halftone area based on a pixel value of each pixel identified as belonging to the halftone area. The type of the halftone dot region in the image is determined in the halftone image type determination step based on the feature amount. As described above, by calculating an appropriate feature amount for each of a plurality of types of images of the dot region, the dot region in the image can be finely classified.
[0025]
Further, the present invention is an image conversion processing step of converting the input image into a predetermined image,
The image processing apparatus further includes an image conversion processing step of performing conversion processing of an image including a halftone dot region based on the determination result of the halftone dot image type determination step with the conversion processing content according to the type of the halftone dot region in the image. And
[0026]
According to the present invention, in the image conversion processing step, the input image is converted into a predetermined image. Specifically, in the image conversion processing step, based on the determination result of the halftone image type determination step, an image including a halftone dot region is converted by a conversion process corresponding to the type of the halftone dot region in the image. In the case where a halftone dot region is treated as one type of image region, since the image including the halftone dot region can be converted into a predetermined image with the conversion processing content according to the type of the halftone dot region in the image. Can be eliminated.
[0027]
Further, the present invention is characterized in that the image conversion processing step includes an area separation processing step of separating an input image into a plurality of areas including a character area, a halftone area, and a photograph area.
[0028]
According to the present invention, an input image is separated into a plurality of regions including a character region, a halftone dot region, and a photograph region in the region separation processing stage of the image conversion processing process. By dividing an input image into a plurality of regions, it is possible to perform appropriate conversion processing for each region, so that the image quality of each separated region can be improved.
[0029]
Further, the present invention is characterized in that the image conversion processing step includes a spatial filter processing step of performing a spatial filter processing on the input image according to the type of the region.
[0030]
According to the present invention, an input image is subjected to spatial filter processing in accordance with the type of region in the spatial filter processing step of the image conversion processing step. By appropriately performing the spatial filter processing according to the type of the region, the image quality of the image can be prevented from deteriorating, and the image quality of the image can be improved.
[0031]
Further, the present invention is a program for causing a computer to execute the above-described image processing method.
[0032]
According to the present invention, the type of a halftone dot region in an image is determined, and an image processing method that performs processing according to the type is represented by a program, thereby causing a computer to execute processing based on the image processing method. As a result, the computer can automatically execute the processing based on the image processing method, and perform appropriate processing according to the type of the halftone dot area in the input image.
[0033]
Further, the present invention is a computer-readable recording medium on which the above-mentioned program is recorded.
[0034]
According to the present invention, a program for causing a computer to execute an image processing method that determines a type of a halftone dot region in an image and performs processing according to the type is recorded on a computer-readable recording medium. By causing a computer to read a program from a recording medium and causing the computer to execute the program, appropriate processing can be performed according to the type of a halftone dot region in an input image.
[0035]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a block diagram illustrating a configuration of a document type determining unit 2 provided in an image processing apparatus 1 according to an embodiment of the present invention. When the image input from the image input device 62 shown in FIG. 13, specifically, the original image read from the original includes a halftone area, the image processing apparatus 1 determines the type of the halftone area. Process according to the determination result. The image processing apparatus 1 includes a document type determination unit 2 that determines the type of a document image based on the type of a halftone area in the document image.
[0036]
The document type determining means 2 determines the type of a document image. Specifically, the document type determining means 2 determines the document image based on the type of the dot area. The type of the document image includes, for example, an image represented only by characters, a printed photograph and a photographic paper photograph represented by halftone dots, and a character / printed photograph image obtained by combining those images.
[0037]
The document type determining means 2 includes a halftone area identifying section (halftone area identifying section) 3, a halftone type feature amount calculating section (feature amount calculating section) 4, a halftone image type determining section (halftone image type determining section). 5, a type determining means input terminal 6 and a type determining means output terminal 7. The type determination unit input terminal 6 of the document type determination unit 2 is connected to an output terminal (not shown) of the shading correction unit 65 shown in FIG. The type determining means output terminal 7 of the document type determining means 2 is connected to an input terminal (not shown) of the spatial filter processing unit 71 shown in FIG.
[0038]
A pixel value signal representing the pixel value of each pixel of the original image is supplied from the shading correction unit 65 shown in FIG. 13 to the halftone dot region identification unit 3 and the halftone type feature amount calculation unit via the type determination unit input terminal 6. 4 given. In the present embodiment, the pixel value of the pixel is a density value.
[0039]
A halftone area identifying unit 3 as a halftone area identifying means identifies whether each pixel of the document image belongs to a halftone area based on a pixel value signal, specifically, a density value of the pixel.
[0040]
A dot type feature value calculation unit 4 serving as a feature value calculation unit calculates a dot image feature value by using the density value of each pixel identified as belonging to the dot region by the dot region identification unit 3. The halftone image feature quantity represents the characteristic of the halftone area in the document image, and is a feature quantity for determining the type of the halftone area in the document image. The halftone dot type feature amount calculation unit 4 provides a halftone image feature amount signal representing the halftone image feature amount to the halftone image type determination unit 5.
[0041]
A halftone image type determination unit 5 serving as a halftone image type determination unit is configured to generate a document based on a halftone image feature amount signal, specifically, a halftone image feature amount calculated by the halftone type feature amount calculation unit 4. The type of the dot area in the image is determined. The halftone dot region includes a plurality of types of image regions. For example, a halftone dot is treated as a background, and, for example, a halftone character region of an image in a format in which characters are mixed and a mere halftone dot without characters And a halftone dot photograph area of an image representing a photograph by changing the area ratio and density of the halftone dots. The base includes white and a plurality of types of color grounds other than white.
[0042]
As an example of the type of the document image, when the dot image type determination unit 5 determines that the halftone area is a character area on a halftone dot, the type of the original image is based on halftone dots and characters are mixed. The document type determination unit 2 determines that the document image is a character image to be copied, in other words, the document image has a halftone character region. As another example of the type of the original image, when the halftone image type determination unit 5 determines that the halftone area is a halftone photographic area, the type of the original image is a printed photograph, in other words, The document type determining means 2 determines that the image has a halftone picture area. Thus, by determining the type of the halftone dot region in the document image, the type of the document image can be determined.
[0043]
The halftone image type determination unit 5 outputs a halftone image type determination signal indicating the type determination result for the halftone region in the document image via the type determination unit output terminal 7 to the region separation processing unit 69 shown in FIG. This is given to the filter processing unit 71.
[0044]
As described above, when a halftone dot region exists in a document image, a halftone dot image feature amount for each image of the halftone dot region can be calculated using the density value of each pixel belonging to the halftone dot region. By determining the type of the dot area in the document image using the calculated dot image feature quantity, the dot area in the document image can be finely classified.
[0045]
Conversion processing according to the type of a halftone area in a document image, specifically, when a halftone dot is a background, such as a character area on a halftone dot, characters are often included, and the current halftone dot detection accuracy In this case, the character on the halftone dot is often erroneously detected as a region consisting of only halftone dots, and the reproducibility of the character is greatly deteriorated. Also, when the halftone dot is the base, the number of lines is often high. Therefore, processing by the region separation processing unit 69 such as halftone dot detection is not performed, and the low-frequency component including a character has an increased gain (emphasized), and the high-frequency component including a halftone has a reduced gain (suppressed). Higher image quality can be achieved by applying the filtering process to the entire image.
[0046]
When the halftone dot region is a halftone dot photograph region, it can be almost detected even by the current halftone dot detection process. For a point region, high image quality can be achieved by applying a smoothing filter process for suppressing moiré.
[0047]
FIG. 2 is a block diagram showing a configuration of the halftone dot region identifying section 3. As shown in FIG. FIG. 3 is a diagram illustrating the relationship between signals stored in the first block memory 11, the second block memory, and the third block memory. The halftone dot region identification unit 3 includes an edge determination unit 10, a first block memory 11, a target image part extraction unit 12, a second block memory 13, a first feature amount calculation unit 14, an edge type determination unit 15, and a third block memory. 16, a second feature value calculation unit 17, a halftone dot region determination unit 18, an input terminal 19 for presence / absence determination unit, and an output terminal 20 for presence / absence determination unit.
[0048]
The presence / absence determination unit input terminal 19 is connected to the type determination unit input terminal 6 of the document type determination unit 2 in a state in which an electric signal can be passed, and the presence / absence determination unit output terminal 20 is in a state in which an electric signal can be passed. It is connected to an input terminal (not shown) of the dot type feature quantity calculation unit 4. The pixel value signal given to the halftone dot region identifying unit 3 is given to the edge determining unit 10 and the target image part extracting unit 12 via the presence / absence determining unit input terminal 19.
[0049]
The edge determination unit 10 determines whether each pixel of the document image is an edge pixel based on the pixel value signal, specifically, the density value of the pixel. The edge determination unit 10 supplies an edge determination signal indicating the determination result to the first block memory 11. In the present embodiment, an edge pixel is a pixel whose pixel value shows a sharp change that is significantly different from the pixel value of an adjacent pixel.
[0050]
The edge determination unit 10 determines that the absolute value of the difference between the pixel value of the first target pixel 25 included in the first local pixel block 26 and the pixel value of the pixel adjacent to the first target pixel 25 is smaller than a predetermined threshold value. Is larger, it is determined that the first target pixel 25 is an edge pixel. When the absolute value of the difference is equal to or smaller than a predetermined threshold, the edge determination unit 10 determines that the first target pixel 25 is not an edge pixel.
[0051]
In the present embodiment, the first target pixel 25 is an arbitrary pixel included in the original image, and the first local pixel block 26 is an image including a plurality of pixels around the first target pixel 25. Area.
[0052]
Each pixel of the document image is set as the first target pixel 25 in a predetermined order, and the edge determination unit 10 determines whether or not the first target pixel 25 is an edge pixel. The edge determination unit 10 supplies an edge determination signal indicating a determination result for the first target pixel 25 to the first block memory 11.
[0053]
The first block memory 11 has a storage area in which a plurality of storage units are arranged in the main scanning direction and the sub-scanning direction, in other words, a storage area including M1 × N1 storage units. M1 and N1 are natural numbers and may be the same as each other or may be different.
[0054]
The first block memory 11 is supplied with an edge determination signal for a plurality of lines, and stores information of the edge determination signal for at least each pixel in the first local pixel block 26. In the example of FIG. 3, the first block memory 11 stores information included in the edge determination signal regarding the first target pixel 25 and a plurality of neighboring pixels 29 near the first target pixel 25.
[0055]
The target image portion extraction unit 12 determines whether or not each pixel of the document image is included in the target image portion 46 based on the pixel value signal, specifically, the density value of the pixel. Is extracted. If the density value of each pixel of the document image is equal to or greater than a predetermined value, the target image portion extraction unit 12 determines that the pixel is included in the target image portion 46, and the density value of each pixel of the document image is set to the predetermined value. If smaller, it is determined that it is not included in the target image portion 46.
[0056]
The predetermined value is a value obtained based on many samples of the document image. The target image portion extraction unit 12 supplies the second block memory 13 with a target image portion signal indicating the determination result for the first target pixel 25.
[0057]
The second block memory 13 has a storage area in which a plurality of storage units are arranged in the main scanning direction and the sub-scanning direction, in other words, a storage area including M2 × N2 storage units. M2 and N2 are natural numbers and may be the same or different from each other.
[0058]
The second block memory 13 is provided with target image partial signals for a plurality of lines, and stores information of the target image partial signals for at least each pixel in the first local pixel block 26. In the example of FIG. 3, the second block memory 13 stores information included in the target image partial signal regarding the first target pixel 25 and a plurality of neighboring pixels 29 near the first target pixel 25.
[0059]
The first feature amount calculation unit 14 determines the target image in the first local pixel block 26 based on the target image partial signal stored in the second block memory 13, specifically, based on the determination result by the target image partial extraction unit 12. A first characteristic amount representing the characteristic of the portion 46 is calculated. By expressing the characteristic of the target image portion 46 in the first local pixel block as a first feature amount, the characteristic of each edge pixel in the first local pixel block is expressed. The first feature value calculation unit 14 supplies a first feature value signal representing the first feature value of the first local pixel block 26 to the edge type determination unit 15.
[0060]
The edge type determination unit 15 determines the edge determination signal and the first feature amount signal stored in the first block memory 11, specifically, the determination result by the edge determination unit 10 and the first feature amount by the first feature amount calculation unit 14. Then, it is determined to which of the plurality of regions the edge pixel belongs. Specifically, the edge type determination unit 15 determines whether each edge pixel in the first local pixel block 26 belongs to a character area or a halftone area. The edge type determination unit 15 supplies an edge type signal indicating a determination result for each edge pixel in the first local pixel block 26 to the third block memory 16.
[0061]
The third block memory 16 has a storage area in which a plurality of storage units are arranged in the main scanning direction and the sub-scanning direction, in other words, a storage area including M3 × N3 storage units. M3 and N3 are natural numbers, and may be the same or different.
[0062]
The third block memory 16 is provided with edge type signals for a plurality of lines, and stores information of the edge type signals for at least each pixel in the second local pixel block 28. In the example of FIG. 3, the third block memory 16 stores information included in the edge type signal regarding the second pixel of interest 27 and a plurality of neighboring pixels 29 near the second pixel of interest 27.
[0063]
In the present embodiment, the second target pixel 27 is an arbitrary pixel included in the original image, and the second local pixel block 28 is an image including a plurality of pixels centered on the second target pixel 27. Area.
[0064]
The second feature amount calculation unit 17 generates a second characteristic value representing the characteristic of the second local pixel block 28 based on the edge type signal stored in the third block memory 10, specifically, the determination result by the edge type determination unit 15. The feature amount is calculated. The second feature value calculation unit 17 supplies a second feature value signal representing the second feature value to the halftone dot area determination unit 18. The second feature value calculation unit 17 calculates a second feature value representing the characteristics of the halftone area based on the edge type signal, and supplies the second feature value signal to the halftone area determination unit 18.
[0065]
The halftone dot area determination unit 18 determines whether each pixel of the document image belongs to a halftone dot area based on the second feature value signal, specifically, the second feature value by the second feature value calculation unit 17. judge. Specifically, the halftone dot region determination unit 18 determines whether the second target pixel 27 is a pixel belonging to the halftone dot region. The halftone area determination unit 18 supplies a halftone area determination signal representing a determination result for the second target pixel 27 to the presence / absence determination unit output terminal 20. From the presence / absence determination section output terminal 20, a halftone area determination signal for the second target pixel 27 is output.
[0066]
FIG. 4 is a block diagram illustrating a configuration of the edge determination unit 10. FIG. 5 is a diagram for explaining an example of the filter coefficient of the secondary differentiation filter 37. The edge determination unit 10 is configured to include a secondary differentiation processing circuit 35 and a zero-crossing detection circuit 36.
[0067]
The secondary differentiation processing circuit 35 performs secondary differentiation on each pixel of the document image based on the pixel value signal supplied to the edge determination unit 10, specifically, the density value of the pixel. The secondary differentiation processing by the secondary differentiation processing circuit 35 is performed on a pixel block including 3 × 3 pixels centered on the first target pixel 25 by using a secondary differentiation filter 37 having a predetermined coefficient. This is a process of obtaining a second derivative of the pixel value of the first target pixel 25 by performing a convolution operation.
[0068]
In the convolution operation, in a pixel block including 3 × 3 pixels, the density value of one pixel and the coefficient of the second-order differentiation filter 37 having the same row number and column number as the pixel are integrated. This is an arithmetic process for calculating an integrated value and calculating the sum of the integrated value and each integrated value obtained for each of the other pixels.
[0069]
For example, with respect to the pixel in the first row and the first column, an integrated value obtained by integrating the pixel value of the pixel and the coefficient in the first row and the first column of the filter 37 for secondary differentiation, that is, the coefficient “0” in FIG. The sum of the integrated value obtained for the pixel in the first row and the first column and each integrated value obtained for the remaining pixels in the pixel block is obtained. The sum represents a second derivative of the pixel value of the first target pixel 25. The convolution operation is performed on all the pixels of the document image by setting each pixel of the document image to the first target pixel 25 in a predetermined order.
[0070]
When an edge pixel is included in a plurality of pixels successively arranged in the predetermined scanning direction with respect to the original image, the second derivative of the pixel value of the pixel adjacent to the edge pixel and located on the upstream side in the scanning direction is a positive value and a positive value. One of the negative values. The second derivative of the density value of the edge pixel having the maximum gradient is "0", that is, zero. The second derivative of the density value of the pixel adjacent to the edge pixel and located on the downstream side in the scanning direction is either a positive value or a negative value, which is opposite to the above.
[0071]
The second-order differential processing circuit 35 supplies a second-order differential value signal representing the result of the second-order differential processing to the first target pixel 25 to the zero-crossing detection circuit 36. The zero-crossing detection circuit 36 determines a pixel having a zero crossing as an edge pixel based on the second derivative signal, specifically, the result of the second differentiation processing by the second differentiation processing circuit 35.
[0072]
The zero-crossing detection circuit 36 detects a pixel that crosses zero by a second-order differentiation process performed by the second-order differentiation processing unit 20. More specifically, the zero-crossing detection circuit 36 determines whether one of a positive value and a negative value is equal to an inverse positive value and A secondary differential value that changes to any negative value is detected, and a pixel having a secondary differential value of zero is detected.
[0073]
The zero-crossing detection circuit 36 determines that the first target pixel 25 that crosses zero is an edge pixel, and supplies an edge determination signal indicating the determination result to the first block memory 11. Edge pixels are extracted from the document image by detecting pixels that cross zero.
[0074]
FIG. 6 is a block diagram illustrating a configuration of the target image portion extraction unit 12. FIG. 7 is a diagram for explaining an example of the first local pixel block 26. FIG. 7A shows the first local pixel block 26 before the binarization process, and FIG. 7 shows the first local pixel block 26 after the binarization processing. FIG. 8 is a graph showing an example of the relationship between the density value and the frequency of each pixel in the first local pixel block 26 shown in FIG. 7, and FIG. 8A shows the density histogram 44. 8 (2) shows a cumulative density histogram. The target image portion extraction unit 12 is configured to include a cumulative density histogram calculation circuit 40, a density rank threshold setting circuit 41, a density threshold setting circuit 42, and a binarization processing circuit 43. The pixel value signal given to the target image portion extraction unit 12 is given to a cumulative density histogram calculation circuit 40, a density rank threshold value setting circuit 41 and a binarization processing circuit 43.
[0075]
The cumulative density histogram calculation circuit 40 calculates a density histogram 44 for each pixel in the first local pixel block 26 based on a pixel value signal, specifically, a pixel density value, and based on the density histogram 44. The cumulative density histogram 45 is calculated. The density histogram 44 is a graph showing how many pixels exist for each predetermined density value section in a region including a plurality of pixels, for example, the first local pixel block 28.
[0076]
Based on the density histogram 44, the cumulative density histogram 45 accumulates the frequency from the maximum value of the pixel density value to the minimum value, and accumulates the frequency from the minimum value of the pixel density value to the maximum value. It is a graph in any one of the cases.
[0077]
The cumulative density histogram calculation circuit 40 provides the density threshold setting circuit 42 with the calculation result of the cumulative density histogram 45, for example, a cumulative density histogram signal indicating the density value division and the frequency of each division.
[0078]
The density order threshold value setting circuit 41 uses information of either the ascending order or the descending order of the density value for each pixel in the first local pixel block 26 based on the pixel value signal, specifically, the density value of the pixel. , A density rank threshold N is set. The density rank threshold setting circuit 41 supplies a density rank threshold signal representing the density rank threshold N to the density threshold setting circuit 42.
[0079]
In the present embodiment, a predetermined value is used as the rank threshold N. For example, when seven pixels from the pixel having the maximum density value to the pixel having the seventh largest pixel value are selected, “7” is selected. Is set to "".
[0080]
The density threshold setting circuit 42 calculates the cumulative density histogram signal and the density rank threshold signal, specifically, the calculation result of the cumulative density histogram 45 by the cumulative density histogram calculation circuit 40 and the density rank threshold N by the density rank threshold setting circuit 41. Based on this, a density threshold is set.
[0081]
The density threshold value is used for comparison with the density value of each pixel in the first local pixel block 26, and is a threshold value for calculating the target image portion 46. The density threshold setting circuit 42 supplies a density threshold signal representing the set density threshold to the binarization processing circuit 43.
[0082]
The binarization processing circuit 43 determines the density value of each pixel in the first local pixel block 26 based on the pixel value signal and the density threshold signal, specifically, the pixel density value and the density threshold value set by the density threshold setting circuit 42. And a density threshold. The binarization processing circuit 43 separates the image into two image parts by comparing the density value of each pixel in the first local pixel block 26 with the density threshold, that is, binarizes the binary image. Then, one of the image portions is extracted as the target image portion 46.
[0083]
In the example of FIG. 7A, each pixel in the first local pixel block 26 is classified for each predetermined density value section for easy illustration. For example, in a section where the density value is 200 or more and less than 250, pixels are shown in black. The classification setting of the density value is arbitrarily set. In the present embodiment, the division of the density value is set to “50”. Specifically, the frequency, specifically, the number of pixels is obtained for each of the sections from 0 to less than 50, 50 to less than 100, 100 to less than 150, 150 to less than 200, and 200 to less than 250.
[0084]
For the first local pixel block 26 shown in FIG. 7A, the density histogram 44 shown in FIG. 8A is calculated. In the density histogram 44, the horizontal axis indicates the pixel density value, and the vertical axis indicates the frequency. Using the calculated density histogram 44, a cumulative density histogram 45 shown in FIG. 8B is calculated. In the example of FIG. 8B, the frequency is accumulated from the maximum value of the density value of the pixel to the minimum value.
[0085]
The above-described density threshold setting circuit 42 sets the density value of the section having the frequency closest to the density rank threshold N as the density threshold based on the pixel value signal, specifically, the density value of the pixel. In this embodiment, the density value having the frequency closest to the rank threshold N is set to the minimum density value in each density section, but may be a representative value, for example, an average value in each density section.
[0086]
For example, when the density rank threshold value N is set to “7” in the density rank threshold value setting circuit 41, the density threshold value setting circuit 42 sets the density threshold value to “200” in the example of FIG. When the density value of each pixel in the first local pixel block 26 is 200 or more, the binarization processing circuit 43 sets the value to 1 indicating that the pixel is the target image portion 46. Is also small, it is set to 0 indicating that it is not the target image portion 46. In the example of FIG. 7B, the extracted target image portion 46 is a portion shown in black.
[0087]
FIG. 9 is a diagram for describing an example of a process of calculating the first feature amount for the first local pixel block 26. The first feature value calculator 14 calculates a first feature value from the target image portion signal based on the run length of the target image portion 46. The maximum value of the run length, which is the number of consecutive pixels included in the target image portion 46, in the main scanning direction and the sub-scanning direction that are predetermined scanning directions, and the 45-degree direction that is the diagonal direction in the first local pixel block 26. Is calculated as the first feature amount.
[0088]
In the example of FIG. 9, the run length of the target image portion 46 in the main scanning direction and the sub-scanning direction is “3”, and the run lengths of the target image portion 46 in the 45 ° direction are “3” and “1”. Therefore, the first feature amount is the maximum value 3 of the run length. When the target image portion 46 is represented by a dot like a halftone dot, the maximum value of the run length is smaller than when the target image portion 46 is represented by a line like a character.
[0089]
As described above, by using the maximum value of the run length of the target image portion 46, the characteristics of the target image portion 46 can be easily and accurately represented. It can be determined well.
[0090]
FIG. 10 is a diagram for explaining an example of the second local pixel block 28. FIG. 10A shows a second local pixel block 28 corresponding to a halftone dot region having a medium line count of 120 to 150 lines. FIG. 10B shows a second local pixel block 28 corresponding to a character area. The second feature amount calculation unit 17 calculates a second feature amount based on the number of edge pixels in the second local pixel block 28. Specifically, the second feature value calculation unit 17 calculates the weighted sum of the number of halftone dot pixels and the number of character edge pixels for the second local pixel block 28 as the second feature value.
[0091]
The number of halftone dot edge pixels is the number of edge pixels belonging to the halftone dot region, and the number of character edge pixels is the number of edge pixels belonging to the character region. The weight sum is a sum when a predetermined weight is applied to the number of halftone dot pixels and the number of character edge pixels.
[0092]
The number of edge pixels, specifically, the number of edge pixels in the second local pixel block 28 is “26” in the example of FIG. 10A and “32” in the example of FIG. . When the number of edge pixels is the second feature amount, the number of edge pixels of the second local pixel block 28 corresponding to the character region is equal to the second number corresponding to the halftone dot region having a medium line number of 120 to 150 lines. It becomes larger than the local pixel block 28. Since a feature amount suitable for the characteristics of the region cannot be calculated in this way, it is determined that the second target pixel 27 in the second local pixel block 28 corresponding to the halftone dot region having a medium number of lines belongs to the character region. May be done.
[0093]
For example, when the weight for the number of dot edge pixels is “2” and the weight for the number of character edge pixels is “1”, the weight sum for the second local pixel block 28 is “47” in the example of FIG. In the example of FIG. 10B, the value is “35”.
[0094]
If the weight for the number of halftone dot pixels is greater than the weight for the number of character edge pixels, the sum of the weights in the second local pixel block 28 corresponding to the halftone region having a medium number of lines corresponds to the character region. It is larger than the weighted sum in the second local pixel block 28.
[0095]
By using the weight sum in the second local pixel block 28 as the second feature value, a feature value suitable for the characteristics of the region can be calculated. Therefore, the pixel belonging to the halftone dot region and the pixel belonging to the character region can be calculated. Can be accurately identified. Thus, the halftone dot region identification section 3 can accurately identify whether each pixel of the document image belongs to the halftone dot region.
[0096]
FIG. 11 is a graph showing an example of the average density histogram 50. FIG. 11 (1) shows the average density histogram 50 when the halftone dot is the background, and FIG. 5 shows an average density histogram 50 in the case of representing the image of FIG. FIG. 12 is a block diagram illustrating the configuration of the halftone image type determination unit 5. The halftone dot type feature value calculation unit 4 determines a predetermined block of the original image based on the pixel density value, for example, a block including 7 × 7 pixels, for the pixels identified as belonging to the halftone area in the original image. The average density value at is calculated. Pixels included in the predetermined block are pixels belonging to a halftone dot area. The average density value is an average value of density values of pixels in a predetermined block.
[0097]
The dot type feature value calculation unit 4 calculates an average density value for each predetermined block of the document image. The halftone dot type feature value calculation unit 4 calculates the average density histogram 50, specifically, a graph showing the relationship between the average density value and the frequency in the predetermined density value division. The halftone dot type feature value calculation unit 4 calculates the frequency of each density value section as a halftone image feature value based on the average density histogram 50.
[0098]
The distribution of the average density value differs depending on the type of the halftone dot region. When the halftone dot region is a character region on a halftone dot, since the area ratio of the halftone dots is uniform, the average density histogram 50 is a graph in which the frequency in the local density value division is larger than the residual frequency. Become. In the example of FIG. 11A, the maximum frequency is an average density histogram 50 that is extremely large as compared with the frequency in the remaining density value division. The maximum frequency is the maximum value of the frequency.
[0099]
When the halftone dot area is a halftone photographic area, since the area ratio of halftone dots is non-uniform, the average density histogram 50 has a substantially uniform distribution of the average density value, although there is a difference in each density value division. Graph. In the example of FIG. 11B, the maximum frequency is an average density histogram 50 having almost no difference from the frequencies in the remaining density value divisions.
[0100]
The halftone image type determination unit 5 includes a maximum frequency calculation part 55, a frequency threshold setting part 56, a halftone type determination part 57, a type determination unit input terminal 58, and a type determination unit output terminal 59. The type determination unit input terminal 58 is connected to an output terminal (not shown) of the halftone dot type feature quantity calculation unit 4 in a state where electric signals can be transferred, and the type determination unit output terminal 59 can transfer electric signals. In this state, it is connected to the type determining means output terminal 7 of the document type determining means 7.
[0101]
The maximum frequency calculating section 55 calculates the maximum frequency based on the halftone image feature amount signal given to the halftone type feature amount calculating section 4, specifically, the halftone image feature amount, and calculates the total frequency value MAX. calculate. The frequency total value MAX is the total value of the maximum frequency and the frequency in the vicinity thereof, specifically, the frequency in the density value section adjacent to the maximum frequency and the density value section in the maximum frequency. Is the sum of
[0102]
In the examples of FIGS. 11A and 11B, the total frequency value MAX is a portion indicated by oblique lines. The maximum frequency calculation section 55 gives a frequency total value signal representing the total frequency value MAX, which is the calculation result, to the dot type determination section 57.
[0103]
The frequency threshold setting section 56 sets a frequency threshold TH to be used for comparison with the total frequency value MAX, and supplies a frequency threshold signal representing the frequency threshold TH to the halftone dot type determination section 57. The frequency threshold value TH is a value obtained based on a large number of original image samples. For example, in the average density histogram 50, a value obtained by summing the frequencies in each density value section is divided by the number of density value sections. Value.
[0104]
The halftone dot type determination portion 57 determines the total frequency value MAX based on the frequency total value signal and the frequency threshold signal, specifically, the frequency total value MAX by the maximum frequency calculation portion 55 and the frequency threshold TH by the frequency threshold setting portion 56. And the frequency threshold value TH. When the total frequency MAX is larger than the frequency threshold TH, the halftone type determination unit 57 determines that the halftone dot area is a character area on a halftone dot, and when the total frequency MAX is equal to or less than the frequency threshold TH, It is determined that the dot area is a halftone picture area.
[0105]
As described above, a difference occurs in the distribution of the average density value depending on the type of the halftone area in the original image, and the halftone area in the original image can be finely classified by calculating the feature amount representing the difference. It is possible to determine whether the original image includes a halftone character area or a halftone photographic area.
[0106]
FIG. 13 is a block diagram illustrating a configuration of the image forming apparatus 60. FIG. 14 is a diagram for explaining an example of a digital filter used for the spatial filter processing. FIG. 14A shows a first filter 78 in a case where a halftone dot area is a halftone character area. FIG. 14B shows the second filter 79 when the halftone dot area is a halftone photographic area. The image forming apparatus 60 is an apparatus for forming an image on a recording material including paper and a recording sheet made of a material other than paper, and includes an operation panel 61, an image input device 62, an image processing device 1, The output device 63 is included.
[0107]
By operating the operation panel 61, the operator can give various operation commands to the image forming apparatus 60, specifically, the image input device 62, the image processing device 1, and the image output device 63.
[0108]
The image input device 62 is a device for reading an image formed on a document, that is, a document image, and is a solid-state imaging device, for example, a charge coupled device (Charge Coupled).
Device: an abbreviation CCD, which may be hereinafter referred to as CCD).
[0109]
The image input device 62 irradiates the original with white light by the light source, and detects the color of the reflected light from the original by dividing it into a plurality of pixels arranged in the main scanning direction and the sub-scanning direction by the CCD line sensor, The image of the document is read, and document image data representing the document image by the color and intensity of each pixel is provided to the image processing apparatus 1 by an electric signal.
[0110]
The document image data is represented by numerical values corresponding to the densities of three color components, red, green and blue, and is given to the image processing device 1 by the image input device 62 as a red signal R, a green signal G and a blue signal B.
[0111]
The red signal R is an electric signal representing the reflectance of red light from the document in an analog manner for each pixel. The green signal G is an electric signal representing the reflectance of green light from the document in an analog manner for each pixel. The blue signal B is an electric signal representing the reflectance of blue light from the document in an analog manner for each pixel.
[0112]
The image processing apparatus 1 includes an analog / digital conversion unit (hereinafter, referred to as an A / D conversion unit) 64, a shading correction unit 65, an image processing unit 68, and a control unit 53.
[0113]
The A / D converter 64 converts an applied analog signal into a digital signal. Specifically, the A / D converter 64 converts the red signal R, the green signal G, and the blue signal B, which are analog signals, provided by the image input device 62 into red, green, and blue light for each pixel. The reflectance is converted into a digital signal representing digitally. The A / D conversion unit 64 supplies the red signal R, the green signal G, and the blue signal B, which have been converted into digital signals, to the shading correction unit 65.
[0114]
The shading correction unit 65 performs a process of removing a distortion component included in data represented by the red signal R, the green signal G, and the blue signal B from the A / D conversion unit 64. The shading correction unit 65 responds to the red signal R, the green signal G, and the blue signal B from the A / D conversion unit 64 with various types generated in the illumination system, the imaging optical system, and the imaging system (image receiving system) of the image input device 62. And a red signal R, a green signal G, and a blue signal B after the processing are given to the document type determination unit 2.
[0115]
The document type determination unit 2 converts the red signal R, green signal G, and blue signal B processed by the shading correction unit 65 into a signal of data that can be easily handled in the image processing apparatus 1, for example, a signal representing a density value. Specifically, the document type determination unit 2 converts the reflectance values of red light, green light, and blue light into signals representing the density value of red light, the density value of green light, and the density value of blue light. Each is converted, and the type of the document image is determined based on the pixel value signal that is the converted signal.
[0116]
The document type determination means 2 includes a cyan signal C representing a density value of cyan obtained by complementing the pixel value signal based on the density values of red light, green light and blue light, and a magenta signal M representing a density value of magenta. Is converted to a yellow signal Y representing a yellow density value. The cyan signal C, the magenta signal M, and the yellow signal Y are output to the input tone correction section 66.
[0117]
The image processing means 68 includes an input tone correction section 66, a color correction section 67, an area separation processing section 69, a black generation and under color removal section 70, a spatial filter processing section 71, an output tone correction section 72, and a tone reproduction processing section. 73.
[0118]
The image processing means 68 converts an input image into a predetermined image. Specifically, the image processing means 68 performs various image processing on each pixel of the document image, for example, the input tone correction section 66 so as to improve the reproducibility of the document image and the image quality of the formed image at the time of image formation. , A color correction section 67, a region separation processing section 69, a black generation and under color removal section 70, a spatial filter processing section 71, an output gradation correction section 72, and a gradation reproduction processing section 73.
[0119]
The input tone correction unit 66 adjusts the color balance based on the cyan signal C, the magenta signal M, and the yellow signal Y, and performs various image quality such as contrast adjustment and removal of a background area density for removing an extra background. Adjustment processing is performed. The input tone correction section 66 adjusts the color balance, and supplies the color correction section 67 with the cyan signal C, the magenta signal M, and the yellow signal Y after the image quality adjustment processing.
[0120]
The color correction section 67 is based on each signal from the input gradation correction section 66, and in order to improve the reproducibility of the color of the original image during image formation, unnecessary absorption components of cyan, magenta and yellow used as color materials. Is subjected to color correction processing for removing color turbidity based on the spectral characteristics of each of the cyan, magenta and yellow color materials. The color correction section 67 supplies the color-corrected cyan signal C, magenta signal M, and yellow signal Y to the image processing means 68 for each pixel of the document image.
[0121]
The area separation processing unit 69 includes the signals from the color correction unit 67 and the halftone image type determination signal, specifically, the density values of cyan, magenta, and yellow after color correction, and the halftone image type determination unit 5 An area separation process for separating a plurality of areas from the document image is performed based on the determination result.
[0122]
More specifically, the area separation processing unit 69 does not perform the above-described area separation processing when the halftone area is a character area on halftone, and when the halftone area is a halftone photographic area, Belongs to a plurality of regions including a character region, a halftone dot region, and a photograph region, and the document image is separated into the plurality of regions.
[0123]
The region separation processing unit 69 outputs a region identification signal indicating to which region each pixel of the document image belongs to based on the region separation result, a black generation and under color removal unit 70, a spatial filter processing unit 71, This is given to the tone reproduction processing section 73.
[0124]
The black generation and under color removal unit 70 performs a black generation process for generating black based on the signal after the color correction by the color correction unit 67 and the region identification signal, and a black density value obtained by the black generation process. Then, under color removal processing is performed to obtain new cyan, magenta and yellow density values. The black generation and under color removal unit 70 switches the amount of black generation and the amount of under color removal in accordance with the type of the region based on the region identification signal, specifically, the result of the region separation by the region separation processing unit 69.
[0125]
The three color signals of the cyan signal C, the magenta signal M, and the yellow signal Y from the color correction unit 36 are processed by the black generation and under color removal unit 70, and the cyan signal C, the magenta signal M, the yellow signal Y, and the black signal K are processed. Are converted into four color signals. The black generation and under color removal unit 70 gives the cyan signal C, magenta signal M, yellow signal Y and black signal K after the black generation and under color removal processing to the spatial filter processing unit 71.
[0126]
The spatial filter processing unit 71 performs a spatial filter process using a digital filter based on each signal from the black generation / under color removal unit 70, the halftone image type determination signal, and the region identification signal, to obtain a plurality of pixels. The spatial frequency characteristic is corrected for each predetermined region including As a result, it is possible to prevent the image formed on the recording material from being blurred and degraded in graininess. The spatial filter processing unit 71 gives the cyan signal C, the magenta signal M, the yellow signal Y, and the black signal K after the spatial filter processing to the output gradation correction unit 72.
[0127]
The output tone correction unit 72 converts a signal such as a density value which is easy to handle in the image processing apparatus 1 into a dot area ratio which is a characteristic value of the image output apparatus 63 based on each signal from the spatial filter processing unit 71. Output gradation correction processing. The output gradation correction process is a process of converting each density value of cyan, magenta, yellow, and black into a dot area ratio, which is a characteristic value of the image output device 63. The output tone correction section 72 gives the converted cyan signal C, magenta signal M, yellow signal Y and black signal K to the tone reproduction processing section 73.
[0128]
The tone reproduction processing unit 73 performs a tone reproduction process based on each signal from the output tone correction unit 72 and the area identification signal. The tone reproduction processing unit 73 is a process for finally dividing an image into pixels and reproducing each tone, and is a halftone reproduction process for generating a halftone.
[0129]
For example, with respect to the area separated from the original image as the character area by the area separation processing unit 69, if the character area is an area of an image in the form of black characters and color characters, the reproducibility with black characters and color characters is improved. In the spatial filter processing section 71, sharp enhancement processing is performed so that the enhancement amount of the high frequency becomes large. Black characters are characters represented by black, and color characters are characters represented by chromatic colors. After the sharpness enhancement processing, the tone reproduction processing unit 73 performs one of the binarization processing and the multi-value processing using a high-resolution screen suitable for reproduction of a high frequency.
[0130]
In addition, regarding the area separated from the original image as a halftone area by the area separation processing section 69, the spatial filter processing section 71 removes the input halftone component and suppresses the second filter 79 (FIG. 14 ( 2)) is performed. After the smoothing filter processing, the output gradation correction section 72 performs the output gradation correction processing described above. In the tone reproduction processing section 73, one of a binarization process and a multi-value process using a screen that emphasizes tone reproducibility is performed.
[0131]
Further, regarding the area separated from the original image as a photographic area by the area separation processing section 69, the gradation reproduction processing section 73 selects one of the binarization processing and the multi-value processing using a screen that emphasizes the gradation reproduction. Processing is performed.
[0132]
The tone reproduction processing section 73 supplies the cyan signal C, the magenta signal M, the yellow signal Y, and the black signal K after the tone reproduction processing to storage means (not shown). The storage means stores image data which is information of the cyan signal C, the magenta signal M, the yellow signal Y, and the black signal K.
[0133]
The above-described halftone image type determination unit 5 further provides the control unit 53 with a halftone image type determination signal which is a signal indicating a determination result of the type of the halftone area. Based on the halftone image type determination signal, specifically, the determination result of the halftone image type determination unit 5, the control unit 53 includes the halftone area in the conversion processing content according to the type of the halftone area in the document image. The image processing means 68 is controlled so as to convert the image to be processed, that is, the original image.
[0134]
In the halftone dot character area where the halftone dot is the background, characters are often included, and the halftone dot character area is often erroneously determined as the halftone dot area. Therefore, the halftone dot character area is treated as the halftone dot area. Then, the reproducibility of characters formed at the time of image formation is greatly deteriorated. A halftone dot character area is often represented by a high screen ruling. In order to eliminate such a problem, the area separation processing section 69 does not perform the area separation processing for separating a plurality of areas from the original image, and the spatial filter processing section 71 uses the digital filter shown in FIG. A spatial filter process is performed using a certain first filter 78.
[0135]
As described above, when the halftone dot region is a character region on a halftone dot, low-frequency components including characters are subjected to spatial filter processing using the first filter 78, specifically, smoothing filter processing. In other words, the gain is emphasized, and the high-frequency component including the halftone dot is reduced in the gain, in other words, the gain is suppressed.
[0136]
Further, when the halftone dot area is a halftone photographic area, the area separation processing by the area separation processing unit 69 can accurately separate the original image into a plurality of areas. And a spatial filter processing unit 71 performs spatial filter processing.
[0137]
For example, a spatial filter processing section 71 performs spatial filter processing on a halftone dot area separated from a document image by using a second filter 79 which is a digital filter shown in FIG. When the halftone dot region is a halftone dot photograph region, the input halftone component is removed as described above by performing spatial filtering using the second filter 79, and moire is suppressed.
[0138]
As described above, according to the type of the halftone dot region in the document image, the processing by the region separation processing unit 69 and the spatial filter processing unit 71 can be switched by the control unit 53 in the conversion processing content. Can perform appropriate processing according to the type of the dot area.
[0139]
As described above, the control unit 53 switches either the image processing unit 68 or the processing in the image processing unit 68 according to the determination result of the halftone image type determination unit 5, so that the type of the halftone area in the original image is changed. Accordingly, it is possible to achieve high image quality at the time of image formation.
[0140]
Document image data, which is image data subjected to various types of image processing by the above-described image processing apparatus 1, is temporarily stored in a storage unit, read out at a predetermined timing, and read for a cyan signal C, a magenta signal M, and a yellow signal. Y and black signals K are given to the image output device 63.
[0141]
The image output device 63 is based on document image data on which various processes have been performed by the image processing device 1, specifically, the cyan signal C, the magenta signal M, the yellow signal Y, and the black signal K stored in the storage means. Then, an image is formed on the recording material. As an example of the image output device 63, for example, a color image output device using an electrophotographic method and an ink jet method can be cited, but it is not particularly limited. As another example of the image output device 63, an image display device such as a liquid crystal display may be used.
[0142]
In the present embodiment, the above-described control means 53 is configured to control various kinds of processing on document image data in addition to controlling the conversion processing of the image processing means 68. For example, the central processing unit (Central Processing) (Unit: CPU).
[0143]
In the above-described document type determination means 2, information identifying pixels belonging to a halftone dot region from a local region and global density distribution information, specifically, a region larger than the local region can be obtained. Since the information is used in combination with the density distribution information, the type of the halftone dot area in the image can be accurately determined. Thus, the conversion processing including the processing by the area separation processing section 69 can be appropriately switched according to the type of the halftone dot area. Therefore, it is possible to achieve both high quality of the halftone dot character area and the halftone dot photograph area.
[0144]
According to the present embodiment, the halftone dot region identification unit 3 identifies whether each pixel of the document image belongs to a halftone dot region. The halftone image feature amount is calculated by the halftone region identification unit 3 based on the density value of each pixel identified as belonging to the halftone region, so that the halftone image feature amount is calculated. 4 is calculated. Based on the halftone image feature amount by the halftone type feature amount calculation unit 4, the type of the halftone area in the document image is determined by the halftone image type determination unit. As described above, by using the average density histogram 50 which is the distribution information of the density values of only the pixels belonging to the halftone dot region, a suitable feature amount is calculated for each of the plurality of types of image regions included in the halftone dot region. Therefore, the halftone dot area in the document image can be finely classified.
[0145]
According to the present embodiment, the document image is converted by the image processing means 68 into a predetermined image. Based on the determination result of the halftone image type determination unit 5, the image processing unit 68 causes the control unit 53 to perform the conversion process of the image including the halftone region with the conversion processing content according to the type of the halftone region. Controlled. As a result, the original image is converted into a predetermined image. By controlling the conversion processing according to the conversion processing content according to the type of the halftone dot region, the image including the halftone dot region can be converted into a predetermined image. It is possible to eliminate a problem that occurs when treating as an image area. Further, the control unit 53 can switch the conversion processing of the image processing unit 68, specifically, the conversion processing contents of the area separation processing unit 69 and the spatial filter processing unit 71, according to the type of the halftone area in the document image. . As a result, it is possible to improve the quality of an image formed at the time of image formation for a document image having various types of printed materials as documents.
[0146]
Further, according to the present embodiment, when the halftone dot region is a halftone dot photograph region, the document image is divided into a plurality of regions including a character region, a halftone dot region, and a photograph region by the region separation processing unit 69 of the image processing means. Separated with high accuracy. By accurately separating the document image into a plurality of regions in accordance with the type of the halftone dot region, the conversion process can be appropriately performed for each region, so that the image quality can be improved for each separated region.
[0147]
Further, according to the present embodiment, when the halftone dot region is a halftone dot photograph region, the spatial filter processing unit 71 performs spatial filter processing using the second filter 79 for suppressing moiré. When a halftone dot is treated as a background, it often contains characters. Therefore, the spatial filter processing unit 71 performs spatial filter processing using a first filter 78 in which a smoothing action and an emphasis action are mixed. As described above, the processing contents of the spatial filter processing unit 71 are switched according to the type of the halftone area in the original image, so that appropriate processing can be performed according to the type of the area, and the height of the image formed at the time of image formation can be improved. Image quality can be improved.
[0148]
Furthermore, according to the present embodiment, the type of the halftone dot region in the original image can be accurately and easily performed by using the density distribution information regarding only the halftone region in the original image, According to the type of the halftone dot region, the contents of each conversion process of the region separation processing unit 69 and the spatial filter processing unit 71 can be switched. As a result, the image forming apparatus 60 can form a high-quality image at the time of image formation on a document image using a variety of printed materials as a document.
[0149]
FIG. 15 is a flowchart illustrating a processing procedure of processing based on the image processing method of the image processing apparatus 1. The image processing method of the image processing apparatus 1 includes a halftone dot area identifying step, a halftone dot type feature amount calculating step, and a halftone image type determining step. The halftone dot region presence / absence determination step is a halftone dot region identification process in step s1, and identifies whether each pixel of a document image that is an input image belongs to a halftone dot region.
[0150]
The halftone dot type feature value process is a process in step s2, and calculates a feature value of a halftone dot region based on the pixel value of each pixel identified as belonging to the halftone dot region in the halftone dot region identification process. This is a feature amount calculation step. The halftone image type determination step is a process in step s3, and determines the type of a halftone area in the document image based on the feature amount calculated in the halftone type feature amount calculation step.
[0151]
The image processing method described above is an image conversion processing step in step s4, step s5, step s6, and step s7 for converting a document image into a predetermined image, based on a determination result of a halftone image type determination step. The method further includes an image conversion processing step of performing conversion processing of an image including a halftone dot region with conversion contents corresponding to the type of the halftone dot region in the original image, that is, an original image.
[0152]
The image conversion processing step has an area separation processing step of step s4 for separating the document image into a plurality of areas including a character area, a halftone dot area, and a photograph area. The image conversion processing step has a spatial filter processing step of step 5 and step s7 of performing a spatial filter processing on the document image according to the type of the area.
[0153]
In step s0, processing based on the image processing method of the image processing apparatus 1 is started, and the process proceeds to step s1. In the halftone dot region identification step of step s1, halftone dot region identification processing is performed on each pixel of the original image to determine whether or not each pixel of the original image belongs to a halftone dot region. The process proceeds to the point type feature amount calculation step.
[0154]
In the halftone dot type feature amount calculation step of step s2, an average density histogram 50 is calculated for each pixel identified as belonging to the halftone dot region. Specifically, the above-described average density histogram 50 is calculated based on the density value of each pixel identified as belonging to the halftone dot area, and based on the average density histogram 50, the frequency of each density value division is shaded. It is calculated as a point image feature quantity, and the process proceeds to a halftone image type determination step of step s3.
[0155]
In the halftone image type determination step of step s3, a total frequency MAX is calculated based on the halftone image feature amount calculated in the halftone type feature amount calculation step, and the original image is calculated based on the total frequency MAX. The type of the halftone dot region in is determined. In step s3, the process proceeds to step s6 if the type of the halftone dot region is a halftone character region, and proceeds to the region separation step of step s4 if the type of the halftone dot region is a halftone photograph region.
[0156]
In the area separation processing step of step s4, the document image is separated into a plurality of areas including a character area, a halftone dot area, and a photograph area, and the process proceeds to the spatial filter processing step of step s5.
[0157]
In the spatial filter processing step of step s5, the original image is subjected to spatial filter processing according to the type of region, specifically, the type of halftone dot region. Specifically, in the spatial filter processing stage, a halftone dot area is subjected to a smoothing filter processing, and a character area is subjected to sharp enhancement processing. When the spatial filter processing is completed, the process proceeds to step s8, where all processing procedures based on the image processing method are completed.
[0158]
In step s6, since the type of the halftone dot region in the document image is a halftone character region, the process proceeds to the spatial filter processing stage in step s7 without performing the process in the region separation process stage.
[0159]
In the spatial filter processing step of step s7, the original image is subjected to spatial filter processing according to the type of the area. More specifically, the entire low-frequency component is emphasized over the entire original image, and spatial filtering is performed using a digital filter that suppresses high-frequency components, and the process proceeds to step s8 to execute all the processing procedures based on the image processing method. To end.
[0160]
FIG. 16 is a flowchart showing a processing procedure of the halftone dot region identification process in the halftone dot region identification step of step s1. In step a0, a halftone dot area identification process is started, and the process proceeds to step a1.
[0161]
In step a1, edge determination processing is performed on each pixel of the document image. Specifically, it is determined whether or not each pixel of the document image is an edge pixel. Upon completion of the edge determination processing, the flow advances to step a2.
[0162]
In step a2, the processing result of the edge determination processing is stored in the first block memory 11, and the process proceeds to step a3.
[0163]
In step a3, a target image portion extraction process is performed on each pixel of the document image. Specifically, it is determined whether or not each pixel of the document image is included in the target image portion 46. When the target image portion extraction process ends, the process proceeds to step a4.
[0164]
In step a4, the processing result of the target image portion extraction processing is stored in the second block memory 13, and the process proceeds to step a5.
[0165]
In step a5, the first feature amount is calculated using the processing result of the target image portion extraction processing stored in the second block memory 13, and the process proceeds to step a6.
[0166]
In step a6, edge type determination processing is performed using the first feature amount. Specifically, it is determined to which of the plurality of regions the edge pixel belongs based on the determination result of the edge determination process and the first feature amount. Upon completion of the edge type determination processing, the flow advances to step a7.
[0167]
In step a7, the processing result of the edge type determination processing is stored in the third block memory 16, and the process proceeds to step a8.
[0168]
In step a8, the second feature amount is calculated using the processing result of the edge type determination processing stored in the third block memory 16, and the process proceeds to step a9.
[0169]
In step a9, a halftone dot region determination process is performed using the second feature amount. Specifically, it is determined whether each pixel of the document image belongs to a halftone dot region based on the second feature amount. When the halftone area determination processing is completed, the process proceeds to step a10, where all the processing procedures of the halftone area identification processing are ended, and the process proceeds to step s2 shown in FIG.
[0170]
As described above, by using the first feature amount and the second feature amount suitable for the characteristics of the region, the pixels belonging to the halftone dot region and the pixels belonging to the character region can be accurately identified. This makes it possible to accurately identify whether each pixel of the document image belongs to the halftone area in the halftone area identification step.
[0171]
According to the present embodiment, whether or not each pixel of a document image belongs to a halftone area is identified in the halftone area identification step. The halftone image feature amount is calculated in the halftone type feature amount calculation step by calculating the average density histogram 50 based on the density value of each pixel identified as belonging to the halftone dot region in the halftone region identification step. Is calculated. Based on the halftone image feature amount in the halftone type feature amount calculation step, the type of the halftone area in the document image is determined in the halftone image type determination step. As described above, by using the average density histogram 50 which is the distribution information of the density values of only the pixels belonging to the halftone dot region, it is possible to calculate an appropriate feature amount for each of the plurality of types of images of the halftone dot region. Therefore, the halftone dot area in the original image can be finely classified.
[0172]
According to the present embodiment, a document image is converted into a predetermined image in the image conversion processing step. Specifically, in the image conversion processing step, based on the determination result of the halftone image type determination step, the conversion processing of the image including the halftone area in the conversion processing content according to the type of the halftone area in the document image is performed. . As a result, the original image is converted into a predetermined image. An image including a halftone dot region can be converted into a predetermined image with the conversion processing content according to the type of the halftone dot region. Therefore, this occurs when the halftone dot region is treated as an image region of one type. Defects can be eliminated.
[0173]
Further, the conversion processing in the image conversion processing step, specifically, the contents of each conversion processing in the area separation processing step and the spatial filter processing step are switched according to the type of the halftone area in the document image. As a result, it is possible to improve the quality of an image formed at the time of image formation with respect to a document image having various types of printed materials as documents.
[0174]
Further, according to the present embodiment, when the halftone dot region is a halftone dot photograph region, the document image is converted into a plurality of regions including a character region, a halftone dot region, and a photograph region in the region separation processing step of the image conversion processing process. Separated with high accuracy. By accurately separating the document image into a plurality of regions in accordance with the type of the halftone dot region, the conversion process can be appropriately performed for each region, so that the image quality can be improved for each separated region.
[0175]
Furthermore, according to the present embodiment, when the halftone dot region is a halftone dot photograph region, the second filter 79 for suppressing moiré is used to perform the spatial filter processing in the spatial filter processing stage. When a halftone dot is treated as a background, it often includes characters. Therefore, the halftone dot is subjected to spatial filtering in the spatial filtering step using the first filter 78 in which the smoothing action and the enhancing action are mixed. As described above, since the processing content of the spatial filter processing stage is switched according to the type of the halftone dot region in the original image, appropriate processing can be performed according to the type of the region, and the high image quality of the image formed at the time of image formation can be achieved. Can be realized.
[0176]
Furthermore, according to the present embodiment, the type of the halftone dot region in the original image can be accurately and easily performed by using the density distribution information regarding only the halftone region in the original image, According to the type of the halftone dot region, the content of each conversion process in the segmentation process stage and the spatial filter process stage can be switched. By forming an image in the image forming apparatus 60 according to an image processing method capable of performing processing in this manner, a high-quality image can be formed at the time of image formation on a document image using a variety of printed materials as a document. Can be.
[0177]
As another embodiment of the present invention, the image processing apparatus 76 and the image forming apparatus 77 can use the above-described image processing method and have a program reading unit 75 indicated by a virtual line in FIG. In the present embodiment, the program reading means 75 is provided in the image processing device 76.
[0178]
The above-described program is packaged and recorded on the computer-readable recording medium 74. By reading the program recorded on the recording medium 74 by the program reading means 75, the image processing device 76 and the image forming device 77 can execute the processing based on the above-described image processing method.
[0179]
By providing the program reading means 75 in the image processing apparatus 1 as described above, if the image processing apparatus 76 and the image forming apparatus 77 are configured to perform processing based on a method different from the image processing method according to the present invention, The version of the processing method can be upgraded, specifically, changed to the image processing method according to the present invention. Thus, the operator can execute the image processing method according to the present invention without purchasing the image processing device 76 and the image forming device 77 newly.
[0180]
Further, as another example of the configuration of the image processing device 76 and the image forming device 77, one of the image processing device 76 and the image forming device 77 includes a computer including a reading unit 75 for a program recorded on a recording medium 74, It may be configured to be connected via a network and a communication line. In this case, the program recorded on the recording medium 74 is read by the reading means 75 of the computer, and the program is transferred to one of the image processing device 76 and the image forming device 77 via the network and the communication line. By executing the transferred program in one of the image processing device 76 and the image forming device 77, it is possible to execute the processing based on the image processing method according to the present invention.
[0181]
The recording medium 74 may be a memory included in a microcomputer, for example, a read-only memory (abbreviated as ROM), or may be a tape system such as a magnetic tape and a cassette tape. As another example of the recording medium 74, in the case of a magnetic disk, a flexible disk and a hard disk may be used.
[0182]
In the case of an optical disk, the recording medium 74 is a compact disk-read only memory (abbreviated CD-ROM), a magnet optical (magnet optical: abbreviated MO), a mini disk (abbreviated MD). And a digital versatile disk (abbreviation DVD).
[0183]
Further, in the case of a card, the recording medium 74 may be an IC card (IC card: abbreviated IC card) including a memory card and an optical card. The recording medium 74 is a semiconductor memory such as mask chrome (mask ROM), EPROM (erasable programmable read only memory), EPROM (electrically erasable ROM), and EPROM. It may be a medium containing the ROM and fixedly carrying the program.
[0184]
According to the present embodiment, by causing a computer to execute the above-described image processing method, it is possible to automatically execute processing based on the image processing method, and to finely classify the type of a halftone dot region in a document image. At the same time, it is possible to improve the image quality of an image formed at the time of image formation by performing appropriate processing according to the type of the area, for example, area separation processing and spatial filter processing.
[0185]
Further, according to the present embodiment, a program for determining the type of a halftone dot region in a document image and causing the computer to execute an image processing method for performing processing in accordance with the type is stored in a recording medium 74 readable by the computer. Record. By causing the computer to read the program from the recording medium 74 and causing the computer to execute the program, appropriate processing can be performed according to the type of the document image. Further, by expressing the image processing method according to the present invention by a program, it is possible to easily supply the image processing method to a computer and to make the image processing method versatile.
[0186]
Each of the above embodiments is merely an example of the present invention, and the configuration may be changed. For example, instead of using the average density histogram 50, a configuration may be used in which a halftone type feature amount is calculated using a density histogram representing the relationship between the density value of a pixel belonging to a halftone dot region and its frequency. Further, the area separation processing section 69 may have a configuration including the halftone area identification section 3, and in such a configuration, the area separation processing section 69 may perform area separation instead of the halftone area identification section 3 of the document type determination section 2. A configuration may be used in which it is determined whether or not a halftone dot region exists in the document image using the halftone dot region identification unit 3 of the processing unit 69.
[0187]
【The invention's effect】
According to the present invention, whether or not each pixel of the input image belongs to a halftone area is identified by the halftone area identification means. The halftone dot region includes a plurality of types of image regions, and includes, for example, a region in which halftone dots and characters are mixed, and a region including only halftone dots without characters. In the case where a halftone dot region including a plurality of types of image regions is treated as a single type of image region, for example, in a region where halftone dots and characters are mixed, a problem occurs in that the characters are degraded. In order to prevent such a problem and perform processing according to the type of the dot area in the image, it is necessary to finely classify the dot area in the image. Based on the pixel value of each pixel identified as belonging to the halftone dot region by the halftone dot region identification unit, a feature amount representing the feature of the halftone dot region is calculated by the feature amount calculation unit, and based on the feature amount, Is determined by the dot image type determining means. As described above, by calculating an appropriate feature amount for each of a plurality of types of images of the dot region, the dot region in the image can be finely classified.
[0188]
Further, according to the present invention, the input image is converted into a predetermined image by the image processing means so that the reproducibility is improved. The image processing means is controlled by the control means such that the image processing means performs the conversion processing of the image including the halftone area with the conversion processing content according to the type of the halftone area in the image based on the determination result of the halftone image type determination means. Is done. By controlling the conversion processing according to the conversion processing content according to the type of the halftone area in the image, the image including the halftone area can be converted into a predetermined image. It is possible to eliminate a problem that occurs when the image is treated as a region of an image of a form.
[0189]
Further, according to the present invention, an input image is separated into a plurality of regions including a character region, a halftone dot region, and a photograph region by the region separation processing unit of the image processing means. By dividing an input image into a plurality of regions, appropriate processing can be performed for each region so that the image quality is improved for each region to be separated.
[0190]
Further, according to the present invention, the input image is subjected to the spatial filter processing by the spatial filter processing unit of the image processing means according to the type of the region. By appropriately performing the spatial filter processing according to the type of the region, it is possible to prevent image quality deterioration of an image formed at the time of image formation and improve image quality of the image.
[0191]
Further, according to the present invention, when an image read from a document includes a dot region, the image can be appropriately processed according to the type of the dot region in the image. On the other hand, a high quality image can be formed on the recording material.
[0192]
Further, according to the present invention, whether or not each pixel of the input image belongs to a halftone area is identified in the halftone area identification step. The halftone dot region includes a plurality of types of image regions, and includes, for example, a region in which halftone dots and characters are mixed, and a region including only halftone dots without characters. In the case where a halftone dot region including a plurality of types of image regions is treated as a single type of image region, for example, in a region where halftone dots and characters are mixed, the image quality of characters deteriorates. In order to prevent such a problem and perform processing according to the type of the halftone area in the image, the halftone area must be finely classified. Based on the pixel value of each pixel identified as belonging to the halftone dot area in the halftone dot area identification step, a feature quantity representing the feature of the halftone dot area in the image is calculated in the feature quantity calculation step, and based on the feature quantity The type of the dot area in the image is determined in the halftone image type determination step. As described above, by calculating an appropriate feature amount for each of a plurality of types of images of the dot region, the dot region in the image can be finely classified.
[0193]
Further, according to the present invention, in the image conversion processing step, the input image is converted into a predetermined image. Specifically, in the image conversion processing step, based on the determination result of the halftone image type determination step, an image including a halftone dot region is converted by a conversion process corresponding to the type of the halftone dot region in the image. In the case where a halftone dot region is treated as one type of image region, since the image including the halftone dot region can be converted into a predetermined image with the conversion processing content according to the type of the halftone dot region in the image. Can be eliminated.
[0194]
Further, according to the present invention, an input image is separated into a plurality of regions including a character region, a halftone dot region, and a photograph region in the region separation processing stage of the image conversion processing process. By dividing an input image into a plurality of regions, appropriate processing can be performed for each region so that the image quality is improved for each region to be separated.
[0195]
Further, according to the present invention, the input image is subjected to the spatial filter processing according to the type of the region in the spatial filter processing stage of the image conversion processing step. By appropriately performing the spatial filter processing according to the type of the region, the image quality of the image can be prevented from deteriorating, and the image quality of the image can be improved.
[0196]
Further, according to the present invention, the type of a halftone dot region in an image is determined, and an image processing method that performs processing according to the type is represented by a program, thereby causing a computer to execute processing based on the image processing method. As a result, the computer can automatically execute the processing based on the image processing method, and perform appropriate processing according to the type of the halftone dot area in the input image.
[0197]
Further, according to the present invention, a program for causing a computer to execute an image processing method for determining a type of a halftone area in an image and performing processing in accordance with the type is recorded on a computer-readable recording medium. By causing a computer to read a program from a recording medium and causing the computer to execute the program, appropriate processing can be performed according to the type of a halftone dot region in an input image.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a document type determination unit included in an image processing apparatus according to an embodiment of the invention.
FIG. 2 is a block diagram illustrating a configuration of a halftone dot region identification unit 3.
FIG. 3 is a diagram illustrating a relationship between signals stored in a first block memory 11, a second block memory, and a third block memory.
FIG. 4 is a block diagram illustrating a configuration of an edge determination unit 10;
FIG. 5 is a diagram illustrating an example of a filter coefficient of a second-order differentiation filter 37;
FIG. 6 is a block diagram illustrating a configuration of a target image portion extraction unit 12.
7A and 7B are diagrams for explaining an example of a first local pixel block 26. FIG. 7A shows the first local pixel block 26 before binarization processing, and FIG. 7 shows the first local pixel block 26 after the binarization processing.
8 is a graph showing an example of a relationship between a density value and a frequency of each pixel in a first local pixel block 26 shown in FIG. 7; FIG. 8A shows a density histogram 44; 8 (2) shows a cumulative density histogram.
9 is a diagram for explaining an example of a process of calculating a first feature amount for a first local pixel block 26. FIG.
FIG. 10 is a diagram for explaining an example of a second local pixel block 28. FIG. 10A illustrates a second local pixel block 28 corresponding to a halftone dot region having a medium line count of 120 to 150 lines. FIG. 10B shows a second local pixel block 28 corresponding to a character area.
11 is a graph showing an example of an average density histogram 50. FIG. 11 (1) shows the average density histogram 50 when a halftone dot is a background, and FIG. 11 (2) shows a halftone dot in a photograph. 5 shows an average density histogram 50 in the case of.
FIG. 12 is a block diagram illustrating a configuration of a halftone image type determination unit 5.
FIG. 13 is a block diagram illustrating a configuration of the image forming apparatus 60.
FIG. 14 is a diagram for explaining an example of a digital filter used for spatial filter processing. FIG. 14A illustrates a first filter 78 in a case where a halftone dot area is a halftone dot character area. FIG. 14B shows the second filter 79 when the halftone dot area is a halftone photographic area.
FIG. 15 is a flowchart illustrating a processing procedure of processing based on an image processing method of the image processing apparatus 1.
FIG. 16 is a flowchart showing a processing procedure of a halftone dot region identification process in a halftone dot region identification step of step s1.
[Explanation of symbols]
1,76 Image processing device
2 Document type determination means
3 Halftone area identification unit
4 Halftone type feature value calculation unit
5 Halftone image type determination unit
50 Average density histogram
53 control means
55 Maximum frequency calculation part
56 Frequency threshold setting part
57 Halftone type setting part
60,77 image forming apparatus
62 Image input device
63 Image output device
68 Image processing means
69 area separation processing unit
71 Spatial filter processing unit
74 Recording medium
75 Program reading means
78 1st filter
79 2nd filter

Claims (11)

入力される画像の各画素が網点領域に属するかを識別する網点領域識別手段と、
前記網点領域識別手段で、網点領域に属すると識別された各画素の画素値に基づいて、画像における網点領域の特徴量を算出する特徴量算出手段と、
特徴量算出手段で算出される特徴量に基づいて、画像における網点領域の種別を判定する網点画像種別判定手段とを含むことを特徴とする画像処理装置。
A halftone dot region identifying means for identifying whether each pixel of the input image belongs to a halftone dot region,
A feature value calculating unit that calculates a feature value of a halftone dot region in an image based on a pixel value of each pixel identified as belonging to the halftone dot region,
An image processing apparatus comprising: a halftone image type determining unit configured to determine a type of a halftone area in an image based on the feature amount calculated by the feature amount calculating unit.
入力される画像を予め定める画像に変換処理する画像処理手段と、
網点画像種別判定手段の判定結果に基づいて、画像における網点領域の種別に応じた変換処理内容で網点領域が含まれる画像の変換処理をするように、画像処理手段を制御する制御手段とを、さらに含むことを特徴とする請求項1記載の画像処理装置。
Image processing means for converting an input image into a predetermined image;
Control means for controlling the image processing means so as to perform conversion processing of an image including a halftone area with conversion processing contents corresponding to the type of the halftone area in the image based on the determination result of the halftone image type determination means The image processing apparatus according to claim 1, further comprising:
画像処理手段は、入力される画像を、文字領域、網点領域および写真領域を含む複数の領域に分離する領域分離処理部を有することを特徴とする請求項2記載の画像処理装置。3. The image processing apparatus according to claim 2, wherein the image processing unit includes an area separation processing unit that separates an input image into a plurality of areas including a character area, a halftone area, and a photograph area. 画像処理手段は、入力される画像を、領域の種別に応じた空間フィルタ処理する空間フィルタ処理部を有することを特徴とする請求項2記載の画像処理装置。3. The image processing apparatus according to claim 2, wherein the image processing unit includes a spatial filter processing unit that performs a spatial filter process on the input image according to a type of a region. 請求項1〜4のいずれかに記載の画像処理装置を含むことを特徴とする画像形成装置。An image forming apparatus comprising the image processing apparatus according to claim 1. 入力される画像の各画素が網点領域に属するかを識別する網点領域識別工程と、
前記網点領域識別工程で、網点領域に属すると識別された各画素の画素値に基づいて、画像における網点領域の特徴量を算出する特徴量算出工程と、
特徴量算出工程で算出される特徴量に基づいて、画像における網点領域の種別を判定する網点画像種別判定工程とを含むことを特徴とする画像処理方法。
A dot area identification step of identifying whether each pixel of the input image belongs to a dot area,
In the halftone dot region identification step, based on the pixel value of each pixel identified as belonging to the halftone dot region, a feature amount calculation step of calculating a feature amount of the halftone dot region in the image,
A dot image type determining step of determining a type of a dot area in an image based on the feature amount calculated in the feature amount calculating step.
入力される画像を予め定める画像に変換処理する画像変換処理工程であって、
網点画像種別判定工程の判定結果に基づいて、画像における網点領域の種別に応じた変換処理内容で網点領域が含まれる画像の変換処理をする画像変換処理工程を、さらに含むことを特徴とする請求項6記載の画像処理方法。
An image conversion processing step of converting an input image into a predetermined image,
The image processing apparatus further includes an image conversion processing step of performing conversion processing of an image including a halftone area with conversion processing content according to the type of the halftone area in the image based on the determination result of the halftone image type determination step. The image processing method according to claim 6, wherein
画像変換処理工程は、入力される画像を、文字領域、網点領域および写真領域を含む複数の領域に分離する領域分離処理段階を有することを特徴とする請求項7記載の画像処理方法。8. The image processing method according to claim 7, wherein the image conversion processing step includes an area separation processing step of separating an input image into a plurality of areas including a character area, a halftone area, and a photograph area. 画像変換処理工程は、入力される画像を、領域の種別に応じた空間フィルタ処理する空間フィルタ処理段階を有することを特徴とする請求項7記載の画像処理方法。8. The image processing method according to claim 7, wherein the image conversion processing step includes a spatial filter processing step of performing a spatial filter processing on the input image according to a type of a region. 請求項6〜9のいずれかに記載の画像処理方法を、コンピュータに実行させるためのプログラム。A program for causing a computer to execute the image processing method according to claim 6. 請求項10記載のプログラムが記録されたコンピュータ読取り可能な記録媒体。A computer-readable recording medium on which the program according to claim 10 is recorded.
JP2002265941A 2002-09-11 2002-09-11 Image processing device Expired - Fee Related JP4184010B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002265941A JP4184010B2 (en) 2002-09-11 2002-09-11 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002265941A JP4184010B2 (en) 2002-09-11 2002-09-11 Image processing device

Publications (2)

Publication Number Publication Date
JP2004104610A true JP2004104610A (en) 2004-04-02
JP4184010B2 JP4184010B2 (en) 2008-11-19

Family

ID=32264930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002265941A Expired - Fee Related JP4184010B2 (en) 2002-09-11 2002-09-11 Image processing device

Country Status (1)

Country Link
JP (1) JP4184010B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055121A (en) * 2007-08-23 2009-03-12 Sharp Corp Image processing device, image processing method, image forming apparatus and program, recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055121A (en) * 2007-08-23 2009-03-12 Sharp Corp Image processing device, image processing method, image forming apparatus and program, recording medium
JP4740913B2 (en) * 2007-08-23 2011-08-03 シャープ株式会社 Image processing apparatus, image processing method, image forming apparatus and program, and recording medium

Also Published As

Publication number Publication date
JP4184010B2 (en) 2008-11-19

Similar Documents

Publication Publication Date Title
JP4053345B2 (en) Image processing method, image processing apparatus, image forming apparatus including the same, program, and recording medium
JP4137890B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP4495197B2 (en) Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program
JP4170353B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, program, and recording medium
JP2007288622A (en) Apparatus and method for processing image, image forming apparatus, image processing program and recording medium
JP4115999B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
US8073251B2 (en) Image processing apparatus and method including page-background process capability, and non-transitory computer readable storage medium for causing computer to function as the same
JP4105539B2 (en) Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium
JP4248899B2 (en) Area separation processing method, area separation processing program, recording medium recording the same, image processing apparatus, and image forming apparatus including the same
JP4549227B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4184010B2 (en) Image processing device
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP3854060B2 (en) Image processing apparatus, image forming apparatus, image processing method, and recording medium
JP4133168B2 (en) Image processing method, image processing apparatus, program, recording medium, and image forming apparatus
JP2006229817A (en) Background detection method, program, recording medium, image processing apparatus, and image forming apparatus
JP4149368B2 (en) Image processing method, image processing apparatus and image forming apparatus, computer program, and computer-readable recording medium
JP2008205964A (en) Image processing device, image forming device, image reading device, image processing program, and recording medium
JP4086537B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2005267119A (en) Image processor, image forming device, image processing method, image processing program, and recording medium
JP2011015172A (en) Device for processing image, device for forming image, method and program for processing image, and recording medium recording program for processing image
JP4808282B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program
JP2003224718A (en) Image processing method and image processor
JP2003125198A (en) Image processing apparatus and image processing method, and image forming device provided with the same, program, and recording medium
JP2003324604A (en) Image processing equipment, image forming equipment, image processing method, program and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080902

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080903

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110912

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4184010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120912

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130912

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees