JP4139201B2 - Image processing method, image processing apparatus, and image forming apparatus including the same - Google Patents
Image processing method, image processing apparatus, and image forming apparatus including the same Download PDFInfo
- Publication number
- JP4139201B2 JP4139201B2 JP2002355861A JP2002355861A JP4139201B2 JP 4139201 B2 JP4139201 B2 JP 4139201B2 JP 2002355861 A JP2002355861 A JP 2002355861A JP 2002355861 A JP2002355861 A JP 2002355861A JP 4139201 B2 JP4139201 B2 JP 4139201B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- image
- pixel
- density value
- density
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、特定の画像領域または全体画像の画素の画素値を補正する画像処理方法、この方法を実行させるためのプログラムおよびこのプログラムを記録した記録媒体ならびに画像処理装置およびそれを備える画像形成装置に関する。
【0002】
【従来の技術】
近年、オフィスオートメーション(Office Automation;略称OA)機器のデジタル化が急速に進展するとともに、無彩色に加えて有彩色で表される画像を記録材に形成して出力するカラー画像出力の需要が増している。カラー画像出力する画像出力装置には、電子写真方式のデジタルカラー複写機ならびにインクジェット方式および熱転写方式のカラープリンタなどがある。たとえばデジタルカメラおよびスキャナなどによって与えられた画像データ、あるいはコンピュータによって作成された画像データが、前述の画像出力装置に与えられて、画像が記録材に形成される。入力された画像データに基づいて画像を記録材に形成する場合、画像は濃度の再現性が常に安定した状態で形成されることが必要である。画像の濃度の再現性を常に安定させるために、入力された画像データから複数の画像領域に分離して、分離された画像領域に対して画素の濃度値を補正する必要がある。従来の技術のカラー画像処理装置では、原稿から読取った画像の文字領域から文字の細線度合いが算出され、その細線度合いに応じて墨生成量が制御されている(たとえば特許文献1参照)。細線度合いは、線の幅が小さく線が細いほど大きい値をとる特徴量である。カラー画像処理装置は、この細線度合いを用いて、墨生成量を制御することによって、文字の濃度の再現性をできるだけ均一になるように制御している。
【0003】
【特許文献1】
特開平11−69174号公報
【0004】
【発明が解決しようとする課題】
従来の技術のカラー画像処理装置では、文字の太さに拘わらず均一に再現をしたい文字領域に対して不均一性に関連する特徴量である線の幅から墨生成量を制御する。たとえば線の幅が小さく細い文字と判断された場合、その文字に対して一様に墨量が足されてしまう。このように線の幅に応じて、決まった墨量が必ず与えられるので、原稿に形成される文字の濃度と同一にならない場合があり、原稿に形成される画像を精度良く再現することができない。
【0005】
したがって本発明の目的は、原稿に形成される画像、たとえば文字を精度良く再現することができる画像処理方法、この方法を実行させるためのプログラムおよびこのプログラムを記録した記録媒体ならびに画像処理装置およびこれを備える画像形成装置を提供することである。
【0006】
【課題を解決するための手段】
本発明は、画像入力手段によって与えられ、かつ複数の色に関する画素値を有する画素を含む全体画像から、複数の画像領域を識別分離する領域分離手段と、
分離される画像領域のうち、無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最大濃度値を取得する最大画素値取得手段と、
前記無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最小濃度値を取得する最小画素値取得手段と、
神経回路網を含んで構成され、取得される最大濃度値と、前記最大濃度値を補正するために用いられる予め教師データによって設定される最大目標値と、取得される最小濃度値と、前記最小濃度値を補正するために用いられる予め教師データによって設定される最小目標値とに基づいて、最大濃度値と最大目標値との誤差、最小濃度値と最小目標値との誤差が無くなるように学習によって神経回路網中のニューロン間の結合強さを表す重みを演算して更新する情報演算手段と、
更新された重みに基づいて、前記無彩文字形成領域の画素の濃度値を補正する補正手段とを含むことを特徴とする画像処理装置である。
【0007】
本発明に従えば、複数の色に関する画素値を有する画素を含む全体画像が、画像入力手段によって与えられる。この全体画像から、複数の画像領域が領域分離手段によって識別分離される。分離される画像領域のうち、無彩文字形成領域に関して、無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最大濃度値が最大画素値取得手段によって取得される。同様に無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最小濃度値が最小画素値取得手段によって取得される。最大濃度値と最大目標値との誤差、最小濃度値と最小目標値との誤差が無くなるように学習によって神経回路網中のニューロン間の結合強さを表す重みが情報演算手段によって演算される。演算された重みに基づいて、無彩文字形成領域の画素の濃度値が補正手段によって補正される。無彩文字形成領域における最大濃度値、最小濃度値が元々有している本来の画素値になるように、無彩文字形成領域の画素の濃度値を補正することができる。
これによってたとえば原稿に形成される画像を読取るときに生じた読取り誤差を補正して、読取り誤差を無くすことができる。したがって本来の画素値になるように、無彩文字形成領域の画素の濃度値を精度良く補正することができる。
【0009】
無彩文字形成領域における最大濃度値、最小濃度値が元々有している本来の画素値になるように補正することで、無彩文字形成領域の画素の濃度値を正確に補正したうえで、全体画像における特定画像領域のコントラストを正確に再現することができる。
【0011】
また、前記情報演算手段は、神経回路網を含んで構成される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。情報演算手段が神経回路網を含んで構成されるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、情報演算手段を実現するために要するコストを可及的に削減することができる。
【0012】
また本発明は、前記最大目標値および最小目標値は、教師用原稿を用いて教師データを取り込むことで画像入力手段の入力特性に基づいて設定されることを特徴とする。
【0013】
本発明に従えば、前記最大目標値および最小目標値は、教師用原稿を用いて教師データを取り込むことで画像入力手段の入力特性に基づいて設定されるので、画像入力手段に応じた補正情報を正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字形成領域の文字は、その濃度が文字の太さに拘わらず一様でありかつ文字領域において最大となるとともに、下地領域は、その濃度が一様であり最小となる。全体画像における文字形成領域を読み取った場合、文字に対応する画素の画素値は、文字形成領域において最大の画素値になり、下地に対応する画素の濃度値は最小になると想定することができる。これによって本来の画素値である最大目標値および最小目標値を予め設定することができる。このように特定画像領域の画素の画素値を補正するための目標値が既知である場合には、目標値を有する画素を含む全体画像を、画像入力手段で読込んでおくことによって、目標値を予め設定することができる。これによって補正情報を正確に演算することができる。
【0014】
また本発明は、予めサンプル画像を用いた学習によって、前記情報演算手段が更新した前記重みを記憶しておく記憶手段を有し、
前記補正手段は、記憶されている重みに基づいて、前記無彩文字形成領域の画素の濃度値を補正することを特徴とする。
【0015】
本発明に従えば、予めサンプル画像を用いた学習によって、前記情報演算手段が更新した前記重みが記憶手段に記憶される。無彩文字形成領域の画素の濃度値が、記憶手段に記憶される重みに基づいて、補正手段によって補正される。これによって、たとえば画像入力手段の入力特性が一定または既知である場合には、画像入力手段が全体画像を与えるたびに補正情報を演算することなく、無彩文字形成領域のサンプル画像の画素の画素値に基づいて重みを推定し、この重みに基づいて補正したサンプル画像の画素の画素値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の濃度値を用いることによって、全体画像から無彩文字形成領域の画素の濃度値を精度良く補正することができる。これによって画像処理装置による処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0016】
また本発明は、前述の画像処理装置を備える画像形成装置である。
本発明に従えば、画像形成装置は、前述の画像処理装置を備えるので、特定画像領域の画素の画素値を、本来の画素の画素値になるように精度良く補正することができる。これによって全体画像における特定画像領域を正確に再現することが可能な画像形成装置を実現することができる。
【0017】
また本発明は、画像入力手段によって与えられ、かつ複数の色に関する画素値を有する画素を含む全体画像から、複数の画像領域を識別分離する領域分離工程と、
分離される画像領域のうち、無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最大濃度値を取得する最大画素値取得工程と、
前記無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最小濃度値を取得する最小画素値取得工程と、
取得される最大濃度値と、前記最大濃度値を補正するために用いられる予め教師データによって設定される最大目標値と、取得される最小濃度値と、前記最小濃度値を補正するために用いられる予め教師データによって設定される最小目標値とに基づいて、最大濃度値と最大目標値との誤差、最小濃度値と最小目標値との誤差が無くなるように学習によって神経回路網中のニューロン間の結合強さを表す重みを演算して更新する情報演算工程と、
更新された重みに基づいて、前記無彩文字形成領域の画素の濃度値を補正する補正工程とを含むことを特徴とする画像処理方法である。
【0018】
本発明に従えば、複数の色に関する画素値を有する画素を含む全体画像が、画像入力手段によって与えられる。この全体画像から、複数の画像領域が領域分離工程で識別分離される。領域分離工程で分離される画像領域のうち、無彩文字形成領域に関して、無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最大濃度値が最大画素値取得工程で取得される。同様に無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最小濃度値が最小画素値取得工程で取得される。最大濃度値と最大目標値との誤差、最小濃度値と最小目標値との誤差が無くなるように学習によって神経回路網中のニューロン間の結合強さを表す重みが情報演算工程で演算される。演算された重みに基づいて、無彩文字形成領域の画素の濃度値が補正工程で補正される。無彩文字形成領域における最大濃度値、最小濃度値が元々有している本来の画素値になるように、無彩文字形成領域の画素の濃度値を補正することができる。
これによって読取り誤差を無くして、本来の画素値になるように、無彩文字形成領域の画素の濃度値を精度良く補正することができる。
【0020】
最大および最小の濃度値が、それぞれ本来の濃度値になるように、全体画像における無彩文字形成領域を読取るときに生じた読取り誤差を補正することができる。したがって無彩文字形成領域の画素の濃度値を精度良く補正することができるとともに、全体画像における特定画像領域のコントラストを正確に再現することができる。
【0022】
また、前記情報演算工程では、神経回路網を用いて補正情報が演算される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。情報演算工程では、神経回路網を用いるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、情報演算手段を実現するために要するコストを可及的に削減することができる。
【0023】
また本発明は、前記最大目標値および最小目標値は、教師用原稿を用いて教師データを取り込むことで画像入力手段の入力特性に基づいて設定されることを特徴とする。
【0024】
本発明に従えば、前記最大目標値および最小目標値は、教師用原稿を用いて教師データを取り込むことで画像入力手段の入力特性に基づいて設定されるので、画像入力手段に応じた補正情報を正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字形成領域の文字は、その濃度が文字の太さに拘わらず一様であり、かつ最大の画素値を有する画素によって表される。これによって本来の画素値である最大目標値を予め知ることができる。このように最大目標値が既知である場合には、最大目標値を有する画素を含む全体画像を、画像入力手段で読込んでおくことによって、最大目標値を予め設定することができる。これによって補正情報を正確に演算することができる。
【0025】
また本発明は、予めサンプル画像を用いた学習によって、前記情報演算工程で更新した前記重みを記憶しておく情報記憶工程をさらに含み、
前記補正工程では、記憶されている重みに基づいて、前記無彩文字形成領域の画素の濃度値を補正することを特徴とする。
【0026】
本発明に従えば、情報記憶工程では、予めサンプル画像を用いた学習によって、前記情報演算手段が更新した前記重みが記憶手段に記憶される。補正工程では、記憶手段に記憶される重みに基づいて、領域分離工程で全体画像から識別分離された無彩文字形成領域の画素の画素値が補正される。
これによって、たとえば画像入力手段の入力特性が一定または既知である場合には、画像入力手段が全体画像を与えるたびに補正情報を演算することなく、無彩文字形成領域のサンプル画像の画素の画素値に基づいて重みを推定し、この重みに基づいて補正したサンプル画像の画素の画素値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の濃度値を用いることによって、識別分離された無彩文字形成領域の画素の濃度値を精度良く補正することができる。これによって画像処理装置による処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0027】
また本発明は、前述の画像処理方法を、コンピュータに実行させるためのプログラムである。
【0028】
本発明に従えば、神経回路網中のニューロン間の結合強さを表す重みに基づいて、無彩文字形成領域の画素の濃度値を補正する画像処理方法をプログラムで表すことによって、コンピュータに前述の画像処理方法に従う処理を実行させることができる。前記画像処理方法に従う処理をコンピュータに実行させることによって、全体画像における無彩文字形成領域を精度良く再現することができる。
【0029】
また本発明は、前述のプログラムが記録されたコンピュータ読取り可能な記録媒体である。
【0030】
本発明に従えば、神経回路網中のニューロン間の結合強さを表す重みに基づいて、無彩文字形成領域の画素の濃度値を補正する画像処理方法をコンピュータに実行させるためのプログラムを、コンピュータによって読取り可能な記録媒体に記録させる。たとえばフレキシブルディスクなどの持運び可能な記録媒体にプログラムを記録させることによって、プログラムを記録媒体から所望のコンピュータに読込ませることができるとともに、記録媒体からコンピュータにプログラムを読込ませて、このプログラムをコンピュータに実行させることができる。
【0031】
【発明の実施の形態】
図1は、本発明の実施の一形態である画像形成装置1が備える画像処理装置3の黒階調補正部30の構成を示すブロック図である。図2は、画像形成装置1全体の構成を示すブロック図である。図3は、領域分離処理部13の構成を示すブロック図である。図4は、黒階調補正部30によって形成される各色局所マスク35を説明するための図である。図1〜3では、図解を容易にするために、シアン信号を「C」で表し、マゼンタ信号を「M」で表し、イエロー信号を「Y」で表している。図2では、図解を容易にするために、赤信号を「R」で表し、緑信号を「G」で表し、青信号を「B」で表している。画像形成装置1は、原稿に形成される画像、すなわち原稿画像を読取り、原稿画像を精度よく再現することができるように適切な処理をして、記録材に画像を形成する装置である。記録材は、紙および紙以外の材料から成る記録用のシートを含む。画像形成装置1は、たとえばデジタルカラー複写機であって、読取った原稿画像をデジタルデータに変換して各種の処理をするとともに、無彩色および有彩色で表される画像を記録材に形成する。画像形成装置1は、画像入力装置2、画像処理装置3および画像出力装置4を含んで構成される。
【0032】
画像入力装置2は、原稿画像を読取る画像読取り手段であるとともに、読取った原稿画像を画像処理装置3に与える画像入力手段である。画像入力装置2は、固体撮像素子を備えるスキャナ部を含んで構成される。スキャナ部は、光源から発せられて原稿で反射した光を赤(R)、緑(G)および青(B)の3色に分解する。スキャナ部の固体撮像素子は、たとえば蓄積電荷結合素子(Charge Coupled Device;略称CCD)を用いたラインセンサによって実現される(以下、「蓄積電荷結合素子」を、CCDと呼ぶ場合がある)。画像入力装置2において、光源によって光を原稿に照射して、原稿からの反射光の色を、CCDラインセンサによって、主走査方向および副走査方向に並ぶ複数の画素に分割して検出して原稿画像を読取る。主走査方向は、CCDラインセンサが延在する方向である。副走査方向は、スキャナ部の走査方向である。具体的には副走査方向は、主走査方向に垂直かつ原稿画像の読取り時において原稿に沿う方向である。さらに画像入力装置2は、各画素の色および強度によって原稿画像を表す原稿画像データを、電気信号によって画像処理装置3に与える。原稿画像データは、3つの色成分である赤、緑および青の濃度に対応する数値によって表される。原稿画像データは、赤信号、緑信号および青信号として画像入力装置2によって画像処理装置3に与えられる。赤信号は、原稿からの赤色光の反射率を画素毎にアナログで表す電気信号である(以下、「赤信号」を「R信号」と表記する場合がある)。緑信号は、原稿からの緑色光の反射率を画素毎にアナログで表す電気信号である(以下、「緑信号」を「G信号」と表記する場合がある)。青信号は、原稿からの青色光の反射率を画素毎にアナログで表す電気信号である(以下、「青信号」を「B信号」と表記する場合がある)。
【0033】
画像処理装置3は、画像形成時に、原稿画像を精度よく再現することができるように、全体画像に対して適切な処理をする装置である。全体画像は、原稿画像データによって表される原稿画像であって、複数の色に関する画素値を有する画素を含む。画像処理装置3は、アナログデジタル変換部(以下、「A/D変換部」と呼ぶ)10、シェーディング補正部11、入力階調補正部12、領域分離処理部13、色補正部14、黒生成下色除去部15、空間フィルタ処理部16、出力階調補正部17および階調再現処理部18を含んで構成される。
【0034】
A/D変換部10は、与えられるアナログ信号をデジタル信号に変換する。A/D変換部10は、アナログ信号であって、画像入力装置2によって与えられるR信号、G信号およびB信号を、各画素毎に赤色光、緑色光および青色光の反射率をデジタルで表すデジタル信号にそれぞれ変換する。A/D変換部10によってデジタル信号に変換されたR信号、G信号およびB信号は、シェーディング補正部11に与えられる。シェーディング補正部11は、A/D変換部10からのR信号、G信号およびB信号の表すデータに含まれる歪み成分を取り除く処理をする。シェーディング補正部11は、A/D変換部10からのR信号、G信号およびB信号に対して、画像入力装置2の照明系、結像光学系および撮像系(受像系)で生じる各種の歪み成分を取り除く処理をする。シェーディング補正部11による処理後のR信号、G信号およびB信号は、入力階調補正部12に与えられる。
【0035】
入力階調補正部12は、シェーディング補正部11からのR信号、G信号およびB信号に対して、各色成分の光の反射率値をこれに基づいてカラーバランスを整えるように補正するとともに、各色成分の光の反射率値を、赤色光の濃度値と緑色光の濃度値と青色光の濃度値とを表す信号に変換する。入力階調補正部12は、各画素の赤、緑および青の濃度値で表されるR信号、G信号およびB信号を補色反転して、シアンの濃度値を表すシアン信号と、マゼンタの濃度値を表すマゼンタ信号と、イエローの濃度値を表すイエロー信号とに変換する。入力階調補正部12による処理後のシアン信号、マゼンタ信号およびイエロー信号は、領域分離処理部13に与えられる(以下、「シアン信号」を「C信号」と表記し、「マゼンタ信号」を「M信号」と表記し、「イエロー信号」を「Y信号」と表記する場合がある)。
【0036】
領域分離処理部13は、入力階調補正部12からのC信号、M信号およびY信号に基づいて、全体画像から複数の画像領域を識別分離する。具体的には領域分離処理部13は、全体画像の各画素を複数の画像領域、たとえば文字領域および網点領域ならびに写真領域や下地領域のその他領域として分離する。文字領域は、文字の縁部分である文字エッジを表す画像領域であり、文字は、漢字、英字、数字および記号を含む。網点領域は、網点で像を表す画像領域である。その他領域は、中間調で表される印画紙写真画像を表す画像領域および下地領域である。領域分離処理部13は、マスク形成部20、文字領域判定部21、網点領域判定部22および識別信号生成部23を含んで構成される。マスク形成部20は、複数の画素を含み、かつ複数の画素がマトリクス状に配置される局所マスクを形成する。本実施の形態では、マスク形成部20は、主走査方向および副走査方向に7つの画素がそれぞれ並ぶ局所マスク、すなわち7×7の局所マスクを形成する。局所マスクの中心の画素は、その局所マスクにおける処理の対象となる注目画素である。局所マスク内の各画素に関するC信号、M信号およびY信号は、文字領域判定部21のエッジ検出部25および有彩/無彩判定部26ならびに網点領域判定部22に与えられる。
【0037】
文字領域判定部21は、全体画像の各画素が文字領域に属するか否かを判定する。さらに文字領域判定部21は、文字領域に属する画素に対して、文字を無彩色で表す無彩文字領域と文字を有彩色で表す有彩文字領域とのいずれに属するかを判定する。文字領域判定部21は、エッジ検出部25、有彩/無彩判定部26および信号判定部27を含んで構成される。エッジ検出部25は、全体画像の各画素がエッジ画素であるか否かを判定して、エッジ画素を検出する。エッジ画素は、その濃度値が隣接する画素の濃度値に比べて大きく異なる急峻な変化を示す画素である。エッジ検出部25は、マスク形成部20からのC信号、M信号およびY信号に基づいて、7×7の局所マスクのうち注目画素を中心とする3×3の局所マスクを用いて、注目画素の濃度値と注目画素に隣接する各隣接画素の濃度値との差をそれぞれ演算する。エッジ検出部25は、それぞれ演算された濃度値の差を予め定める閾値と比較する。エッジ検出部25は、それぞれ演算された濃度値の差のうちいずれかが閾値以上である場合、注目画素がエッジ画素であると判定し、それぞれ演算された濃度値の差がすべて閾値よりも小さい場合、注目画素がエッジ画素ではないと判定する。エッジ検出部25は、注目画素に対して、シアン、マゼンタおよびイエローの各色毎に判定処理をする。たとえばエッジ検出部25は、各色のうちいずれか1つにおいて注目画素がエッジ画素であると判定した場合、注目画素がエッジ画素であると最終的に判定する。エッジ検出部25による判定処理は、ゾーベルフィルタなどのエッジ検出用フィルタによって実現されてもよい。エッジ検出部25による注目画素に対する判定結果を表すエッジ信号は、信号判定部27に与えられる。
【0038】
有彩/無彩判定部26は、たとえば全体画像の彩度情報を用いて閾値処理することによって、全体画像の各画素が有彩色および無彩色のいずれの色を表す画素であるかを判定する。有彩/無彩判定部26は、7×7の局所マスクの注目画素が有するシアン、マゼンタおよびイエローの濃度値に関して、最大値および最小値を求めるとともに、最大値から最小値を減算することによってそれらの値の差分を求める。有彩/無彩判定部26は、以下の条件式(1),(2)に示すように、最大値と最小値との差分が閾値TH以上である場合、注目画素が有彩色を表す画素であると判定し、最大値および最小値の差分が閾値THよりも小さい場合、注目画素が無彩色を表す画素であると判定する。有彩/無彩判定部26による注目画素に対する判定結果を表す有彩無彩判定信号は、信号判定部27に与えられる。
max(C,M,Y)−min(C,M,Y)≧TH … 有彩色…(1)
max(C,M,Y)−min(C,M,Y)<TH … 無彩色…(2)
【0039】
信号判定部27は、全体画像の各画素が、無彩文字領域および有彩文字領域のいずれに属する画素であるかを判定する。具体的には信号判定部27は、エッジ検出部25からのエッジ信号と有彩/無彩判定部26からの有彩無彩判定信号とに基づいて、注目画素が無彩文字領域および有彩文字領域のいずれに属する画素であるかを判定する。信号判定部27は、注目画素がエッジ画素であり、かつ無彩色を表す画素である場合、注目画素が無彩文字領域に属すると判定し、注目画素がエッジ画素であり、かつ有彩色を表す画素である場合、注目画素が有彩文字領域に属すると判定する。信号判定部27による注目画素に対する判定結果を表す文字領域判定信号は、識別信号生成部23に与えられる。
【0040】
網点領域判定部22は、全体画像の各画素が網点領域に属するか否かを判定する。網点領域は、小領域に関して、予め定める走査方向に連続して並ぶ画素の濃度値の変動が大きいという特徴と、背景となる下地に比べて網点の濃度が高いという特徴とを有する。網点領域判定部22は、前述の網点領域の特徴を利用して、注目画素を中心とするP×Qの局所マスクを用いて判定処理をする。PおよびQは、自然数であって相互に同一であってもよいし、異なっていてもよい。本実施の形態では、網点領域判定部22は、マスク形成部20によって形成される7×7の局所マスクのうち注目画素を中心とする3×3の局所マスクを用いる。網点領域判定部22は、3×3の局所マスク内の9画素の濃度値に関して、濃度値の平均値である平均濃度値Daveを求めるとともに、最大の濃度値である最大濃度値Dmaxと、最小の濃度値である最小濃度値Dminとを求める。網点領域判定部22は、平均濃度値Daveを用いて、3×3の局所マスク内の各画素の濃度値を2値化する。網点領域判定部22は、3×3の局所マスクに関して2値化した結果に基づいて、主走査方向に関して0から1への変化点数と1から0への変化点数とをそれぞれ計数するとともに、各変化点数の和を主走査方向における変化点数Krとして求める。網点領域判定部22は、3×3の局所マスクに関して2値化した結果に基づいて、副走査方向に関して0から1への変化点数と1から0への変化点数とをそれぞれ計数するとともに、各変化点数の和を副走査方向における変化点数Kvとして求める。
【0041】
網点領域判定部22は、主走査方向における変化点数Krを予め定める閾値Trと比較するとともに、副走査方向における変化点数Kvを予め定める閾値Tvと比較する。さらに網点と下地との誤判定を防止するために、網点領域判定部22は、最大濃度値Dmaxから平均濃度値Daveを減算した値と、予め定める閾値B1とを比較するとともに、平均濃度値Daveから最小濃度値Dminを減算した値と、予め定める閾値B2とを比較する。網点領域判定部22は、注目画素が網点領域に属するか否かを以下に示される条件式(3)〜(6)に基づいて判定する。網点領域判定部22は、条件式(3)〜(6)を全て満たす場合、注目画素が網点領域に属すると判定し、条件式(3)〜(6)のうち1つでも満たさない条件式がある場合、注目画素が網点領域に属さないと判定する。
Dmax−Dave>B1 …(3)
Dave−Dmin>B2 …(4)
Kr>Tr …(5)
Kv>Tv …(6)
【0042】
条件式(3)〜(6)に示すように、最大濃度値Dmaxから平均濃度値Daveを減算した値が閾値B1よりも大きく、かつ平均濃度値Daveから最小濃度値Dminを減算した値が閾値B2よりも大きく、かつ主走査方向における変化点数Krがしきい値Trよりも大きく、かつ副走査方向における変化点数Kvがしきい値Tvよりも大きい場合、網点領域判定部22は、注目画素が網点領域に属すると判定する。網点領域判定部22は、シアン、マゼンタおよびイエローの各色毎に個別に判定処理をする。網点領域判定部22は、各色のいずれかにおいて注目画素が網点領域に属すると判定した場合、注目画素が網点領域に属すると最終的に判定する。網点領域判定部22による注目画素に対する判定結果を表す網点判定信号は、識別信号生成部23に与えられる。たとえば網点領域判定部22によって、注目画素が網点領域に属すると判定された場合、網点判定信号として「1」を表すオン信号が識別信号生成部23に与えられ、注目画素が網点領域に属さないと判定された場合、網点判定信号として「0」を表すオフ信号が識別信号生成部23に与えられる。
【0043】
識別信号生成部23は、文字領域判定部21からの文字領域判定信号と網点領域判定部22からの網点領域判定信号とに基づいて、全体画像から画像領域を識別分離した結果を表す領域識別信号を生成する。領域識別信号は、後述の無彩文字領域信号、有彩文字領域信号、網点領域判定信号およびその他領域信号を含む。識別信号生成部23は、文字領域判定信号に基づいて、画素が無彩文字領域に属することを表す無彩文字領域信号と、画素が有彩文字領域に属することを表す有彩文字領域信号とを生成する。識別信号生成部23は、網点判定信号に基づいて、画素が網点領域に属することを表す網点領域信号を生成する。識別信号生成部23は、画素がその他領域に属することを表すその他領域信号をさらに生成する。文字領域および網点領域共に属さないと判定された画素はその他領域に識別分離される。また、識別信号生成部23は、文字領域判定信号が無彩文字領域信号あるいは有彩文字領域信号であり、網点判定信号が「1」の時は、網点領域判定部22の結果に対して優先順位を文字領域判定部21の結果に比べて高く設定し、注目画素を網点領域に属すると判定するようにしている。各画素に対して生成された領域識別信号は、識別信号生成部23から黒生成下色除去部15、空間フィルタ処理部16および階調再現処理部18に与えられる。入力階調補正部12から領域分離処理部13に与えられたC信号、M信号およびY信号は、そのまま領域分離処理部13から色補正部14に与えられる。色補正部14は、画像形成時に原稿画像の色の再現性を向上するために、不要吸収成分を含むシアン、マゼンタおよびイエローの各色材に対して、シアン、マゼンタおよびイエローの各色材の分光特性に基づいて色濁りを取り除く色補正処理をする。色補正部14によって色補正処理が施されたC信号、M信号およびY信号は、黒生成下色除去部15に与えられる。
【0044】
黒生成下色除去部15は、色補正部14からのC信号、M信号およびY信号、具体的には後述の黒階調補正部30による補正後のC信号、M信号およびY信号に基づいて、全体画像の各画素に対して黒生成処理および下色除去(Under Color Removal:略称UCR)処理をする。黒生成処理は、色補正部14からのC信号、M信号およびY信号に基づいて、色材の1つである黒色の濃度値を表す黒(Bl ack;略称K)信号を発生して黒色を生成する処理である(以下、「黒信号」を「K信号」と表記する場合がある)。下色除去処理は、画像形成時に灰色を安定して再現することができるように、シアン、マゼンタおよびイエローの濃度値を、生成された黒色の濃度値を考慮して補正する処理である。
【0045】
黒生成処理の一例として、スケルトンブラックによって黒色を生成する方法がある。この方法では、たとえば、スケルトンカーブの入出力特性を表す関数をy=f(x)とし、下色除去処理される前のシアン、マゼンタおよびイエローの各濃度値に関して、シアンの濃度値をC、マゼンタの濃度値をM、イエローの濃度値をYとする。さらに黒生成処理で生成される黒色の濃度値をKとし、下色除去処理された後のシアン、マゼンタおよびイエローの各濃度値に関して、シアンの濃度値をC1、マゼンタの濃度値をM1、イエローの濃度値をY1とし、下色除去率をα(0<α<1)とする。黒生成下色除去部15は、以下の式(7)〜(10)に基づいて黒生成処理および下色除去処理をする。
K=f{min(C,M,Y)} …(7)
C1=C−αK …(8)
M1=M−αK …(9)
Y1=Y−αK …(10)
【0046】
黒色の濃度値は、式(7)のように、スケルトンカーブの入出力特性を表す関数と、画素のシアン、マゼンタおよびイエローの濃度値のうち最小となる濃度値とに基づいて算出される。下色除去処理後のシアンの濃度値は、式(8)のように、下色除去処理前のシアンの濃度値から下色除去率と生成された黒色の濃度値との積を減じることによって算出される。下色除去処理後のマゼンタの濃度値は、式(9)のように、下色除去処理前のマゼンタの濃度値から下色除去率と生成された黒色の濃度値との積を減じることによって算出される。下色除去処理後のイエローの濃度値は、式(10)のように、下色除去処理前のイエローの濃度値から下色除去率と生成された黒色の濃度値との積を減じることによって算出される。黒生成下色除去部15は、後述の黒階調補正部30によって補正された後のC信号、M信号およびY信号に基づいて、式(7)〜(10)を用いて黒生成処理および下色除去処理をする。黒生成下色除去部15による処理によって、C信号、M信号およびY信号の3色の信号が、C信号、M信号、Y信号およびK信号の4色の信号に変換される。黒生成処理および下色除去処理を施されたC信号、M信号、Y信号およびK信号は、空間フィルタ処理部16に与えられる。
【0047】
空間フィルタ処理部16は、領域識別信号に基づいて、黒生成下色除去部15からのC信号、M信号、Y信号およびK信号として与えられる原稿画像データに対してディジタルフィルタを用いて空間フィルタ処理、たとえば鮮鋭強調処理およびローパスフィルタ処理をする。このように空間フィルタ処理部16が各画像領域の空間周波数特性を補正するので、画像出力装置4による画像形成時に画像のぼやけおよび粒状性劣化を防ぐことができる。たとえば空間フィルタ処理部16は、領域分離処理部13によって識別分離された無彩文字領域および有彩文字領域に対して鮮鋭強調処理をして、高周波数の強調量を大きくする。これによって無彩色文字、たとえば黒文字と、有彩色文字との再現性を向上することができる。空間フィルタ処理部16は、領域分離処理部13によって識別分離された網点領域に対してローパスフィルタ処理をして平滑化する。これによって入力網点成分を除去することによって、モアレの発生を抑制して、網点領域で表される画像の再現性を向上することができる。空間フィルタ処理部16によって空間フィルタ処理が施されたC信号、M信号、Y信号およびK信号は、出力階調補正部17に与えられる。
【0048】
出力階調補正部17は、画素の画素値、たとえば濃度値を表す信号を画像出力装置4の特性値である網点面積率に変換する出力階調補正処理をする。出力階調補正部17は、出力階調補正処理後のC信号、M信号、Y信号およびK信号を階調再現処理部18に与える。階調再現処理部18は、出力階調補正部17からのC信号、M信号、Y信号およびK信号、ならびに領域分離処理部13からの領域識別信号に基づいて、画像を画素に最終的に分割して、それぞれの階調を再現するための階調再現(中間調生成)処理をする。階調再現処理部18によって階調再現処理が施されたC信号、M信号、Y信号およびK信号は、たとえばランダムアクセスメモリ(Random Access Memory;略称RAM)などの読み出しおよび書き込み可能な記憶手段(図示せず)に与えられる。記憶手段は、階調再現処理部18からのC信号、M信号、Y信号およびK信号に基づく原稿画像データを記憶される。記憶される原稿画像データは、予め定めるタイミングで記憶手段から読み出されて画像出力装置4に与えられる。
【0049】
操作部19は、画像形成装置1に備えられ、たとえばキーボードおよびタッチパネルなどの入力装置ならびに液晶表示装置などの表示装置によって実現される。画像形成装置1の操作者は、操作部19を入力操作することによって、たとえば原稿の種類に応じて画像を形成するための画像形成指令などの各種の指令を画像形成装置1に入力することができる。画像出力装置4は、画像処理装置3によって各種の処理が施された原稿画像データに基づいて、画像を記録材に形成するための装置である。画像出力装置4の例として、たとえば電子写真方式のデジタルカラー複写機ならびにインクジェット方式および熱転写方式のカラープリンタなどを挙げることができるが、特に限定されるものではない。また画像出力装置4は、画像表示装置たとえば液晶ディスプレイであってもよい。前述の画像形成装置1に関して、原稿画像データに対する各種の処理は、制御手段である中央演算処理装置(Central Processing Unit:略称CPU)28によって制御される(以下、「中央演算処理装置28」を「CPU28」と表記する場合がある)。CPU28は、たとえば操作者による操作部19の操作結果に基づいて、画像処理装置3の各部を制御する。
【0050】
前述の黒生成下色除去部15は、黒階調補正部30を含んで構成される。黒階調補正部30は、黒生成下色除去部15によって所望の黒色を生成して全体画像における黒色を再現することができるように、全体画像から識別分離された領域のうち、予め定める特定画像領域の画素の画素値、具体的には濃度値を補正する。特定画像領域は、無彩色の線で形成される画像の領域である。本実施の形態では、特定画像領域は、無彩文字形成領域(領域分離処理により判定された文字領域とこの文字領域の周辺の下地領域を含む領域)であって、画像、具体的には文字の濃度が太さによらず一様に表されるべき領域であり、また文字は、原稿画像において最も高い濃度を有し、かつ黒色で表される。黒階調補正部30は、無彩文字形成領域の画像を画像入力装置2によって読取るときに生じた読取り誤差が無くなるように、無彩文字形成領域の画素の濃度値を元々有している本来の濃度値に補正する。黒階調補正部30は、各色マスク形成部31、各色高濃度取得部32、各色低濃度取得部33、各色ニューラルネットワーク34を含んで構成される。
【0051】
各色マスク形成部31は、色補正部14からのC信号、M信号およびY信号に基づいて、各色局所マスク35(図4参照)を形成する。各色局所マスク35は、複数の画素を含み、黒階調補正部30において処理の対象となる注目画素36を中心とする局所マスクである。各色局所マスク35は、シアンに関して注目画素36を中心とする局所マスクと、マゼンタに関して注目画素36を中心とする局所マスクと、イエローに関して注目画素36を中心とする局所マスクを含む。各色マスク形成部31は、複数のラインメモリ37を用いて各色局所マスク35を形成する。ラインメモリ37は、少なくとも原稿の主走査方向サイズ、具体的には主走査方向における画素数に基づいて、画素の濃度値を記憶する。ラインメモリ37は、たとえば先入れ先出し(First In First Out;略称FIFO)形メモリによって実現される(以下、「先入れ先出し形メモリ」を「FIFO形メモリ」と表記する場合がある)。FIFO形メモリは、記憶したデータを記憶した順に取り出すとともに、一番新しく記憶したデータを一番最後に取り出すように構成される記憶手段である。本実施の形態では、1つのラインメモリ37には、7つの画素の濃度値が記憶される。各色マスク形成部31は、6つのラインメモリ37によって濃度値が記憶される6×7個の画素と、色補正部14からのC、M信号およびY信号に基づく7個の画素とに基づいて、7×7の各色局所マスク35を形成する。各色局所マスク35の画素の濃度値は、後述の各色高濃度取得部32および各色低濃度取得部33に与えられる。
【0052】
たとえばある各色局所マスク35の注目画素36に対する濃度値の補正が終了したとする。その各色局所マスク35において7行目の画素の濃度値を記憶するラインメモリ37から、記憶した順番が最も古い画素の濃度値が取り出される。6行目の画素の濃度値を記憶するラインメモリ37から、記憶した順番が最も古い画素の濃度値が取り出されて、その画素の濃度値が、7行目の画素の濃度値を記憶するラインメモリ37に記憶される。5行目の画素の濃度値を記憶するラインメモリ37から、記憶した順番が最も古い画素の濃度値が取り出されて、その画素の濃度値が、6行目の画素の濃度値を記憶するラインメモリ37に記憶される。2〜4行目の画素の濃度値が記憶される各ラインメモリ37に対しても前述と同様の手順で、記憶した順番が最も古い画素の濃度値が取り出され、かつ副走査方向下流側で隣接する行の画素の濃度値を記憶するラインメモリ37によって与えられる画素の濃度値が記憶される。このようにしてFIFO形メモリによって実現される複数のラインメモリ37を用いることによって、新たな各色局所マスク35が形成される。FIFO形メモリによって実現されるラインメモリ37を用いるので、黒階調補正部30においてリアルタイムに処理をすることができる。これによって全体画像のすべての画素の濃度値を記憶する記憶手段を用いる場合に比べて、記憶容量を可及的に小さくしてコストを削減することができるとともに、黒階調補正部30における処理の処理速度を向上することができる。
【0053】
各色局所マスク35の注目画素36を(i,j)とすると、注目画素36における色補正部14からの入力信号値、換言すると注目画素36のシアン、マゼンタおよびイエローの各色に関する濃度値は、(C(i,j),M(i,j),Y(i,j))と表すことができる。注目画素36を(i,j)とした場合、各色局所マスク35は、以下の式(11)によって表すことができる。
【0054】
【数1】
【0055】
式(11)において、mは主走査方向および副走査方向のいずれか一方に関する画素の数を表し、nは主走査方向および副走査方向のいずれか他方に関する画素の数を表す。iは主走査方向および副走査方向のいずれか一方に関する注目画素36の座標を表し、jは主走査方向および副走査方向のいずれか他方に関する注目画素36の座標を表す。
【0056】
黒階調補正部30による濃度値の補正処理をするにあたって、各色局所マスク35の注目画素36は、少なくとも以下の条件式(12)を満足する必要がある。
Seg(i,j)∈無彩文字形成領域 …(12)
【0057】
条件式(12)おいて、Seg(i,j)は、領域分離処理部13によって与えられる、注目画素36に対する領域分離結果である。黒階調補正部30は、領域分離処理部13からの領域識別信号に基づいて、注目画素36が無彩文字形成領域に属するか否かを判断する。黒階調補正部30は、条件式(12)を満足する、つまり注目画素36が無彩文字形成領域に属すると判断した場合、画素単位で濃度値を補正する。
【0058】
図1の例では各色マスク形成部31は、複数のラインメモリ37を有するシアン用マスク形成部31a、マゼンタ用マスク形成部31bおよびイエロー用マスク形成部31cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に局所マスクを形成する。具体的にはシアン用マスク形成部31aは、色補正部14からのC信号に基づいて、シアンに関して注目画素36を中心とする7×7の局所マスクを形成する。シアン用マスク形成部31aによって形成された局所マスクの各画素のシアンに関する濃度値は、後述のシアン用高濃度取得部32aおよびシアン用低濃度取得部33aに与えられる。マゼンタ用マスク形成部31bは、色補正部14からのM信号に基づいて、マゼンタに関して注目画素36を中心とする7×7の局所マスクを形成する。マゼンタ用マスク形成部31bによって、形成された局所マスクの各画素のマゼンタに関する濃度値は、後述のマゼンタ用高濃度取得部32bおよびマゼンタ用低濃度取得部33bに与えられる。イエロー用マスク形成部31cは、色補正部14からのY信号に基づいて、イエローに関して注目画素36を中心とする7×7の局所マスクを形成する。イエロー用マスク形成部31cによって形成された局所マスクの各画素のイエローに関する濃度値は、後述のイエロー用高濃度取得部32cおよびイエロー用低濃度取得部33cに与えられる。
【0059】
最大画素値取得手段である各色高濃度取得部32は、分離される画像領域のうち、予め定める特定画像領域に関して、最大の画素値を取得する。具体的には各色高濃度取得部32は、無彩文字形成領域に属する注目画素36を含む各色局所ブロック35に関して、シアン、マゼンタおよびイエローの各色毎に、最大の濃度値、すなわち最大濃度値をそれぞれ取得する。各色局所ブロック35は、シアンに関する局所ブロックと、マゼンタに関する局所ブロックと、イエローに関する局所ブロックとを含む。各色高濃度取得部32は、取得される最大濃度値を、特徴ベクトルである最大濃度値ベクトルで表し、その最大濃度値ベクトルの値を用いる。最小画素値取得手段である各色低濃度取得部33は、特定画像領域に関して、最小の画素値を取得する。具体的には各色低濃度取得部33は、無彩文字形成領域に属する注目画素36を含む各色局所ブロック35に関して、シアン、マゼンタおよびイエローの各色毎に、最小の濃度値、すなわち最小濃度値をそれぞれ取得する。各色低濃度取得部33は、取得される最小濃度値を、特徴ベクトルである最小濃度値ベクトルで表し、その最小濃度値ベクトルの値を用いる。注目画素を(i,j)とした場合の各色局所マスク35に関して、最大濃度値ベクトルをmax_v(i,j)で表し、最小濃度値ベクトルをmin_v(i,j)で表した場合、最大濃度値ベクトルは、式(13)で表され、最小濃度値ベクトルは、以下の式(14)で表される。
【0060】
【数2】
【0061】
式(13)および式(14)の右辺において、シアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値を255でそれぞれ除算している。黒階調補正部30への入力信号値の最大値、すなわち255で除算することによって、特徴ベクトルが求められる、すなわちシアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値が正規化される。これによって後述の各色ニューラルネットワーク34が扱うシアン、マゼンタおよびイエローの各色に関する値を、0以上1以下の範囲内の値にすることができる。したがって各色ニューラルネットワーク34による処理の処理量を小さくすることができる。
【0062】
各色高濃度取得部32および各色低濃度取得部33では、シアン、マゼンタおよびイエローの各色に関する局所マスク毎に、最大濃度値および最小濃度値をそれぞれ取得している。これによって各色に関する局所ブロックに関して、相互に異なる位置の画素の各色に関する最大濃度値および最小濃度値が取得される可能性がある。この場合、濃度値を好適に補正することができないなどの不具合が生じるおそれがある。黒階調補正部30によって不具合が生じないと判断された場合、前述のように各色高濃度取得部32によって最大濃度値を取得し、各色低濃度取得部33によって最小濃度値を取得する。黒階調補正部30によって不具合が生じると判断された場合、シアン、マゼンタおよびイエローの各色に拘わらず、各色高濃度取得部32および各色低濃度取得部33によって最大濃度値(たとえば、max(C(x,y)+M(x,y)+Y(x,y)))および最小濃度値(たとえば、min(C(x,y)+M(x,y)+Y(x,y)))を有する画素を求め、その画素の濃度値を最大濃度値ベクトルおよび最小濃度値ベクトルに利用する。具体的には各色高濃度取得部32は、各色に関する局所ブロックに基づいて、シアン、マゼンタおよびイエローの各濃度値の総和が最大となる画素の各色の濃度値を、最大濃度値として取得し、最大濃度ベクトルに用いる。各色低濃度取得部33は、各色に関する局所ブロックに基づいて、シアン、マゼンタおよびイエローの各濃度値の総和が最小となる画素の各色の濃度値を、最小濃度値として取得し、最小濃度ベクトルに用いる。
【0063】
前述の最大濃度値ベクトルを表す式(13)を、理解を容易にするために、最大濃度値ベクトルを式(15)で表し、最小濃度値ベクトルを表す式(14)を式(16)で表す。
【0064】
【数3】
【0065】
式(15)の右辺の各値は、注目画素36を(i,j)とした場合のシアン、マゼンタおよびイエローの各色に関する最大濃度値を、黒階調補正部30への入力信号値の最大値で正規化した値を表す。式(16)の右辺の各値は、注目画素36を(i,j)とした場合のシアン、マゼンタおよびイエローの各色に関する最小濃度値を、黒階調補正部30への入力信号値の最大値で正規化した値を表す。
【0066】
図1の例では各色高濃度取得部32は、シアン用高濃度取得部32a、マゼンタ用高濃度取得部32bおよびイエロー用高濃度取得部32cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に最大濃度値を取得する。具体的にはシアン用高濃度取得部32aは、シアン用マスク形成部31aによって形成されるシアンに関する局所マスクに基づいて、シアンに関する最大濃度値を取得し、その最大濃度値を用いて最大濃度値ベクトルのシアンに関する値を求める。最大濃度値ベクトルのシアンに関する値は、シアン用高濃度取得部32aから後述のシアン用ニューラルネットワーク34aに与えられる。マゼンタ用高濃度取得部32bは、マゼンタ用マスク形成部31bによって形成されるマゼンタに関する局所マスクに基づいて、マゼンタに関する最大濃度値を取得し、その最大濃度値を用いて最大濃度値ベクトルのマゼンタに関する値を求める。最大濃度値ベクトルのマゼンタに関する値は、マゼンタ用高濃度取得部32bから後述のマゼンタ用ニューラルネットワーク34bに与えられる。イエロー用高濃度取得部32cは、イエロー用マスク形成部31cによって形成されるイエローに関する局所マスクに基づいて、イエローに関する最大濃度値を取得し、その最大濃度値を用いて最大濃度値ベクトルのイエローに関する値を求める。最大濃度値ベクトルのイエローに関する値は、イエロー用高濃度取得部32cから後述のイエロー用ニューラルネットワーク34cに与えられる。
【0067】
図1の例では各色低濃度取得部33は、シアン用低濃度取得部33a、マゼンタ用低濃度取得部33bおよびイエロー用低濃度取得部33cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に最小濃度値を取得する。具体的にはシアン用低濃度取得部33aは、シアン用マスク形成部31aによって形成されるシアンに関する局所マスクに基づいて、シアンに関する最小濃度値を取得し、その最小濃度値を用いて最小濃度値ベクトルのシアンに関する値を求める。最小値ベクトルのシアンに関する値は、シアン用低濃度取得部33aから後述のシアン用ニューラルネットワーク34aに与えられる。マゼンタ用低濃度取得部33bは、マゼンタ用マスク形成部31bによって形成されるマゼンタに関する局所マスクに基づいて、マゼンタに関する最小濃度値を取得し、その最小濃度値を用いて最小濃度値ベクトルのマゼンタに関する値を求める。最小値ベクトルのマゼンタに関する値は、マゼンタ用低濃度取得部33bから後述のマゼンタ用ニューラルネットワーク34bに与えられる。イエロー用低濃度取得部33cは、イエロー用マスク形成部31cによって形成されるイエローに関する局所マスクに基づいて、イエローに関する最小濃度値を取得し、その最小濃度値を用いて最小濃度値ベクトルのイエローに関する値を求める。最小値ベクトルのイエローに関する値は、イエロー低濃度取得部33cから後述のイエロー用ニューラルネットワーク34cに与えられる。
【0068】
各色ニューラルネットワーク34は、取得される最大の画素値および最小の画素値、ならびに予め設定される最大目標値および最小目標値に基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算し、その補正情報に基づいて、特定画像領域の画素の画素値を補正する。最大目標値は、最大の画素値を補正するために用いられる値である。最小目標値は、最小の画素値を補正するために用いられる値である。各色ニューラルネットワーク34は、具体的には、最大濃度値ベクトルの各色に関する値および最小濃度値ベクトルの各色に関する値、ならびにシアン、マゼンタおよびイエローの各色毎に予め設定される最大目標値および最小目標値に基づいて、補正情報を演算する。各色ニューラルネットワーク34は、演算した補正情報に基づいて、無彩文字形成領域の画素の濃度値を補正する。各色ニューラルネットワーク34によって補正された濃度値に基づいて、無彩文字形成領域における黒色の濃度値が黒生成処理によって算出される。各色ニューラルネットワーク34は、各色記憶部38、各色学習部39および各色補正部40を含んで構成される。
【0069】
図5は、教師データを設定するための教師用原稿50を説明するための図である。図6は、教師データを設定するための教師用原稿50Aを説明するための図である。各色記憶部38は、シアン、マゼンタおよびイエローの各色毎に予め設定される最大目標値および最小目標値を含む複数の目標値を教師データとして記憶する。教師データは、画像入力手段である画像入力装置2の入力特性に基づいて設定される。前記入力特性は、画像の解像性能を含む。たとえば特定画像領域が黒色で文字が表される無彩文字形成領域である場合には、画像入力装置2による原稿画像の解像性能、具体的にはスキャナ部の光学解像度に基づいて、画像入力装置2が画像処理装置3に与えるべきシアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値を想定することができる。これによって少なくともシアン、マゼンタおよびイエローの各色に関する最大目標値および最小目標値を予め設定して、教師データとして各色記憶部38に記憶させておくことができる。各色記憶部38は、図5および図6に示す教師用原稿50,50Aを用いて、シアン、マゼンタおよびイエローの各色毎に予め設定される最大目標値および最小目標値を含む複数の目標値を、教師データとして記憶する。各色記憶部38は、たとえばリードオンリーメモリ(Read Only Memory;略称ROM)およびランダムアクセスメモリ(Random Access Memory;略称RAM)などの各種のメモリによって実現される(以下、「リードオンリーメモリ」を「ROM」と表記し、「ランダムアクセスメモリ」を「RAM」と表記する場合がある)。教師データは、シアンに関する最大目標値および最小目標値を含むシアン用教師データと、マゼンタに関する最大目標値および最小目標値を含むマゼンタ用教師データと、イエローに関する最大目標値および最小目標値を含むイエロー用教師データとを含む。
【0070】
特定の画像入力装置2を用いる場合、原稿では太さに拘わらず一様な濃度で表される文字であっても、画像入力装置2による原稿画像の解像性能、具体的にはスキャナ部の光学解像度によって、画像形成時には、文字の太さによって異なる濃度を有する文字が形成される。たとえば原稿の太い文字は、濃度が高くなり、原稿の細い文字は、濃度値を表す信号がなまってしまい、濃度が低くなる。このような不具合を防止するために、画像入力装置2に教師用原稿50の画像を複数回にわたって読取らせて、教師データを各色記憶部38に記憶させる。複数回読取らせる理由は、データの平均化を行い読取り誤差を少なくするためである。教師用原稿50は、教師用文字51が形成される原稿であって、教師用文字51の濃度と教師用ペーパーホワイト52の濃度とを定義するための原稿である。教師用文字51は、太さに拘わらず同一の濃度で表され、かつ原稿の文字と同一の濃度を有する文字である。さらに教師用文字51は、教師用原稿50において最も高い濃度を有し、教師用原稿50の画像の読み取り時に最も高い濃度を得ることができるように、画像入力装置2の入力特性に基づいた予め定める太さを有し、かつ無彩色で表される文字である。教師用ペーパーホワイト52は、ペーパーホワイト、具体的には教師用原稿50における下地であって、教師用原稿50において最も低い濃度を有する。本実施の形態では、教師用文字51は、黒色で表される黒文字であるとともに、画像入力装置2による教師用原稿50の画像の読取り回数は、10回程度である。この教師用原稿50の画像を画像入力装置2に複数回にわたって読取らせることによって、教師用文字51の高濃度部分において本来の濃度値と、教師用ペーパーホワイト52において本来の濃度値とを教師データとして設定することができる。教師用原稿50の画像を複数回にわたって画像入力装置2に読取らせることによって複数のサンプル値を採取し、これらのサンプル値を平均した値を教師データとして用いる。これによって教師データの誤差を可及的に小さくすることができる。図5に示す教師原稿50の他に、図6に示す教師用原稿50Aを用いて教師データを設定してもよい。図6の例では、教師原稿用50Aには、字の大きさおよび太さが異なる複数の数字に加えて、長さおよび太さが異なるラインパターンが形成されている。
【0071】
各色記憶部38によって、教師データとして記憶される最大目標値および最小目標値は、たとえば以下の式(17)および式(18)で表される。
【0072】
【数4】
【0073】
式(17)において、教師用原稿50,50Aにおける黒文字である教師用文字51の高濃度部分から得られるシアン、マゼンタおよびイエローの各色に関する最大濃度値が、シアン、マゼンタおよびイエローの各色に関する最大目標値として各色記憶部38によって記憶される。式(18)において、教師用原稿50,50Aにおけるペーパーホワイト52から得られるシアン、マゼンタおよびイエローの各色に関する最小濃度値が、シアン、マゼンタおよびイエローの各色に関する最小目標値として各色記憶部38によって記憶される。シアン、マゼンタおよびイエローの各色に関する最大目標値および最小目標値は、教師データとして各色記憶部38から各色学習部39に与えられる。また各色学習部39に与えられる入力データであるシアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値と教師データとの関係を表す対応表は表1である。
【0074】
【表1】
【0075】
表1において、各色学習部39には、シアンに関する最大濃度値が入力データとして与えられる場合、シアンに関する最大目標値が教師データとして与えられ、シアンに関する最小濃度値が入力データとして与えられる場合、シアンに関する最小目標値が教師データとして与えられる。さらに表1において、各色学習部39には、マゼンタに関する最大濃度値が入力データとして与えられる場合、マゼンタに関する最大目標値が教師データとして与えられ、マゼンタに関する最小濃度値が入力データとして与えられる場合、マゼンタに関する最小目標値が教師データとして与えられる。さらに表1において、各色学習部39には、イエローに関する最大濃度値が入力データとして与えられる場合、イエローに関する最大目標値が教師データとして与えられ、イエローに関する最小濃度値が入力データとして与えられる場合、イエローに関する最小目標値が教師データとして与えられる。
【0076】
図1の例では各色記憶部38は、シアン用記憶部38a、マゼンタ用記憶部38bおよびイエロー用記憶部38cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に最大目標値および最小目標値を記憶する。具体的にはシアン用記憶部38aは、教師用原稿50,50Aに基づいて、シアンに関する最大目標値および最小目標値を、シアン用教師データとして記憶する。シアン用教師データは、シアン用記憶部38aからシアン用学習部39aに与えられる。マゼンタ用記憶部38bは、教師用原稿50,50Aに基づいて、マゼンタに関する最大目標値および最小目標値を、マゼンタ用教師データとして記憶する。マゼンタ用教師データは、マゼンタ用記憶部38bからマゼンタ用学習部39bに与えられる。イエロー用記憶部38cは、教師用原稿50,50Aに基づいて、イエローに関する最大目標値および最小目標値を、イエロー用教師データとして記憶する。イエロー用教師データは、イエロー用記憶部38cからイエロー用学習部39cに与えられる。
【0077】
図7は、神経回路網55を示すブロック図である。情報演算手段である各色学習部39は、取得される最大の画素値と、最大目標値とに基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算する。本実施の形態では、各色学習部39は、取得される最大の画素値と、最大目標値と、取得される最小の画素値と、最大目標値とに基づいて、無彩文字形成領域の画素の濃度値を補正するための補正情報を演算する。具体的には各色学習部39は、各色高濃度取得部32によって取得された最大濃度値と、各色低濃度取得部33によって取得された最小濃度値と、各色記憶部38によって与えられる教師データとに基づいて、補正情報を演算する。補正情報は、無彩文字形成領域の画素のシアンに関する濃度値を補正するためのシアン用補正情報と、無彩文字形成領域の画素のマゼンタに関する濃度値を補正するためのマゼンタ用補正情報と、無彩文字形成領域の画素のイエローに関する濃度値を補正するためのイエロー用補正情報とを含む。各色学習部39は、神経回路網55を含んで構成される。
【0078】
神経回路網55は、図7に示すように複数の層、具体的には入力層56、中間層57および出力層58と呼ばれる複数の層によって構成される階層構造を有する。入力層56、中間層57および出力層58は、1または複数のニューロン59をそれぞれ有する。ニューロン59は、同じ層のニューロン59間には結合がなく、異なる層のニューロン59間には結合があるという特徴を有する。このようにして神経回路網55は、相互に異なる層のニューロン59が結合することによってネットワークを構成する。結合するニューロン59間には、ニューロン59間の結合の強さを表す重みが予め設定される。重みの初期値は、乱数を用いた小さい値である。重みの初期値は、乱数を随時発生して設定するのではなく、乱数を用いて複数の候補をテーブルに予め設定しておき、このテーブルを用いて与えられる。このように重みの初期値を、補正情報を演算するにあたって随時発生させた乱数を用いることなく、予め用意しておいた乱数を用いるので、各色学習部39における計算量を可及的に小さくして、各色学習部39の構成を簡単にすることができる。神経回路網55は、特定のパターンの刺激、すなわち特定の入力に対して特定の出力をするように、重みを学習によって最適な重みに更新する。本実施の形態では、神経回路網55は、誤差逆伝播(Error Back Propagation)法に従う学習によって、補正情報を演算する、換言すると重みを更新する。
【0079】
神経回路網55で重みを更新するにあたって、神経回路網55は、以下の第1〜第5の手順に従って学習し、補正情報を演算する。第1に、ネットワークが初期化される。具体的には神経回路網55は、結合するニューロン59間の重みの初期値を、乱数を用いて小さい値に設定する。ネットワークの初期化が終了すると、第2に、神経回路網55は、最大濃度値ベクトルおよび最小濃度値ベクトルを入力ベクトルとして入力層56の各ニューロン59に与える。神経回路網55は、入力ベクトルを、設定される重みを考慮して前向きの伝播方向B1に伝播する(以下、「前向きの伝播方向B1」を「前方向B1」と表記する場合がある)。前方向B1は、入力層56から出力層58に向かう方向であって、信号の伝播方向である。後ろ方向B2は、前方向B1とは逆向きの方向であって、誤差成分を修正する、換言すると重みを更新するための計算過程における向きである。
【0080】
各ニューロン59は、与えられる値に重みを付けて、その重みの付いた値をシグモイド関数における入力値としたときに得られる出力値を、結合する前方向B1下流側の層のニューロン59に与える。シグモイド関数は、既知の関数であり、微分可能な連続関数である。1つのニューロン59に対して、前記1つのニューロン59を含む層よりも前方向B1上流側の層のニューロン59が複数結合している場合、各ニューロン59からの重みの付いた値の和を入力和として求め、その入力和を、シグモイド関数における入力値としたときに得られる出力値を、前記1つのニューロン59に与える。シグモイド関数における入力値と出力値との関係は、式(19)で表される。
(出力値)=f(入力和) …(19)
【0081】
前述のシグモイド関数に関して入力値に対する出力値が、ルックアップテーブル(Look Up Table;略称LUT)として予め設定されている。
【0082】
入力層56の各ニューロン59に入力ベクトルが与えられると、第3に、神経回路網55は、出力層58に教師データを教師ベクトルとして与える。出力層58には、入力ベクトルに対応した教師ベクトルが与えられる。具体的には最大濃度値ベクトルが入力層56に与えられる場合、最大目標値が教師ベクトルとして出力層58に与えられるとともに、最小濃度値ベクトルが入力層56に与えられる場合、最小目標値が教師ベクトルとして出力層58に与えられる。出力層58に教師ベクトルが与えられると、第4に、神経回路網55は、入力ベクトルに対する出力層58の各ニューロン59から出力されるベクトルにおける値と、教師ベクトルにおける値との誤差が無くなるように、学習によって重みを更新する。重みは、ニューロン59に与えられるベクトルにおける値と、そのニューロン59から出力されるベクトルを表すニューロン出力とに基づいて、誤差逆伝播法に従って更新される。更新後の重みは、更新前の重みと異なる値であってもよいし、更新前の重みと同一の値であってもよい。新しい重みは、式(20)で表される。
(新しい重み)=(前の重み)+α×δ×(ニューロン出力)…(20)
【0083】
式(20)の右辺において、第1項は、更新される前の重みであって、第2項は、予め定める定数α(0<α<1)と係数δとニューロン出力の値とを積算した値である。係数δは、学習信号または差逆伝播量と呼ばれる値であって、式(20)を用いて新しい重みを算出するにあたって、入力層56のニューロン59と中間層57のニューロン59とにおける重みを更新する場合と、中間層57のニューロン59と出力層58のニューロン59とにおける重みを更新する場合とのいずれかの場合に応じて設定される値である。ニューロン出力は、結合する2つのニューロン59のうち、前方向B1上流側のニューロン59からの出力値を表し、更新される前の重みを通るときの値と同一になる。前述の係数δは、式(21)および式(22)のいずれかの式を用いて設定される。
δ=(出力)×[1−(出力)]
×[(教師データ)−(ニューロン出力)] …(21)
δ=(出力)×[1−(出力)]
×(1つ後ろの層からのδの重み付け和) …(22)
【0084】
中間層57のニューロン59と出力層58のニューロン59とにおける重みを更新する場合、係数δは、式(21)を用いて算出される。式(21)において、係数δは、出力と1から出力を減算した値と教師データからニューロン出力を減算した値とを積算した値である。出力は、出力層58のニューロン59からの出力値である。入力層56のニューロン59と中間層57のニューロン59とにおける重みを更新する場合、係数δは、式(22)を用いて算出される。式(22)において、係数δは、出力と1から出力を減算した値と1つ後ろの層からの係数δの重み付け和とを積算した値である。式(21)および式(22)において、出力は、入力層56への入力に対する出力層58から出力される出力値である。1つ後ろの層からの係数δの重み付け和は、前方向B1上流側の層から与えられ、かつ式(22)を用いて更新する前の係数δと、重みとに基づいて算出した重み付け和である。
【0085】
第5に、神経回路網55は、誤差の減少量に基づいて重みを更新するか否かを判断する。誤差の減少量が所定値以下であると神経回路網55によって判断されると、各色学習部39は、神経回路網55を用いた学習処理を終了し、得られた更新後の重みを各色補正部40に与える。誤差の減少量は、具体的には更新した新しい重みを用いて得られる出力層58のニューロン59の出力値と、教師データとの誤差の減少量である。前記誤差の減少量が所定値を超えると神経回路網55によって判断されると、神経回路網55は、第2〜第4の手順に従って重みを更新する。
【0086】
図1の例では各色学習部39は、神経回路網55をそれぞれ有するシアン用学習部39a、マゼンタ用学習部39bおよびイエロー用学習部39cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に補正情報を演算する。具体的にはシアン用学習部39aは、シアンに関する最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、前述の第1〜第5の手順に従って予め設定される重みを学習によって更新する。シアン用学習部39aによって学習されて更新された重みは、シアン用補正情報としてシアン用補正部40aに与えられる。マゼンタ用学習部39bは、マゼンタに関する最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、前述の第1〜第5の手順に従って予め設定される重みを学習によって更新する。マゼンタ用学習部39bによって学習されて更新された重みは、マゼンタ用補正情報としてマゼンタ用補正部40bに与えられる。イエロー用学習部39cは、イエローに関する最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、前述の第1〜第5の手順に従って予め設定される重みを学習によって更新する。イエロー用学習部39cによって学習されて更新された重みは、イエロー用補正情報としてイエロー用補正部40cに与えられる。
【0087】
補正手段である各色補正部40は、補正情報に基づいて、特定画像領域の画素の画素値を補正する。各色補正部40は、各色学習部39と同様に神経回路網55を含んで構成される。各色補正部40は、補正情報、具体的には各色学習部39の神経回路網55による学習処理によって与えられる重みに基づいて、無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値を補正する。補正後の無彩文字形成領域の画素の濃度値は、各色補正部40による重みを用いたフィードフォワード計算によって得られる値、換言すると神経回路網55において、更新された重みを用いた前方向B1への処理、具体的には積和計算によって得られる出力層58からの出力値である。積和計算には、たとえばデジタルシグナルプロセッサ(Digital Signal Processor;略称DSP)が用いられる。
【0088】
図1の例では、各色補正部40は、シアン用補正部40a、マゼンタ用補正部40bおよびイエロー用補正部40cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に、無彩文字形成領域の画素の濃度値を補正する。具体的にはシアン用補正部40aは、シアン用学習部39aによって与えられる重みを用いたフィードフォワード計算によって、補正後の無彩文字形成領域の画素のシアンに関する濃度値を算出する。マゼンタ用補正部40bは、マゼンタ用学習部39bによって与えられる重みを用いたフィードフォワード計算によって、補正後の無彩文字形成領域の画素のマゼンタに関する濃度値を算出する。イエロー用補正部40cは、イエロー用学習部39cによって与えられる重みを用いたフィードフォワード計算によって、補正後の無彩文字形成領域の画素のイエローに関する濃度値を算出する。黒生成下色除去部15は、シアン用補正部40a、マゼンタ用補正部40bおよびイエロー用補正部40cによる補正後の無彩文字形成領域の画素の濃度値に基づいて、黒生成処理および下色除去処理をする。このように取得された最大濃度値および最小濃度値ならびに教師データを用いた学習によって、予め設定される重みが更新される。この更新後の重みを補正情報として用いて、無彩文字形成領域の画素の濃度値が神経回路網55を用いて補正される。これによって無彩文字形成領域において、最大濃度値および最小濃度値に加えて、最大濃度値と最小濃度値との間の濃度値を本来の濃度値に精度良く補正することができる。
【0089】
図8は、黒階調補正部30および黒生成下色除去部15による処理の手順を示すフローチャートである。本実施の形態の画像処理方法は、領域分離工程、ステップs3の最大画素値取得工程および最小画素値取得工程、ステップs4の情報演算工程ならびにステップs5の補正工程を含む。本実施の形態の画像処理方法は、ステップs6の黒生成下色除去処理をする工程をさらに含む。領域分離工程は、全体画像から複数の画像領域を領域分離処理部13によって識別分離する工程である。最大画素値取得工程は、分離される画像領域のうち、予め定める特定画像領域、具体的には無彩文字形成領域に関して、最大の画素値すなわちシアン、マゼンタおよびイエローの各色に関する最大濃度値を各色高濃度取得部32によって取得する工程である。最小画素値取得工程は、前記特定画像領域、具体的には無彩文字形成領域に関して、最小の画素値すなわちシアン、マゼンタおよびイエローの各色に関する最小濃度値を各色低濃度取得部33によって取得する工程である。
【0090】
情報演算工程は、最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算する工程である。最大目標値は、シアン、マゼンタおよびイエローの各色に関する最大濃度値を補正するために用いられる、各色毎に予め設定される値である。最小目標値は、シアン、マゼンタおよびイエローの各色に関する最小濃度値を補正するために用いられる、各色毎に予め設定される値である。情報演算工程において、補正情報は神経回路網55を用いて演算される。具体的には情報演算工程は、各色学習部39によって、シアン、マゼンタおよびイエローの各色に関する最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、神経回路網55において予め設定される重みを学習によって更新する工程である。補正工程は、補正情報に基づいて、特定画像領域の画素の画素値を補正する工程である。具体的には補正工程は、各色学習部39によって与えられるシアン、マゼンタおよびイエローの各色に関する重みに基づいて、無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値を補正する工程である。図8において、ステップs0において処理手順を開始する前に、領域分離工程における処理は既に終了している。
【0091】
ステップs0では、本実施の形態の画像処理方法に従う処理手順を開始して、ステップs1に進む。ステップs1では、黒階調補正部30は、領域分離処理部15からの領域識別信号に基づいて、注目画素36が無彩文字形成領域に属するか否かを判断する。ステップs1では、黒階調補正部30が、注目画素36が無彩文字形成領域に属すると判断するとステップs2に進み、注目画素36が無彩文字形成領域に属さないと判断すると、ステップs7に進んですべての処理手順を終了する。
【0092】
ステップs2では、各色マスク形成部31は、注目画素36を中心とする7×7の各色局所マスク35を形成する。具体的にはシアン用マスク形成部31aは、シアンに関して注目画素36を中心とする7×7の局所マスクを形成し、マゼンタ用マスク形成部31bは、マゼンタに関して注目画素36を中心とする7×7の局所マスクを形成し、イエロー用マスク形成部31cは、イエローに関して注目画素36を中心とする7×7の局所マスクを形成する。ステップs2においてシアン、マゼンタおよびイエローの各色毎に局所マスクが形成されると、ステップs3に進む。
【0093】
ステップs3の最大画素値取得工程および最小画素値取得工程では、各色高濃度取得部32は、各色局所マスク35に関して最大濃度値を取得し、各色低濃度取得部33は、各色局所マスク35に関して最小濃度値を取得する。具体的にはシアン用高濃度取得部32aは、シアンに関する局所マスクに関してシアンに関する最大濃度値を取得し、マゼンタ用高濃度取得部32bは、マゼンタに関する局所マスクに関してマゼンタに関する最大濃度値を取得し、イエローに関する局所マスクに関してイエローに関する最大濃度値を取得する。シアン用低濃度取得部33aは、シアンに関する局所マスクに関してシアンに関する最小濃度値を取得し、マゼンタ用低濃度取得部33bは、マゼンタに関する局所マスクに関してマゼンタに関する最小濃度値を取得し、イエロー用低濃度取得部33cは、イエローに関する局所マスクに関してイエローに関する最小濃度値を取得する。ステップs3においてシアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値が取得されると、ステップs4に進む。
【0094】
ステップs4の情報演算工程では、各色学習部39は、シアン、マゼンタおよびイエローの各色に関する最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、神経回路網55において予め設定される重みを学習によって更新する。ステップs4において神経回路網55を用いて重みが更新されると、ステップs5に進む。
【0095】
ステップs5の補正工程では、各色補正部40は、各色学習部39によって与えられるシアン、マゼンタおよびイエローの各色に関する重みに基づいて、無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値を補正する。無彩文字形成領域に関して、最大濃度値および最小濃度値を除く残余のシアン、マゼンタおよびイエローに関する濃度値は、フィードフォワード計算によって補正される。ステップs5で、無彩文字形成領域の画素の濃度値が補正されると、ステップs6に進む。ステップs6では、黒生成下色除去部15が、補正された濃度値に基づいて黒生成処理および下色除去処理をする。ステップs6において、無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値が補正されると、ステップs7に進んですべての処理手順を終了する。
【0096】
図9は、反復回数timeとシアンに関する誤差量energyとの関係を表すグラフである。図10は、図9における反復回数timeが50,000回である場合のシアン用入力信号値とシアン用補正信号値との関係を表すグラフである。図11は、反復回数timeとマゼンタに関する誤差量energyとの関係を表すグラフである。図12は、図11における反復回数timeが50,000回である場合のマゼンタ用入力信号値とマゼンタ用補正信号値との関係を表すグラフである。図13は、反復回数timeとイエローに関する誤差量energyとの関係を表すグラフである。図14は、図13における反復回数timeが50,000回である場合のイエロー用入力信号値とイエロー用補正信号値との関係を表すグラフである。黒階調補正部30による補正処理の一例として、図6に示す教師用原稿50Aと同一の画像が形成される原稿を用いた。この原稿に形成される画像を読み取った結果と、教師用原稿50Aを読み取った結果とに基づいて、入力データおよび教師データは、表2のように表される。
【0097】
【表2】
【0098】
表2において、サンプル番号1〜5は、図6の実線63a〜63dおよび二点鎖線63eで囲まれる領域に付された番号である。表2において、たとえばサンプル番号1〜5におけるC信号用、M信号用およびY信号用最小値信号は、シアン、マゼンタおよびイエローに関する最小濃度値を正規化した値を示す。サンプル番号1〜5におけるC信号用、M信号用およびY信号用最大値信号は、シアン、マゼンタおよびイエローに関する最大濃度値を正規化した値を示す。サンプル番号1〜4、すなわち実線63a〜63dで囲まれる領域におけるC信号用、M信号用およびY信号用最小値信号ならびにC信号用、M信号用およびY信号用最大値信号は、入力データとして用いられる。サンプル番号5、すなわち二点鎖線63eで囲まれる領域におけるC信号用、M信号用およびY信号用最小値信号ならびにC信号用、M信号用およびY信号用最大値信号は、サンプル番号1〜5において最大値であって、教師データとして用いられる。
【0099】
得られた入力データと教師データとを用いて、神経回路網55における重みを学習によって更新した。学習による重みの更新回数である反復回数の上限値は、50,000回である。重みの初期値は、前述のようにテーブルを用いて与えられる。図9の横軸は、反復回数であって、単位は「回」である。図9の縦軸は、シアンに関する誤差量energyである。シアンに関する誤差量は、無彩文字形成領域の画素のシアンに関する濃度値を入力層56のニューロン59に与えた場合の出力層58のニューロン59の出力値と、教師データのシアンに関する最大目標値との誤差量を表す。シアンに関する誤差量energyは、反復回数timeが0回である場合に最も大きい値であり、反復回数timeが大きくなるとそれに伴って小さくなり、反復回数timeがおよそ2,500回を超えかつ50,000回以下の範囲では0の値になる。このように反復回数timeを大きくすると、シアンに関する誤差量energyを小さくすることができる。
【0100】
図10の横軸は、シアン用入力信号値である。図10の縦軸は、シアン用補正信号値である。シアン用入力信号値は、シアン用補正部40aに与えられる無彩文字形成領域の画素のシアンに関する濃度値を表す。シアン用補正信号値は、シアン用補正部40aが重みに基づいてシアン用入力信号値を補正した後の無彩文字形成領域の画素のシアンに関する濃度値を表す。反復回数が50,000回である場合に、シアン用入力信号値とシアン用補正信号値との関係を表すグラフは、図10の実線60aで表されるシアン用変換グラフである。×印61aは、教師データのシアンに関する目標値を表し、二点鎖線62aで表すグラフは、×印61aを線形補間したグラフである補間教師グラフを表す。シアン用変換グラフは、二点鎖線62aで表される補間教師グラフの波形とほとんど一致する。このように無彩文字形成領域の画素のシアンに関する濃度値が、教師データのシアンに関する目標値と同一の値になるように、換言すると本来の濃度値になるように補正されていることが確認できる。
【0101】
図11の横軸は、反復回数であって、単位は「回」である。図11の縦軸は、マゼンタに関する誤差量energyである。マゼンタに関する誤差量は、無彩文字形成領域の画素のマゼンタに関する濃度値を入力層56のニューロン59に与えた場合の出力層58のニューロン59の出力値と、教師データのマゼンタに関する最大目標値との誤差量を表す。マゼンタに関する誤差量energyは、反復回数timeが0回である場合に最も大きい値であり、反復回数timeが大きくなるとそれに伴って小さくなり、反復回数timeがおよそ2,500回を超えかつ50,000回以下の範囲では0の値になる。このように反復回数timeを大きくすると、マゼンタに関する誤差量energyを小さくすることができる。
【0102】
図12の横軸は、マゼンタ用入力信号値である。図12の縦軸は、マゼンタ用補正信号値である。マゼンタ用入力信号値は、マゼンタ用補正部40bに与えられる無彩文字形成領域の画素のマゼンタに関する濃度値を表す。マゼンタ用補正信号値は、マゼンタ用補正部40bが重みに基づいてマゼンタ用入力信号値を補正した後の無彩文字形成領域の画素のマゼンタに関する濃度値を表す。反復回数が50,000回である場合に、マゼンタ用入力信号値とマゼンタ用補正信号値との関係を表すグラフは、図12の実線60bで表されるマゼンタ用変換グラフである。×印61bは、教師データのマゼンタに関する目標値を表し、二点鎖線62bで表すグラフは、×印61bを線形補間したグラフである補間教師グラフを表す。マゼンタ用変換グラフは、二点鎖線62bで表される補間教師グラフの波形とほとんど一致する。このように無彩文字形成領域の画素のマゼンタに関する濃度値が、教師データのマゼンタに関する目標値と同一の値になるように、換言すると本来の濃度値になるように補正されていることが確認できる。
【0103】
図13の横軸は、反復回数であって、単位は「回」である。図13の縦軸は、イエローに関する誤差量energyである。イエローに関する誤差量は、無彩文字形成領域の画素のイエローに関する濃度値を入力層56のニューロン59に与えた場合の出力層58のニューロン59の出力値と、教師データのイエローに関する最大目標値との誤差量を表す。イエローに関する誤差量energyは、反復回数timeが0回である場合に最も大きい値であり、反復回数timeが大きくなるとそれに伴って小さくなり、反復回数timeがおよそ2,000回を超えかつ50,000回以下の範囲では0の値になる。このように反復回数timeを大きくすると、イエローに関する誤差量energyを小さくすることができる。
【0104】
図14の横軸は、イエロー用入力信号値である。図14の縦軸は、イエロー用補正信号値である。イエロー用入力信号値は、イエロー用補正部40cに与えられる無彩文字形成領域の画素のイエローに関する濃度値を表す。イエロー用補正信号値は、イエロー用補正部40cが重みに基づいてイエロー用入力信号値を補正した後の無彩文字形成領域の画素のイエローに関する濃度値を表す。反復回数が50,000回である場合に、イエロー用入力信号値とイエロー用補正信号値との関係を表すグラフは、図14の実線60cで表されるイエロー用変換グラフである。×印61cは、教師データのイエローに関する目標値を表し、二点鎖線62cで表すグラフは、×印61cを線形補間したグラフである補間教師グラフを表す。イエロー用変換グラフは、二点鎖線62cで表される補間教師グラフの波形とほとんど一致する。図10、図12および図14に示すように教師データとなる最大目標値および最小目標値を結ぶグラフに基づいて、最適な濃度値特性を設定することができる。このように無彩文字形成領域の画素のイエローに関する濃度値が、教師データのイエローに関する目標値と同一の値になるように、換言すると本来の濃度値になるように補正されていることが確認できる。たとえば図10のシアン用入力信号値が80〜130の範囲などの未学習の範囲に関して、神経回路網55による汎化能力によって、滑らかなシアン用変換グラフを得ることができる。得られた滑らかなシアン用変換グラフを用いることによって、最大濃度値および最小濃度値を除く残余の濃度値、すなわち中間濃度値を精度良く補正することができる。これによって無彩文字形成領域を含む全体画像のすべての画像領域に対しても濃度値の補正をすることができる。
【0105】
補正後の信号値は、式(23)に示すように、変換グラフを表す関数に関して、入力信号値を入力値としたときの出力値として与えられる。
【0106】
【数5】
【0107】
式(23)は、理解を容易にするために、シアン、マゼンタおよびイエローの各色に関して、補正信号値、変換グラフを表す関数および入力信号値をまとめて表記している。たとえばシアン用補正信号値は、シアン用変換グラフを表す関数に関して、シアン用入力信号値を入力値としたときの出力値として与えられる。マゼンタ用補正信号値は、マゼンタ用変換グラフを表す関数に関して、マゼンタ用入力信号値を入力値としたときの出力値として与えられる。イエロー用補正信号値は、イエロー用変換グラフを表す関数に関して、イエロー用入力信号値を入力値としたときの出力値として与えられる。シアン用、マゼンタ用およびイエロー用変換グラフを表す各関数のうち1つを用いて、黒色の濃度値を表す黒生成量を制御することができる。たとえばマゼンタ用変換グラフを表す関数を用いて黒生成量を制御する場合、前述のスケルトンカーブの入出力特性を表す関数をマゼンタ用変換グラフを表す関数に置き換える。これによって黒生成量を文字の太さに応じて制御することができる。したがって細い文字には太い文字に比べて多めの黒色の色材である黒インクを足すことになり、細い文字の濃度を高くすることができるとともに、細い文字と太い文字との濃度差をなくすことができる。
【0108】
図15は、補正なし画像64Aを説明するための図である。図16は、補正後画像64Bを説明するための図である。図17は、補正なし画像64Aに関する濃度ヒストグラムである。図18は、補正後画像64Bに関する濃度ヒストグラムである。図19は、図15の実線65Aにおける濃度断面である。図20は、図16の実線65Bにおける濃度断面である。補正なし画像64Aおよび補正後画像64Bは、ともに同一の原稿画像、たとえば教師用原稿50Aと同一の原稿画像に基づいて形成された画像である。補正なし画像64Aは、原稿画像を読み取った後、黒階調補正部30によって補正処理をせずに記録材に形成した画像である。補正後画像64Bは、原稿画像を読み取った後、黒階調補正部30による処理結果に基づいて記録材に形成した画像である。補正なし画像64Aでは、文字の太さに応じて、太い文字は濃く、細い文字は薄くなっているけれども、補正後画像64Bでは、文字の太さに拘わらず、ほぼ均一な濃度を有する文字が形成されている。
【0109】
図17の濃度ヒストグラムは、補正なし画像64Aに関して、濃度値と度数との関係を示し、図18の濃度ヒストグラムは、補正後画像64Bに関して、濃度値と度数との関係を示す。図17および図18の横軸は濃度値、具体的にはシアン、マゼンタおよびイエローの各色に関する濃度値であって、図17および図18では、それらをまとめてCMY濃度値と表記している。図17および図18の縦軸は度数である。図17では、シアンに関する濃度ヒストグラムを一点鎖線66aで表し、マゼンタに関する濃度ヒストグラムを実線66bで表し、イエローに関する濃度ヒストグラムを破線66cで表している。図17のシアン、マゼンタおよびイエローの各色に関する濃度ヒストグラムは、大略的にCMY濃度値が小さい箇所(白下地領域にあたる)で1つのピークを有する。さらに図17のシアン、マゼンタおよびイエローの各色に関する濃度ヒストグラムは、相互に同様の波形を有し、かつ同一のCMY濃度値に対してほぼ同一の度数をとる。図18では、シアンに関する濃度ヒストグラムを一点鎖線67aで表し、マゼンタに関する濃度ヒストグラムを実線67bで表し、イエローに関する濃度ヒストグラムを破線67cで表している。図18のシアン、マゼンタおよびイエローの各色に関する濃度ヒストグラムは、大略的にCMY濃度値が小さい箇所(白下地)と大きい箇所(文字内部)とで2つのピークを有する。さらに図18のシアン、マゼンタおよびイエローの各色に関する濃度ヒストグラムは、相互に同様の波形を有し、かつ同一のCMY濃度値に対してほぼ同一の度数をとる。図17および図18によれば、CMY濃度値が大きい箇所、具体的にはCMY濃度値がおよそ180の箇所では、矢符68で示すように、補正なし画像64Aに関する濃度ヒストグラムにおける度数に比べて、補正後画像64Bに関する濃度ヒストグラムおける度数のほうが高くなっている。これは黒階調補正部30による補正処理によって、図16の「8.0」などの細い文字の濃度が、図16の「2.8」などの太い文字の濃度と同程度の濃度特性を有する画素の数が増えたためである。
【0110】
図19の濃度断面は、補正なし画像64Aに関して、濃度断面の位置と濃度値との関係を示し、図20の濃度断面を示すグラフは、補正後画像64Bに関して、濃度断面の位置と濃度値との関係を示す。図15の実線65Aと図16の実線65Bとは、濃度断面を作成した箇所を示している。実線65A,65Bは、原稿画像において同一の箇所に配置され、細い文字、具体的には相互に間隔をあけて平行に配置される5本の縦線と数字「6.3」とを横切る。図19および図20の横軸は、濃度断面の位置を表す値である。図19および図20の縦軸は、濃度値、具体的にはシアン、マゼンタおよびイエローの各色に関する濃度値であって、図19および図20では、それらをまとめてCMY濃度値と表記している。濃度断面の位置は、実線65Aおよび実線65Bの寸法である。たとえば図19および図20では、濃度断面の位置は、実線65Aおよび実線65Bの一端部を下限値である「0」と設定され、他端部を上限値である「90」と設定されている。図19では、シアンに関する濃度断面を一点鎖線69aで表し、マゼンタに関する濃度断面を実線69bで表し、イエローに関する濃度断面を破線69cで表している。図19のシアン、マゼンタおよびイエローの各色に関する濃度断面は、相互に同様の波形を有し、かつ同一の濃度断面の位置に対してほぼ同一のCMY濃度値をとる。図20では、シアンに関する濃度断面を一点鎖線70aで表し、マゼンタに関する濃度断面を実線70bで表し、イエローに関する濃度断面を破線70cで表している。図20のシアン、マゼンタおよびイエローの各色に関する濃度断面は、相互に同様の波形を有し、かつ同一の濃度断面の位置に対してほぼ同一のCMY濃度値をとる。
【0111】
図19の補正なし画像64Aに関する濃度断面と図20の補正後画像64Bに関する濃度断面とは、5本の縦線とその近傍の下地とを含む範囲、換言すると濃度断面の位置がおよそ10以上25以下の範囲では、大略的に三角波状のグラフであり、縦線は下地に比べて大きいCMY濃度値をとるので、濃度断面の位置が大きくなるにつれてCMY濃度値が大小交互に変化する。補正なし画像64Aに関する濃度断面では、画像入力装置2の解像性能、具体的にはスキャナ部の光学解像度によって、5本の縦線のうち中央の縦線におけるCMY濃度値が、残余の縦線と数字「6.3」とにおけるCMY濃度値に比べて小さくなっており、CMY濃度値が不均一になっている。濃度断面を作成した箇所は、たとえば図15の数字「2.8」およびその近傍の縦線などに比べて充分に細い文字であるので、前述のように補正なし画像64Aでは文字の太さに応じて濃度にむらが発生する。
【0112】
補正後画像64Bに関する濃度断面では、5本の縦線と数字「6.3」とにおけるCMY濃度値はほぼ同一である。さらに補正後画像64Bに関する濃度断面では、細い文字であっても高濃度と低濃度との濃度差、換言すると縦線および数字におけるCMY濃度値と下地における濃度値との差が広がっている。このように無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値が補正されるので、補正後画像64Bのように、縦線の濃度と数字の濃度とがほぼ同一に、かつ補正前の文字の濃度に比べて大きくなるように形成されるとともに、縦線間などの込み入った文字間の下地の濃度が補正前の下地の濃度に比べて低くなるように形成されている。これによって原稿画像を精度良く再現することができるとともに、無彩文字形成領域のコントラストを正確に再現することができる。
【0113】
このように画像処理装置3が構成されるので、たとえば画像入力装置2の解像力不足に起因して、読取り濃度が低下して読取り誤差が生じた場合であっても、局所マスクの最大濃度値および最小濃度値と、画像入力装置2の入力特性に基づく教師データとを用いることによって、読取り誤差を補正して無くすことができる。前述の画像形成装置1において、無彩文字形成領域の画素の濃度値は、画像処理装置3に全体画像が与えられるたびに得られた補正情報を用いて補正されてもよいし、プレスキャン時に得られた補正情報を用いて補正されてもよい。
【0114】
本実施の形態によれば、複数の色に関する画素値を有する画素を含む全体画像が、画像入力装置2によって与えられる。この全体画像から、複数の画像領域が領域分離処理部13によって識別分離される。分離される画像領域のうち、予め定める特定画像領域である無彩文字形成領域に関して、最大の画素値が最大画素値取得手段である各色高濃度取得部32によって取得される。取得される最大の画素値である最大濃度値と、最大濃度値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算手段である各色学習部39によって演算される。補正情報は、無彩文字形成領域の画素の濃度値を補正するための情報であって、シアン、マゼンタおよびイエローの各色毎に演算される。演算された補正情報に基づいて、無彩文字形成領域の画素の濃度値が補正手段である各色補正部40によって補正される。補正情報を用いることによって、無彩文字形成領域における最大濃度値が、本来の濃度値になるように、原稿画像を読取るときに生じた読取り誤差を補正して、読取り誤差を無くすことができる。したがって本来の濃度値になるように、無彩文字形成領域の画素の濃度値を精度良く補正することができる。これによってたとえば原稿に形成される画像を読取るときに生じた読取り誤差を補正して、読み取り誤差を無くすことができる。したがって本来の画素値になるように、特定画像領域の画素の画素値を精度良く補正することができる。
【0115】
さらに本実施の形態によれば、前記特定画像領域である無彩文字形成領域に関して、最小の画素値である最小濃度値が最小画素値取得手段である各色低濃度取得部33によって取得される。各色低濃度取得部33によって取得される最小濃度値と、最小濃度値を補正するための予め設定される最小目標値と、最大濃度値と、最大濃度値を補正するための予め設定される最大目標値とに基づいて、補正情報が各色学習部39によって演算される。このように補正情報は、最大濃度値および最大目標値に加えて、最小濃度値および最小目標値を考慮して演算される。これによって最大濃度値および最小濃度値が、本来の濃度値になるように、無彩文字形成領域の画像を読取るときに生じた読取り誤差を補正することができる。したがって無彩文字形成領域の画素の濃度値を精度良く補正することができるとともに、原稿画像における無彩文字形成領域のコントラストを正確に再現することができる。
【0116】
さらに本実施の形態によれば、前記情報演算手段である各色学習部39は、神経回路網55を含んで構成される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。各色学習部39が神経回路網55を含んで構成されるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、各色学習部39を実現するために要するコストを可及的に削減することができる。
【0117】
さらに本実施の形態によれば、前記最大目標値は、画像入力装置2の入力特性に基づいて設定されるので、画像入力装置2に応じた補正情報を正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字領域の文字は、その濃度が文字の太さに拘わらず一様でありかつ文字領域において最大となるとともに、下地領域は、その濃度が一様で最小となる。原稿画像の文字を読み取った場合、文字に対応する画素の濃度値は文字領域において最大になり、下地に対応する画素において最小になると想定することができる。これによって画像入力装置2によって与えられるべき画素値である最大目標値および最小目標値を予め設定することができる。このように特定画像領域の画素の濃度値を補正するための目標値が既知である場合には、目標値を有する画素を含む画像領域の画像を、画像入力装置2で読込ませておき、目標値を予め設定することができる。これによって補正情報を正確に演算することができる。
【0118】
さらに本実施の形態によれば、画像形成装置1は、前述の画像処理装置3を備えるので、特定画像領域である無彩文字形成領域の画素の濃度値を、元々有している本来の濃度値になるように精度良く補正することができる。これによって原稿画像に形成される文字の濃度を正確に再現することが可能な画像形成装置2を実現することができる。
【0119】
また本実施の形態によれば、画像入力装置2によって与えられる全体画像から、複数の画像領域が領域分離工程で識別分離される。領域分離工程で分離される画像領域のうち、予め定める特定画像領域である無彩文字形成領域に関して、最大濃度値が最大画素値取得工程で取得される。取得される最大濃度値と最大目標値とに基づいて、補正情報が情報演算工程で演算される。補正情報は、無彩文字形成領域の画素の濃度値を補正するための情報である。演算された補正情報に基づいて、無彩文字形成領域の画素の濃度値が補正工程で補正される。補正情報を用いることによって、無彩文字形成領域における最大濃度値が元々有している本来の濃度値になるように、原稿画像を読取るときに生じた読取り誤差を補正することができる。これによって読取り誤差を無くして、本来の濃度値になるように、無彩文字形成領域の画素の濃度値を精度良く補正することができる。
【0120】
さらに本実施の形態によれば、無彩文字形成領域に関して、最小濃度値が最小画素値取得工程で取得される。最小画素値取得工程で取得される最小濃度値および最大濃度値、ならびに最小目標値および最大目標値に基づいて、補正情報が情報演算工程で演算される。このように補正情報は、最大濃度値および最大目標値に加えて、最小濃度値および最小目標値を考慮して演算される。これによって最大濃度値および最小濃度値が、それぞれ本来の濃度値になるように、原稿画像を読取るときに生じた読取り誤差を補正することができる。したがって無彩文字形成領域の画素の濃度値を精度良く補正することができるとともに、全体画像における特定画像領域のコントラストを正確に再現することができる。
【0121】
さらに本実施の形態によれば、前記情報演算工程では、神経回路網55を用いて補正情報が演算される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。情報演算工程では神経回路網55を用いるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、情報演算工程における処理を実現するために要するコストを可及的に削減することができる。
【0122】
さらに本実施の形態によれば、前記最大目標値は、画像入力装置2の入力特性に基づいて設定されるので、画像入力装置2に応じた補正情報を情報演算工程で正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字領域の文字は、その濃度が文字の太さに拘わらず一様であり、かつ最大の濃度値を有する画素によって表される。これによって元々有している本来の濃度値である最大目標値を予め知ることができる。このように最大目標値が既知である場合には、最大目標値を有する画素を含む画像を、画像入力装置2で読込んでおくことによって、最大目標値を予め設定することができる。これによって補正情報を情報演算工程で正確に演算することができる。
【0123】
本実施の形態では、黒生成下色除去部15は、黒階調補正部30を含む構成であったけれども、黒階調補正部30が黒生成下色除去部15と別途に設けられる構成であってもよく、この場合、画像処理装置3は、黒階調補正部30が黒生成下色除去部15の前段で処理するように構成される。
【0124】
図21は、本発明の他の実施の形態における画像形成装置1Aの画像処理装置3Aが備える黒階調補正部30Aの構成を示すブロック図である。本実施の形態の画像形成装置1Aは、前述の図1〜図20に示す実施の形態の画像形成装置1と類似しており、同様の構成には同一の参照符号を付し、同様の説明は省略する。本実施の形態では、全体画像が与えられるたびに演算した補正情報に基づいて補正するのではなく、無彩文字形成領域のサンプル画像から得られた補正情報に基づいて補正された濃度値を予め求めておき、これと最大濃度値および最小濃度値とを関連付けたルックアップテーブルを予め備えておく。前述の無彩文字形成領域のサンプル画像は、たとえば図5および図6に示す教師用原稿50,50Aなどにおける画像である。
【0125】
このようにルックアップテーブルを予め備えておくことは、画像入力装置2の解像性能などの入力特性が一定である場合または既知である場合に有効である。本実施の形態では、ルックアップテーブルは、シアン、マゼンタおよびイエローの各色に関して、入力8ビット(8bit)および出力8ビット(8bit)で対応することができる。
【0126】
具体的には入力特性が一定または既知である画像入力装置2を用いて、無彩文字形成領域のサンプル画像からシアン、マゼンタおよびイエローの各色に関する変換グラフを表わす関数が、たとえばシミュレーションなどによって求められ、その関数に基づいて補正したサンプル画像の画素の濃度値が予め求められる。この補正したサンプル画像の画素の濃度値と、サンプル画像における最大濃度値および最小濃度値とは、それぞれ関連付けられてルックアップテーブルとして各色記憶部71に記憶される。
【0127】
各色記憶部71のシアン用記憶部71aは、サンプル画像に基づいて求められた補正後のシアンに関する濃度値と、シアンに関する最大濃度値および最小濃度値とをそれぞれ関連付けたルックアップテーブルを記憶する。マゼンタ用記憶部71bは、サンプル画像に基づいて求められた補正後のマゼンタに関する濃度値と、マゼンタに関する最大濃度値および最小濃度値とをそれぞれ関連付けたルックアップテーブルを記憶する。イエロー用記憶部71cは、求められた補正後のイエローに関する濃度値と、イエローに関する最大濃度値および最小濃度値とをそれぞれ関連付けたルックアップテーブルを記憶する。
【0128】
画像入力装置2からの全体画像における無彩文字形成領域の画素の濃度値のうち、最大濃度値が各色高濃度取得部32によって取得されて、各色補正部72に与えられる。具体的には無彩文字形成領域の画素の濃度値のうち、シアンに関する最大濃度値がシアン用補正部72aに与えられ、マゼンタに関する最大濃度値がマゼンタ用補正部72bに与えられ、イエローに関する最大濃度値がイエロー用補正部72cに与えられる。画像入力装置2からの全体画像における無彩文字形成領域の画素の濃度値のうち、最小濃度値が各色低濃度取得部33によって取得されて、各色補正部72に与えられる。具体的には無彩文字形成領域の画素の濃度値のうち、シアンに関する最小濃度値が、シアン用補正部72aに与えられ、マゼンタに関する最小濃度値が、マゼンタ用補正部72bに与えられ、イエローに関する最小濃度値が、イエロー用補正部72cに与えられる。
【0129】
各色補正部72は、取得された最大濃度値および最小濃度値に基づいて、それらに対応するサンプル画像における最大濃度値および最小濃度値と関連付けられる補正後の濃度値をルックアップテーブルから読み出して、無彩文字形成領域の画素の濃度値を、記憶される補正後の濃度値に置き換えて補正する。具体的にはシアン用補正部72aは、取得されたシアン用最大濃度値およびシアン用最小濃度値に基づいて、それらにそれぞれ対応するサンプル画像のシアンに関する最大濃度値および最小濃度値に関連付けられる補正後のシアンに関する濃度値を、シアン用記憶部71aに記憶されるルックアップテーブルから読み出す。さらにシアン用補正部72aは、無彩文字形成領域の画素のシアンに関する濃度値を、読み出した補正後のシアンに関する濃度値に置き換えて補正する。マゼンタ補正部72bは、取得されたマゼンタ用最大濃度値およびマゼンタ用最小濃度値にそれぞれ対応するサンプル画像のマゼンタに関する最大濃度値および最小濃度値に関連付けられる補正後のマゼンタに関する濃度値を、マゼンタ用記憶部71bに記憶されるルックアップテーブルから読み出す。さらにマゼンタ用補正部72bは、無彩文字形成領域の画素のマゼンタに関する濃度値を、読み出した補正後のマゼンタに関する濃度値に置き換えて補正する。イエロー用補正部72cは、取得されたイエロー用最大濃度値およびイエロー用最小濃度値にそれぞれ対応するサンプル画像のイエローに関する最大濃度値および最小濃度値に関連付けられる補正後のイエローに関する濃度値を、イエロー用記憶部71cに記憶されるルックアップテーブルから読み出す。さらにイエロー用補正部72cは、無彩文字形成領域の画素のイエローに関する濃度値を、読み出した補正後のイエローに関する濃度値に置き換えて補正する。黒階調補正部30Aにおける処理は、全体画像の各画素を注目画素に設定して、注目画素に設定された画素が無彩文字形成領域に属する場合に施される。このようにして黒階調補正部30Aによって補正された無彩文字形成領域の画素の濃度値に基づいて、黒生成下色除去部15Aが黒生成処理および下色除去処理を施す。
【0130】
前述のようにサンプル画像を用いて補正された画素の濃度値を、ルックアップテーブルとして記憶しておくことによって、全体画像が与えられるたびに補正情報を演算して補正する場合に比べて、補正する処理の処理速度を低下させることなく、かつ向上することができる。これによって高速の補正処理をすることができるとともに、前述の効果すなわち無彩文字形成領域の画素の濃度値を精度良く補正することができる画像処理装置3Aを実現することができる。
【0131】
また全体画像に対して一様な補正曲線を用いて濃度値を補正するガンマ補正をするので、領域単位で黒生成量を制御する場合に比べてギャップ量を少なくして、原稿画像を滑らかに再現することができる。
【0132】
図22は、黒階調補正部30Aおよび黒生成下色除去部15Aによる処理の手順を示すフローチャートである。本実施の形態における画像処理方法は、情報記憶工程、領域分離工程および補正工程を含む。情報記憶工程では、無彩文字形成領域のサンプル画像の最大濃度値と、最大目標値とに基づいて演算された補正情報により補正した前記サンプル画像の画素の濃度値が、各色記憶部71によって記憶される。演算された補正情報は、シアン、マゼンタおよびイエローの各色に関する変換グラフを表わす関数である。この各色に関する変換グラフを表わす関数により補正した前記サンプル画像の画素の濃度値と、最大濃度値および最小濃度値とを関連付けたルックアップテーブルが、各色記憶部71に記憶される。ステップa4の補正工程では、各色記憶部71に記憶される補正後のサンプル画像の画素の濃度値に基づいて、全体画像における無彩文字形成領域の画素の濃度値が、各色補正部72によって補正される。本実施の形態では、ステップa0で画像処理方法に基づく処理手順が開始される前に、情報記憶工程および領域分離工程における処理が既に行われている。また本実施の形態の画像処理方法は、ステップa5の黒生成下色除去処理をする工程をさらに含む。
【0133】
ステップa0では、本実施の形態の画像処理方法に従う処理手順を開始して、ステップa1に進む。ステップa1では、黒階調補正部30Aが図8のステップs1と同様の処理をする。ステップa1において注目画素36が無彩文字領域に属すると判断されるとステップa2に進み、注目画素36が無彩文字領域に属さないと判断されるとステップa6に進んですべての処理手順を終了する。ステップa2では、図8のステップs2と同様に処理されてステップa3に進む。
【0134】
ステップa3の最大画素値取得工程および最小画素値取得工程では、各色高濃度取得部32は、予め定める特定画像領域である無彩文字形成領域に属する画素のシアン、マゼンタおよびイエローの各色に関する最大濃度値を取得し、各色低濃度取得部33は、無彩文字形成領域に属する画素のシアン、マゼンタおよびイエローの各色に関する最小濃度値を取得する。ステップa3で最大濃度値および最小濃度値が取得されると、ステップa4に進む。
【0135】
ステップa4では、各色補正部72が、ルックアップテーブルから濃度値を読み出す。具体的には各色補正部72が、全体画像における無彩文字形成領域の画素の最大濃度値および最小濃度値にそれぞれ対応するサンプル画像の画素の最大濃度値および最小濃度値に関連付けられる補正後の濃度値を、ルックアップテーブルから読み出す。さらに全体画像における無彩文字形成領域の画素の濃度値を、読み出した前記補正後の濃度値に置き換えて補正する。ステップa4でルックアップテーブルに基づいて無彩文字形成領域の画素の濃度値が補正されると、ステップa5に進む。ステップa5では、図8のステップs6と同様に、黒生成下色除去部15Aが、黒生成下色除去処理をして、ステップa6に進んですべての処理手順を終了する。ステップa5において、無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値が補正されると、ステップa6に進んですべての処理手順を終了する。
【0136】
本実施の形態によれば、予め定める特定画像領域である無彩文字形成領域のサンプル画像の最大濃度値と、その最大の画素値を補正するための予め設定される最大目標値とに基づいて演算された補正情報により補正された前記サンプル画像の画素の濃度値が、各色記憶部71に記憶される。各色補正部72は、領域分離処理部13によって全体画像から識別分離された無彩文字形成領域の画素の濃度値を、各色記憶部71に記憶される補正後のサンプル画像の画素の濃度値に基づいて補正する。これによって、たとえば画像入力装置2の入力特性が一定または既知である場合には、画像入力装置2が全体画像を与えるたびに補正情報を演算することなく、無彩文字形成領域のサンプル画像の画素の濃度値に基づいて補正情報を推定し、この補正情報に基づいて補正したサンプル画像の画素の濃度値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の濃度値に基づいて、領域分離工程で全体画像から識別分離された無彩文字形成領域の画素の濃度値を精度良く補正することができる。これによって画像処理装置1A、具体的には黒階調補正部30Aによる処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0137】
さらに本実施の形態によれば、情報記憶工程では、無彩文字形成領域のサンプル画像の最大の濃度値と、その最大の濃度値を補正するための予め設定される最大目標値とに基づいて演算した補正情報により補正した前記サンプル画像の画素の濃度値が、各色記憶部71に記憶される。補正工程では、各色記憶部71に記憶される補正後のサンプル画像の画素の濃度値に基づいて、領域分離工程で全体画像から識別分離された特定画像領域の画素の濃度値が補正される。これによって画像入力装置2の入力特性が一定または既知である場合には、画像入力装置2が全体画像を与えるたびに補正情報を演算することなく、無彩文字形成領域のサンプル画像を用いて補正情報を推定し、この補正情報に基づいて補正したサンプル画像の画素の濃度値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の濃度値に基づいて、識別分離された無彩文字形成領域の画素の濃度値を精度良く補正することができる。これによって画像処理装置1A、具体的には黒階調補正部30Aによる処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0138】
本実施の形態では、黒生成下色除去部15Aは、黒階調補正部30Aを含む構成であったけれども、黒階調補正部30Aが黒生成下色除去部15Aを別途に設けられる構成であってもよく、この場合、画像処理装置3Aは、黒階調補正部30Aが黒生成下色除去部15Aの前段で処理するように構成される。また解像性能などの特性が異なる複数種類の画像入力装置2に対する補正情報をそれぞれ記憶させておいて、複数種類の画像入力装置2に対応できる構成であってもよい。
【0139】
本発明の各実施の形態では、領域分離処理部13における局所マスクを、ラインメモリ37を用いて形成する構成であってもよい。またラインメモリ37において、濃度値が記憶される画素の数が各色局所マスク35のサイズに基づいて限定されるものではなく、FIFO形メモリの数によって変更してもよいし、ハードディスクなどの記憶手段と協働して濃度値を記憶する構成であってもよい。これによって各色局所マスク35に含まれる画素の数を容易に変更して、画像領域の判定処理および特定画像領域の画素の濃度値の補正処理を正確に行うことができる。また補正情報を演算するために、各色局所マスク35に関してシアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値を用いる換わりに、たとえば各色局所マスク35の各画素の濃度値を昇順または降順に並べて、上位所定番目の画素の濃度値と下位所定番目の画素の濃度値とを用いる構成であってもよい。
【0140】
図23は、本発明のさらに他の実施の形態であるコンピュータシステム75の構成を示す図である。本実施の形態は、本発明の画像処理方法を、コンピュータに実行させるためのプログラムを用いて、コンピュータ読取り可能な記録媒体83にプログラム84を記録するように構成される。これによって本発明の画像処理方法を実行するためのプログラム84を記録した記録媒体83を持運びできる。コンピュータシステム75は、コンピュータ76、画像表示装置78、画像入力装置79、画像出力装置であるプリンタ80、入力装置であるキーボード81およびマウス82を含んで構成される。コンピュータ76は、コンピュータ76から分離可能な記録媒体であるROM77を含んで構成される。
【0141】
コンピュータシステム75では、プログラムがROM77に記録される。コンピュータ76が、ROM77から上述のプログラムを読取り、実行することによって本発明の画像処理方法が施される。また図示しない外部記憶装置であるプログラム読取り装置に、プログラム84が記録される記録媒体83を挿入することによって、この記録媒体83からプログラム84を読込ませて、コンピュータ76にプログラム84を実行させてもよい。
【0142】
画像表示装置78は、コンピュータ76による処理結果を表示する装置であって、たとえばシーアールティー(cathode ray tube display;略称CRT)ディスプレイおよび液晶ディスプレイが用いられる。画像入力装置79は、原稿に形成される画像を読取る装置であって、たとえばフラットベッドスキャナ、フィルムスキャナおよびデジタルカメラが用いられる。プリンタ80は、コンピュータ76による処理結果を画像として記録材に形成する。さらにコンピュータシステム75には、たとえば通信ネットワークを介して、サーバーに接続するための通信手段であるモデムが設けられてもよい。
【0143】
プログラム84は、マイクロプロセッサによって記録媒体83から読出されることによって、コンピュータ76に実行される構成であってもよいし、読出されたプログラム84は、コンピュータ76に設けられるプログラム記憶エリアに一旦転送されてから、実行される構成であってもよい。
【0144】
記録媒体83は、コンピュータ76と分離できるように構成され、磁気テープおよびカセットテープによって固定的にプログラム84を記録する媒体であってもよい。その他の記録媒体83の一例として、磁気ディスクの場合には、フレキシブルディスクおよびハードディスク、ならびに光ディスクの場合には、コンパクトディスク−リードオンリーメモリ(Compact Disk - Read Only Memory;略称CD−ROM)、マグネットオプティカル(Magneto Optical;略称MO)、ミニディスク(Mini Disk;略称MD)、デジタルバーサタイルディスク(Digital Versatile Disk;略称DVD)を、記録媒体83として用いてもよい。
【0145】
また半導体メモリであるマスクROM、イーピーロム(Erasable Programmable Read Only Memory;略称EPROM)、イーイーピーロム(Electrically Erasable Programmable Read Only Memory;略称EEPROM)、およびフラッシュロム(Flash Read Only Memory)を記録媒体83として用いることもできる。
【0146】
コンピュータシステム75は、インターネットを含む通信ネットワークに接続可能な構成であってもよく、通信ネットワークを介して上述のプログラム84をROM77に転送し、記録するように流動的にプログラム84を記録する記録媒体83であってもよい。このように通信ネットワークを介してプログラム84をダウンロードする場合には、プログラム84を転送、すなわちダウンロードするためのダウンロードプログラムは、予めコンピュータシステム75に記録されているか、あるいは別な記録媒体83からコンピュータシステム75に導入、すなわちインストールされるものであってもよい。
【0147】
本実施の形態によれば、補正情報に基づいて、特定画像領域である無彩文字形成領域の画素の濃度値を補正する画像処理方法をプログラム84で表すことによって、コンピュータに前述の画像処理方法に従う処理を実行させることができる。前記画像処理方法に従う処理をコンピュータ76に実行させることによって、原稿における特定画像領域が表す画像を精度良く再現することができる。
【0148】
さらに本実施の形態によれば、補正情報に基づいて、無彩文字形成領域の画素の濃度値を補正する画像処理方法をコンピュータ76に実行させるためのプログラム84を、コンピュータ76によって読取り可能な記録媒体83に記録させる。たとえばフレキシブルディスクなどの持運び可能な記録媒体83にプログラム84を記録させることによって、プログラム84を記録媒体83から所望のコンピュータ76に読込ませることができるとともに、記録媒体83からコンピュータ76にプログラム84を読込ませて、このプログラム84をコンピュータ76に実行させることができる。
【0149】
【発明の効果】
本発明によれば、複数の色に関する画素値を有する画素を含む全体画像が、画像入力手段によって与えられる。この全体画像から、複数の画像領域が領域分離手段によって識別分離される。分離される画像領域のうち、予め定める特定画像領域に関して、最大の画素値が最大画素値取得手段によって取得される。取得される最大の画素値と、前記最大の画素値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算手段によって演算される。補正情報は、特定画像領域の画素の画素値を補正するための情報である。演算された補正情報に基づいて、特定画像領域の画素の画素値が補正手段によって補正される。補正情報を用いることによって、特定画像領域における最大の画素値が本来の画素値になるように、特定画像領域の画素の画素値を補正することができる。これによってたとえば原稿に形成される画像を読取るときに生じた読取り誤差を補正して、読取り誤差を無くすことができる。したがって画像入力手段によって与えられるべき画素値になるように、特定画像領域の画素の画素値を精度良く補正することができる。
【0150】
また本発明によれば、前記特定画像領域に関して、最小の画素値が最小画素値取得手段によって取得される。最小画素値取得手段によって取得される最小の画素値と、前記最小の画素値を補正するための予め設定される最小目標値と、最大の画素値と、前記最大の画素値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算手段によって演算される。このように補正情報は、最大の画素値および最大目標値に加えて、最小の画素値および最小目標値を考慮して演算される。これによって最大および最小の画素値が、本来の画素値になるように、全体画像における特定画像領域を読取るときに生じた読取り誤差を補正することができる。したがって特定画像領域の画素の画素値を正確に補正したうえで、全体画像における特定画像領域のコントラストを正確に再現することができる。
【0151】
また本発明によれば、前記情報演算手段は、神経回路網を含んで構成される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。情報演算手段が神経回路網を含んで構成されるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、情報演算手段を実現するために要するコストを可及的に削減することができる。
【0152】
また本発明によれば、前記最大目標値は、画像入力手段の入力特性に基づいて設定されるので、画像入力手段に応じた補正情報を正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字形成領域の文字は、その濃度が文字の太さに拘わらず一様でありかつ文字領域において最大となるとともに、下地領域は、その濃度が一様で最小となる。全体画像における文字形成領域を読み取った場合、文字に対応する画素の画素値は、文字形成領域において最大の画素値になり、下地に対応する画素の濃度値は最小になると想定することができる。これによって本来の画素値である最大目標値および最小目標値を予め設定することができる。このように特定画像領域の画素の画素値を補正するための目標値が既知である場合には、目標値を有する画素を含む全体画像を画像入力手段で読込んでおくことによって、目標値を予め設定することができる。これによって補正情報を正確に演算することができる。
【0153】
また本発明によれば、予め定める特定画像領域のサンプル画像の最大の画素値と、その最大の画素値を補正するための予め設定される最大目標値とに基づいて演算された補正情報により補正された前記サンプル画像の画素の画素値が、記憶手段に記憶される。領域分離手段によって識別分離された特定画像領域の画素の画素値が、記憶手段に記憶される補正後のサンプル画像の画素の画素値に基づいて、補正手段によって補正される。これによって、たとえば画像入力手段の入力特性が一定または既知である場合には、画像入力手段が全体画像を与えるたびに補正情報を演算することなく、特定画像領域のサンプル画像の画素の画素値に基づいて補正情報を推定し、この補正情報に基づいて補正したサンプル画像の画素の画素値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の画素値を用いることによって、全体画像から領域分離手段によって識別分離された特定画像領域の画素の画素値を精度良く補正することができる。これによって画像処理装置による処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0154】
また本発明によれば、画像形成装置は、前述の画像処理装置を備えるので、特定画像領域の画素の画素値を、本来の画素値になるように精度良く補正することができる。これによって全体画像における特定画像領域を正確に再現することが可能な画像形成装置を実現することができる。
【0155】
また本発明によれば、複数の色に関する画素値を有する画素を含む全体画像が、画像入力手段によって与えられる。この全体画像から、複数の画像領域が領域分離工程で識別分離される。領域分離工程で分離される画像領域のうち、予め定める特定画像領域に関して、最大の画素値が最大画素値取得工程で取得される。取得される最大の画素値と、前記最大の画素値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算工程で演算される。補正情報は、特定画像領域の画素の画素値を補正するための情報である。演算された補正情報に基づいて、特定画像領域の画素の画素値が補正工程で補正される。補正情報を用いることによって、特定画像領域における最大の画素値が画像入力手段によって与えられるべき画素値になるように、全体画像における特定画像領域を読取るときに生じた読取り誤差を補正することができる。これによって読取り誤差を無くして、本来の画素値になるように、特定画像領域の画素の画素値を精度良く補正することができる。
【0156】
また本発明によれば、前記特定画像領域に関して、最小の画素値が最小画素値取得工程で取得される。最小画素値取得工程で取得される最小の画素値と、前記最小の画素値を補正するための予め設定される最小目標値と、最大の画素値と、前記最大の画素値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算工程で演算される。このように補正情報は、最大の画素値および最大目標値に加えて、最小の画素値および最小目標値を考慮して演算される。これによって最大および最小の画素値が、それぞれ本来の画素値になるように、全体画像における特定画像領域を読取るときに生じた読取り誤差を補正することができる。したがって特定画像領域の画素の画素値を精度良く補正することができるとともに、全体画像における特定画像領域のコントラストを正確に再現することができる。
【0157】
また本発明によれば、前記情報演算工程では、神経回路網を用いて補正情報が演算される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。情報演算工程では、神経回路網を用いるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、情報演算手段を実現するために要するコストを可及的に削減することができる。
【0158】
また本発明によれば、前記最大目標値は、画像入力手段の入力特性に基づいて設定されるので、画像入力手段に応じた補正情報を正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字形成領域の文字は、その濃度が文字の太さに拘わらず一様であり、かつ最大の画素値を有する画素によって表される。これによって本来の画素値である最大目標値を予め知ることができる。このように最大目標値が既知である場合には、最大目標値を有する画素を含む全体画像を画像入力手段で読込んでおくことによって、最大目標値を予め設定することができる。これによって補正情報を正確に演算することができる。
【0159】
また本発明によれば、情報記憶工程では、予め定める特定画像領域のサンプル画像の最大の画素値と、その最大の画素値を補正するための予め設定される最大目標値とに基づいて演算した補正情報により補正した前記サンプル画像の画素の画素値が記憶手段に記憶される。補正工程では、記憶手段に記憶される補正後のサンプル画像の画素の画素値に基づいて、領域分離工程で全体画像から識別分離された特定画像領域の画素の画素値が補正される。これによって画像入力手段の入力特性が一定または既知である場合には、画像入力手段が全体画像を与えるたびに補正情報を演算することなく、特定画像領域のサンプル画像を用いて補正情報を推定し、この補正情報に基づいて補正したサンプル画像の画素の画素値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の画素値を用いることによって、識別分離された特定画像領域の画素の画素値を精度良く補正することができる。これによって画像処理装置による処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0160】
また本発明によれば、補正情報に基づいて、特定画像領域の画素の画素値を補正する画像処理方法をプログラムで表すことによって、コンピュータに前述の画像処理方法に従う処理を実行させることができる。前記画像処理方法に従う処理をコンピュータに実行させることによって、原稿における特定画像領域が表す画像を精度良く再現することができる。
【0161】
また本発明によれば、補正情報に基づいて、特定画像領域の画素の画素値を補正する画像処理方法をコンピュータに実行させるためのプログラムを、コンピュータによって読取り可能な記録媒体に記録させる。たとえばフレキシブルディスクなどの持運び可能な記録媒体にプログラムを記録させることによって、プログラムを記録媒体から所望のコンピュータに読込ませることができるとともに、記録媒体からコンピュータにプログラムを読込ませて、このプログラムをコンピュータに実行させることができる。
【図面の簡単な説明】
【図1】本発明の実施の一形態である画像形成装置1が備える画像処理装置3の黒階調補正部30の構成を示すブロック図である。
【図2】画像形成装置1全体の構成を示すブロック図である。
【図3】領域分離処理部13の構成を示すブロック図である。
【図4】黒階調補正部30によって形成される各色局所マスク35を説明するための図である。
【図5】教師データを設定するための教師用原稿50を説明するための図である。
【図6】教師データを設定するための教師用原稿50Aを説明するための図である。
【図7】神経回路網55を示すブロック図である。
【図8】黒階調補正部30および黒生成下色除去部15による処理の手順を示すフローチャートである。
【図9】反復回数timeとシアンに関する誤差量energyとの関係を表すグラフである。
【図10】図9における反復回数timeが50,000回である場合のシアン用入力信号値とシアン用補正信号値との関係を表すグラフである。
【図11】反復回数timeとマゼンタに関する誤差量energyとの関係を表すグラフである。
【図12】図11における反復回数timeが50,000回である場合のマゼンタ用入力信号値とマゼンタ用補正信号値との関係を表すグラフである。
【図13】反復回数timeとイエローに関する誤差量energyとの関係を表すグラフである。
【図14】図13における反復回数timeが50,000回である場合のイエロー用入力信号値とイエロー用補正信号値との関係を表すグラフである。
【図15】補正なし画像64Aを説明するための図である。
【図16】補正後画像64Bを説明するための図である。
【図17】補正なし画像64Aに関する濃度ヒストグラムである。
【図18】補正後画像64Bに関する濃度ヒストグラムである。
【図19】図15の実線65Aにおける濃度断面である。
【図20】図16の実線65Bにおける濃度断面である。
【図21】本発明の他の実施の形態における画像形成装置1Aの画像処理装置3Aが備える黒階調補正部30Aの構成を示すブロック図である。
【図22】黒階調補正部30Aおよび黒生成下色除去部15Aによる処理の手順を示すフローチャートである。
【図23】本発明のさらに他の実施の形態であるコンピュータシステム75の構成を示す図である。
【符号の説明】
1,1A 画像形成装置
2 画像入力装置
3,3A 画像処理装置
13 領域分離処理部
15,15A 黒生成下色除去部
30,30A 黒階調補正部
32 各色高濃度取得部
33 各色低濃度取得部
34 各色ニューラルネットワーク
38,71 各色記憶部
39 各色学習部
40,72 各色補正部
55 神経回路網
75 コンピュータシステム
76 コンピュータ
83 記録媒体
84 プログラム[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing method for correcting pixel values of pixels of a specific image region or an entire image, a program for executing the method, a recording medium storing the program, an image processing apparatus, and an image forming apparatus including the same About.
[0002]
[Prior art]
In recent years, the digitization of office automation (OA) equipment has rapidly progressed, and the demand for color image output that forms and outputs chromatic images in addition to achromatic colors has increased. ing. Image output apparatuses that output color images include electrophotographic digital color copiers, inkjet and thermal transfer color printers, and the like. For example, image data given by a digital camera and a scanner, or image data created by a computer is given to the above-described image output device, and an image is formed on a recording material. When an image is formed on a recording material based on input image data, the image needs to be formed in a state where density reproducibility is always stable. In order to always stabilize the reproducibility of the image density, it is necessary to separate the input image data into a plurality of image areas and correct the pixel density values for the separated image areas. In a conventional color image processing apparatus, the degree of fine line of characters is calculated from the character area of an image read from a document, and the amount of black generation is controlled according to the degree of fine line (see, for example, Patent Document 1). The fine line degree is a feature amount that takes a larger value as the line width is smaller and the line is thinner. The color image processing apparatus controls the character density reproducibility as uniform as possible by controlling the black generation amount using the fine line degree.
[0003]
[Patent Document 1]
JP-A-11-69174
[0004]
[Problems to be solved by the invention]
In the conventional color image processing apparatus, the black generation amount is controlled from the line width, which is a characteristic amount related to non-uniformity, for a character region to be reproduced uniformly regardless of the thickness of the character. For example, when it is determined that the line width is small and the character is thin, the black amount is uniformly added to the character. As described above, since a fixed black amount is always given according to the width of the line, it may not be the same as the density of characters formed on the original, and the image formed on the original cannot be accurately reproduced. .
[0005]
Accordingly, an object of the present invention is to provide an image processing method capable of accurately reproducing an image formed on an original, for example, characters, a program for executing the method, a recording medium storing the program, an image processing apparatus, and the same An image forming apparatus is provided.
[0006]
[Means for Solving the Problems]
The present invention provides an area separating unit for discriminating and separating a plurality of image areas from an entire image including pixels having pixel values related to a plurality of colors provided by an image input unit.
Of the image areas to be separated,Maximum density value for each color local block including the pixel of interest belonging to the achromatic character formation areaMaximum pixel value acquisition means for acquiring
Minimum pixel value acquisition means for acquiring a minimum density value for each color local block including the target pixel belonging to the achromatic character formation region;
Comprising a neural network,The maximum to be retrievedconcentrationValue and said maximumconcentrationUsed in advance to correct the valueDepending on teacher dataMaximum target value to be setA minimum density value to be acquired, and a minimum target value set in advance by teacher data used to correct the minimum density value;On the basis of the,Calculate and update the weights representing the connection strength between neurons in the neural network by learning so that there is no error between the maximum density value and the maximum target value and the error between the minimum density value and the minimum target value.Information computing means;
Updated weightOn the basis of the,Achromatic character forming regionOf pixelsconcentrationAn image processing apparatus including a correction unit that corrects a value.
[0007]
According to the present invention, an entire image including pixels having pixel values relating to a plurality of colors is provided by the image input means. A plurality of image areas are identified and separated from the whole image by the area separating means. Of the image areas to be separated,Achromatic character formation areaWith respect toMaximum density value for each color local block including the pixel of interest belonging to the achromatic character formation areaIs acquired by the maximum pixel value acquisition means.Similarly, the minimum pixel value acquisition unit acquires the minimum density value for each color local block including the target pixel belonging to the achromatic character formation region. Weight indicating the strength of connection between neurons in the neural network by learning so that there is no error between the maximum density value and the maximum target value, and no error between the minimum density value and the minimum target valueIs calculated by the information calculation means. PerformanceCalculatedweightOn the basis of the,Achromatic character formation areaOf pixelsconcentrationThe value is corrected by the correcting means.Achromatic character formation areaMaximum inconcentrationvalueMinimum density valueSo that the original pixel value ofAchromatic character formation areaOf pixelsconcentrationThe value can be corrected.
As a result, for example, a reading error generated when reading an image formed on a document can be corrected to eliminate the reading error. Therefore, so that it becomes the original pixel value,Achromatic character formation areaOf pixelsconcentrationThe value can be corrected with high accuracy.
[0009]
By correcting so that the maximum density value and minimum density value in the achromatic character formation area are the original pixel values originally possessed,Of pixelsconcentrationIt is possible to accurately reproduce the contrast of the specific image area in the entire image after correcting the value accurately.
[0011]
Also,The information calculation means includes a neural network. For example, when calculating correction information using a spline function, it is necessary to calculate the correction information using a higher-order function, so that the calculation becomes complicated, and in order to realize a calculation means for performing the calculation costly. Since the information calculation means includes a neural network, the correction information can be calculated easily and accurately by repeating simple product-sum operations. Accordingly, accurate correction information can be easily obtained, and the cost required for realizing the information calculation means can be reduced as much as possible.
[0012]
The present invention also provides the maximum target value.And minimum target valueIsBy importing teacher data using teacher manuscriptsIt is set based on the input characteristics of the image input means.
[0013]
According to the present invention, the maximum target valueAnd minimum target valueIsBy importing teacher data using teacher manuscriptsSince it is set based on the input characteristics of the image input means, the correction information corresponding to the image input means can be accurately calculated. For example, when the specific image area is a character forming area, the density of characters in the character forming area is uniform regardless of the thickness of the character and is the maximum in the character area, and the density of the background area is uniform. It is like and becomes the minimum. When the character forming area in the entire image is read, it can be assumed that the pixel value of the pixel corresponding to the character is the maximum pixel value in the character forming area, and the density value of the pixel corresponding to the background is minimum. Thereby, the maximum target value and the minimum target value, which are the original pixel values, can be set in advance. Thus, when the target value for correcting the pixel value of the pixel in the specific image region is known, the target value is obtained by reading the entire image including the pixel having the target value with the image input means. It can be set in advance. As a result, the correction information can be accurately calculated.
[0014]
The present invention also providesStorage means for storing the weight updated by the information calculation means by learning using a sample image in advance;
The correction unit corrects the density value of the pixel in the achromatic character formation region based on the stored weight.It is characterized by.
[0015]
According to the present invention,The weight updated by the information calculation means is stored in the storage means by learning using the sample image. Achromatic character formation areaOf pixelsconcentrationThe value is stored in the storage meansweightIs corrected by the correction means. Thereby, for example, when the input characteristics of the image input means are constant or known, without calculating the correction information every time the image input means gives the whole image,Achromatic character formation areaBased on pixel value of pixel of sample imageweightEstimate thisweightThe pixel value of the pixel of the sample image corrected based on the above can be stored in advance. Thus, the corrected sample image pixels stored in advance are stored in advance.concentrationBy using the value, from the whole imageAchromatic character formation areaOf pixelsconcentrationThe value can be corrected with high accuracy. Thereby, the processing amount of the image processing apparatus can be reduced as much as possible, and the processing speed can be improved.
[0016]
The present invention also provides an image forming apparatus including the above-described image processing apparatus.
According to the present invention, since the image forming apparatus includes the above-described image processing apparatus, the pixel value of the pixel in the specific image area can be accurately corrected so as to be the pixel value of the original pixel. As a result, an image forming apparatus capable of accurately reproducing a specific image area in the entire image can be realized.
[0017]
Further, the present invention provides an area separation step for identifying and separating a plurality of image areas from an entire image including pixels having pixel values related to a plurality of colors given by an image input means;
Of the image areas to be separated,Maximum density value for each color local block including the pixel of interest belonging to the achromatic character formation areaA maximum pixel value acquisition step of acquiring
A minimum pixel value acquisition step for acquiring a minimum density value for each color local block including a target pixel belonging to the achromatic character formation region;
The maximum to be retrievedconcentrationValue and said maximumconcentrationUsed in advance to correct the valueDepending on teacher dataMaximum target value to be setA minimum density value to be acquired, and a minimum target value set in advance by teacher data used to correct the minimum density value;On the basis of the,Calculate and update the weights representing the connection strength between neurons in the neural network by learning so that there is no error between the maximum density value and the maximum target value and the error between the minimum density value and the minimum target value.Information calculation process;
Updated weightOn the basis of the,Achromatic character forming regionOf pixelsconcentrationAnd a correction step for correcting the value.
[0018]
According to the present invention, an entire image including pixels having pixel values relating to a plurality of colors is provided by the image input means. From this entire image, a plurality of image regions are identified and separated in the region separation step. Of the image areas separated in the area separation process,Achromatic character formation areaWith respect toMaximum density value for each color local block including the pixel of interest belonging to the achromatic character formation areaIs acquired in the maximum pixel value acquisition step.Similarly, the minimum density value for each color local block including the target pixel belonging to the achromatic character formation region is acquired in the minimum pixel value acquisition step. Weight indicating the strength of connection between neurons in the neural network by learning so that there is no error between the maximum density value and the maximum target value, and no error between the minimum density value and the minimum target valueIs calculated in the information calculation process. PerformanceCalculatedweightOn the basis of the,Achromatic character formation areaOf pixelsconcentrationThe value is corrected in the correction process.Achromatic character formation areaMaximum inconcentrationvalueMinimum density valueSo that the original pixel value ofAchromatic character formation areaOf pixelsconcentrationThe value can be corrected.
As a result, the reading error is eliminated and the original pixel value is obtained.Achromatic character formation areaOf pixelsconcentrationThe value can be corrected with high accuracy.
[0020]
MostLarge and smallestconcentrationEach value is originalconcentrationValue in the whole image to beAchromatic character formation areaCan be corrected. ThereforeAchromatic character formation areaOf pixelsconcentrationThe value can be corrected with high accuracy, and the contrast of the specific image region in the entire image can be accurately reproduced.
[0022]
Also,In the information calculation step, correction information is calculated using a neural network. For example, when calculating correction information using a spline function, it is necessary to calculate the correction information using a higher-order function, so that the calculation becomes complicated and in order to realize a calculation means for performing the calculation costly. Since the neural network is used in the information calculation step, the correction information can be calculated easily and accurately by repeating simple product-sum operations. Accordingly, accurate correction information can be easily obtained, and the cost required for realizing the information calculation means can be reduced as much as possible.
[0023]
The present invention also provides the maximum target value.And minimum target valueIsBy importing teacher data using teacher manuscriptsIt is set based on the input characteristics of the image input means.
[0024]
According to the present invention, the maximum target valueAnd minimum target valueIsBy importing teacher data using teacher manuscriptsSince it is set based on the input characteristics of the image input means, the correction information corresponding to the image input means can be accurately calculated. For example, when the specific image region is a character forming region, the characters in the character forming region are represented by pixels having a uniform density regardless of the thickness of the character and having the maximum pixel value. Thus, the maximum target value that is the original pixel value can be known in advance. In this way, when the maximum target value is known, the maximum target value can be set in advance by reading the entire image including the pixel having the maximum target value with the image input means. As a result, the correction information can be accurately calculated.
[0025]
The present invention also providesAn information storage step of storing the weight updated in the information calculation step by learning using a sample image in advance;
In the correction step, the density value of the pixel in the achromatic character forming area is corrected based on the stored weight.It is characterized by.
[0026]
According to the present invention, in the information storage step,The weight updated by the information calculation means is stored in the storage means by learning using a sample image in advance.In the correction process, it is stored in the storage means.weightBased on the identification and separation from the whole image in the region separation processAchromatic character formation areaThe pixel value of this pixel is corrected.
Thereby, for example, when the input characteristics of the image input means are constant or known, without calculating the correction information every time the image input means gives the whole image,Achromatic character formation areaBased on pixel value of pixel of sample imageweightEstimate thisweightThe pixel value of the pixel of the sample image corrected based on the above can be stored in advance. Thus, the corrected sample image pixels stored in advance are stored in advance.concentrationBy using the value, discriminated and separatedAchromatic character formation areaOf pixelsconcentrationThe value can be corrected with high accuracy. Thereby, the processing amount of the image processing apparatus can be reduced as much as possible, and the processing speed can be improved.
[0027]
The present invention is also a program for causing a computer to execute the above-described image processing method.
[0028]
According to the present invention,Weights representing the strength of connections between neurons in a neural networkOn the basis of the,Achromatic character formation areaOf pixelsconcentrationBy representing the image processing method for correcting the value by a program, it is possible to cause the computer to execute processing according to the above-described image processing method. By causing the computer to execute processing according to the image processing method,Achromatic character formation areaCan be accurately reproduced.
[0029]
The present invention is also a computer-readable recording medium on which the aforementioned program is recorded.
[0030]
According to the present invention,Weights representing the strength of connections between neurons in a neural networkOn the basis of the,Achromatic character formation areaOf pixelsconcentrationA program for causing a computer to execute an image processing method for correcting a value is recorded on a computer-readable recording medium. For example, by recording the program on a portable recording medium such as a flexible disk, the program can be read from the recording medium to a desired computer, and the program can be read from the recording medium to the computer. Can be executed.
[0031]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram illustrating a configuration of a black
[0032]
The
[0033]
The
[0034]
The A /
[0035]
The input
[0036]
The region
[0037]
The character area determination unit 21 determines whether each pixel of the entire image belongs to the character area. Further, the character area determination unit 21 determines whether the pixel belonging to the character area belongs to an achromatic character area in which the character is displayed in an achromatic color or a chromatic character area in which the character is displayed in a chromatic color. The character area determination unit 21 includes an
[0038]
The chromatic /
max (C, M, Y) −min (C, M, Y) ≧ TH ... chromatic color (1)
max (C, M, Y) -min (C, M, Y) <TH ... achromatic ... (2)
[0039]
The signal determination unit 27 determines whether each pixel of the entire image belongs to an achromatic character region or a chromatic character region. Specifically, the signal determination unit 27 determines that the pixel of interest is an achromatic character region and a chromatic color based on the edge signal from the
[0040]
The halftone dot
[0041]
The halftone dot
Dmax−Dave> B1 (3)
Dave-Dmin> B2 (4)
Kr> Tr (5)
Kv> Tv (6)
[0042]
As shown in the conditional expressions (3) to (6), the value obtained by subtracting the average density value Dave from the maximum density value Dmax is larger than the threshold value B1, and the value obtained by subtracting the minimum density value Dmin from the average density value Dave is the threshold value. If the change point number Kr in the main scanning direction is larger than the threshold value Tr and the change point number Kv in the sub-scanning direction is larger than the threshold value Tv, the halftone dot
[0043]
The
[0044]
The black generation and under
[0045]
As an example of the black generation process, there is a method of generating black by skeleton black. In this method, for example, the function representing the input / output characteristics of the skeleton curve is set to y = f (x), and the cyan density value is set to C, with respect to the cyan, magenta, and yellow density values before the undercolor removal processing. The magenta density value is M, and the yellow density value is Y. Further, assuming that the black density value generated in the black generation process is K, and for each density value of cyan, magenta and yellow after the undercolor removal process, the cyan density value is C1, the magenta density value is M1, and yellow. The density value of Y is Y1, and the undercolor removal rate is α (0 <α <1). The black generation and under
K = f {min (C, M, Y)} (7)
C1 = C−αK (8)
M1 = M−αK (9)
Y1 = Y−αK (10)
[0046]
The black density value is calculated based on a function representing the input / output characteristics of the skeleton curve and the minimum density value among the cyan, magenta, and yellow density values of the pixel, as in Expression (7). The cyan density value after the under color removal process is obtained by subtracting the product of the under color removal rate and the generated black density value from the cyan density value before the under color removal process as shown in Expression (8). Calculated. The magenta density value after the under color removal process is obtained by subtracting the product of the under color removal rate and the generated black density value from the magenta density value before the under color removal process, as shown in Equation (9). Calculated. The density value of yellow after the under color removal process is obtained by subtracting the product of the under color removal rate and the generated black density value from the density value of yellow before the under color removal process as shown in Expression (10). Calculated. The black generation and under
[0047]
The spatial
[0048]
The output
[0049]
The
[0050]
The black generation and under
[0051]
Each color
[0052]
For example, it is assumed that the correction of the density value for the
[0053]
Assuming that the pixel of
[0054]
[Expression 1]
[0055]
In Expression (11), m represents the number of pixels related to one of the main scanning direction and the sub-scanning direction, and n represents the number of pixels related to the other of the main scanning direction and the sub-scanning direction. i represents the coordinates of the pixel of
[0056]
In performing density value correction processing by the black
Seg (i, j) ∈Achromatic character formation region (12)
[0057]
In the conditional expression (12), Seg (i, j) is a region separation result for the pixel of
[0058]
In the example of FIG. 1, each color
[0059]
Each color high
[0060]
[Expression 2]
[0061]
On the right side of Equation (13) and Equation (14), the maximum density value and the minimum density value for each color of cyan, magenta, and yellow are divided by 255, respectively. A feature vector is obtained by dividing by the maximum value of the input signal value to the black
[0062]
Each color high
[0063]
In order to facilitate understanding of the above expression (13) representing the maximum density value vector, the maximum density value vector is represented by expression (15), and the expression (14) representing the minimum density value vector is represented by expression (16). To express.
[0064]
[Equation 3]
[0065]
Each value on the right side of Expression (15) is the maximum density value for each color of cyan, magenta, and yellow when the
[0066]
In the example of FIG. 1, each color high
[0067]
In the example of FIG. 1, each color low
[0068]
Each color neural network 34 has correction information for correcting the pixel values of the pixels in the specific image area based on the acquired maximum pixel value and minimum pixel value and preset maximum target value and minimum target value. And the pixel value of the pixel in the specific image area is corrected based on the correction information. The maximum target value is a value used for correcting the maximum pixel value. The minimum target value is a value used to correct the minimum pixel value. Specifically, each color neural network 34 includes a value relating to each color of the maximum density value vector and a value relating to each color of the minimum density value vector, and a maximum target value and a minimum target value set in advance for each color of cyan, magenta and yellow. Based on the above, the correction information is calculated. Each color neural network 34 corrects the density value of the pixels in the achromatic character forming area based on the calculated correction information. Based on the density value corrected by each color neural network 34, the black density value in the achromatic character formation region is calculated by the black generation process. Each color neural network 34 includes each
[0069]
FIG. 5 is a diagram for explaining a
[0070]
When a specific
[0071]
The maximum target value and the minimum target value stored as teacher data by each
[0072]
[Expression 4]
[0073]
In Expression (17), the maximum density value for each color of cyan, magenta, and yellow obtained from the high density portion of the
[0074]
[Table 1]
[0075]
In Table 1, each
[0076]
In the example of FIG. 1, each
[0077]
FIG. 7 is a block diagram showing the
[0078]
As shown in FIG. 7, the
[0079]
In updating the weights in the
[0080]
Each
(Output value) = f (Input sum) (19)
[0081]
With respect to the sigmoid function described above, an output value corresponding to an input value is set in advance as a look-up table (abbreviated as LUT).
[0082]
Thirdly, when an input vector is given to each
(New weight) = (previous weight) + α × δ × (neuron output) (20)
[0083]
On the right side of Equation (20), the first term is the weight before being updated, and the second term is the integration of a predetermined constant α (0 <α <1), coefficient δ, and neuron output value. It is the value. The coefficient δ is a value called a learning signal or a differential back propagation amount, and the weight in the
δ = (output) × [1− (output)]
× [(Teacher data)-(Neuron output)] (21)
δ = (output) × [1− (output)]
× (Weighted sum of δ from the next layer) (22)
[0084]
When updating the weights of the
[0085]
Fifth, the
[0086]
In the example of FIG. 1, each
[0087]
Each
[0088]
In the example of FIG. 1, each
[0089]
FIG. 8 is a flowchart showing a processing procedure performed by the black
[0090]
The information calculation step is a step of calculating correction information for correcting the pixel value of the pixel in the specific image region based on the maximum density value, the minimum density value, the maximum target value, and the minimum target value. The maximum target value is a value set in advance for each color used to correct the maximum density value for each color of cyan, magenta, and yellow. The minimum target value is a value set in advance for each color used to correct the minimum density value for each color of cyan, magenta, and yellow. In the information calculation step, the correction information is calculated using the
[0091]
In step s0, a processing procedure according to the image processing method of this embodiment is started, and the process proceeds to step s1. In step s1, the black
[0092]
In step s <b> 2, each color
[0093]
In the maximum pixel value acquisition step and the minimum pixel value acquisition step of step s3, each color high
[0094]
In the information calculation process of step s4, each
[0095]
In the correction process of step s5, each
[0096]
FIG. 9 is a graph showing the relationship between the number of iterations time and the error amount energy related to cyan. FIG. 10 is a graph showing the relationship between the cyan input signal value and the cyan correction signal value when the iteration number time in FIG. 9 is 50,000. FIG. 11 is a graph showing the relationship between the number of iterations time and the error amount energy related to magenta. FIG. 12 is a graph showing the relationship between the magenta input signal value and the magenta correction signal value when the number of iterations time in FIG. 11 is 50,000. FIG. 13 is a graph showing the relationship between the number of iterations time and the error amount energy related to yellow. FIG. 14 is a graph showing the relationship between the input signal value for yellow and the correction signal value for yellow when the number of repetitions time in FIG. 13 is 50,000. As an example of correction processing by the black
[0097]
[Table 2]
[0098]
In Table 2,
[0099]
Using the obtained input data and teacher data, the weight in the
[0100]
The horizontal axis in FIG. 10 is the input signal value for cyan. The vertical axis in FIG. 10 is the correction signal value for cyan. The input signal value for cyan represents a density value related to cyan of the pixels in the achromatic character forming region given to the
[0101]
The horizontal axis in FIG. 11 is the number of iterations, and the unit is “times”. The vertical axis in FIG. 11 is an error amount energy related to magenta. The error amount related to magenta is the output value of the
[0102]
The horizontal axis in FIG. 12 represents the magenta input signal value. The vertical axis in FIG. 12 is the magenta correction signal value. The magenta input signal value represents a density value related to magenta of the pixels in the achromatic character forming area provided to the
[0103]
The horizontal axis in FIG. 13 is the number of iterations, and the unit is “times”. The vertical axis in FIG. 13 is the error amount energy related to yellow. The error amount related to yellow is the output value of the
[0104]
The horizontal axis in FIG. 14 is the yellow input signal value. The vertical axis in FIG. 14 is the yellow correction signal value. The yellow input signal value represents a density value relating to yellow of the pixels in the achromatic character forming region provided to the yellow correcting
[0105]
As shown in Expression (23), the corrected signal value is given as an output value when the input signal value is used as an input value with respect to a function representing a conversion graph.
[0106]
[Equation 5]
[0107]
In order to facilitate understanding, Expression (23) collectively expresses the correction signal value, the function representing the conversion graph, and the input signal value for each color of cyan, magenta, and yellow. For example, the correction signal value for cyan is given as an output value when the input signal value for cyan is used as the input value for the function representing the cyan conversion graph. The magenta correction signal value is given as an output value when the magenta input signal value is used as an input value for the function representing the magenta conversion graph. The correction signal value for yellow is given as an output value when the input signal value for yellow is used as the input value for the function representing the conversion graph for yellow. The black generation amount representing the black density value can be controlled using one of the functions representing the cyan, magenta, and yellow conversion graphs. For example, when the black generation amount is controlled using a function representing a magenta conversion graph, the function representing the input / output characteristics of the skeleton curve is replaced with a function representing the magenta conversion graph. As a result, the black generation amount can be controlled in accordance with the thickness of the character. Therefore, it is necessary to add more black ink, which is a black color material, to thin characters compared to thick characters, so that the density of thin characters can be increased and the density difference between thin characters and thick characters can be eliminated. Can do.
[0108]
FIG. 15 is a diagram for explaining the
[0109]
The density histogram in FIG. 17 shows the relationship between the density value and the frequency for the
[0110]
The density cross section in FIG. 19 shows the relationship between the density cross section position and the density value for the
[0111]
The density cross section related to the
[0112]
In the density section related to the corrected
[0113]
Since the
[0114]
According to the present embodiment, an entire image including pixels having pixel values related to a plurality of colors is given by the
[0115]
Further, according to the present embodiment, the minimum density value, which is the minimum pixel value, is acquired by each color low
[0116]
Furthermore, according to the present embodiment, each
[0117]
Furthermore, according to the present embodiment, the maximum target value is set based on the input characteristics of the
[0118]
Furthermore, according to the present embodiment, the
[0119]
Further, according to the present embodiment, a plurality of image regions are identified and separated from the entire image provided by the
[0120]
Furthermore, according to the present embodiment, the minimum density value is acquired in the minimum pixel value acquisition step with respect to the achromatic character formation region. Based on the minimum density value and the maximum density value acquired in the minimum pixel value acquisition process, and the minimum target value and the maximum target value, correction information is calculated in the information calculation process. Thus, the correction information is calculated in consideration of the minimum density value and the minimum target value in addition to the maximum density value and the maximum target value. Accordingly, it is possible to correct a reading error that occurs when the original image is read so that the maximum density value and the minimum density value are respectively the original density values. Therefore, it is possible to accurately correct the density value of the pixels in the achromatic character forming area and to accurately reproduce the contrast of the specific image area in the entire image.
[0121]
Furthermore, according to the present embodiment, in the information calculation step, correction information is calculated using the
[0122]
Furthermore, according to the present embodiment, since the maximum target value is set based on the input characteristics of the
[0123]
In the present embodiment, the black generation and under
[0124]
FIG. 21 is a block diagram illustrating a configuration of a black gradation correction unit 30A included in the image processing apparatus 3A of the
[0125]
Providing a lookup table in advance in this way is effective when input characteristics such as resolution performance of the
[0126]
Specifically, using the
[0127]
The
[0128]
Among the density values of the pixels in the achromatic character forming region in the entire image from the
[0129]
Based on the acquired maximum density value and minimum density value, each
[0130]
By storing the pixel density values corrected using the sample image as a lookup table as described above, the correction information is calculated and corrected each time the entire image is given. This can be improved without reducing the processing speed of the processing. Accordingly, it is possible to realize the image processing apparatus 3A that can perform high-speed correction processing and can accurately correct the above-described effect, that is, the density value of the pixels in the achromatic character forming region.
[0131]
Also, since the gamma correction is performed to correct the density value using a uniform correction curve for the entire image, the gap amount is reduced compared to the case where the black generation amount is controlled in units of areas, and the original image is smoothed. Can be reproduced.
[0132]
FIG. 22 is a flowchart showing a processing procedure by the black gradation correction unit 30A and the black generation and under
[0133]
In step a0, a processing procedure according to the image processing method of the present embodiment is started, and the process proceeds to step a1. In step a1, the black gradation correction unit 30A performs the same process as in step s1 of FIG. If it is determined in step a1 that the
[0134]
In the maximum pixel value acquisition process and the minimum pixel value acquisition process of step a3, each color high
[0135]
In step a4, each
[0136]
According to the present embodiment, based on the maximum density value of the sample image of the achromatic character forming area, which is a predetermined specific image area, and the preset maximum target value for correcting the maximum pixel value. The density value of the pixel of the sample image corrected by the calculated correction information is stored in each
[0137]
Further, according to the present embodiment, in the information storing step, based on the maximum density value of the sample image in the achromatic character forming area and the preset maximum target value for correcting the maximum density value. The density values of the pixels of the sample image corrected by the calculated correction information are stored in each
[0138]
In the present embodiment, the black generation and under
[0139]
In each embodiment of the present invention, the local mask in the region
[0140]
FIG. 23 is a diagram showing a configuration of a
[0141]
In the
[0142]
The image display device 78 is a device for displaying a processing result by the computer 76, and for example, a cathode ray tube display (abbreviated as CRT) display and a liquid crystal display are used. The image input device 79 is a device that reads an image formed on a document, and for example, a flatbed scanner, a film scanner, and a digital camera are used. The
[0143]
The
[0144]
The
[0145]
Further, a mask ROM, an EPROM (abbreviated as EPROM), an EPROM (abbreviated as EEPROM), and a flash ROM (Flash Read Only Memory), which are semiconductor memories, are used as the
[0146]
The
[0147]
According to the present embodiment, the image processing method for correcting the density value of the pixel in the achromatic character forming area which is the specific image area based on the correction information is represented by the
[0148]
Further, according to the present embodiment, the
[0149]
【The invention's effect】
According to the present invention, an entire image including pixels having pixel values relating to a plurality of colors is given by the image input means. A plurality of image areas are identified and separated from the whole image by the area separating means. Among the image regions to be separated, the maximum pixel value is acquired by the maximum pixel value acquisition unit with respect to a predetermined specific image region. Based on the acquired maximum pixel value and a preset maximum target value for correcting the maximum pixel value, correction information is calculated by the information calculation means. The correction information is information for correcting the pixel value of the pixel in the specific image area. Based on the calculated correction information, the pixel value of the pixel in the specific image area is corrected by the correcting means. By using the correction information, the pixel value of the pixel in the specific image area can be corrected so that the maximum pixel value in the specific image area becomes the original pixel value. As a result, for example, a reading error generated when reading an image formed on a document can be corrected to eliminate the reading error. Therefore, the pixel values of the pixels in the specific image area can be accurately corrected so that the pixel values to be given by the image input means are obtained.
[0150]
According to the invention, the minimum pixel value is acquired by the minimum pixel value acquisition means for the specific image area. A minimum pixel value acquired by the minimum pixel value acquisition means, a preset minimum target value for correcting the minimum pixel value, a maximum pixel value, and a value for correcting the maximum pixel value Based on the preset maximum target value, the correction information is calculated by the information calculation means. Thus, the correction information is calculated in consideration of the minimum pixel value and the minimum target value in addition to the maximum pixel value and the maximum target value. Accordingly, it is possible to correct a reading error that occurs when reading a specific image area in the entire image so that the maximum and minimum pixel values become the original pixel values. Therefore, it is possible to accurately reproduce the contrast of the specific image area in the entire image after accurately correcting the pixel value of the pixel in the specific image area.
[0151]
According to the present invention, the information calculation means includes a neural network. For example, when calculating correction information using a spline function, it is necessary to calculate the correction information using a higher-order function, so that the calculation becomes complicated and in order to realize a calculation means for performing the calculation costly. Since the information calculation means includes a neural network, the correction information can be calculated easily and accurately by repeating simple product-sum operations. Accordingly, accurate correction information can be easily obtained, and the cost required for realizing the information calculation means can be reduced as much as possible.
[0152]
According to the present invention, since the maximum target value is set based on the input characteristics of the image input means, the correction information corresponding to the image input means can be accurately calculated. For example, when the specific image area is a character formation area, the density of characters in the character formation area is uniform regardless of the thickness of the character and is the maximum in the character area, and the density of the background area is uniform. It is the smallest in the manner. When the character forming area in the entire image is read, it can be assumed that the pixel value of the pixel corresponding to the character is the maximum pixel value in the character forming area, and the density value of the pixel corresponding to the background is minimum. Thereby, the maximum target value and the minimum target value, which are the original pixel values, can be set in advance. As described above, when the target value for correcting the pixel value of the pixel in the specific image region is known, the target value is set in advance by reading the entire image including the pixel having the target value with the image input unit. Can be set. As a result, the correction information can be accurately calculated.
[0153]
Further, according to the present invention, correction is performed using correction information calculated based on a maximum pixel value of a sample image in a predetermined specific image area and a preset maximum target value for correcting the maximum pixel value. The pixel values of the pixels of the sample image thus obtained are stored in the storage means. The pixel value of the pixel of the specific image area identified and separated by the area separating unit is corrected by the correcting unit based on the pixel value of the pixel of the corrected sample image stored in the storage unit. Thus, for example, when the input characteristics of the image input means are constant or known, the pixel value of the sample image pixel in the specific image area is not calculated every time the image input means gives the entire image. Correction information can be estimated based on this, and the pixel value of the pixel of the sample image corrected based on this correction information can be stored in advance. By using the pixel value of the pixel of the corrected sample image stored in advance as described above, the pixel value of the pixel in the specific image region identified and separated from the entire image by the region separation unit can be accurately corrected. Thereby, the processing amount of the image processing apparatus can be reduced as much as possible, and the processing speed can be improved.
[0154]
According to the present invention, since the image forming apparatus includes the above-described image processing apparatus, the pixel value of the pixel in the specific image region can be accurately corrected so as to be the original pixel value. As a result, an image forming apparatus capable of accurately reproducing a specific image area in the entire image can be realized.
[0155]
According to the invention, the whole image including pixels having pixel values relating to a plurality of colors is given by the image input means. From this entire image, a plurality of image regions are identified and separated in the region separation step. Of the image regions separated in the region separation step, the maximum pixel value is acquired in the maximum pixel value acquisition step for a predetermined specific image region. Based on the acquired maximum pixel value and a preset maximum target value for correcting the maximum pixel value, correction information is calculated in the information calculation step. The correction information is information for correcting the pixel value of the pixel in the specific image area. Based on the calculated correction information, the pixel value of the pixel in the specific image region is corrected in the correction step. By using the correction information, it is possible to correct a reading error that occurs when the specific image area in the entire image is read so that the maximum pixel value in the specific image area becomes a pixel value to be given by the image input means. . As a result, the pixel value of the pixel in the specific image region can be accurately corrected so that the reading error is eliminated and the original pixel value is obtained.
[0156]
According to the invention, the minimum pixel value is acquired in the minimum pixel value acquisition step for the specific image region. A minimum pixel value acquired in the minimum pixel value acquisition step, a preset minimum target value for correcting the minimum pixel value, a maximum pixel value, and a correction for correcting the maximum pixel value Based on the preset maximum target value, correction information is calculated in the information calculation step. Thus, the correction information is calculated in consideration of the minimum pixel value and the minimum target value in addition to the maximum pixel value and the maximum target value. Accordingly, it is possible to correct a reading error that occurs when reading a specific image area in the entire image so that the maximum and minimum pixel values become the original pixel values. Therefore, the pixel value of the pixel in the specific image area can be accurately corrected, and the contrast of the specific image area in the entire image can be accurately reproduced.
[0157]
According to the invention, in the information calculation step, correction information is calculated using a neural network. For example, when calculating correction information using a spline function, it is necessary to calculate the correction information using a higher-order function, so that the calculation becomes complicated and in order to realize a calculation means for performing the calculation costly. Since the neural network is used in the information calculation step, the correction information can be calculated easily and accurately by repeating simple product-sum operations. Accordingly, accurate correction information can be easily obtained, and the cost required for realizing the information calculation means can be reduced as much as possible.
[0158]
According to the present invention, since the maximum target value is set based on the input characteristics of the image input means, the correction information corresponding to the image input means can be accurately calculated. For example, when the specific image region is a character forming region, the characters in the character forming region are represented by pixels having a uniform density regardless of the thickness of the character and having the maximum pixel value. Thus, the maximum target value that is the original pixel value can be known in advance. Thus, when the maximum target value is known, the maximum target value can be set in advance by reading the entire image including the pixel having the maximum target value with the image input means. As a result, the correction information can be accurately calculated.
[0159]
According to the invention, in the information storing step, the calculation is performed based on the maximum pixel value of the sample image in the predetermined specific image area and the preset maximum target value for correcting the maximum pixel value. The pixel value of the pixel of the sample image corrected by the correction information is stored in the storage unit. In the correction step, the pixel value of the pixel in the specific image region identified and separated from the entire image in the region separation step is corrected based on the pixel value of the pixel of the corrected sample image stored in the storage unit. Thus, when the input characteristics of the image input means are constant or known, the correction information is estimated using the sample image of the specific image area without calculating the correction information every time the image input means gives the whole image. The pixel values of the pixels of the sample image corrected based on the correction information can be stored in advance. By using the pixel value of the pixel of the corrected sample image stored in advance as described above, the pixel value of the pixel in the specific image region that has been identified and separated can be accurately corrected. Thereby, the processing amount of the image processing apparatus can be reduced as much as possible, and the processing speed can be improved.
[0160]
According to the present invention, the image processing method for correcting the pixel value of the pixel in the specific image region based on the correction information is represented by a program, whereby the computer can execute processing according to the above-described image processing method. By causing the computer to execute processing according to the image processing method, it is possible to accurately reproduce the image represented by the specific image region in the document.
[0161]
Further, according to the present invention, a program for causing a computer to execute an image processing method for correcting a pixel value of a pixel in a specific image area based on the correction information is recorded on a computer-readable recording medium. For example, by recording the program on a portable recording medium such as a flexible disk, the program can be read from the recording medium to a desired computer, and the program can be read from the recording medium to the computer. Can be executed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a black
FIG. 2 is a block diagram illustrating a configuration of the entire
FIG. 3 is a block diagram showing a configuration of a region
FIG. 4 is a diagram for explaining local color masks 35 formed by a black
FIG. 5 is a diagram for explaining a
FIG. 6 is a diagram for explaining a teacher document 50A for setting teacher data.
7 is a block diagram showing a
FIG. 8 is a flowchart illustrating a processing procedure performed by a black
FIG. 9 is a graph showing the relationship between the number of iterations time and the error amount energy related to cyan.
10 is a graph showing a relationship between an input signal value for cyan and a correction signal value for cyan when the number of iterations time in FIG. 9 is 50,000. FIG.
FIG. 11 is a graph showing the relationship between the number of iterations time and the error amount energy related to magenta.
12 is a graph showing the relationship between the magenta input signal value and the magenta correction signal value when the number of iterations time in FIG. 11 is 50,000. FIG.
FIG. 13 is a graph showing the relationship between the number of iterations time and the error amount energy related to yellow.
14 is a graph showing a relationship between a yellow input signal value and a yellow correction signal value when the number of repetition times in FIG. 13 is 50,000.
FIG. 15 is a diagram for explaining an
FIG. 16 is a diagram for explaining a corrected
FIG. 17 is a density histogram related to an
FIG. 18 is a density histogram related to a corrected
19 is a concentration cross section taken along a
20 is a concentration cross section taken along a
FIG. 21 is a block diagram illustrating a configuration of a black gradation correction unit 30A included in the image processing apparatus 3A of the
FIG. 22 is a flowchart illustrating a processing procedure performed by a black gradation correction unit 30A and a black generation and under
FIG. 23 is a diagram showing a configuration of a
[Explanation of symbols]
1,1A image forming apparatus
2 Image input device
3,3A image processing device
13 Region separation processing unit
15,15A Black generation under color removal part
30,30A Black gradation correction part
32 Each color high density acquisition part
33 Low density acquisition unit for each color
34 Each color neural network
38, 71 each color memory
39 Each color learning section
40 and 72 color correction units
55 Neural network
75 Computer system
76 computers
83 Recording media
84 programs
Claims (9)
分離される画像領域のうち、無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最大濃度値を取得する最大画素値取得手段と、
前記無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最小濃度値を取得する最小画素値取得手段と、
神経回路網を含んで構成され、取得される最大濃度値と、前記最大濃度値を補正するために用いられる予め教師データによって設定される最大目標値と、取得される最小濃度値と、前記最小濃度値を補正するために用いられる予め教師データによって設定される最小目標値とに基づいて、最大濃度値と最大目標値との誤差、最小濃度値と最小目標値との誤差が無くなるように学習によって神経回路網中のニューロン間の結合強さを表す重みを演算して更新する情報演算手段と、
更新された重みに基づいて、前記無彩文字形成領域の画素の濃度値を補正する補正手段とを含むことを特徴とする画像処理装置。Area separation means for discriminating and separating a plurality of image areas from an entire image including pixels having pixel values relating to a plurality of colors, which are given by the image input means;
A maximum pixel value acquisition means for acquiring a maximum density value for each color local block including the target pixel belonging to the achromatic character formation region among the image regions to be separated;
Minimum pixel value acquisition means for acquiring a minimum density value for each color local block including the target pixel belonging to the achromatic character formation region;
A maximum density value acquired including a neural network, a maximum target value set in advance by teacher data used to correct the maximum density value, a minimum density value acquired, and the minimum Based on the minimum target value set in advance by the teacher data used to correct the density value, learning is made so that there is no error between the maximum density value and the maximum target value and between the minimum density value and the minimum target value. Information calculating means for calculating and updating weights representing the strength of connection between neurons in the neural network ,
An image processing apparatus comprising: a correction unit that corrects a density value of a pixel in the achromatic character forming region based on the updated weight .
前記補正手段は、記憶されている重みに基づいて、前記無彩文字形成領域の画素の濃度値を補正することを特徴とする請求項1または2記載の画像処理装置。 Storage means for storing the weight updated by the information calculation means by learning using a sample image in advance;
The image processing apparatus according to claim 1 , wherein the correction unit corrects a density value of a pixel in the achromatic character forming region based on a stored weight .
分離される画像領域のうち、無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最大濃度値を取得する最大画素値取得工程と、
前記無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最小濃度値を取得する最小画素値取得工程と、
取得される最大濃度値と、前記最大濃度値を補正するために用いられる予め教師データによって設定される最大目標値と、取得される最小濃度値と、前記最小濃度値を補正するために用いられる予め教師データによって設定される最小目標値とに基づいて、最大濃度値と最大目標値との誤差、最小濃度値と最小目標値との誤差が無くなるように学習によって神経回路網中のニューロン間の結合強さを表す重みを演算して更新する情報演算工程と、
更新された重みに基づいて、前記無彩文字形成領域の画素の濃度値を補正する補正工程とを含むことを特徴とする画像処理方法。A region separation step for identifying and separating a plurality of image regions from the entire image including pixels having pixel values relating to a plurality of colors, which are given by the image input means ;
A maximum pixel value acquisition step for acquiring a maximum density value for each color local block including a target pixel belonging to the achromatic character formation region among the image regions to be separated ;
A minimum pixel value acquisition step for acquiring a minimum density value for each color local block including a target pixel belonging to the achromatic character formation region;
Used to correct the acquired maximum density value, the maximum target value preset by teacher data used to correct the maximum density value, the acquired minimum density value, and the minimum density value Based on the minimum target value set in advance by the teacher data, learning eliminates the error between the maximum density value and the maximum target value, and the error between the minimum density value and the minimum target value. An information calculation step of calculating and updating a weight representing the bond strength;
Based on the updated weights, an image processing method characterized by comprising a correction step of correcting the density value of the pixel of the achromatic character formation region.
前記補正工程では、記憶されている重みに基づいて、前記無彩文字形成領域の画素の濃度値を補正することを特徴とする請求項5または6記載の画像処理方法。 An information storage step of storing the weight updated in the information calculation step by learning using a sample image in advance;
7. The image processing method according to claim 5 , wherein, in the correction step, a density value of a pixel in the achromatic character forming region is corrected based on a stored weight .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002355861A JP4139201B2 (en) | 2002-12-06 | 2002-12-06 | Image processing method, image processing apparatus, and image forming apparatus including the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002355861A JP4139201B2 (en) | 2002-12-06 | 2002-12-06 | Image processing method, image processing apparatus, and image forming apparatus including the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004193682A JP2004193682A (en) | 2004-07-08 |
JP4139201B2 true JP4139201B2 (en) | 2008-08-27 |
Family
ID=32756427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002355861A Expired - Fee Related JP4139201B2 (en) | 2002-12-06 | 2002-12-06 | Image processing method, image processing apparatus, and image forming apparatus including the same |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4139201B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101463354B1 (en) * | 2013-10-22 | 2014-11-18 | 영남대학교 산학협력단 | Apparatus for target detection of hyperspectral image and method thereof |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4830923B2 (en) * | 2007-03-13 | 2011-12-07 | Nkワークス株式会社 | Image processing apparatus and image processing method |
JP4775289B2 (en) * | 2007-03-13 | 2011-09-21 | Nkワークス株式会社 | Image processing apparatus and image processing method |
WO2023095490A1 (en) * | 2021-11-26 | 2023-06-01 | 新興窯業株式会社 | Program, information processing device, information processing method, method for generating learning model, and imaging system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3335830B2 (en) * | 1995-12-28 | 2002-10-21 | シャープ株式会社 | Image processing device |
JPH10283460A (en) * | 1997-04-04 | 1998-10-23 | Minolta Co Ltd | Image processor |
JP3789662B2 (en) * | 1998-12-11 | 2006-06-28 | 株式会社リコー | COLOR IMAGE PROCESSING DEVICE, COLOR IMAGE PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM RECORDING PROGRAM FOR CAUSING COMPUTER TO EXECUTE THE METHOD |
-
2002
- 2002-12-06 JP JP2002355861A patent/JP4139201B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101463354B1 (en) * | 2013-10-22 | 2014-11-18 | 영남대학교 산학협력단 | Apparatus for target detection of hyperspectral image and method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2004193682A (en) | 2004-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4173154B2 (en) | Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium | |
JP4495197B2 (en) | Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program | |
JPH0380767A (en) | Gradation recorder for image | |
US20090034005A1 (en) | Image processing method, image processing apparatus, image forming apparatus, image reading apparatus, and recording medium | |
JP5275325B2 (en) | Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium | |
JP4402090B2 (en) | Image forming apparatus, image forming method, program, and recording medium | |
JP3760969B2 (en) | Image forming apparatus and method | |
JPH1185978A (en) | Image processor and its method | |
JP4755532B2 (en) | Image forming apparatus | |
JP4139201B2 (en) | Image processing method, image processing apparatus, and image forming apparatus including the same | |
JP2002101298A (en) | Region separator and image processor comprising it and region separating method | |
JP2006287623A (en) | Input image correction device, method, and program, image processor, image formation apparatus, and recording medium | |
JP4549227B2 (en) | Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium | |
US8441683B2 (en) | Image processing apparatus, image processing method, and recording medium for correcting the density at an edge of an image to be printed | |
US6055331A (en) | Image processing apparatus | |
US7295344B2 (en) | Image processing method and image processing apparatus, program and recording medium, and image forming apparatus | |
JP4545167B2 (en) | Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium | |
JP4099366B2 (en) | Image processing apparatus, image reading apparatus, image forming apparatus, and image processing method | |
JP2008154131A (en) | Image forming apparatus | |
JP2005072635A (en) | Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, image processing program, and computer-readable recording medium stored with the image processing program | |
JP3967217B2 (en) | Image processing method, image processing program, recording medium recording image processing program, image processing apparatus, and image processing system | |
JP3183787B2 (en) | Halftone area determination device | |
JP4334498B2 (en) | Image processing apparatus, image forming apparatus, image processing method, and computer program | |
JP4176053B2 (en) | Image processing method, image processing apparatus, image forming apparatus, and computer program | |
JP4271644B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium recording image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050525 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071113 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080603 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080606 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4139201 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110613 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120613 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120613 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130613 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |