JP4139201B2 - Image processing method, image processing apparatus, and image forming apparatus including the same - Google Patents

Image processing method, image processing apparatus, and image forming apparatus including the same Download PDF

Info

Publication number
JP4139201B2
JP4139201B2 JP2002355861A JP2002355861A JP4139201B2 JP 4139201 B2 JP4139201 B2 JP 4139201B2 JP 2002355861 A JP2002355861 A JP 2002355861A JP 2002355861 A JP2002355861 A JP 2002355861A JP 4139201 B2 JP4139201 B2 JP 4139201B2
Authority
JP
Japan
Prior art keywords
value
image
pixel
density value
density
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002355861A
Other languages
Japanese (ja)
Other versions
JP2004193682A (en
Inventor
誠 大津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2002355861A priority Critical patent/JP4139201B2/en
Publication of JP2004193682A publication Critical patent/JP2004193682A/en
Application granted granted Critical
Publication of JP4139201B2 publication Critical patent/JP4139201B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、特定の画像領域または全体画像の画素の画素値を補正する画像処理方法、この方法を実行させるためのプログラムおよびこのプログラムを記録した記録媒体ならびに画像処理装置およびそれを備える画像形成装置に関する。
【0002】
【従来の技術】
近年、オフィスオートメーション(Office Automation;略称OA)機器のデジタル化が急速に進展するとともに、無彩色に加えて有彩色で表される画像を記録材に形成して出力するカラー画像出力の需要が増している。カラー画像出力する画像出力装置には、電子写真方式のデジタルカラー複写機ならびにインクジェット方式および熱転写方式のカラープリンタなどがある。たとえばデジタルカメラおよびスキャナなどによって与えられた画像データ、あるいはコンピュータによって作成された画像データが、前述の画像出力装置に与えられて、画像が記録材に形成される。入力された画像データに基づいて画像を記録材に形成する場合、画像は濃度の再現性が常に安定した状態で形成されることが必要である。画像の濃度の再現性を常に安定させるために、入力された画像データから複数の画像領域に分離して、分離された画像領域に対して画素の濃度値を補正する必要がある。従来の技術のカラー画像処理装置では、原稿から読取った画像の文字領域から文字の細線度合いが算出され、その細線度合いに応じて墨生成量が制御されている(たとえば特許文献1参照)。細線度合いは、線の幅が小さく線が細いほど大きい値をとる特徴量である。カラー画像処理装置は、この細線度合いを用いて、墨生成量を制御することによって、文字の濃度の再現性をできるだけ均一になるように制御している。
【0003】
【特許文献1】
特開平11−69174号公報
【0004】
【発明が解決しようとする課題】
従来の技術のカラー画像処理装置では、文字の太さに拘わらず均一に再現をしたい文字領域に対して不均一性に関連する特徴量である線の幅から墨生成量を制御する。たとえば線の幅が小さく細い文字と判断された場合、その文字に対して一様に墨量が足されてしまう。このように線の幅に応じて、決まった墨量が必ず与えられるので、原稿に形成される文字の濃度と同一にならない場合があり、原稿に形成される画像を精度良く再現することができない。
【0005】
したがって本発明の目的は、原稿に形成される画像、たとえば文字を精度良く再現することができる画像処理方法、この方法を実行させるためのプログラムおよびこのプログラムを記録した記録媒体ならびに画像処理装置およびこれを備える画像形成装置を提供することである。
【0006】
【課題を解決するための手段】
本発明は、画像入力手段によって与えられ、かつ複数の色に関する画素値を有する画素を含む全体画像から、複数の画像領域を識別分離する領域分離手段と、
分離される画像領域のうち、無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最大濃度値を取得する最大画素値取得手段と、
前記無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最小濃度値を取得する最小画素値取得手段と、
神経回路網を含んで構成され、取得される最大濃度値と、前記最大濃度値を補正するために用いられる予め教師データによって設定される最大目標値と、取得される最小濃度値と、前記最小濃度値を補正するために用いられる予め教師データによって設定される最小目標値とに基づいて、最大濃度値と最大目標値との誤差、最小濃度値と最小目標値との誤差が無くなるように学習によって神経回路網中のニューロン間の結合強さを表す重みを演算して更新する情報演算手段と、
更新された重みに基づいて、前記無彩文字形成領域の画素の濃度値を補正する補正手段とを含むことを特徴とする画像処理装置である。
【0007】
本発明に従えば、複数の色に関する画素値を有する画素を含む全体画像が、画像入力手段によって与えられる。この全体画像から、複数の画像領域が領域分離手段によって識別分離される。分離される画像領域のうち、無彩文字形成領域に関して、無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最大濃度値が最大画素値取得手段によって取得される。同様に無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最小濃度値が最小画素値取得手段によって取得される。最大濃度値と最大目標値との誤差、最小濃度値と最小目標値との誤差が無くなるように学習によって神経回路網中のニューロン間の結合強さを表す重みが情報演算手段によって演算される。演算された重みに基づいて、無彩文字形成領域の画素の濃度値が補正手段によって補正される。無彩文字形成領域における最大濃度、最小濃度値が元々有している本来の画素値になるように、無彩文字形成領域の画素の濃度値を補正することができる。
これによってたとえば原稿に形成される画像を読取るときに生じた読取り誤差を補正して、読取り誤差を無くすことができる。したがって本来の画素値になるように、無彩文字形成領域の画素の濃度値を精度良く補正することができる。
【0009】
無彩文字形成領域における最大濃度値、最小濃度値が元々有している本来の画素値になるように補正することで、無彩文字形成領域の画素の濃度値を正確に補正したうえで、全体画像における特定画像領域のコントラストを正確に再現することができる。
【0011】
また、前記情報演算手段は、神経回路網を含んで構成される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。情報演算手段が神経回路網を含んで構成されるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、情報演算手段を実現するために要するコストを可及的に削減することができる。
【0012】
また本発明は、前記最大目標値および最小目標値は、教師用原稿を用いて教師データを取り込むことで画像入力手段の入力特性に基づいて設定されることを特徴とする。
【0013】
本発明に従えば、前記最大目標値および最小目標値は、教師用原稿を用いて教師データを取り込むことで画像入力手段の入力特性に基づいて設定されるので、画像入力手段に応じた補正情報を正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字形成領域の文字は、その濃度が文字の太さに拘わらず一様でありかつ文字領域において最大となるとともに、下地領域は、その濃度が一様であり最小となる。全体画像における文字形成領域を読み取った場合、文字に対応する画素の画素値は、文字形成領域において最大の画素値になり、下地に対応する画素の濃度値は最小になると想定することができる。これによって本来の画素値である最大目標値および最小目標値を予め設定することができる。このように特定画像領域の画素の画素値を補正するための目標値が既知である場合には、目標値を有する画素を含む全体画像を、画像入力手段で読込んでおくことによって、目標値を予め設定することができる。これによって補正情報を正確に演算することができる。
【0014】
また本発明は、予めサンプル画像を用いた学習によって、前記情報演算手段が更新した前記重みを記憶しておく記憶手段を有し、
前記補正手段は、記憶されている重みに基づいて、前記無彩文字形成領域の画素の濃度値を補正することを特徴とする
【0015】
本発明に従えば、予めサンプル画像を用いた学習によって、前記情報演算手段が更新した前記重みが記憶手段に記憶される。無彩文字形成領域の画素の濃度値が、記憶手段に記憶される重みに基づいて、補正手段によって補正される。これによって、たとえば画像入力手段の入力特性が一定または既知である場合には、画像入力手段が全体画像を与えるたびに補正情報を演算することなく、無彩文字形成領域のサンプル画像の画素の画素値に基づいて重みを推定し、この重みに基づいて補正したサンプル画像の画素の画素値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の濃度値を用いることによって、全体画像から無彩文字形成領域の画素の濃度値を精度良く補正することができる。これによって画像処理装置による処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0016】
また本発明は、前述の画像処理装置を備える画像形成装置である。
本発明に従えば、画像形成装置は、前述の画像処理装置を備えるので、特定画像領域の画素の画素値を、本来の画素の画素値になるように精度良く補正することができる。これによって全体画像における特定画像領域を正確に再現することが可能な画像形成装置を実現することができる。
【0017】
また本発明は、画像入力手段によって与えられ、かつ複数の色に関する画素値を有する画素を含む全体画像から、複数の画像領域を識別分離する領域分離工程と、
分離される画像領域のうち、無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最大濃度値を取得する最大画素値取得工程と、
前記無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最小濃度値を取得する最小画素値取得工程と、
取得される最大濃度値と、前記最大濃度値を補正するために用いられる予め教師データによって設定される最大目標値と、取得される最小濃度値と、前記最小濃度値を補正するために用いられる予め教師データによって設定される最小目標値とに基づいて、最大濃度値と最大目標値との誤差、最小濃度値と最小目標値との誤差が無くなるように学習によって神経回路網中のニューロン間の結合強さを表す重みを演算して更新する情報演算工程と、
更新された重みに基づいて、前記無彩文字形成領域の画素の濃度値を補正する補正工程とを含むことを特徴とする画像処理方法である。
【0018】
本発明に従えば、複数の色に関する画素値を有する画素を含む全体画像が、画像入力手段によって与えられる。この全体画像から、複数の画像領域が領域分離工程で識別分離される。領域分離工程で分離される画像領域のうち、無彩文字形成領域に関して、無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最大濃度値が最大画素値取得工程で取得される。同様に無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最小濃度値が最小画素値取得工程で取得される。最大濃度値と最大目標値との誤差、最小濃度値と最小目標値との誤差が無くなるように学習によって神経回路網中のニューロン間の結合強さを表す重みが情報演算工程で演算される。演算された重みに基づいて、無彩文字形成領域の画素の濃度値が補正工程で補正される。無彩文字形成領域における最大濃度、最小濃度値が元々有している本来の画素値になるように、無彩文字形成領域の画素の濃度値を補正することができる。
これによって読取り誤差を無くして、本来の画素値になるように、無彩文字形成領域の画素の濃度値を精度良く補正することができる。
【0020】
大および最小の濃度値が、それぞれ本来の濃度値になるように、全体画像における無彩文字形成領域を読取るときに生じた読取り誤差を補正することができる。したがって無彩文字形成領域の画素の濃度値を精度良く補正することができるとともに、全体画像における特定画像領域のコントラストを正確に再現することができる。
【0022】
また、前記情報演算工程では、神経回路網を用いて補正情報が演算される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。情報演算工程では、神経回路網を用いるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、情報演算手段を実現するために要するコストを可及的に削減することができる。
【0023】
また本発明は、前記最大目標値および最小目標値は、教師用原稿を用いて教師データを取り込むことで画像入力手段の入力特性に基づいて設定されることを特徴とする。
【0024】
本発明に従えば、前記最大目標値および最小目標値は、教師用原稿を用いて教師データを取り込むことで画像入力手段の入力特性に基づいて設定されるので、画像入力手段に応じた補正情報を正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字形成領域の文字は、その濃度が文字の太さに拘わらず一様であり、かつ最大の画素値を有する画素によって表される。これによって本来の画素値である最大目標値を予め知ることができる。このように最大目標値が既知である場合には、最大目標値を有する画素を含む全体画像を、画像入力手段で読込んでおくことによって、最大目標値を予め設定することができる。これによって補正情報を正確に演算することができる。
【0025】
また本発明は、予めサンプル画像を用いた学習によって、前記情報演算工程で更新した前記重みを記憶しておく情報記憶工程をさらに含み、
前記補正工程では、記憶されている重みに基づいて、前記無彩文字形成領域の画素の濃度値を補正することを特徴とする
【0026】
本発明に従えば、情報記憶工程では、予めサンプル画像を用いた学習によって、前記情報演算手段が更新した前記重みが記憶手段に記憶される。補正工程では、記憶手段に記憶される重みに基づいて、領域分離工程で全体画像から識別分離された無彩文字形成領域の画素の画素値が補正される。
これによって、たとえば画像入力手段の入力特性が一定または既知である場合には、画像入力手段が全体画像を与えるたびに補正情報を演算することなく、無彩文字形成領域のサンプル画像の画素の画素値に基づいて重みを推定し、この重みに基づいて補正したサンプル画像の画素の画素値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の濃度値を用いることによって、識別分離された無彩文字形成領域の画素の濃度値を精度良く補正することができる。これによって画像処理装置による処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0027】
また本発明は、前述の画像処理方法を、コンピュータに実行させるためのプログラムである。
【0028】
本発明に従えば、神経回路網中のニューロン間の結合強さを表す重みに基づいて、無彩文字形成領域の画素の濃度値を補正する画像処理方法をプログラムで表すことによって、コンピュータに前述の画像処理方法に従う処理を実行させることができる。前記画像処理方法に従う処理をコンピュータに実行させることによって、全体画像における無彩文字形成領域を精度良く再現することができる。
【0029】
また本発明は、前述のプログラムが記録されたコンピュータ読取り可能な記録媒体である。
【0030】
本発明に従えば、神経回路網中のニューロン間の結合強さを表す重みに基づいて、無彩文字形成領域の画素の濃度値を補正する画像処理方法をコンピュータに実行させるためのプログラムを、コンピュータによって読取り可能な記録媒体に記録させる。たとえばフレキシブルディスクなどの持運び可能な記録媒体にプログラムを記録させることによって、プログラムを記録媒体から所望のコンピュータに読込ませることができるとともに、記録媒体からコンピュータにプログラムを読込ませて、このプログラムをコンピュータに実行させることができる。
【0031】
【発明の実施の形態】
図1は、本発明の実施の一形態である画像形成装置1が備える画像処理装置3の黒階調補正部30の構成を示すブロック図である。図2は、画像形成装置1全体の構成を示すブロック図である。図3は、領域分離処理部13の構成を示すブロック図である。図4は、黒階調補正部30によって形成される各色局所マスク35を説明するための図である。図1〜3では、図解を容易にするために、シアン信号を「C」で表し、マゼンタ信号を「M」で表し、イエロー信号を「Y」で表している。図2では、図解を容易にするために、赤信号を「R」で表し、緑信号を「G」で表し、青信号を「B」で表している。画像形成装置1は、原稿に形成される画像、すなわち原稿画像を読取り、原稿画像を精度よく再現することができるように適切な処理をして、記録材に画像を形成する装置である。記録材は、紙および紙以外の材料から成る記録用のシートを含む。画像形成装置1は、たとえばデジタルカラー複写機であって、読取った原稿画像をデジタルデータに変換して各種の処理をするとともに、無彩色および有彩色で表される画像を記録材に形成する。画像形成装置1は、画像入力装置2、画像処理装置3および画像出力装置4を含んで構成される。
【0032】
画像入力装置2は、原稿画像を読取る画像読取り手段であるとともに、読取った原稿画像を画像処理装置3に与える画像入力手段である。画像入力装置2は、固体撮像素子を備えるスキャナ部を含んで構成される。スキャナ部は、光源から発せられて原稿で反射した光を赤(R)、緑(G)および青(B)の3色に分解する。スキャナ部の固体撮像素子は、たとえば蓄積電荷結合素子(Charge Coupled Device;略称CCD)を用いたラインセンサによって実現される(以下、「蓄積電荷結合素子」を、CCDと呼ぶ場合がある)。画像入力装置2において、光源によって光を原稿に照射して、原稿からの反射光の色を、CCDラインセンサによって、主走査方向および副走査方向に並ぶ複数の画素に分割して検出して原稿画像を読取る。主走査方向は、CCDラインセンサが延在する方向である。副走査方向は、スキャナ部の走査方向である。具体的には副走査方向は、主走査方向に垂直かつ原稿画像の読取り時において原稿に沿う方向である。さらに画像入力装置2は、各画素の色および強度によって原稿画像を表す原稿画像データを、電気信号によって画像処理装置3に与える。原稿画像データは、3つの色成分である赤、緑および青の濃度に対応する数値によって表される。原稿画像データは、赤信号、緑信号および青信号として画像入力装置2によって画像処理装置3に与えられる。赤信号は、原稿からの赤色光の反射率を画素毎にアナログで表す電気信号である(以下、「赤信号」を「R信号」と表記する場合がある)。緑信号は、原稿からの緑色光の反射率を画素毎にアナログで表す電気信号である(以下、「緑信号」を「G信号」と表記する場合がある)。青信号は、原稿からの青色光の反射率を画素毎にアナログで表す電気信号である(以下、「青信号」を「B信号」と表記する場合がある)。
【0033】
画像処理装置3は、画像形成時に、原稿画像を精度よく再現することができるように、全体画像に対して適切な処理をする装置である。全体画像は、原稿画像データによって表される原稿画像であって、複数の色に関する画素値を有する画素を含む。画像処理装置3は、アナログデジタル変換部(以下、「A/D変換部」と呼ぶ)10、シェーディング補正部11、入力階調補正部12、領域分離処理部13、色補正部14、黒生成下色除去部15、空間フィルタ処理部16、出力階調補正部17および階調再現処理部18を含んで構成される。
【0034】
A/D変換部10は、与えられるアナログ信号をデジタル信号に変換する。A/D変換部10は、アナログ信号であって、画像入力装置2によって与えられるR信号、G信号およびB信号を、各画素毎に赤色光、緑色光および青色光の反射率をデジタルで表すデジタル信号にそれぞれ変換する。A/D変換部10によってデジタル信号に変換されたR信号、G信号およびB信号は、シェーディング補正部11に与えられる。シェーディング補正部11は、A/D変換部10からのR信号、G信号およびB信号の表すデータに含まれる歪み成分を取り除く処理をする。シェーディング補正部11は、A/D変換部10からのR信号、G信号およびB信号に対して、画像入力装置2の照明系、結像光学系および撮像系(受像系)で生じる各種の歪み成分を取り除く処理をする。シェーディング補正部11による処理後のR信号、G信号およびB信号は、入力階調補正部12に与えられる。
【0035】
入力階調補正部12は、シェーディング補正部11からのR信号、G信号およびB信号に対して、各色成分の光の反射率値をこれに基づいてカラーバランスを整えるように補正するとともに、各色成分の光の反射率値を、赤色光の濃度値と緑色光の濃度値と青色光の濃度値とを表す信号に変換する。入力階調補正部12は、各画素の赤、緑および青の濃度値で表されるR信号、G信号およびB信号を補色反転して、シアンの濃度値を表すシアン信号と、マゼンタの濃度値を表すマゼンタ信号と、イエローの濃度値を表すイエロー信号とに変換する。入力階調補正部12による処理後のシアン信号、マゼンタ信号およびイエロー信号は、領域分離処理部13に与えられる(以下、「シアン信号」を「C信号」と表記し、「マゼンタ信号」を「M信号」と表記し、「イエロー信号」を「Y信号」と表記する場合がある)。
【0036】
領域分離処理部13は、入力階調補正部12からのC信号、M信号およびY信号に基づいて、全体画像から複数の画像領域を識別分離する。具体的には領域分離処理部13は、全体画像の各画素を複数の画像領域、たとえば文字領域および網点領域ならびに写真領域や下地領域のその他領域として分離する。文字領域は、文字の縁部分である文字エッジを表す画像領域であり、文字は、漢字、英字、数字および記号を含む。網点領域は、網点で像を表す画像領域である。その他領域は、中間調で表される印画紙写真画像を表す画像領域および下地領域である。領域分離処理部13は、マスク形成部20、文字領域判定部21、網点領域判定部22および識別信号生成部23を含んで構成される。マスク形成部20は、複数の画素を含み、かつ複数の画素がマトリクス状に配置される局所マスクを形成する。本実施の形態では、マスク形成部20は、主走査方向および副走査方向に7つの画素がそれぞれ並ぶ局所マスク、すなわち7×7の局所マスクを形成する。局所マスクの中心の画素は、その局所マスクにおける処理の対象となる注目画素である。局所マスク内の各画素に関するC信号、M信号およびY信号は、文字領域判定部21のエッジ検出部25および有彩/無彩判定部26ならびに網点領域判定部22に与えられる。
【0037】
文字領域判定部21は、全体画像の各画素が文字領域に属するか否かを判定する。さらに文字領域判定部21は、文字領域に属する画素に対して、文字を無彩色で表す無彩文字領域と文字を有彩色で表す有彩文字領域とのいずれに属するかを判定する。文字領域判定部21は、エッジ検出部25、有彩/無彩判定部26および信号判定部27を含んで構成される。エッジ検出部25は、全体画像の各画素がエッジ画素であるか否かを判定して、エッジ画素を検出する。エッジ画素は、その濃度値が隣接する画素の濃度値に比べて大きく異なる急峻な変化を示す画素である。エッジ検出部25は、マスク形成部20からのC信号、M信号およびY信号に基づいて、7×7の局所マスクのうち注目画素を中心とする3×3の局所マスクを用いて、注目画素の濃度値と注目画素に隣接する各隣接画素の濃度値との差をそれぞれ演算する。エッジ検出部25は、それぞれ演算された濃度値の差を予め定める閾値と比較する。エッジ検出部25は、それぞれ演算された濃度値の差のうちいずれかが閾値以上である場合、注目画素がエッジ画素であると判定し、それぞれ演算された濃度値の差がすべて閾値よりも小さい場合、注目画素がエッジ画素ではないと判定する。エッジ検出部25は、注目画素に対して、シアン、マゼンタおよびイエローの各色毎に判定処理をする。たとえばエッジ検出部25は、各色のうちいずれか1つにおいて注目画素がエッジ画素であると判定した場合、注目画素がエッジ画素であると最終的に判定する。エッジ検出部25による判定処理は、ゾーベルフィルタなどのエッジ検出用フィルタによって実現されてもよい。エッジ検出部25による注目画素に対する判定結果を表すエッジ信号は、信号判定部27に与えられる。
【0038】
有彩/無彩判定部26は、たとえば全体画像の彩度情報を用いて閾値処理することによって、全体画像の各画素が有彩色および無彩色のいずれの色を表す画素であるかを判定する。有彩/無彩判定部26は、7×7の局所マスクの注目画素が有するシアン、マゼンタおよびイエローの濃度値に関して、最大値および最小値を求めるとともに、最大値から最小値を減算することによってそれらの値の差分を求める。有彩/無彩判定部26は、以下の条件式(1),(2)に示すように、最大値と最小値との差分が閾値TH以上である場合、注目画素が有彩色を表す画素であると判定し、最大値および最小値の差分が閾値THよりも小さい場合、注目画素が無彩色を表す画素であると判定する。有彩/無彩判定部26による注目画素に対する判定結果を表す有彩無彩判定信号は、信号判定部27に与えられる。
max(C,M,Y)−min(C,M,Y)≧TH … 有彩色…(1)
max(C,M,Y)−min(C,M,Y)<TH … 無彩色…(2)
【0039】
信号判定部27は、全体画像の各画素が、無彩文字領域および有彩文字領域のいずれに属する画素であるかを判定する。具体的には信号判定部27は、エッジ検出部25からのエッジ信号と有彩/無彩判定部26からの有彩無彩判定信号とに基づいて、注目画素が無彩文字領域および有彩文字領域のいずれに属する画素であるかを判定する。信号判定部27は、注目画素がエッジ画素であり、かつ無彩色を表す画素である場合、注目画素が無彩文字領域に属すると判定し、注目画素がエッジ画素であり、かつ有彩色を表す画素である場合、注目画素が有彩文字領域に属すると判定する。信号判定部27による注目画素に対する判定結果を表す文字領域判定信号は、識別信号生成部23に与えられる。
【0040】
網点領域判定部22は、全体画像の各画素が網点領域に属するか否かを判定する。網点領域は、小領域に関して、予め定める走査方向に連続して並ぶ画素の濃度値の変動が大きいという特徴と、背景となる下地に比べて網点の濃度が高いという特徴とを有する。網点領域判定部22は、前述の網点領域の特徴を利用して、注目画素を中心とするP×Qの局所マスクを用いて判定処理をする。PおよびQは、自然数であって相互に同一であってもよいし、異なっていてもよい。本実施の形態では、網点領域判定部22は、マスク形成部20によって形成される7×7の局所マスクのうち注目画素を中心とする3×3の局所マスクを用いる。網点領域判定部22は、3×3の局所マスク内の9画素の濃度値に関して、濃度値の平均値である平均濃度値Daveを求めるとともに、最大の濃度値である最大濃度値Dmaxと、最小の濃度値である最小濃度値Dminとを求める。網点領域判定部22は、平均濃度値Daveを用いて、3×3の局所マスク内の各画素の濃度値を2値化する。網点領域判定部22は、3×3の局所マスクに関して2値化した結果に基づいて、主走査方向に関して0から1への変化点数と1から0への変化点数とをそれぞれ計数するとともに、各変化点数の和を主走査方向における変化点数Krとして求める。網点領域判定部22は、3×3の局所マスクに関して2値化した結果に基づいて、副走査方向に関して0から1への変化点数と1から0への変化点数とをそれぞれ計数するとともに、各変化点数の和を副走査方向における変化点数Kvとして求める。
【0041】
網点領域判定部22は、主走査方向における変化点数Krを予め定める閾値Trと比較するとともに、副走査方向における変化点数Kvを予め定める閾値Tvと比較する。さらに網点と下地との誤判定を防止するために、網点領域判定部22は、最大濃度値Dmaxから平均濃度値Daveを減算した値と、予め定める閾値B1とを比較するとともに、平均濃度値Daveから最小濃度値Dminを減算した値と、予め定める閾値B2とを比較する。網点領域判定部22は、注目画素が網点領域に属するか否かを以下に示される条件式(3)〜(6)に基づいて判定する。網点領域判定部22は、条件式(3)〜(6)を全て満たす場合、注目画素が網点領域に属すると判定し、条件式(3)〜(6)のうち1つでも満たさない条件式がある場合、注目画素が網点領域に属さないと判定する。
Dmax−Dave>B1 …(3)
Dave−Dmin>B2 …(4)
Kr>Tr …(5)
Kv>Tv …(6)
【0042】
条件式(3)〜(6)に示すように、最大濃度値Dmaxから平均濃度値Daveを減算した値が閾値B1よりも大きく、かつ平均濃度値Daveから最小濃度値Dminを減算した値が閾値B2よりも大きく、かつ主走査方向における変化点数Krがしきい値Trよりも大きく、かつ副走査方向における変化点数Kvがしきい値Tvよりも大きい場合、網点領域判定部22は、注目画素が網点領域に属すると判定する。網点領域判定部22は、シアン、マゼンタおよびイエローの各色毎に個別に判定処理をする。網点領域判定部22は、各色のいずれかにおいて注目画素が網点領域に属すると判定した場合、注目画素が網点領域に属すると最終的に判定する。網点領域判定部22による注目画素に対する判定結果を表す網点判定信号は、識別信号生成部23に与えられる。たとえば網点領域判定部22によって、注目画素が網点領域に属すると判定された場合、網点判定信号として「1」を表すオン信号が識別信号生成部23に与えられ、注目画素が網点領域に属さないと判定された場合、網点判定信号として「0」を表すオフ信号が識別信号生成部23に与えられる。
【0043】
識別信号生成部23は、文字領域判定部21からの文字領域判定信号と網点領域判定部22からの網点領域判定信号とに基づいて、全体画像から画像領域を識別分離した結果を表す領域識別信号を生成する。領域識別信号は、後述の無彩文字領域信号、有彩文字領域信号、網点領域判定信号およびその他領域信号を含む。識別信号生成部23は、文字領域判定信号に基づいて、画素が無彩文字領域に属することを表す無彩文字領域信号と、画素が有彩文字領域に属することを表す有彩文字領域信号とを生成する。識別信号生成部23は、網点判定信号に基づいて、画素が網点領域に属することを表す網点領域信号を生成する。識別信号生成部23は、画素がその他領域に属することを表すその他領域信号をさらに生成する。文字領域および網点領域共に属さないと判定された画素はその他領域に識別分離される。また、識別信号生成部23は、文字領域判定信号が無彩文字領域信号あるいは有彩文字領域信号であり、網点判定信号が「1」の時は、網点領域判定部22の結果に対して優先順位を文字領域判定部21の結果に比べて高く設定し、注目画素を網点領域に属すると判定するようにしている。各画素に対して生成された領域識別信号は、識別信号生成部23から黒生成下色除去部15、空間フィルタ処理部16および階調再現処理部18に与えられる。入力階調補正部12から領域分離処理部13に与えられたC信号、M信号およびY信号は、そのまま領域分離処理部13から色補正部14に与えられる。色補正部14は、画像形成時に原稿画像の色の再現性を向上するために、不要吸収成分を含むシアン、マゼンタおよびイエローの各色材に対して、シアン、マゼンタおよびイエローの各色材の分光特性に基づいて色濁りを取り除く色補正処理をする。色補正部14によって色補正処理が施されたC信号、M信号およびY信号は、黒生成下色除去部15に与えられる。
【0044】
黒生成下色除去部15は、色補正部14からのC信号、M信号およびY信号、具体的には後述の黒階調補正部30による補正後のC信号、M信号およびY信号に基づいて、全体画像の各画素に対して黒生成処理および下色除去(Under Color Removal:略称UCR)処理をする。黒生成処理は、色補正部14からのC信号、M信号およびY信号に基づいて、色材の1つである黒色の濃度値を表す黒(Bl ack;略称K)信号を発生して黒色を生成する処理である(以下、「黒信号」を「K信号」と表記する場合がある)。下色除去処理は、画像形成時に灰色を安定して再現することができるように、シアン、マゼンタおよびイエローの濃度値を、生成された黒色の濃度値を考慮して補正する処理である。
【0045】
黒生成処理の一例として、スケルトンブラックによって黒色を生成する方法がある。この方法では、たとえば、スケルトンカーブの入出力特性を表す関数をy=f(x)とし、下色除去処理される前のシアン、マゼンタおよびイエローの各濃度値に関して、シアンの濃度値をC、マゼンタの濃度値をM、イエローの濃度値をYとする。さらに黒生成処理で生成される黒色の濃度値をKとし、下色除去処理された後のシアン、マゼンタおよびイエローの各濃度値に関して、シアンの濃度値をC1、マゼンタの濃度値をM1、イエローの濃度値をY1とし、下色除去率をα(0<α<1)とする。黒生成下色除去部15は、以下の式(7)〜(10)に基づいて黒生成処理および下色除去処理をする。
K=f{min(C,M,Y)} …(7)
C1=C−αK …(8)
M1=M−αK …(9)
Y1=Y−αK …(10)
【0046】
黒色の濃度値は、式(7)のように、スケルトンカーブの入出力特性を表す関数と、画素のシアン、マゼンタおよびイエローの濃度値のうち最小となる濃度値とに基づいて算出される。下色除去処理後のシアンの濃度値は、式(8)のように、下色除去処理前のシアンの濃度値から下色除去率と生成された黒色の濃度値との積を減じることによって算出される。下色除去処理後のマゼンタの濃度値は、式(9)のように、下色除去処理前のマゼンタの濃度値から下色除去率と生成された黒色の濃度値との積を減じることによって算出される。下色除去処理後のイエローの濃度値は、式(10)のように、下色除去処理前のイエローの濃度値から下色除去率と生成された黒色の濃度値との積を減じることによって算出される。黒生成下色除去部15は、後述の黒階調補正部30によって補正された後のC信号、M信号およびY信号に基づいて、式(7)〜(10)を用いて黒生成処理および下色除去処理をする。黒生成下色除去部15による処理によって、C信号、M信号およびY信号の3色の信号が、C信号、M信号、Y信号およびK信号の4色の信号に変換される。黒生成処理および下色除去処理を施されたC信号、M信号、Y信号およびK信号は、空間フィルタ処理部16に与えられる。
【0047】
空間フィルタ処理部16は、領域識別信号に基づいて、黒生成下色除去部15からのC信号、M信号、Y信号およびK信号として与えられる原稿画像データに対してディジタルフィルタを用いて空間フィルタ処理、たとえば鮮鋭強調処理およびローパスフィルタ処理をする。このように空間フィルタ処理部16が各画像領域の空間周波数特性を補正するので、画像出力装置4による画像形成時に画像のぼやけおよび粒状性劣化を防ぐことができる。たとえば空間フィルタ処理部16は、領域分離処理部13によって識別分離された無彩文字領域および有彩文字領域に対して鮮鋭強調処理をして、高周波数の強調量を大きくする。これによって無彩色文字、たとえば黒文字と、有彩色文字との再現性を向上することができる。空間フィルタ処理部16は、領域分離処理部13によって識別分離された網点領域に対してローパスフィルタ処理をして平滑化する。これによって入力網点成分を除去することによって、モアレの発生を抑制して、網点領域で表される画像の再現性を向上することができる。空間フィルタ処理部16によって空間フィルタ処理が施されたC信号、M信号、Y信号およびK信号は、出力階調補正部17に与えられる。
【0048】
出力階調補正部17は、画素の画素値、たとえば濃度値を表す信号を画像出力装置4の特性値である網点面積率に変換する出力階調補正処理をする。出力階調補正部17は、出力階調補正処理後のC信号、M信号、Y信号およびK信号を階調再現処理部18に与える。階調再現処理部18は、出力階調補正部17からのC信号、M信号、Y信号およびK信号、ならびに領域分離処理部13からの領域識別信号に基づいて、画像を画素に最終的に分割して、それぞれの階調を再現するための階調再現(中間調生成)処理をする。階調再現処理部18によって階調再現処理が施されたC信号、M信号、Y信号およびK信号は、たとえばランダムアクセスメモリ(Random Access Memory;略称RAM)などの読み出しおよび書き込み可能な記憶手段(図示せず)に与えられる。記憶手段は、階調再現処理部18からのC信号、M信号、Y信号およびK信号に基づく原稿画像データを記憶される。記憶される原稿画像データは、予め定めるタイミングで記憶手段から読み出されて画像出力装置4に与えられる。
【0049】
操作部19は、画像形成装置1に備えられ、たとえばキーボードおよびタッチパネルなどの入力装置ならびに液晶表示装置などの表示装置によって実現される。画像形成装置1の操作者は、操作部19を入力操作することによって、たとえば原稿の種類に応じて画像を形成するための画像形成指令などの各種の指令を画像形成装置1に入力することができる。画像出力装置4は、画像処理装置3によって各種の処理が施された原稿画像データに基づいて、画像を記録材に形成するための装置である。画像出力装置4の例として、たとえば電子写真方式のデジタルカラー複写機ならびにインクジェット方式および熱転写方式のカラープリンタなどを挙げることができるが、特に限定されるものではない。また画像出力装置4は、画像表示装置たとえば液晶ディスプレイであってもよい。前述の画像形成装置1に関して、原稿画像データに対する各種の処理は、制御手段である中央演算処理装置(Central Processing Unit:略称CPU)28によって制御される(以下、「中央演算処理装置28」を「CPU28」と表記する場合がある)。CPU28は、たとえば操作者による操作部19の操作結果に基づいて、画像処理装置3の各部を制御する。
【0050】
前述の黒生成下色除去部15は、黒階調補正部30を含んで構成される。黒階調補正部30は、黒生成下色除去部15によって所望の黒色を生成して全体画像における黒色を再現することができるように、全体画像から識別分離された領域のうち、予め定める特定画像領域の画素の画素値、具体的には濃度値を補正する。特定画像領域は、無彩色の線で形成される画像の領域である。本実施の形態では、特定画像領域は、無彩文字形成領域(領域分離処理により判定された文字領域とこの文字領域の周辺の下地領域を含む領域)であって、画像、具体的には文字の濃度が太さによらず一様に表されるべき領域であり、また文字は、原稿画像において最も高い濃度を有し、かつ黒色で表される。黒階調補正部30は、無彩文字形成領域の画像を画像入力装置2によって読取るときに生じた読取り誤差が無くなるように、無彩文字形成領域の画素の濃度値を元々有している本来の濃度値に補正する。黒階調補正部30は、各色マスク形成部31、各色高濃度取得部32、各色低濃度取得部33、各色ニューラルネットワーク34を含んで構成される。
【0051】
各色マスク形成部31は、色補正部14からのC信号、M信号およびY信号に基づいて、各色局所マスク35(図4参照)を形成する。各色局所マスク35は、複数の画素を含み、黒階調補正部30において処理の対象となる注目画素36を中心とする局所マスクである。各色局所マスク35は、シアンに関して注目画素36を中心とする局所マスクと、マゼンタに関して注目画素36を中心とする局所マスクと、イエローに関して注目画素36を中心とする局所マスクを含む。各色マスク形成部31は、複数のラインメモリ37を用いて各色局所マスク35を形成する。ラインメモリ37は、少なくとも原稿の主走査方向サイズ、具体的には主走査方向における画素数に基づいて、画素の濃度値を記憶する。ラインメモリ37は、たとえば先入れ先出し(First In First Out;略称FIFO)形メモリによって実現される(以下、「先入れ先出し形メモリ」を「FIFO形メモリ」と表記する場合がある)。FIFO形メモリは、記憶したデータを記憶した順に取り出すとともに、一番新しく記憶したデータを一番最後に取り出すように構成される記憶手段である。本実施の形態では、1つのラインメモリ37には、7つの画素の濃度値が記憶される。各色マスク形成部31は、6つのラインメモリ37によって濃度値が記憶される6×7個の画素と、色補正部14からのC、M信号およびY信号に基づく7個の画素とに基づいて、7×7の各色局所マスク35を形成する。各色局所マスク35の画素の濃度値は、後述の各色高濃度取得部32および各色低濃度取得部33に与えられる。
【0052】
たとえばある各色局所マスク35の注目画素36に対する濃度値の補正が終了したとする。その各色局所マスク35において7行目の画素の濃度値を記憶するラインメモリ37から、記憶した順番が最も古い画素の濃度値が取り出される。6行目の画素の濃度値を記憶するラインメモリ37から、記憶した順番が最も古い画素の濃度値が取り出されて、その画素の濃度値が、7行目の画素の濃度値を記憶するラインメモリ37に記憶される。5行目の画素の濃度値を記憶するラインメモリ37から、記憶した順番が最も古い画素の濃度値が取り出されて、その画素の濃度値が、6行目の画素の濃度値を記憶するラインメモリ37に記憶される。2〜4行目の画素の濃度値が記憶される各ラインメモリ37に対しても前述と同様の手順で、記憶した順番が最も古い画素の濃度値が取り出され、かつ副走査方向下流側で隣接する行の画素の濃度値を記憶するラインメモリ37によって与えられる画素の濃度値が記憶される。このようにしてFIFO形メモリによって実現される複数のラインメモリ37を用いることによって、新たな各色局所マスク35が形成される。FIFO形メモリによって実現されるラインメモリ37を用いるので、黒階調補正部30においてリアルタイムに処理をすることができる。これによって全体画像のすべての画素の濃度値を記憶する記憶手段を用いる場合に比べて、記憶容量を可及的に小さくしてコストを削減することができるとともに、黒階調補正部30における処理の処理速度を向上することができる。
【0053】
各色局所マスク35の注目画素36を(i,j)とすると、注目画素36における色補正部14からの入力信号値、換言すると注目画素36のシアン、マゼンタおよびイエローの各色に関する濃度値は、(C(i,j),M(i,j),Y(i,j))と表すことができる。注目画素36を(i,j)とした場合、各色局所マスク35は、以下の式(11)によって表すことができる。
【0054】
【数1】

Figure 0004139201
【0055】
式(11)において、mは主走査方向および副走査方向のいずれか一方に関する画素の数を表し、nは主走査方向および副走査方向のいずれか他方に関する画素の数を表す。iは主走査方向および副走査方向のいずれか一方に関する注目画素36の座標を表し、jは主走査方向および副走査方向のいずれか他方に関する注目画素36の座標を表す。
【0056】
黒階調補正部30による濃度値の補正処理をするにあたって、各色局所マスク35の注目画素36は、少なくとも以下の条件式(12)を満足する必要がある。
Seg(i,j)∈無彩文字形成領域 …(12)
【0057】
条件式(12)おいて、Seg(i,j)は、領域分離処理部13によって与えられる、注目画素36に対する領域分離結果である。黒階調補正部30は、領域分離処理部13からの領域識別信号に基づいて、注目画素36が無彩文字形成領域に属するか否かを判断する。黒階調補正部30は、条件式(12)を満足する、つまり注目画素36が無彩文字形成領域に属すると判断した場合、画素単位で濃度値を補正する。
【0058】
図1の例では各色マスク形成部31は、複数のラインメモリ37を有するシアン用マスク形成部31a、マゼンタ用マスク形成部31bおよびイエロー用マスク形成部31cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に局所マスクを形成する。具体的にはシアン用マスク形成部31aは、色補正部14からのC信号に基づいて、シアンに関して注目画素36を中心とする7×7の局所マスクを形成する。シアン用マスク形成部31aによって形成された局所マスクの各画素のシアンに関する濃度値は、後述のシアン用高濃度取得部32aおよびシアン用低濃度取得部33aに与えられる。マゼンタ用マスク形成部31bは、色補正部14からのM信号に基づいて、マゼンタに関して注目画素36を中心とする7×7の局所マスクを形成する。マゼンタ用マスク形成部31bによって、形成された局所マスクの各画素のマゼンタに関する濃度値は、後述のマゼンタ用高濃度取得部32bおよびマゼンタ用低濃度取得部33bに与えられる。イエロー用マスク形成部31cは、色補正部14からのY信号に基づいて、イエローに関して注目画素36を中心とする7×7の局所マスクを形成する。イエロー用マスク形成部31cによって形成された局所マスクの各画素のイエローに関する濃度値は、後述のイエロー用高濃度取得部32cおよびイエロー用低濃度取得部33cに与えられる。
【0059】
最大画素値取得手段である各色高濃度取得部32は、分離される画像領域のうち、予め定める特定画像領域に関して、最大の画素値を取得する。具体的には各色高濃度取得部32は、無彩文字形成領域に属する注目画素36を含む各色局所ブロック35に関して、シアン、マゼンタおよびイエローの各色毎に、最大の濃度値、すなわち最大濃度値をそれぞれ取得する。各色局所ブロック35は、シアンに関する局所ブロックと、マゼンタに関する局所ブロックと、イエローに関する局所ブロックとを含む。各色高濃度取得部32は、取得される最大濃度値を、特徴ベクトルである最大濃度値ベクトルで表し、その最大濃度値ベクトルの値を用いる。最小画素値取得手段である各色低濃度取得部33は、特定画像領域に関して、最小の画素値を取得する。具体的には各色低濃度取得部33は、無彩文字形成領域に属する注目画素36を含む各色局所ブロック35に関して、シアン、マゼンタおよびイエローの各色毎に、最小の濃度値、すなわち最小濃度値をそれぞれ取得する。各色低濃度取得部33は、取得される最小濃度値を、特徴ベクトルである最小濃度値ベクトルで表し、その最小濃度値ベクトルの値を用いる。注目画素を(i,j)とした場合の各色局所マスク35に関して、最大濃度値ベクトルをmax_v(i,j)で表し、最小濃度値ベクトルをmin_v(i,j)で表した場合、最大濃度値ベクトルは、式(13)で表され、最小濃度値ベクトルは、以下の式(14)で表される。
【0060】
【数2】
Figure 0004139201
【0061】
式(13)および式(14)の右辺において、シアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値を255でそれぞれ除算している。黒階調補正部30への入力信号値の最大値、すなわち255で除算することによって、特徴ベクトルが求められる、すなわちシアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値が正規化される。これによって後述の各色ニューラルネットワーク34が扱うシアン、マゼンタおよびイエローの各色に関する値を、0以上1以下の範囲内の値にすることができる。したがって各色ニューラルネットワーク34による処理の処理量を小さくすることができる。
【0062】
各色高濃度取得部32および各色低濃度取得部33では、シアン、マゼンタおよびイエローの各色に関する局所マスク毎に、最大濃度値および最小濃度値をそれぞれ取得している。これによって各色に関する局所ブロックに関して、相互に異なる位置の画素の各色に関する最大濃度値および最小濃度値が取得される可能性がある。この場合、濃度値を好適に補正することができないなどの不具合が生じるおそれがある。黒階調補正部30によって不具合が生じないと判断された場合、前述のように各色高濃度取得部32によって最大濃度値を取得し、各色低濃度取得部33によって最小濃度値を取得する。黒階調補正部30によって不具合が生じると判断された場合、シアン、マゼンタおよびイエローの各色に拘わらず、各色高濃度取得部32および各色低濃度取得部33によって最大濃度値(たとえば、max(C(x,y)+M(x,y)+Y(x,y)))および最小濃度値(たとえば、min(C(x,y)+M(x,y)+Y(x,y)))を有する画素を求め、その画素の濃度値を最大濃度値ベクトルおよび最小濃度値ベクトルに利用する。具体的には各色高濃度取得部32は、各色に関する局所ブロックに基づいて、シアン、マゼンタおよびイエローの各濃度値の総和が最大となる画素の各色の濃度値を、最大濃度値として取得し、最大濃度ベクトルに用いる。各色低濃度取得部33は、各色に関する局所ブロックに基づいて、シアン、マゼンタおよびイエローの各濃度値の総和が最小となる画素の各色の濃度値を、最小濃度値として取得し、最小濃度ベクトルに用いる。
【0063】
前述の最大濃度値ベクトルを表す式(13)を、理解を容易にするために、最大濃度値ベクトルを式(15)で表し、最小濃度値ベクトルを表す式(14)を式(16)で表す。
【0064】
【数3】
Figure 0004139201
【0065】
式(15)の右辺の各値は、注目画素36を(i,j)とした場合のシアン、マゼンタおよびイエローの各色に関する最大濃度値を、黒階調補正部30への入力信号値の最大値で正規化した値を表す。式(16)の右辺の各値は、注目画素36を(i,j)とした場合のシアン、マゼンタおよびイエローの各色に関する最小濃度値を、黒階調補正部30への入力信号値の最大値で正規化した値を表す。
【0066】
図1の例では各色高濃度取得部32は、シアン用高濃度取得部32a、マゼンタ用高濃度取得部32bおよびイエロー用高濃度取得部32cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に最大濃度値を取得する。具体的にはシアン用高濃度取得部32aは、シアン用マスク形成部31aによって形成されるシアンに関する局所マスクに基づいて、シアンに関する最大濃度値を取得し、その最大濃度値を用いて最大濃度値ベクトルのシアンに関する値を求める。最大濃度値ベクトルのシアンに関する値は、シアン用高濃度取得部32aから後述のシアン用ニューラルネットワーク34aに与えられる。マゼンタ用高濃度取得部32bは、マゼンタ用マスク形成部31bによって形成されるマゼンタに関する局所マスクに基づいて、マゼンタに関する最大濃度値を取得し、その最大濃度値を用いて最大濃度値ベクトルのマゼンタに関する値を求める。最大濃度値ベクトルのマゼンタに関する値は、マゼンタ用高濃度取得部32bから後述のマゼンタ用ニューラルネットワーク34bに与えられる。イエロー用高濃度取得部32cは、イエロー用マスク形成部31cによって形成されるイエローに関する局所マスクに基づいて、イエローに関する最大濃度値を取得し、その最大濃度値を用いて最大濃度値ベクトルのイエローに関する値を求める。最大濃度値ベクトルのイエローに関する値は、イエロー用高濃度取得部32cから後述のイエロー用ニューラルネットワーク34cに与えられる。
【0067】
図1の例では各色低濃度取得部33は、シアン用低濃度取得部33a、マゼンタ用低濃度取得部33bおよびイエロー用低濃度取得部33cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に最小濃度値を取得する。具体的にはシアン用低濃度取得部33aは、シアン用マスク形成部31aによって形成されるシアンに関する局所マスクに基づいて、シアンに関する最小濃度値を取得し、その最小濃度値を用いて最小濃度値ベクトルのシアンに関する値を求める。最小値ベクトルのシアンに関する値は、シアン用低濃度取得部33aから後述のシアン用ニューラルネットワーク34aに与えられる。マゼンタ用低濃度取得部33bは、マゼンタ用マスク形成部31bによって形成されるマゼンタに関する局所マスクに基づいて、マゼンタに関する最小濃度値を取得し、その最小濃度値を用いて最小濃度値ベクトルのマゼンタに関する値を求める。最小値ベクトルのマゼンタに関する値は、マゼンタ用低濃度取得部33bから後述のマゼンタ用ニューラルネットワーク34bに与えられる。イエロー用低濃度取得部33cは、イエロー用マスク形成部31cによって形成されるイエローに関する局所マスクに基づいて、イエローに関する最小濃度値を取得し、その最小濃度値を用いて最小濃度値ベクトルのイエローに関する値を求める。最小値ベクトルのイエローに関する値は、イエロー低濃度取得部33cから後述のイエロー用ニューラルネットワーク34cに与えられる。
【0068】
各色ニューラルネットワーク34は、取得される最大の画素値および最小の画素値、ならびに予め設定される最大目標値および最小目標値に基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算し、その補正情報に基づいて、特定画像領域の画素の画素値を補正する。最大目標値は、最大の画素値を補正するために用いられる値である。最小目標値は、最小の画素値を補正するために用いられる値である。各色ニューラルネットワーク34は、具体的には、最大濃度値ベクトルの各色に関する値および最小濃度値ベクトルの各色に関する値、ならびにシアン、マゼンタおよびイエローの各色毎に予め設定される最大目標値および最小目標値に基づいて、補正情報を演算する。各色ニューラルネットワーク34は、演算した補正情報に基づいて、無彩文字形成領域の画素の濃度値を補正する。各色ニューラルネットワーク34によって補正された濃度値に基づいて、無彩文字形成領域における黒色の濃度値が黒生成処理によって算出される。各色ニューラルネットワーク34は、各色記憶部38、各色学習部39および各色補正部40を含んで構成される。
【0069】
図5は、教師データを設定するための教師用原稿50を説明するための図である。図6は、教師データを設定するための教師用原稿50Aを説明するための図である。各色記憶部38は、シアン、マゼンタおよびイエローの各色毎に予め設定される最大目標値および最小目標値を含む複数の目標値を教師データとして記憶する。教師データは、画像入力手段である画像入力装置2の入力特性に基づいて設定される。前記入力特性は、画像の解像性能を含む。たとえば特定画像領域が黒色で文字が表される無彩文字形成領域である場合には、画像入力装置2による原稿画像の解像性能、具体的にはスキャナ部の光学解像度に基づいて、画像入力装置2が画像処理装置3に与えるべきシアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値を想定することができる。これによって少なくともシアン、マゼンタおよびイエローの各色に関する最大目標値および最小目標値を予め設定して、教師データとして各色記憶部38に記憶させておくことができる。各色記憶部38は、図5および図6に示す教師用原稿50,50Aを用いて、シアン、マゼンタおよびイエローの各色毎に予め設定される最大目標値および最小目標値を含む複数の目標値を、教師データとして記憶する。各色記憶部38は、たとえばリードオンリーメモリ(Read Only Memory;略称ROM)およびランダムアクセスメモリ(Random Access Memory;略称RAM)などの各種のメモリによって実現される(以下、「リードオンリーメモリ」を「ROM」と表記し、「ランダムアクセスメモリ」を「RAM」と表記する場合がある)。教師データは、シアンに関する最大目標値および最小目標値を含むシアン用教師データと、マゼンタに関する最大目標値および最小目標値を含むマゼンタ用教師データと、イエローに関する最大目標値および最小目標値を含むイエロー用教師データとを含む。
【0070】
特定の画像入力装置2を用いる場合、原稿では太さに拘わらず一様な濃度で表される文字であっても、画像入力装置2による原稿画像の解像性能、具体的にはスキャナ部の光学解像度によって、画像形成時には、文字の太さによって異なる濃度を有する文字が形成される。たとえば原稿の太い文字は、濃度が高くなり、原稿の細い文字は、濃度値を表す信号がなまってしまい、濃度が低くなる。このような不具合を防止するために、画像入力装置2に教師用原稿50の画像を複数回にわたって読取らせて、教師データを各色記憶部38に記憶させる。複数回読取らせる理由は、データの平均化を行い読取り誤差を少なくするためである。教師用原稿50は、教師用文字51が形成される原稿であって、教師用文字51の濃度と教師用ペーパーホワイト52の濃度とを定義するための原稿である。教師用文字51は、太さに拘わらず同一の濃度で表され、かつ原稿の文字と同一の濃度を有する文字である。さらに教師用文字51は、教師用原稿50において最も高い濃度を有し、教師用原稿50の画像の読み取り時に最も高い濃度を得ることができるように、画像入力装置2の入力特性に基づいた予め定める太さを有し、かつ無彩色で表される文字である。教師用ペーパーホワイト52は、ペーパーホワイト、具体的には教師用原稿50における下地であって、教師用原稿50において最も低い濃度を有する。本実施の形態では、教師用文字51は、黒色で表される黒文字であるとともに、画像入力装置2による教師用原稿50の画像の読取り回数は、10回程度である。この教師用原稿50の画像を画像入力装置2に複数回にわたって読取らせることによって、教師用文字51の高濃度部分において本来の濃度値と、教師用ペーパーホワイト52において本来の濃度値とを教師データとして設定することができる。教師用原稿50の画像を複数回にわたって画像入力装置2に読取らせることによって複数のサンプル値を採取し、これらのサンプル値を平均した値を教師データとして用いる。これによって教師データの誤差を可及的に小さくすることができる。図5に示す教師原稿50の他に、図6に示す教師用原稿50Aを用いて教師データを設定してもよい。図6の例では、教師原稿用50Aには、字の大きさおよび太さが異なる複数の数字に加えて、長さおよび太さが異なるラインパターンが形成されている。
【0071】
各色記憶部38によって、教師データとして記憶される最大目標値および最小目標値は、たとえば以下の式(17)および式(18)で表される。
【0072】
【数4】
Figure 0004139201
【0073】
式(17)において、教師用原稿50,50Aにおける黒文字である教師用文字51の高濃度部分から得られるシアン、マゼンタおよびイエローの各色に関する最大濃度値が、シアン、マゼンタおよびイエローの各色に関する最大目標値として各色記憶部38によって記憶される。式(18)において、教師用原稿50,50Aにおけるペーパーホワイト52から得られるシアン、マゼンタおよびイエローの各色に関する最小濃度値が、シアン、マゼンタおよびイエローの各色に関する最小目標値として各色記憶部38によって記憶される。シアン、マゼンタおよびイエローの各色に関する最大目標値および最小目標値は、教師データとして各色記憶部38から各色学習部39に与えられる。また各色学習部39に与えられる入力データであるシアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値と教師データとの関係を表す対応表は表1である。
【0074】
【表1】
Figure 0004139201
【0075】
表1において、各色学習部39には、シアンに関する最大濃度値が入力データとして与えられる場合、シアンに関する最大目標値が教師データとして与えられ、シアンに関する最小濃度値が入力データとして与えられる場合、シアンに関する最小目標値が教師データとして与えられる。さらに表1において、各色学習部39には、マゼンタに関する最大濃度値が入力データとして与えられる場合、マゼンタに関する最大目標値が教師データとして与えられ、マゼンタに関する最小濃度値が入力データとして与えられる場合、マゼンタに関する最小目標値が教師データとして与えられる。さらに表1において、各色学習部39には、イエローに関する最大濃度値が入力データとして与えられる場合、イエローに関する最大目標値が教師データとして与えられ、イエローに関する最小濃度値が入力データとして与えられる場合、イエローに関する最小目標値が教師データとして与えられる。
【0076】
図1の例では各色記憶部38は、シアン用記憶部38a、マゼンタ用記憶部38bおよびイエロー用記憶部38cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に最大目標値および最小目標値を記憶する。具体的にはシアン用記憶部38aは、教師用原稿50,50Aに基づいて、シアンに関する最大目標値および最小目標値を、シアン用教師データとして記憶する。シアン用教師データは、シアン用記憶部38aからシアン用学習部39aに与えられる。マゼンタ用記憶部38bは、教師用原稿50,50Aに基づいて、マゼンタに関する最大目標値および最小目標値を、マゼンタ用教師データとして記憶する。マゼンタ用教師データは、マゼンタ用記憶部38bからマゼンタ用学習部39bに与えられる。イエロー用記憶部38cは、教師用原稿50,50Aに基づいて、イエローに関する最大目標値および最小目標値を、イエロー用教師データとして記憶する。イエロー用教師データは、イエロー用記憶部38cからイエロー用学習部39cに与えられる。
【0077】
図7は、神経回路網55を示すブロック図である。情報演算手段である各色学習部39は、取得される最大の画素値と、最大目標値とに基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算する。本実施の形態では、各色学習部39は、取得される最大の画素値と、最大目標値と、取得される最小の画素値と、最大目標値とに基づいて、無彩文字形成領域の画素の濃度値を補正するための補正情報を演算する。具体的には各色学習部39は、各色高濃度取得部32によって取得された最大濃度値と、各色低濃度取得部33によって取得された最小濃度値と、各色記憶部38によって与えられる教師データとに基づいて、補正情報を演算する。補正情報は、無彩文字形成領域の画素のシアンに関する濃度値を補正するためのシアン用補正情報と、無彩文字形成領域の画素のマゼンタに関する濃度値を補正するためのマゼンタ用補正情報と、無彩文字形成領域の画素のイエローに関する濃度値を補正するためのイエロー用補正情報とを含む。各色学習部39は、神経回路網55を含んで構成される。
【0078】
神経回路網55は、図7に示すように複数の層、具体的には入力層56、中間層57および出力層58と呼ばれる複数の層によって構成される階層構造を有する。入力層56、中間層57および出力層58は、1または複数のニューロン59をそれぞれ有する。ニューロン59は、同じ層のニューロン59間には結合がなく、異なる層のニューロン59間には結合があるという特徴を有する。このようにして神経回路網55は、相互に異なる層のニューロン59が結合することによってネットワークを構成する。結合するニューロン59間には、ニューロン59間の結合の強さを表す重みが予め設定される。重みの初期値は、乱数を用いた小さい値である。重みの初期値は、乱数を随時発生して設定するのではなく、乱数を用いて複数の候補をテーブルに予め設定しておき、このテーブルを用いて与えられる。このように重みの初期値を、補正情報を演算するにあたって随時発生させた乱数を用いることなく、予め用意しておいた乱数を用いるので、各色学習部39における計算量を可及的に小さくして、各色学習部39の構成を簡単にすることができる。神経回路網55は、特定のパターンの刺激、すなわち特定の入力に対して特定の出力をするように、重みを学習によって最適な重みに更新する。本実施の形態では、神経回路網55は、誤差逆伝播(Error Back Propagation)法に従う学習によって、補正情報を演算する、換言すると重みを更新する。
【0079】
神経回路網55で重みを更新するにあたって、神経回路網55は、以下の第1〜第5の手順に従って学習し、補正情報を演算する。第1に、ネットワークが初期化される。具体的には神経回路網55は、結合するニューロン59間の重みの初期値を、乱数を用いて小さい値に設定する。ネットワークの初期化が終了すると、第2に、神経回路網55は、最大濃度値ベクトルおよび最小濃度値ベクトルを入力ベクトルとして入力層56の各ニューロン59に与える。神経回路網55は、入力ベクトルを、設定される重みを考慮して前向きの伝播方向B1に伝播する(以下、「前向きの伝播方向B1」を「前方向B1」と表記する場合がある)。前方向B1は、入力層56から出力層58に向かう方向であって、信号の伝播方向である。後ろ方向B2は、前方向B1とは逆向きの方向であって、誤差成分を修正する、換言すると重みを更新するための計算過程における向きである。
【0080】
各ニューロン59は、与えられる値に重みを付けて、その重みの付いた値をシグモイド関数における入力値としたときに得られる出力値を、結合する前方向B1下流側の層のニューロン59に与える。シグモイド関数は、既知の関数であり、微分可能な連続関数である。1つのニューロン59に対して、前記1つのニューロン59を含む層よりも前方向B1上流側の層のニューロン59が複数結合している場合、各ニューロン59からの重みの付いた値の和を入力和として求め、その入力和を、シグモイド関数における入力値としたときに得られる出力値を、前記1つのニューロン59に与える。シグモイド関数における入力値と出力値との関係は、式(19)で表される。
(出力値)=f(入力和) …(19)
【0081】
前述のシグモイド関数に関して入力値に対する出力値が、ルックアップテーブル(Look Up Table;略称LUT)として予め設定されている。
【0082】
入力層56の各ニューロン59に入力ベクトルが与えられると、第3に、神経回路網55は、出力層58に教師データを教師ベクトルとして与える。出力層58には、入力ベクトルに対応した教師ベクトルが与えられる。具体的には最大濃度値ベクトルが入力層56に与えられる場合、最大目標値が教師ベクトルとして出力層58に与えられるとともに、最小濃度値ベクトルが入力層56に与えられる場合、最小目標値が教師ベクトルとして出力層58に与えられる。出力層58に教師ベクトルが与えられると、第4に、神経回路網55は、入力ベクトルに対する出力層58の各ニューロン59から出力されるベクトルにおける値と、教師ベクトルにおける値との誤差が無くなるように、学習によって重みを更新する。重みは、ニューロン59に与えられるベクトルにおける値と、そのニューロン59から出力されるベクトルを表すニューロン出力とに基づいて、誤差逆伝播法に従って更新される。更新後の重みは、更新前の重みと異なる値であってもよいし、更新前の重みと同一の値であってもよい。新しい重みは、式(20)で表される。
(新しい重み)=(前の重み)+α×δ×(ニューロン出力)…(20)
【0083】
式(20)の右辺において、第1項は、更新される前の重みであって、第2項は、予め定める定数α(0<α<1)と係数δとニューロン出力の値とを積算した値である。係数δは、学習信号または差逆伝播量と呼ばれる値であって、式(20)を用いて新しい重みを算出するにあたって、入力層56のニューロン59と中間層57のニューロン59とにおける重みを更新する場合と、中間層57のニューロン59と出力層58のニューロン59とにおける重みを更新する場合とのいずれかの場合に応じて設定される値である。ニューロン出力は、結合する2つのニューロン59のうち、前方向B1上流側のニューロン59からの出力値を表し、更新される前の重みを通るときの値と同一になる。前述の係数δは、式(21)および式(22)のいずれかの式を用いて設定される。
δ=(出力)×[1−(出力)]
×[(教師データ)−(ニューロン出力)] …(21)
δ=(出力)×[1−(出力)]
×(1つ後ろの層からのδの重み付け和) …(22)
【0084】
中間層57のニューロン59と出力層58のニューロン59とにおける重みを更新する場合、係数δは、式(21)を用いて算出される。式(21)において、係数δは、出力と1から出力を減算した値と教師データからニューロン出力を減算した値とを積算した値である。出力は、出力層58のニューロン59からの出力値である。入力層56のニューロン59と中間層57のニューロン59とにおける重みを更新する場合、係数δは、式(22)を用いて算出される。式(22)において、係数δは、出力と1から出力を減算した値と1つ後ろの層からの係数δの重み付け和とを積算した値である。式(21)および式(22)において、出力は、入力層56への入力に対する出力層58から出力される出力値である。1つ後ろの層からの係数δの重み付け和は、前方向B1上流側の層から与えられ、かつ式(22)を用いて更新する前の係数δと、重みとに基づいて算出した重み付け和である。
【0085】
第5に、神経回路網55は、誤差の減少量に基づいて重みを更新するか否かを判断する。誤差の減少量が所定値以下であると神経回路網55によって判断されると、各色学習部39は、神経回路網55を用いた学習処理を終了し、得られた更新後の重みを各色補正部40に与える。誤差の減少量は、具体的には更新した新しい重みを用いて得られる出力層58のニューロン59の出力値と、教師データとの誤差の減少量である。前記誤差の減少量が所定値を超えると神経回路網55によって判断されると、神経回路網55は、第2〜第4の手順に従って重みを更新する。
【0086】
図1の例では各色学習部39は、神経回路網55をそれぞれ有するシアン用学習部39a、マゼンタ用学習部39bおよびイエロー用学習部39cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に補正情報を演算する。具体的にはシアン用学習部39aは、シアンに関する最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、前述の第1〜第5の手順に従って予め設定される重みを学習によって更新する。シアン用学習部39aによって学習されて更新された重みは、シアン用補正情報としてシアン用補正部40aに与えられる。マゼンタ用学習部39bは、マゼンタに関する最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、前述の第1〜第5の手順に従って予め設定される重みを学習によって更新する。マゼンタ用学習部39bによって学習されて更新された重みは、マゼンタ用補正情報としてマゼンタ用補正部40bに与えられる。イエロー用学習部39cは、イエローに関する最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、前述の第1〜第5の手順に従って予め設定される重みを学習によって更新する。イエロー用学習部39cによって学習されて更新された重みは、イエロー用補正情報としてイエロー用補正部40cに与えられる。
【0087】
補正手段である各色補正部40は、補正情報に基づいて、特定画像領域の画素の画素値を補正する。各色補正部40は、各色学習部39と同様に神経回路網55を含んで構成される。各色補正部40は、補正情報、具体的には各色学習部39の神経回路網55による学習処理によって与えられる重みに基づいて、無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値を補正する。補正後の無彩文字形成領域の画素の濃度値は、各色補正部40による重みを用いたフィードフォワード計算によって得られる値、換言すると神経回路網55において、更新された重みを用いた前方向B1への処理、具体的には積和計算によって得られる出力層58からの出力値である。積和計算には、たとえばデジタルシグナルプロセッサ(Digital Signal Processor;略称DSP)が用いられる。
【0088】
図1の例では、各色補正部40は、シアン用補正部40a、マゼンタ用補正部40bおよびイエロー用補正部40cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に、無彩文字形成領域の画素の濃度値を補正する。具体的にはシアン用補正部40aは、シアン用学習部39aによって与えられる重みを用いたフィードフォワード計算によって、補正後の無彩文字形成領域の画素のシアンに関する濃度値を算出する。マゼンタ用補正部40bは、マゼンタ用学習部39bによって与えられる重みを用いたフィードフォワード計算によって、補正後の無彩文字形成領域の画素のマゼンタに関する濃度値を算出する。イエロー用補正部40cは、イエロー用学習部39cによって与えられる重みを用いたフィードフォワード計算によって、補正後の無彩文字形成領域の画素のイエローに関する濃度値を算出する。黒生成下色除去部15は、シアン用補正部40a、マゼンタ用補正部40bおよびイエロー用補正部40cによる補正後の無彩文字形成領域の画素の濃度値に基づいて、黒生成処理および下色除去処理をする。このように取得された最大濃度値および最小濃度値ならびに教師データを用いた学習によって、予め設定される重みが更新される。この更新後の重みを補正情報として用いて、無彩文字形成領域の画素の濃度値が神経回路網55を用いて補正される。これによって無彩文字形成領域において、最大濃度値および最小濃度値に加えて、最大濃度値と最小濃度値との間の濃度値を本来の濃度値に精度良く補正することができる。
【0089】
図8は、黒階調補正部30および黒生成下色除去部15による処理の手順を示すフローチャートである。本実施の形態の画像処理方法は、領域分離工程、ステップs3の最大画素値取得工程および最小画素値取得工程、ステップs4の情報演算工程ならびにステップs5の補正工程を含む。本実施の形態の画像処理方法は、ステップs6の黒生成下色除去処理をする工程をさらに含む。領域分離工程は、全体画像から複数の画像領域を領域分離処理部13によって識別分離する工程である。最大画素値取得工程は、分離される画像領域のうち、予め定める特定画像領域、具体的には無彩文字形成領域に関して、最大の画素値すなわちシアン、マゼンタおよびイエローの各色に関する最大濃度値を各色高濃度取得部32によって取得する工程である。最小画素値取得工程は、前記特定画像領域、具体的には無彩文字形成領域に関して、最小の画素値すなわちシアン、マゼンタおよびイエローの各色に関する最小濃度値を各色低濃度取得部33によって取得する工程である。
【0090】
情報演算工程は、最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算する工程である。最大目標値は、シアン、マゼンタおよびイエローの各色に関する最大濃度値を補正するために用いられる、各色毎に予め設定される値である。最小目標値は、シアン、マゼンタおよびイエローの各色に関する最小濃度値を補正するために用いられる、各色毎に予め設定される値である。情報演算工程において、補正情報は神経回路網55を用いて演算される。具体的には情報演算工程は、各色学習部39によって、シアン、マゼンタおよびイエローの各色に関する最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、神経回路網55において予め設定される重みを学習によって更新する工程である。補正工程は、補正情報に基づいて、特定画像領域の画素の画素値を補正する工程である。具体的には補正工程は、各色学習部39によって与えられるシアン、マゼンタおよびイエローの各色に関する重みに基づいて、無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値を補正する工程である。図8において、ステップs0において処理手順を開始する前に、領域分離工程における処理は既に終了している。
【0091】
ステップs0では、本実施の形態の画像処理方法に従う処理手順を開始して、ステップs1に進む。ステップs1では、黒階調補正部30は、領域分離処理部15からの領域識別信号に基づいて、注目画素36が無彩文字形成領域に属するか否かを判断する。ステップs1では、黒階調補正部30が、注目画素36が無彩文字形成領域に属すると判断するとステップs2に進み、注目画素36が無彩文字形成領域に属さないと判断すると、ステップs7に進んですべての処理手順を終了する。
【0092】
ステップs2では、各色マスク形成部31は、注目画素36を中心とする7×7の各色局所マスク35を形成する。具体的にはシアン用マスク形成部31aは、シアンに関して注目画素36を中心とする7×7の局所マスクを形成し、マゼンタ用マスク形成部31bは、マゼンタに関して注目画素36を中心とする7×7の局所マスクを形成し、イエロー用マスク形成部31cは、イエローに関して注目画素36を中心とする7×7の局所マスクを形成する。ステップs2においてシアン、マゼンタおよびイエローの各色毎に局所マスクが形成されると、ステップs3に進む。
【0093】
ステップs3の最大画素値取得工程および最小画素値取得工程では、各色高濃度取得部32は、各色局所マスク35に関して最大濃度値を取得し、各色低濃度取得部33は、各色局所マスク35に関して最小濃度値を取得する。具体的にはシアン用高濃度取得部32aは、シアンに関する局所マスクに関してシアンに関する最大濃度値を取得し、マゼンタ用高濃度取得部32bは、マゼンタに関する局所マスクに関してマゼンタに関する最大濃度値を取得し、イエローに関する局所マスクに関してイエローに関する最大濃度値を取得する。シアン用低濃度取得部33aは、シアンに関する局所マスクに関してシアンに関する最小濃度値を取得し、マゼンタ用低濃度取得部33bは、マゼンタに関する局所マスクに関してマゼンタに関する最小濃度値を取得し、イエロー用低濃度取得部33cは、イエローに関する局所マスクに関してイエローに関する最小濃度値を取得する。ステップs3においてシアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値が取得されると、ステップs4に進む。
【0094】
ステップs4の情報演算工程では、各色学習部39は、シアン、マゼンタおよびイエローの各色に関する最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、神経回路網55において予め設定される重みを学習によって更新する。ステップs4において神経回路網55を用いて重みが更新されると、ステップs5に進む。
【0095】
ステップs5の補正工程では、各色補正部40は、各色学習部39によって与えられるシアン、マゼンタおよびイエローの各色に関する重みに基づいて、無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値を補正する。無彩文字形成領域に関して、最大濃度値および最小濃度値を除く残余のシアン、マゼンタおよびイエローに関する濃度値は、フィードフォワード計算によって補正される。ステップs5で、無彩文字形成領域の画素の濃度値が補正されると、ステップs6に進む。ステップs6では、黒生成下色除去部15が、補正された濃度値に基づいて黒生成処理および下色除去処理をする。ステップs6において、無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値が補正されると、ステップs7に進んですべての処理手順を終了する。
【0096】
図9は、反復回数timeとシアンに関する誤差量energyとの関係を表すグラフである。図10は、図9における反復回数timeが50,000回である場合のシアン用入力信号値とシアン用補正信号値との関係を表すグラフである。図11は、反復回数timeとマゼンタに関する誤差量energyとの関係を表すグラフである。図12は、図11における反復回数timeが50,000回である場合のマゼンタ用入力信号値とマゼンタ用補正信号値との関係を表すグラフである。図13は、反復回数timeとイエローに関する誤差量energyとの関係を表すグラフである。図14は、図13における反復回数timeが50,000回である場合のイエロー用入力信号値とイエロー用補正信号値との関係を表すグラフである。黒階調補正部30による補正処理の一例として、図6に示す教師用原稿50Aと同一の画像が形成される原稿を用いた。この原稿に形成される画像を読み取った結果と、教師用原稿50Aを読み取った結果とに基づいて、入力データおよび教師データは、表2のように表される。
【0097】
【表2】
Figure 0004139201
【0098】
表2において、サンプル番号1〜5は、図6の実線63a〜63dおよび二点鎖線63eで囲まれる領域に付された番号である。表2において、たとえばサンプル番号1〜5におけるC信号用、M信号用およびY信号用最小値信号は、シアン、マゼンタおよびイエローに関する最小濃度値を正規化した値を示す。サンプル番号1〜5におけるC信号用、M信号用およびY信号用最大値信号は、シアン、マゼンタおよびイエローに関する最大濃度値を正規化した値を示す。サンプル番号1〜4、すなわち実線63a〜63dで囲まれる領域におけるC信号用、M信号用およびY信号用最小値信号ならびにC信号用、M信号用およびY信号用最大値信号は、入力データとして用いられる。サンプル番号5、すなわち二点鎖線63eで囲まれる領域におけるC信号用、M信号用およびY信号用最小値信号ならびにC信号用、M信号用およびY信号用最大値信号は、サンプル番号1〜5において最大値であって、教師データとして用いられる。
【0099】
得られた入力データと教師データとを用いて、神経回路網55における重みを学習によって更新した。学習による重みの更新回数である反復回数の上限値は、50,000回である。重みの初期値は、前述のようにテーブルを用いて与えられる。図9の横軸は、反復回数であって、単位は「回」である。図9の縦軸は、シアンに関する誤差量energyである。シアンに関する誤差量は、無彩文字形成領域の画素のシアンに関する濃度値を入力層56のニューロン59に与えた場合の出力層58のニューロン59の出力値と、教師データのシアンに関する最大目標値との誤差量を表す。シアンに関する誤差量energyは、反復回数timeが0回である場合に最も大きい値であり、反復回数timeが大きくなるとそれに伴って小さくなり、反復回数timeがおよそ2,500回を超えかつ50,000回以下の範囲では0の値になる。このように反復回数timeを大きくすると、シアンに関する誤差量energyを小さくすることができる。
【0100】
図10の横軸は、シアン用入力信号値である。図10の縦軸は、シアン用補正信号値である。シアン用入力信号値は、シアン用補正部40aに与えられる無彩文字形成領域の画素のシアンに関する濃度値を表す。シアン用補正信号値は、シアン用補正部40aが重みに基づいてシアン用入力信号値を補正した後の無彩文字形成領域の画素のシアンに関する濃度値を表す。反復回数が50,000回である場合に、シアン用入力信号値とシアン用補正信号値との関係を表すグラフは、図10の実線60aで表されるシアン用変換グラフである。×印61aは、教師データのシアンに関する目標値を表し、二点鎖線62aで表すグラフは、×印61aを線形補間したグラフである補間教師グラフを表す。シアン用変換グラフは、二点鎖線62aで表される補間教師グラフの波形とほとんど一致する。このように無彩文字形成領域の画素のシアンに関する濃度値が、教師データのシアンに関する目標値と同一の値になるように、換言すると本来の濃度値になるように補正されていることが確認できる。
【0101】
図11の横軸は、反復回数であって、単位は「回」である。図11の縦軸は、マゼンタに関する誤差量energyである。マゼンタに関する誤差量は、無彩文字形成領域の画素のマゼンタに関する濃度値を入力層56のニューロン59に与えた場合の出力層58のニューロン59の出力値と、教師データのマゼンタに関する最大目標値との誤差量を表す。マゼンタに関する誤差量energyは、反復回数timeが0回である場合に最も大きい値であり、反復回数timeが大きくなるとそれに伴って小さくなり、反復回数timeがおよそ2,500回を超えかつ50,000回以下の範囲では0の値になる。このように反復回数timeを大きくすると、マゼンタに関する誤差量energyを小さくすることができる。
【0102】
図12の横軸は、マゼンタ用入力信号値である。図12の縦軸は、マゼンタ用補正信号値である。マゼンタ用入力信号値は、マゼンタ用補正部40bに与えられる無彩文字形成領域の画素のマゼンタに関する濃度値を表す。マゼンタ用補正信号値は、マゼンタ用補正部40bが重みに基づいてマゼンタ用入力信号値を補正した後の無彩文字形成領域の画素のマゼンタに関する濃度値を表す。反復回数が50,000回である場合に、マゼンタ用入力信号値とマゼンタ用補正信号値との関係を表すグラフは、図12の実線60bで表されるマゼンタ用変換グラフである。×印61bは、教師データのマゼンタに関する目標値を表し、二点鎖線62bで表すグラフは、×印61bを線形補間したグラフである補間教師グラフを表す。マゼンタ用変換グラフは、二点鎖線62bで表される補間教師グラフの波形とほとんど一致する。このように無彩文字形成領域の画素のマゼンタに関する濃度値が、教師データのマゼンタに関する目標値と同一の値になるように、換言すると本来の濃度値になるように補正されていることが確認できる。
【0103】
図13の横軸は、反復回数であって、単位は「回」である。図13の縦軸は、イエローに関する誤差量energyである。イエローに関する誤差量は、無彩文字形成領域の画素のイエローに関する濃度値を入力層56のニューロン59に与えた場合の出力層58のニューロン59の出力値と、教師データのイエローに関する最大目標値との誤差量を表す。イエローに関する誤差量energyは、反復回数timeが0回である場合に最も大きい値であり、反復回数timeが大きくなるとそれに伴って小さくなり、反復回数timeがおよそ2,000回を超えかつ50,000回以下の範囲では0の値になる。このように反復回数timeを大きくすると、イエローに関する誤差量energyを小さくすることができる。
【0104】
図14の横軸は、イエロー用入力信号値である。図14の縦軸は、イエロー用補正信号値である。イエロー用入力信号値は、イエロー用補正部40cに与えられる無彩文字形成領域の画素のイエローに関する濃度値を表す。イエロー用補正信号値は、イエロー用補正部40cが重みに基づいてイエロー用入力信号値を補正した後の無彩文字形成領域の画素のイエローに関する濃度値を表す。反復回数が50,000回である場合に、イエロー用入力信号値とイエロー用補正信号値との関係を表すグラフは、図14の実線60cで表されるイエロー用変換グラフである。×印61cは、教師データのイエローに関する目標値を表し、二点鎖線62cで表すグラフは、×印61cを線形補間したグラフである補間教師グラフを表す。イエロー用変換グラフは、二点鎖線62cで表される補間教師グラフの波形とほとんど一致する。図10、図12および図14に示すように教師データとなる最大目標値および最小目標値を結ぶグラフに基づいて、最適な濃度値特性を設定することができる。このように無彩文字形成領域の画素のイエローに関する濃度値が、教師データのイエローに関する目標値と同一の値になるように、換言すると本来の濃度値になるように補正されていることが確認できる。たとえば図10のシアン用入力信号値が80〜130の範囲などの未学習の範囲に関して、神経回路網55による汎化能力によって、滑らかなシアン用変換グラフを得ることができる。得られた滑らかなシアン用変換グラフを用いることによって、最大濃度値および最小濃度値を除く残余の濃度値、すなわち中間濃度値を精度良く補正することができる。これによって無彩文字形成領域を含む全体画像のすべての画像領域に対しても濃度値の補正をすることができる。
【0105】
補正後の信号値は、式(23)に示すように、変換グラフを表す関数に関して、入力信号値を入力値としたときの出力値として与えられる。
【0106】
【数5】
Figure 0004139201
【0107】
式(23)は、理解を容易にするために、シアン、マゼンタおよびイエローの各色に関して、補正信号値、変換グラフを表す関数および入力信号値をまとめて表記している。たとえばシアン用補正信号値は、シアン用変換グラフを表す関数に関して、シアン用入力信号値を入力値としたときの出力値として与えられる。マゼンタ用補正信号値は、マゼンタ用変換グラフを表す関数に関して、マゼンタ用入力信号値を入力値としたときの出力値として与えられる。イエロー用補正信号値は、イエロー用変換グラフを表す関数に関して、イエロー用入力信号値を入力値としたときの出力値として与えられる。シアン用、マゼンタ用およびイエロー用変換グラフを表す各関数のうち1つを用いて、黒色の濃度値を表す黒生成量を制御することができる。たとえばマゼンタ用変換グラフを表す関数を用いて黒生成量を制御する場合、前述のスケルトンカーブの入出力特性を表す関数をマゼンタ用変換グラフを表す関数に置き換える。これによって黒生成量を文字の太さに応じて制御することができる。したがって細い文字には太い文字に比べて多めの黒色の色材である黒インクを足すことになり、細い文字の濃度を高くすることができるとともに、細い文字と太い文字との濃度差をなくすことができる。
【0108】
図15は、補正なし画像64Aを説明するための図である。図16は、補正後画像64Bを説明するための図である。図17は、補正なし画像64Aに関する濃度ヒストグラムである。図18は、補正後画像64Bに関する濃度ヒストグラムである。図19は、図15の実線65Aにおける濃度断面である。図20は、図16の実線65Bにおける濃度断面である。補正なし画像64Aおよび補正後画像64Bは、ともに同一の原稿画像、たとえば教師用原稿50Aと同一の原稿画像に基づいて形成された画像である。補正なし画像64Aは、原稿画像を読み取った後、黒階調補正部30によって補正処理をせずに記録材に形成した画像である。補正後画像64Bは、原稿画像を読み取った後、黒階調補正部30による処理結果に基づいて記録材に形成した画像である。補正なし画像64Aでは、文字の太さに応じて、太い文字は濃く、細い文字は薄くなっているけれども、補正後画像64Bでは、文字の太さに拘わらず、ほぼ均一な濃度を有する文字が形成されている。
【0109】
図17の濃度ヒストグラムは、補正なし画像64Aに関して、濃度値と度数との関係を示し、図18の濃度ヒストグラムは、補正後画像64Bに関して、濃度値と度数との関係を示す。図17および図18の横軸は濃度値、具体的にはシアン、マゼンタおよびイエローの各色に関する濃度値であって、図17および図18では、それらをまとめてCMY濃度値と表記している。図17および図18の縦軸は度数である。図17では、シアンに関する濃度ヒストグラムを一点鎖線66aで表し、マゼンタに関する濃度ヒストグラムを実線66bで表し、イエローに関する濃度ヒストグラムを破線66cで表している。図17のシアン、マゼンタおよびイエローの各色に関する濃度ヒストグラムは、大略的にCMY濃度値が小さい箇所(白下地領域にあたる)で1つのピークを有する。さらに図17のシアン、マゼンタおよびイエローの各色に関する濃度ヒストグラムは、相互に同様の波形を有し、かつ同一のCMY濃度値に対してほぼ同一の度数をとる。図18では、シアンに関する濃度ヒストグラムを一点鎖線67aで表し、マゼンタに関する濃度ヒストグラムを実線67bで表し、イエローに関する濃度ヒストグラムを破線67cで表している。図18のシアン、マゼンタおよびイエローの各色に関する濃度ヒストグラムは、大略的にCMY濃度値が小さい箇所(白下地)と大きい箇所(文字内部)とで2つのピークを有する。さらに図18のシアン、マゼンタおよびイエローの各色に関する濃度ヒストグラムは、相互に同様の波形を有し、かつ同一のCMY濃度値に対してほぼ同一の度数をとる。図17および図18によれば、CMY濃度値が大きい箇所、具体的にはCMY濃度値がおよそ180の箇所では、矢符68で示すように、補正なし画像64Aに関する濃度ヒストグラムにおける度数に比べて、補正後画像64Bに関する濃度ヒストグラムおける度数のほうが高くなっている。これは黒階調補正部30による補正処理によって、図16の「8.0」などの細い文字の濃度が、図16の「2.8」などの太い文字の濃度と同程度の濃度特性を有する画素の数が増えたためである。
【0110】
図19の濃度断面は、補正なし画像64Aに関して、濃度断面の位置と濃度値との関係を示し、図20の濃度断面を示すグラフは、補正後画像64Bに関して、濃度断面の位置と濃度値との関係を示す。図15の実線65Aと図16の実線65Bとは、濃度断面を作成した箇所を示している。実線65A,65Bは、原稿画像において同一の箇所に配置され、細い文字、具体的には相互に間隔をあけて平行に配置される5本の縦線と数字「6.3」とを横切る。図19および図20の横軸は、濃度断面の位置を表す値である。図19および図20の縦軸は、濃度値、具体的にはシアン、マゼンタおよびイエローの各色に関する濃度値であって、図19および図20では、それらをまとめてCMY濃度値と表記している。濃度断面の位置は、実線65Aおよび実線65Bの寸法である。たとえば図19および図20では、濃度断面の位置は、実線65Aおよび実線65Bの一端部を下限値である「0」と設定され、他端部を上限値である「90」と設定されている。図19では、シアンに関する濃度断面を一点鎖線69aで表し、マゼンタに関する濃度断面を実線69bで表し、イエローに関する濃度断面を破線69cで表している。図19のシアン、マゼンタおよびイエローの各色に関する濃度断面は、相互に同様の波形を有し、かつ同一の濃度断面の位置に対してほぼ同一のCMY濃度値をとる。図20では、シアンに関する濃度断面を一点鎖線70aで表し、マゼンタに関する濃度断面を実線70bで表し、イエローに関する濃度断面を破線70cで表している。図20のシアン、マゼンタおよびイエローの各色に関する濃度断面は、相互に同様の波形を有し、かつ同一の濃度断面の位置に対してほぼ同一のCMY濃度値をとる。
【0111】
図19の補正なし画像64Aに関する濃度断面と図20の補正後画像64Bに関する濃度断面とは、5本の縦線とその近傍の下地とを含む範囲、換言すると濃度断面の位置がおよそ10以上25以下の範囲では、大略的に三角波状のグラフであり、縦線は下地に比べて大きいCMY濃度値をとるので、濃度断面の位置が大きくなるにつれてCMY濃度値が大小交互に変化する。補正なし画像64Aに関する濃度断面では、画像入力装置2の解像性能、具体的にはスキャナ部の光学解像度によって、5本の縦線のうち中央の縦線におけるCMY濃度値が、残余の縦線と数字「6.3」とにおけるCMY濃度値に比べて小さくなっており、CMY濃度値が不均一になっている。濃度断面を作成した箇所は、たとえば図15の数字「2.8」およびその近傍の縦線などに比べて充分に細い文字であるので、前述のように補正なし画像64Aでは文字の太さに応じて濃度にむらが発生する。
【0112】
補正後画像64Bに関する濃度断面では、5本の縦線と数字「6.3」とにおけるCMY濃度値はほぼ同一である。さらに補正後画像64Bに関する濃度断面では、細い文字であっても高濃度と低濃度との濃度差、換言すると縦線および数字におけるCMY濃度値と下地における濃度値との差が広がっている。このように無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値が補正されるので、補正後画像64Bのように、縦線の濃度と数字の濃度とがほぼ同一に、かつ補正前の文字の濃度に比べて大きくなるように形成されるとともに、縦線間などの込み入った文字間の下地の濃度が補正前の下地の濃度に比べて低くなるように形成されている。これによって原稿画像を精度良く再現することができるとともに、無彩文字形成領域のコントラストを正確に再現することができる。
【0113】
このように画像処理装置3が構成されるので、たとえば画像入力装置2の解像力不足に起因して、読取り濃度が低下して読取り誤差が生じた場合であっても、局所マスクの最大濃度値および最小濃度値と、画像入力装置2の入力特性に基づく教師データとを用いることによって、読取り誤差を補正して無くすことができる。前述の画像形成装置1において、無彩文字形成領域の画素の濃度値は、画像処理装置3に全体画像が与えられるたびに得られた補正情報を用いて補正されてもよいし、プレスキャン時に得られた補正情報を用いて補正されてもよい。
【0114】
本実施の形態によれば、複数の色に関する画素値を有する画素を含む全体画像が、画像入力装置2によって与えられる。この全体画像から、複数の画像領域が領域分離処理部13によって識別分離される。分離される画像領域のうち、予め定める特定画像領域である無彩文字形成領域に関して、最大の画素値が最大画素値取得手段である各色高濃度取得部32によって取得される。取得される最大の画素値である最大濃度値と、最大濃度値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算手段である各色学習部39によって演算される。補正情報は、無彩文字形成領域の画素の濃度値を補正するための情報であって、シアン、マゼンタおよびイエローの各色毎に演算される。演算された補正情報に基づいて、無彩文字形成領域の画素の濃度値が補正手段である各色補正部40によって補正される。補正情報を用いることによって、無彩文字形成領域における最大濃度値が、本来の濃度値になるように、原稿画像を読取るときに生じた読取り誤差を補正して、読取り誤差を無くすことができる。したがって本来の濃度値になるように、無彩文字形成領域の画素の濃度値を精度良く補正することができる。これによってたとえば原稿に形成される画像を読取るときに生じた読取り誤差を補正して、読み取り誤差を無くすことができる。したがって本来の画素値になるように、特定画像領域の画素の画素値を精度良く補正することができる。
【0115】
さらに本実施の形態によれば、前記特定画像領域である無彩文字形成領域に関して、最小の画素値である最小濃度値が最小画素値取得手段である各色低濃度取得部33によって取得される。各色低濃度取得部33によって取得される最小濃度値と、最小濃度値を補正するための予め設定される最小目標値と、最大濃度値と、最大濃度値を補正するための予め設定される最大目標値とに基づいて、補正情報が各色学習部39によって演算される。このように補正情報は、最大濃度値および最大目標値に加えて、最小濃度値および最小目標値を考慮して演算される。これによって最大濃度値および最小濃度値が、本来の濃度値になるように、無彩文字形成領域の画像を読取るときに生じた読取り誤差を補正することができる。したがって無彩文字形成領域の画素の濃度値を精度良く補正することができるとともに、原稿画像における無彩文字形成領域のコントラストを正確に再現することができる。
【0116】
さらに本実施の形態によれば、前記情報演算手段である各色学習部39は、神経回路網55を含んで構成される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。各色学習部39が神経回路網55を含んで構成されるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、各色学習部39を実現するために要するコストを可及的に削減することができる。
【0117】
さらに本実施の形態によれば、前記最大目標値は、画像入力装置2の入力特性に基づいて設定されるので、画像入力装置2に応じた補正情報を正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字領域の文字は、その濃度が文字の太さに拘わらず一様でありかつ文字領域において最大となるとともに、下地領域は、その濃度が一様で最小となる。原稿画像の文字を読み取った場合、文字に対応する画素の濃度値は文字領域において最大になり、下地に対応する画素において最小になると想定することができる。これによって画像入力装置2によって与えられるべき画素値である最大目標値および最小目標値を予め設定することができる。このように特定画像領域の画素の濃度値を補正するための目標値が既知である場合には、目標値を有する画素を含む画像領域の画像を、画像入力装置2で読込ませておき、目標値を予め設定することができる。これによって補正情報を正確に演算することができる。
【0118】
さらに本実施の形態によれば、画像形成装置1は、前述の画像処理装置3を備えるので、特定画像領域である無彩文字形成領域の画素の濃度値を、元々有している本来の濃度値になるように精度良く補正することができる。これによって原稿画像に形成される文字の濃度を正確に再現することが可能な画像形成装置2を実現することができる。
【0119】
また本実施の形態によれば、画像入力装置2によって与えられる全体画像から、複数の画像領域が領域分離工程で識別分離される。領域分離工程で分離される画像領域のうち、予め定める特定画像領域である無彩文字形成領域に関して、最大濃度値が最大画素値取得工程で取得される。取得される最大濃度値と最大目標値とに基づいて、補正情報が情報演算工程で演算される。補正情報は、無彩文字形成領域の画素の濃度値を補正するための情報である。演算された補正情報に基づいて、無彩文字形成領域の画素の濃度値が補正工程で補正される。補正情報を用いることによって、無彩文字形成領域における最大濃度値が元々有している本来の濃度値になるように、原稿画像を読取るときに生じた読取り誤差を補正することができる。これによって読取り誤差を無くして、本来の濃度値になるように、無彩文字形成領域の画素の濃度値を精度良く補正することができる。
【0120】
さらに本実施の形態によれば、無彩文字形成領域に関して、最小濃度値が最小画素値取得工程で取得される。最小画素値取得工程で取得される最小濃度値および最大濃度値、ならびに最小目標値および最大目標値に基づいて、補正情報が情報演算工程で演算される。このように補正情報は、最大濃度値および最大目標値に加えて、最小濃度値および最小目標値を考慮して演算される。これによって最大濃度値および最小濃度値が、それぞれ本来の濃度値になるように、原稿画像を読取るときに生じた読取り誤差を補正することができる。したがって無彩文字形成領域の画素の濃度値を精度良く補正することができるとともに、全体画像における特定画像領域のコントラストを正確に再現することができる。
【0121】
さらに本実施の形態によれば、前記情報演算工程では、神経回路網55を用いて補正情報が演算される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。情報演算工程では神経回路網55を用いるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、情報演算工程における処理を実現するために要するコストを可及的に削減することができる。
【0122】
さらに本実施の形態によれば、前記最大目標値は、画像入力装置2の入力特性に基づいて設定されるので、画像入力装置2に応じた補正情報を情報演算工程で正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字領域の文字は、その濃度が文字の太さに拘わらず一様であり、かつ最大の濃度値を有する画素によって表される。これによって元々有している本来の濃度値である最大目標値を予め知ることができる。このように最大目標値が既知である場合には、最大目標値を有する画素を含む画像を、画像入力装置2で読込んでおくことによって、最大目標値を予め設定することができる。これによって補正情報を情報演算工程で正確に演算することができる。
【0123】
本実施の形態では、黒生成下色除去部15は、黒階調補正部30を含む構成であったけれども、黒階調補正部30が黒生成下色除去部15と別途に設けられる構成であってもよく、この場合、画像処理装置3は、黒階調補正部30が黒生成下色除去部15の前段で処理するように構成される。
【0124】
図21は、本発明の他の実施の形態における画像形成装置1Aの画像処理装置3Aが備える黒階調補正部30Aの構成を示すブロック図である。本実施の形態の画像形成装置1Aは、前述の図1〜図20に示す実施の形態の画像形成装置1と類似しており、同様の構成には同一の参照符号を付し、同様の説明は省略する。本実施の形態では、全体画像が与えられるたびに演算した補正情報に基づいて補正するのではなく、無彩文字形成領域のサンプル画像から得られた補正情報に基づいて補正された濃度値を予め求めておき、これと最大濃度値および最小濃度値とを関連付けたルックアップテーブルを予め備えておく。前述の無彩文字形成領域のサンプル画像は、たとえば図5および図6に示す教師用原稿50,50Aなどにおける画像である。
【0125】
このようにルックアップテーブルを予め備えておくことは、画像入力装置2の解像性能などの入力特性が一定である場合または既知である場合に有効である。本実施の形態では、ルックアップテーブルは、シアン、マゼンタおよびイエローの各色に関して、入力8ビット(8bit)および出力8ビット(8bit)で対応することができる。
【0126】
具体的には入力特性が一定または既知である画像入力装置2を用いて、無彩文字形成領域のサンプル画像からシアン、マゼンタおよびイエローの各色に関する変換グラフを表わす関数が、たとえばシミュレーションなどによって求められ、その関数に基づいて補正したサンプル画像の画素の濃度値が予め求められる。この補正したサンプル画像の画素の濃度値と、サンプル画像における最大濃度値および最小濃度値とは、それぞれ関連付けられてルックアップテーブルとして各色記憶部71に記憶される。
【0127】
各色記憶部71のシアン用記憶部71aは、サンプル画像に基づいて求められた補正後のシアンに関する濃度値と、シアンに関する最大濃度値および最小濃度値とをそれぞれ関連付けたルックアップテーブルを記憶する。マゼンタ用記憶部71bは、サンプル画像に基づいて求められた補正後のマゼンタに関する濃度値と、マゼンタに関する最大濃度値および最小濃度値とをそれぞれ関連付けたルックアップテーブルを記憶する。イエロー用記憶部71cは、求められた補正後のイエローに関する濃度値と、イエローに関する最大濃度値および最小濃度値とをそれぞれ関連付けたルックアップテーブルを記憶する。
【0128】
画像入力装置2からの全体画像における無彩文字形成領域の画素の濃度値のうち、最大濃度値が各色高濃度取得部32によって取得されて、各色補正部72に与えられる。具体的には無彩文字形成領域の画素の濃度値のうち、シアンに関する最大濃度値がシアン用補正部72aに与えられ、マゼンタに関する最大濃度値がマゼンタ用補正部72bに与えられ、イエローに関する最大濃度値がイエロー用補正部72cに与えられる。画像入力装置2からの全体画像における無彩文字形成領域の画素の濃度値のうち、最小濃度値が各色低濃度取得部33によって取得されて、各色補正部72に与えられる。具体的には無彩文字形成領域の画素の濃度値のうち、シアンに関する最小濃度値が、シアン用補正部72aに与えられ、マゼンタに関する最小濃度値が、マゼンタ用補正部72bに与えられ、イエローに関する最小濃度値が、イエロー用補正部72cに与えられる。
【0129】
各色補正部72は、取得された最大濃度値および最小濃度値に基づいて、それらに対応するサンプル画像における最大濃度値および最小濃度値と関連付けられる補正後の濃度値をルックアップテーブルから読み出して、無彩文字形成領域の画素の濃度値を、記憶される補正後の濃度値に置き換えて補正する。具体的にはシアン用補正部72aは、取得されたシアン用最大濃度値およびシアン用最小濃度値に基づいて、それらにそれぞれ対応するサンプル画像のシアンに関する最大濃度値および最小濃度値に関連付けられる補正後のシアンに関する濃度値を、シアン用記憶部71aに記憶されるルックアップテーブルから読み出す。さらにシアン用補正部72aは、無彩文字形成領域の画素のシアンに関する濃度値を、読み出した補正後のシアンに関する濃度値に置き換えて補正する。マゼンタ補正部72bは、取得されたマゼンタ用最大濃度値およびマゼンタ用最小濃度値にそれぞれ対応するサンプル画像のマゼンタに関する最大濃度値および最小濃度値に関連付けられる補正後のマゼンタに関する濃度値を、マゼンタ用記憶部71bに記憶されるルックアップテーブルから読み出す。さらにマゼンタ用補正部72bは、無彩文字形成領域の画素のマゼンタに関する濃度値を、読み出した補正後のマゼンタに関する濃度値に置き換えて補正する。イエロー用補正部72cは、取得されたイエロー用最大濃度値およびイエロー用最小濃度値にそれぞれ対応するサンプル画像のイエローに関する最大濃度値および最小濃度値に関連付けられる補正後のイエローに関する濃度値を、イエロー用記憶部71cに記憶されるルックアップテーブルから読み出す。さらにイエロー用補正部72cは、無彩文字形成領域の画素のイエローに関する濃度値を、読み出した補正後のイエローに関する濃度値に置き換えて補正する。黒階調補正部30Aにおける処理は、全体画像の各画素を注目画素に設定して、注目画素に設定された画素が無彩文字形成領域に属する場合に施される。このようにして黒階調補正部30Aによって補正された無彩文字形成領域の画素の濃度値に基づいて、黒生成下色除去部15Aが黒生成処理および下色除去処理を施す。
【0130】
前述のようにサンプル画像を用いて補正された画素の濃度値を、ルックアップテーブルとして記憶しておくことによって、全体画像が与えられるたびに補正情報を演算して補正する場合に比べて、補正する処理の処理速度を低下させることなく、かつ向上することができる。これによって高速の補正処理をすることができるとともに、前述の効果すなわち無彩文字形成領域の画素の濃度値を精度良く補正することができる画像処理装置3Aを実現することができる。
【0131】
また全体画像に対して一様な補正曲線を用いて濃度値を補正するガンマ補正をするので、領域単位で黒生成量を制御する場合に比べてギャップ量を少なくして、原稿画像を滑らかに再現することができる。
【0132】
図22は、黒階調補正部30Aおよび黒生成下色除去部15Aによる処理の手順を示すフローチャートである。本実施の形態における画像処理方法は、情報記憶工程、領域分離工程および補正工程を含む。情報記憶工程では、無彩文字形成領域のサンプル画像の最大濃度値と、最大目標値とに基づいて演算された補正情報により補正した前記サンプル画像の画素の濃度値が、各色記憶部71によって記憶される。演算された補正情報は、シアン、マゼンタおよびイエローの各色に関する変換グラフを表わす関数である。この各色に関する変換グラフを表わす関数により補正した前記サンプル画像の画素の濃度値と、最大濃度値および最小濃度値とを関連付けたルックアップテーブルが、各色記憶部71に記憶される。ステップa4の補正工程では、各色記憶部71に記憶される補正後のサンプル画像の画素の濃度値に基づいて、全体画像における無彩文字形成領域の画素の濃度値が、各色補正部72によって補正される。本実施の形態では、ステップa0で画像処理方法に基づく処理手順が開始される前に、情報記憶工程および領域分離工程における処理が既に行われている。また本実施の形態の画像処理方法は、ステップa5の黒生成下色除去処理をする工程をさらに含む。
【0133】
ステップa0では、本実施の形態の画像処理方法に従う処理手順を開始して、ステップa1に進む。ステップa1では、黒階調補正部30Aが図8のステップs1と同様の処理をする。ステップa1において注目画素36が無彩文字領域に属すると判断されるとステップa2に進み、注目画素36が無彩文字領域に属さないと判断されるとステップa6に進んですべての処理手順を終了する。ステップa2では、図8のステップs2と同様に処理されてステップa3に進む。
【0134】
ステップa3の最大画素値取得工程および最小画素値取得工程では、各色高濃度取得部32は、予め定める特定画像領域である無彩文字形成領域に属する画素のシアン、マゼンタおよびイエローの各色に関する最大濃度値を取得し、各色低濃度取得部33は、無彩文字形成領域に属する画素のシアン、マゼンタおよびイエローの各色に関する最小濃度値を取得する。ステップa3で最大濃度値および最小濃度値が取得されると、ステップa4に進む。
【0135】
ステップa4では、各色補正部72が、ルックアップテーブルから濃度値を読み出す。具体的には各色補正部72が、全体画像における無彩文字形成領域の画素の最大濃度値および最小濃度値にそれぞれ対応するサンプル画像の画素の最大濃度値および最小濃度値に関連付けられる補正後の濃度値を、ルックアップテーブルから読み出す。さらに全体画像における無彩文字形成領域の画素の濃度値を、読み出した前記補正後の濃度値に置き換えて補正する。ステップa4でルックアップテーブルに基づいて無彩文字形成領域の画素の濃度値が補正されると、ステップa5に進む。ステップa5では、図8のステップs6と同様に、黒生成下色除去部15Aが、黒生成下色除去処理をして、ステップa6に進んですべての処理手順を終了する。ステップa5において、無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値が補正されると、ステップa6に進んですべての処理手順を終了する。
【0136】
本実施の形態によれば、予め定める特定画像領域である無彩文字形成領域のサンプル画像の最大濃度値と、その最大の画素値を補正するための予め設定される最大目標値とに基づいて演算された補正情報により補正された前記サンプル画像の画素の濃度値が、各色記憶部71に記憶される。各色補正部72は、領域分離処理部13によって全体画像から識別分離された無彩文字形成領域の画素の濃度値を、各色記憶部71に記憶される補正後のサンプル画像の画素の濃度値に基づいて補正する。これによって、たとえば画像入力装置2の入力特性が一定または既知である場合には、画像入力装置2が全体画像を与えるたびに補正情報を演算することなく、無彩文字形成領域のサンプル画像の画素の濃度値に基づいて補正情報を推定し、この補正情報に基づいて補正したサンプル画像の画素の濃度値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の濃度値に基づいて、領域分離工程で全体画像から識別分離された無彩文字形成領域の画素の濃度値を精度良く補正することができる。これによって画像処理装置1A、具体的には黒階調補正部30Aによる処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0137】
さらに本実施の形態によれば、情報記憶工程では、無彩文字形成領域のサンプル画像の最大の濃度値と、その最大の濃度値を補正するための予め設定される最大目標値とに基づいて演算した補正情報により補正した前記サンプル画像の画素の濃度値が、各色記憶部71に記憶される。補正工程では、各色記憶部71に記憶される補正後のサンプル画像の画素の濃度値に基づいて、領域分離工程で全体画像から識別分離された特定画像領域の画素の濃度値が補正される。これによって画像入力装置2の入力特性が一定または既知である場合には、画像入力装置2が全体画像を与えるたびに補正情報を演算することなく、無彩文字形成領域のサンプル画像を用いて補正情報を推定し、この補正情報に基づいて補正したサンプル画像の画素の濃度値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の濃度値に基づいて、識別分離された無彩文字形成領域の画素の濃度値を精度良く補正することができる。これによって画像処理装置1A、具体的には黒階調補正部30Aによる処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0138】
本実施の形態では、黒生成下色除去部15Aは、黒階調補正部30Aを含む構成であったけれども、黒階調補正部30Aが黒生成下色除去部15Aを別途に設けられる構成であってもよく、この場合、画像処理装置3Aは、黒階調補正部30Aが黒生成下色除去部15Aの前段で処理するように構成される。また解像性能などの特性が異なる複数種類の画像入力装置2に対する補正情報をそれぞれ記憶させておいて、複数種類の画像入力装置2に対応できる構成であってもよい。
【0139】
本発明の各実施の形態では、領域分離処理部13における局所マスクを、ラインメモリ37を用いて形成する構成であってもよい。またラインメモリ37において、濃度値が記憶される画素の数が各色局所マスク35のサイズに基づいて限定されるものではなく、FIFO形メモリの数によって変更してもよいし、ハードディスクなどの記憶手段と協働して濃度値を記憶する構成であってもよい。これによって各色局所マスク35に含まれる画素の数を容易に変更して、画像領域の判定処理および特定画像領域の画素の濃度値の補正処理を正確に行うことができる。また補正情報を演算するために、各色局所マスク35に関してシアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値を用いる換わりに、たとえば各色局所マスク35の各画素の濃度値を昇順または降順に並べて、上位所定番目の画素の濃度値と下位所定番目の画素の濃度値とを用いる構成であってもよい。
【0140】
図23は、本発明のさらに他の実施の形態であるコンピュータシステム75の構成を示す図である。本実施の形態は、本発明の画像処理方法を、コンピュータに実行させるためのプログラムを用いて、コンピュータ読取り可能な記録媒体83にプログラム84を記録するように構成される。これによって本発明の画像処理方法を実行するためのプログラム84を記録した記録媒体83を持運びできる。コンピュータシステム75は、コンピュータ76、画像表示装置78、画像入力装置79、画像出力装置であるプリンタ80、入力装置であるキーボード81およびマウス82を含んで構成される。コンピュータ76は、コンピュータ76から分離可能な記録媒体であるROM77を含んで構成される。
【0141】
コンピュータシステム75では、プログラムがROM77に記録される。コンピュータ76が、ROM77から上述のプログラムを読取り、実行することによって本発明の画像処理方法が施される。また図示しない外部記憶装置であるプログラム読取り装置に、プログラム84が記録される記録媒体83を挿入することによって、この記録媒体83からプログラム84を読込ませて、コンピュータ76にプログラム84を実行させてもよい。
【0142】
画像表示装置78は、コンピュータ76による処理結果を表示する装置であって、たとえばシーアールティー(cathode ray tube display;略称CRT)ディスプレイおよび液晶ディスプレイが用いられる。画像入力装置79は、原稿に形成される画像を読取る装置であって、たとえばフラットベッドスキャナ、フィルムスキャナおよびデジタルカメラが用いられる。プリンタ80は、コンピュータ76による処理結果を画像として記録材に形成する。さらにコンピュータシステム75には、たとえば通信ネットワークを介して、サーバーに接続するための通信手段であるモデムが設けられてもよい。
【0143】
プログラム84は、マイクロプロセッサによって記録媒体83から読出されることによって、コンピュータ76に実行される構成であってもよいし、読出されたプログラム84は、コンピュータ76に設けられるプログラム記憶エリアに一旦転送されてから、実行される構成であってもよい。
【0144】
記録媒体83は、コンピュータ76と分離できるように構成され、磁気テープおよびカセットテープによって固定的にプログラム84を記録する媒体であってもよい。その他の記録媒体83の一例として、磁気ディスクの場合には、フレキシブルディスクおよびハードディスク、ならびに光ディスクの場合には、コンパクトディスク−リードオンリーメモリ(Compact Disk - Read Only Memory;略称CD−ROM)、マグネットオプティカル(Magneto Optical;略称MO)、ミニディスク(Mini Disk;略称MD)、デジタルバーサタイルディスク(Digital Versatile Disk;略称DVD)を、記録媒体83として用いてもよい。
【0145】
また半導体メモリであるマスクROM、イーピーロム(Erasable Programmable Read Only Memory;略称EPROM)、イーイーピーロム(Electrically Erasable Programmable Read Only Memory;略称EEPROM)、およびフラッシュロム(Flash Read Only Memory)を記録媒体83として用いることもできる。
【0146】
コンピュータシステム75は、インターネットを含む通信ネットワークに接続可能な構成であってもよく、通信ネットワークを介して上述のプログラム84をROM77に転送し、記録するように流動的にプログラム84を記録する記録媒体83であってもよい。このように通信ネットワークを介してプログラム84をダウンロードする場合には、プログラム84を転送、すなわちダウンロードするためのダウンロードプログラムは、予めコンピュータシステム75に記録されているか、あるいは別な記録媒体83からコンピュータシステム75に導入、すなわちインストールされるものであってもよい。
【0147】
本実施の形態によれば、補正情報に基づいて、特定画像領域である無彩文字形成領域の画素の濃度値を補正する画像処理方法をプログラム84で表すことによって、コンピュータに前述の画像処理方法に従う処理を実行させることができる。前記画像処理方法に従う処理をコンピュータ76に実行させることによって、原稿における特定画像領域が表す画像を精度良く再現することができる。
【0148】
さらに本実施の形態によれば、補正情報に基づいて、無彩文字形成領域の画素の濃度値を補正する画像処理方法をコンピュータ76に実行させるためのプログラム84を、コンピュータ76によって読取り可能な記録媒体83に記録させる。たとえばフレキシブルディスクなどの持運び可能な記録媒体83にプログラム84を記録させることによって、プログラム84を記録媒体83から所望のコンピュータ76に読込ませることができるとともに、記録媒体83からコンピュータ76にプログラム84を読込ませて、このプログラム84をコンピュータ76に実行させることができる。
【0149】
【発明の効果】
本発明によれば、複数の色に関する画素値を有する画素を含む全体画像が、画像入力手段によって与えられる。この全体画像から、複数の画像領域が領域分離手段によって識別分離される。分離される画像領域のうち、予め定める特定画像領域に関して、最大の画素値が最大画素値取得手段によって取得される。取得される最大の画素値と、前記最大の画素値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算手段によって演算される。補正情報は、特定画像領域の画素の画素値を補正するための情報である。演算された補正情報に基づいて、特定画像領域の画素の画素値が補正手段によって補正される。補正情報を用いることによって、特定画像領域における最大の画素値が本来の画素値になるように、特定画像領域の画素の画素値を補正することができる。これによってたとえば原稿に形成される画像を読取るときに生じた読取り誤差を補正して、読取り誤差を無くすことができる。したがって画像入力手段によって与えられるべき画素値になるように、特定画像領域の画素の画素値を精度良く補正することができる。
【0150】
また本発明によれば、前記特定画像領域に関して、最小の画素値が最小画素値取得手段によって取得される。最小画素値取得手段によって取得される最小の画素値と、前記最小の画素値を補正するための予め設定される最小目標値と、最大の画素値と、前記最大の画素値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算手段によって演算される。このように補正情報は、最大の画素値および最大目標値に加えて、最小の画素値および最小目標値を考慮して演算される。これによって最大および最小の画素値が、本来の画素値になるように、全体画像における特定画像領域を読取るときに生じた読取り誤差を補正することができる。したがって特定画像領域の画素の画素値を正確に補正したうえで、全体画像における特定画像領域のコントラストを正確に再現することができる。
【0151】
また本発明によれば、前記情報演算手段は、神経回路網を含んで構成される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。情報演算手段が神経回路網を含んで構成されるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、情報演算手段を実現するために要するコストを可及的に削減することができる。
【0152】
また本発明によれば、前記最大目標値は、画像入力手段の入力特性に基づいて設定されるので、画像入力手段に応じた補正情報を正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字形成領域の文字は、その濃度が文字の太さに拘わらず一様でありかつ文字領域において最大となるとともに、下地領域は、その濃度が一様で最小となる。全体画像における文字形成領域を読み取った場合、文字に対応する画素の画素値は、文字形成領域において最大の画素値になり、下地に対応する画素の濃度値は最小になると想定することができる。これによって本来の画素値である最大目標値および最小目標値を予め設定することができる。このように特定画像領域の画素の画素値を補正するための目標値が既知である場合には、目標値を有する画素を含む全体画像を画像入力手段で読込んでおくことによって、目標値を予め設定することができる。これによって補正情報を正確に演算することができる。
【0153】
また本発明によれば、予め定める特定画像領域のサンプル画像の最大の画素値と、その最大の画素値を補正するための予め設定される最大目標値とに基づいて演算された補正情報により補正された前記サンプル画像の画素の画素値が、記憶手段に記憶される。領域分離手段によって識別分離された特定画像領域の画素の画素値が、記憶手段に記憶される補正後のサンプル画像の画素の画素値に基づいて、補正手段によって補正される。これによって、たとえば画像入力手段の入力特性が一定または既知である場合には、画像入力手段が全体画像を与えるたびに補正情報を演算することなく、特定画像領域のサンプル画像の画素の画素値に基づいて補正情報を推定し、この補正情報に基づいて補正したサンプル画像の画素の画素値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の画素値を用いることによって、全体画像から領域分離手段によって識別分離された特定画像領域の画素の画素値を精度良く補正することができる。これによって画像処理装置による処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0154】
また本発明によれば、画像形成装置は、前述の画像処理装置を備えるので、特定画像領域の画素の画素値を、本来の画素値になるように精度良く補正することができる。これによって全体画像における特定画像領域を正確に再現することが可能な画像形成装置を実現することができる。
【0155】
また本発明によれば、複数の色に関する画素値を有する画素を含む全体画像が、画像入力手段によって与えられる。この全体画像から、複数の画像領域が領域分離工程で識別分離される。領域分離工程で分離される画像領域のうち、予め定める特定画像領域に関して、最大の画素値が最大画素値取得工程で取得される。取得される最大の画素値と、前記最大の画素値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算工程で演算される。補正情報は、特定画像領域の画素の画素値を補正するための情報である。演算された補正情報に基づいて、特定画像領域の画素の画素値が補正工程で補正される。補正情報を用いることによって、特定画像領域における最大の画素値が画像入力手段によって与えられるべき画素値になるように、全体画像における特定画像領域を読取るときに生じた読取り誤差を補正することができる。これによって読取り誤差を無くして、本来の画素値になるように、特定画像領域の画素の画素値を精度良く補正することができる。
【0156】
また本発明によれば、前記特定画像領域に関して、最小の画素値が最小画素値取得工程で取得される。最小画素値取得工程で取得される最小の画素値と、前記最小の画素値を補正するための予め設定される最小目標値と、最大の画素値と、前記最大の画素値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算工程で演算される。このように補正情報は、最大の画素値および最大目標値に加えて、最小の画素値および最小目標値を考慮して演算される。これによって最大および最小の画素値が、それぞれ本来の画素値になるように、全体画像における特定画像領域を読取るときに生じた読取り誤差を補正することができる。したがって特定画像領域の画素の画素値を精度良く補正することができるとともに、全体画像における特定画像領域のコントラストを正確に再現することができる。
【0157】
また本発明によれば、前記情報演算工程では、神経回路網を用いて補正情報が演算される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。情報演算工程では、神経回路網を用いるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、情報演算手段を実現するために要するコストを可及的に削減することができる。
【0158】
また本発明によれば、前記最大目標値は、画像入力手段の入力特性に基づいて設定されるので、画像入力手段に応じた補正情報を正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字形成領域の文字は、その濃度が文字の太さに拘わらず一様であり、かつ最大の画素値を有する画素によって表される。これによって本来の画素値である最大目標値を予め知ることができる。このように最大目標値が既知である場合には、最大目標値を有する画素を含む全体画像を画像入力手段で読込んでおくことによって、最大目標値を予め設定することができる。これによって補正情報を正確に演算することができる。
【0159】
また本発明によれば、情報記憶工程では、予め定める特定画像領域のサンプル画像の最大の画素値と、その最大の画素値を補正するための予め設定される最大目標値とに基づいて演算した補正情報により補正した前記サンプル画像の画素の画素値が記憶手段に記憶される。補正工程では、記憶手段に記憶される補正後のサンプル画像の画素の画素値に基づいて、領域分離工程で全体画像から識別分離された特定画像領域の画素の画素値が補正される。これによって画像入力手段の入力特性が一定または既知である場合には、画像入力手段が全体画像を与えるたびに補正情報を演算することなく、特定画像領域のサンプル画像を用いて補正情報を推定し、この補正情報に基づいて補正したサンプル画像の画素の画素値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の画素値を用いることによって、識別分離された特定画像領域の画素の画素値を精度良く補正することができる。これによって画像処理装置による処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0160】
また本発明によれば、補正情報に基づいて、特定画像領域の画素の画素値を補正する画像処理方法をプログラムで表すことによって、コンピュータに前述の画像処理方法に従う処理を実行させることができる。前記画像処理方法に従う処理をコンピュータに実行させることによって、原稿における特定画像領域が表す画像を精度良く再現することができる。
【0161】
また本発明によれば、補正情報に基づいて、特定画像領域の画素の画素値を補正する画像処理方法をコンピュータに実行させるためのプログラムを、コンピュータによって読取り可能な記録媒体に記録させる。たとえばフレキシブルディスクなどの持運び可能な記録媒体にプログラムを記録させることによって、プログラムを記録媒体から所望のコンピュータに読込ませることができるとともに、記録媒体からコンピュータにプログラムを読込ませて、このプログラムをコンピュータに実行させることができる。
【図面の簡単な説明】
【図1】本発明の実施の一形態である画像形成装置1が備える画像処理装置3の黒階調補正部30の構成を示すブロック図である。
【図2】画像形成装置1全体の構成を示すブロック図である。
【図3】領域分離処理部13の構成を示すブロック図である。
【図4】黒階調補正部30によって形成される各色局所マスク35を説明するための図である。
【図5】教師データを設定するための教師用原稿50を説明するための図である。
【図6】教師データを設定するための教師用原稿50Aを説明するための図である。
【図7】神経回路網55を示すブロック図である。
【図8】黒階調補正部30および黒生成下色除去部15による処理の手順を示すフローチャートである。
【図9】反復回数timeとシアンに関する誤差量energyとの関係を表すグラフである。
【図10】図9における反復回数timeが50,000回である場合のシアン用入力信号値とシアン用補正信号値との関係を表すグラフである。
【図11】反復回数timeとマゼンタに関する誤差量energyとの関係を表すグラフである。
【図12】図11における反復回数timeが50,000回である場合のマゼンタ用入力信号値とマゼンタ用補正信号値との関係を表すグラフである。
【図13】反復回数timeとイエローに関する誤差量energyとの関係を表すグラフである。
【図14】図13における反復回数timeが50,000回である場合のイエロー用入力信号値とイエロー用補正信号値との関係を表すグラフである。
【図15】補正なし画像64Aを説明するための図である。
【図16】補正後画像64Bを説明するための図である。
【図17】補正なし画像64Aに関する濃度ヒストグラムである。
【図18】補正後画像64Bに関する濃度ヒストグラムである。
【図19】図15の実線65Aにおける濃度断面である。
【図20】図16の実線65Bにおける濃度断面である。
【図21】本発明の他の実施の形態における画像形成装置1Aの画像処理装置3Aが備える黒階調補正部30Aの構成を示すブロック図である。
【図22】黒階調補正部30Aおよび黒生成下色除去部15Aによる処理の手順を示すフローチャートである。
【図23】本発明のさらに他の実施の形態であるコンピュータシステム75の構成を示す図である。
【符号の説明】
1,1A 画像形成装置
2 画像入力装置
3,3A 画像処理装置
13 領域分離処理部
15,15A 黒生成下色除去部
30,30A 黒階調補正部
32 各色高濃度取得部
33 各色低濃度取得部
34 各色ニューラルネットワーク
38,71 各色記憶部
39 各色学習部
40,72 各色補正部
55 神経回路網
75 コンピュータシステム
76 コンピュータ
83 記録媒体
84 プログラム[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing method for correcting pixel values of pixels of a specific image region or an entire image, a program for executing the method, a recording medium storing the program, an image processing apparatus, and an image forming apparatus including the same About.
[0002]
[Prior art]
In recent years, the digitization of office automation (OA) equipment has rapidly progressed, and the demand for color image output that forms and outputs chromatic images in addition to achromatic colors has increased. ing. Image output apparatuses that output color images include electrophotographic digital color copiers, inkjet and thermal transfer color printers, and the like. For example, image data given by a digital camera and a scanner, or image data created by a computer is given to the above-described image output device, and an image is formed on a recording material. When an image is formed on a recording material based on input image data, the image needs to be formed in a state where density reproducibility is always stable. In order to always stabilize the reproducibility of the image density, it is necessary to separate the input image data into a plurality of image areas and correct the pixel density values for the separated image areas. In a conventional color image processing apparatus, the degree of fine line of characters is calculated from the character area of an image read from a document, and the amount of black generation is controlled according to the degree of fine line (see, for example, Patent Document 1). The fine line degree is a feature amount that takes a larger value as the line width is smaller and the line is thinner. The color image processing apparatus controls the character density reproducibility as uniform as possible by controlling the black generation amount using the fine line degree.
[0003]
[Patent Document 1]
JP-A-11-69174
[0004]
[Problems to be solved by the invention]
In the conventional color image processing apparatus, the black generation amount is controlled from the line width, which is a characteristic amount related to non-uniformity, for a character region to be reproduced uniformly regardless of the thickness of the character. For example, when it is determined that the line width is small and the character is thin, the black amount is uniformly added to the character. As described above, since a fixed black amount is always given according to the width of the line, it may not be the same as the density of characters formed on the original, and the image formed on the original cannot be accurately reproduced. .
[0005]
Accordingly, an object of the present invention is to provide an image processing method capable of accurately reproducing an image formed on an original, for example, characters, a program for executing the method, a recording medium storing the program, an image processing apparatus, and the same An image forming apparatus is provided.
[0006]
[Means for Solving the Problems]
  The present invention provides an area separating unit for discriminating and separating a plurality of image areas from an entire image including pixels having pixel values related to a plurality of colors provided by an image input unit.
  Of the image areas to be separated,Maximum density value for each color local block including the pixel of interest belonging to the achromatic character formation areaMaximum pixel value acquisition means for acquiring
  Minimum pixel value acquisition means for acquiring a minimum density value for each color local block including the target pixel belonging to the achromatic character formation region;
  Comprising a neural network,The maximum to be retrievedconcentrationValue and said maximumconcentrationUsed in advance to correct the valueDepending on teacher dataMaximum target value to be setA minimum density value to be acquired, and a minimum target value set in advance by teacher data used to correct the minimum density value;On the basis of the,Calculate and update the weights representing the connection strength between neurons in the neural network by learning so that there is no error between the maximum density value and the maximum target value and the error between the minimum density value and the minimum target value.Information computing means;
  Updated weightOn the basis of the,Achromatic character forming regionOf pixelsconcentrationAn image processing apparatus including a correction unit that corrects a value.
[0007]
  According to the present invention, an entire image including pixels having pixel values relating to a plurality of colors is provided by the image input means. A plurality of image areas are identified and separated from the whole image by the area separating means. Of the image areas to be separated,Achromatic character formation areaWith respect toMaximum density value for each color local block including the pixel of interest belonging to the achromatic character formation areaIs acquired by the maximum pixel value acquisition means.Similarly, the minimum pixel value acquisition unit acquires the minimum density value for each color local block including the target pixel belonging to the achromatic character formation region. Weight indicating the strength of connection between neurons in the neural network by learning so that there is no error between the maximum density value and the maximum target value, and no error between the minimum density value and the minimum target valueIs calculated by the information calculation means. PerformanceCalculatedweightOn the basis of the,Achromatic character formation areaOf pixelsconcentrationThe value is corrected by the correcting means.Achromatic character formation areaMaximum inconcentrationvalueMinimum density valueSo that the original pixel value ofAchromatic character formation areaOf pixelsconcentrationThe value can be corrected.
  As a result, for example, a reading error generated when reading an image formed on a document can be corrected to eliminate the reading error. Therefore, so that it becomes the original pixel value,Achromatic character formation areaOf pixelsconcentrationThe value can be corrected with high accuracy.
[0009]
  By correcting so that the maximum density value and minimum density value in the achromatic character formation area are the original pixel values originally possessed,Of pixelsconcentrationIt is possible to accurately reproduce the contrast of the specific image area in the entire image after correcting the value accurately.
[0011]
  Also,The information calculation means includes a neural network. For example, when calculating correction information using a spline function, it is necessary to calculate the correction information using a higher-order function, so that the calculation becomes complicated, and in order to realize a calculation means for performing the calculation costly. Since the information calculation means includes a neural network, the correction information can be calculated easily and accurately by repeating simple product-sum operations. Accordingly, accurate correction information can be easily obtained, and the cost required for realizing the information calculation means can be reduced as much as possible.
[0012]
  The present invention also provides the maximum target value.And minimum target valueIsBy importing teacher data using teacher manuscriptsIt is set based on the input characteristics of the image input means.
[0013]
  According to the present invention, the maximum target valueAnd minimum target valueIsBy importing teacher data using teacher manuscriptsSince it is set based on the input characteristics of the image input means, the correction information corresponding to the image input means can be accurately calculated. For example, when the specific image area is a character forming area, the density of characters in the character forming area is uniform regardless of the thickness of the character and is the maximum in the character area, and the density of the background area is uniform. It is like and becomes the minimum. When the character forming area in the entire image is read, it can be assumed that the pixel value of the pixel corresponding to the character is the maximum pixel value in the character forming area, and the density value of the pixel corresponding to the background is minimum. Thereby, the maximum target value and the minimum target value, which are the original pixel values, can be set in advance. Thus, when the target value for correcting the pixel value of the pixel in the specific image region is known, the target value is obtained by reading the entire image including the pixel having the target value with the image input means. It can be set in advance. As a result, the correction information can be accurately calculated.
[0014]
  The present invention also providesStorage means for storing the weight updated by the information calculation means by learning using a sample image in advance;
  The correction unit corrects the density value of the pixel in the achromatic character formation region based on the stored weight.It is characterized by.
[0015]
  According to the present invention,The weight updated by the information calculation means is stored in the storage means by learning using the sample image. Achromatic character formation areaOf pixelsconcentrationThe value is stored in the storage meansweightIs corrected by the correction means. Thereby, for example, when the input characteristics of the image input means are constant or known, without calculating the correction information every time the image input means gives the whole image,Achromatic character formation areaBased on pixel value of pixel of sample imageweightEstimate thisweightThe pixel value of the pixel of the sample image corrected based on the above can be stored in advance. Thus, the corrected sample image pixels stored in advance are stored in advance.concentrationBy using the value, from the whole imageAchromatic character formation areaOf pixelsconcentrationThe value can be corrected with high accuracy. Thereby, the processing amount of the image processing apparatus can be reduced as much as possible, and the processing speed can be improved.
[0016]
The present invention also provides an image forming apparatus including the above-described image processing apparatus.
According to the present invention, since the image forming apparatus includes the above-described image processing apparatus, the pixel value of the pixel in the specific image area can be accurately corrected so as to be the pixel value of the original pixel. As a result, an image forming apparatus capable of accurately reproducing a specific image area in the entire image can be realized.
[0017]
  Further, the present invention provides an area separation step for identifying and separating a plurality of image areas from an entire image including pixels having pixel values related to a plurality of colors given by an image input means;
  Of the image areas to be separated,Maximum density value for each color local block including the pixel of interest belonging to the achromatic character formation areaA maximum pixel value acquisition step of acquiring
  A minimum pixel value acquisition step for acquiring a minimum density value for each color local block including a target pixel belonging to the achromatic character formation region;
  The maximum to be retrievedconcentrationValue and said maximumconcentrationUsed in advance to correct the valueDepending on teacher dataMaximum target value to be setA minimum density value to be acquired, and a minimum target value set in advance by teacher data used to correct the minimum density value;On the basis of the,Calculate and update the weights representing the connection strength between neurons in the neural network by learning so that there is no error between the maximum density value and the maximum target value and the error between the minimum density value and the minimum target value.Information calculation process;
  Updated weightOn the basis of the,Achromatic character forming regionOf pixelsconcentrationAnd a correction step for correcting the value.
[0018]
  According to the present invention, an entire image including pixels having pixel values relating to a plurality of colors is provided by the image input means. From this entire image, a plurality of image regions are identified and separated in the region separation step. Of the image areas separated in the area separation process,Achromatic character formation areaWith respect toMaximum density value for each color local block including the pixel of interest belonging to the achromatic character formation areaIs acquired in the maximum pixel value acquisition step.Similarly, the minimum density value for each color local block including the target pixel belonging to the achromatic character formation region is acquired in the minimum pixel value acquisition step. Weight indicating the strength of connection between neurons in the neural network by learning so that there is no error between the maximum density value and the maximum target value, and no error between the minimum density value and the minimum target valueIs calculated in the information calculation process. PerformanceCalculatedweightOn the basis of the,Achromatic character formation areaOf pixelsconcentrationThe value is corrected in the correction process.Achromatic character formation areaMaximum inconcentrationvalueMinimum density valueSo that the original pixel value ofAchromatic character formation areaOf pixelsconcentrationThe value can be corrected.
  As a result, the reading error is eliminated and the original pixel value is obtained.Achromatic character formation areaOf pixelsconcentrationThe value can be corrected with high accuracy.
[0020]
  MostLarge and smallestconcentrationEach value is originalconcentrationValue in the whole image to beAchromatic character formation areaCan be corrected. ThereforeAchromatic character formation areaOf pixelsconcentrationThe value can be corrected with high accuracy, and the contrast of the specific image region in the entire image can be accurately reproduced.
[0022]
  Also,In the information calculation step, correction information is calculated using a neural network. For example, when calculating correction information using a spline function, it is necessary to calculate the correction information using a higher-order function, so that the calculation becomes complicated and in order to realize a calculation means for performing the calculation costly. Since the neural network is used in the information calculation step, the correction information can be calculated easily and accurately by repeating simple product-sum operations. Accordingly, accurate correction information can be easily obtained, and the cost required for realizing the information calculation means can be reduced as much as possible.
[0023]
  The present invention also provides the maximum target value.And minimum target valueIsBy importing teacher data using teacher manuscriptsIt is set based on the input characteristics of the image input means.
[0024]
  According to the present invention, the maximum target valueAnd minimum target valueIsBy importing teacher data using teacher manuscriptsSince it is set based on the input characteristics of the image input means, the correction information corresponding to the image input means can be accurately calculated. For example, when the specific image region is a character forming region, the characters in the character forming region are represented by pixels having a uniform density regardless of the thickness of the character and having the maximum pixel value. Thus, the maximum target value that is the original pixel value can be known in advance. In this way, when the maximum target value is known, the maximum target value can be set in advance by reading the entire image including the pixel having the maximum target value with the image input means. As a result, the correction information can be accurately calculated.
[0025]
  The present invention also providesAn information storage step of storing the weight updated in the information calculation step by learning using a sample image in advance;
  In the correction step, the density value of the pixel in the achromatic character forming area is corrected based on the stored weight.It is characterized by.
[0026]
  According to the present invention, in the information storage step,The weight updated by the information calculation means is stored in the storage means by learning using a sample image in advance.In the correction process, it is stored in the storage means.weightBased on the identification and separation from the whole image in the region separation processAchromatic character formation areaThe pixel value of this pixel is corrected.
Thereby, for example, when the input characteristics of the image input means are constant or known, without calculating the correction information every time the image input means gives the whole image,Achromatic character formation areaBased on pixel value of pixel of sample imageweightEstimate thisweightThe pixel value of the pixel of the sample image corrected based on the above can be stored in advance. Thus, the corrected sample image pixels stored in advance are stored in advance.concentrationBy using the value, discriminated and separatedAchromatic character formation areaOf pixelsconcentrationThe value can be corrected with high accuracy. Thereby, the processing amount of the image processing apparatus can be reduced as much as possible, and the processing speed can be improved.
[0027]
The present invention is also a program for causing a computer to execute the above-described image processing method.
[0028]
  According to the present invention,Weights representing the strength of connections between neurons in a neural networkOn the basis of the,Achromatic character formation areaOf pixelsconcentrationBy representing the image processing method for correcting the value by a program, it is possible to cause the computer to execute processing according to the above-described image processing method. By causing the computer to execute processing according to the image processing method,Achromatic character formation areaCan be accurately reproduced.
[0029]
The present invention is also a computer-readable recording medium on which the aforementioned program is recorded.
[0030]
  According to the present invention,Weights representing the strength of connections between neurons in a neural networkOn the basis of the,Achromatic character formation areaOf pixelsconcentrationA program for causing a computer to execute an image processing method for correcting a value is recorded on a computer-readable recording medium. For example, by recording the program on a portable recording medium such as a flexible disk, the program can be read from the recording medium to a desired computer, and the program can be read from the recording medium to the computer. Can be executed.
[0031]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram illustrating a configuration of a black tone correction unit 30 of an image processing apparatus 3 provided in an image forming apparatus 1 according to an embodiment of the present invention. FIG. 2 is a block diagram illustrating the overall configuration of the image forming apparatus 1. FIG. 3 is a block diagram illustrating a configuration of the region separation processing unit 13. FIG. 4 is a diagram for explaining each color local mask 35 formed by the black gradation correction unit 30. 1-3, for easy illustration, the cyan signal is represented by “C”, the magenta signal is represented by “M”, and the yellow signal is represented by “Y”. In FIG. 2, for easy illustration, the red signal is represented by “R”, the green signal is represented by “G”, and the blue signal is represented by “B”. The image forming apparatus 1 is an apparatus that reads an image formed on a document, that is, a document image, performs an appropriate process so that the document image can be accurately reproduced, and forms an image on a recording material. The recording material includes a recording sheet made of paper and a material other than paper. The image forming apparatus 1 is, for example, a digital color copying machine, converts a read document image into digital data, performs various processes, and forms an image represented by an achromatic color and a chromatic color on a recording material. The image forming apparatus 1 includes an image input device 2, an image processing device 3, and an image output device 4.
[0032]
The image input device 2 is an image reading unit that reads an original image and an image input unit that gives the read original image to the image processing device 3. The image input device 2 includes a scanner unit including a solid-state image sensor. The scanner unit separates the light emitted from the light source and reflected by the document into three colors of red (R), green (G), and blue (B). The solid-state imaging device of the scanner unit is realized by, for example, a line sensor using an accumulated charge coupled device (abbreviated as CCD) (hereinafter, the “accumulated charge coupled device” may be referred to as a CCD). In the image input device 2, the original is irradiated with light by a light source, and the color of the reflected light from the original is detected by dividing it into a plurality of pixels arranged in the main scanning direction and the sub-scanning direction by the CCD line sensor. Read the image. The main scanning direction is a direction in which the CCD line sensor extends. The sub-scanning direction is the scanning direction of the scanner unit. Specifically, the sub-scanning direction is a direction perpendicular to the main scanning direction and along the original when reading the original image. Further, the image input device 2 supplies document image data representing a document image by the color and intensity of each pixel to the image processing device 3 by an electric signal. The document image data is represented by numerical values corresponding to the densities of three color components, red, green and blue. The document image data is given to the image processing device 3 by the image input device 2 as a red signal, a green signal, and a blue signal. The red signal is an electrical signal that represents the reflectance of red light from the original in an analog manner for each pixel (hereinafter, “red signal” may be referred to as “R signal”). The green signal is an electrical signal that represents the reflectance of green light from the original in an analog manner for each pixel (hereinafter, “green signal” may be referred to as “G signal”). The blue signal is an electrical signal that represents the reflectance of blue light from the original in an analog manner for each pixel (hereinafter, “blue signal” may be referred to as “B signal”).
[0033]
The image processing apparatus 3 is an apparatus that performs appropriate processing on the entire image so that the document image can be accurately reproduced during image formation. The whole image is a document image represented by document image data, and includes pixels having pixel values relating to a plurality of colors. The image processing apparatus 3 includes an analog-digital conversion unit (hereinafter referred to as “A / D conversion unit”) 10, a shading correction unit 11, an input tone correction unit 12, a region separation processing unit 13, a color correction unit 14, and a black generation. The under color removal unit 15, the spatial filter processing unit 16, the output tone correction unit 17, and the tone reproduction processing unit 18 are configured.
[0034]
The A / D converter 10 converts an applied analog signal into a digital signal. The A / D conversion unit 10 is an analog signal, and digitally represents the R signal, the G signal, and the B signal given by the image input device 2 and the reflectance of red light, green light, and blue light for each pixel. Convert each into a digital signal. The R signal, the G signal, and the B signal converted into digital signals by the A / D conversion unit 10 are given to the shading correction unit 11. The shading correction unit 11 performs a process of removing distortion components included in data represented by the R signal, the G signal, and the B signal from the A / D conversion unit 10. The shading correction unit 11 performs various distortions generated in the illumination system, the imaging optical system, and the imaging system (image receiving system) of the image input apparatus 2 with respect to the R signal, the G signal, and the B signal from the A / D conversion unit 10. Process to remove ingredients. The R signal, G signal, and B signal processed by the shading correction unit 11 are given to the input tone correction unit 12.
[0035]
The input tone correction unit 12 corrects the reflectance values of the light of the respective color components with respect to the R signal, G signal, and B signal from the shading correction unit 11 so as to adjust the color balance based on the R signal, the G signal, and the B signal. The component light reflectance values are converted into signals representing red light density values, green light density values, and blue light density values. The input tone correction unit 12 performs complementary color inversion on the R signal, the G signal, and the B signal represented by the red, green, and blue density values of each pixel to obtain a cyan signal that represents a cyan density value and a magenta density. A magenta signal representing a value and a yellow signal representing a yellow density value are converted. The cyan signal, magenta signal, and yellow signal processed by the input tone correction unit 12 are given to the region separation processing unit 13 (hereinafter, “cyan signal” is expressed as “C signal”, and “magenta signal” is expressed as “magenta signal”. M signal ”and“ yellow signal ”may be expressed as“ Y signal ”).
[0036]
The region separation processing unit 13 discriminates and separates a plurality of image regions from the entire image based on the C signal, M signal, and Y signal from the input tone correction unit 12. Specifically, the region separation processing unit 13 separates each pixel of the entire image into a plurality of image regions, for example, a character region and a halftone dot region, and a photographic region and a background region. The character area is an image area representing a character edge that is an edge portion of the character, and the character includes Chinese characters, English characters, numbers, and symbols. A halftone dot region is an image region that represents an image with a halftone dot. The other areas are an image area and a background area representing a photographic paper photographic image expressed in halftone. The region separation processing unit 13 includes a mask formation unit 20, a character region determination unit 21, a halftone dot region determination unit 22, and an identification signal generation unit 23. The mask forming unit 20 forms a local mask that includes a plurality of pixels and in which the plurality of pixels are arranged in a matrix. In the present embodiment, the mask forming unit 20 forms a local mask in which seven pixels are arranged in the main scanning direction and the sub-scanning direction, that is, a 7 × 7 local mask. The pixel at the center of the local mask is a target pixel that is a target of processing in the local mask. The C signal, M signal, and Y signal for each pixel in the local mask are provided to the edge detection unit 25, the chromatic / achromatic determination unit 26, and the halftone dot region determination unit 22 of the character region determination unit 21.
[0037]
The character area determination unit 21 determines whether each pixel of the entire image belongs to the character area. Further, the character area determination unit 21 determines whether the pixel belonging to the character area belongs to an achromatic character area in which the character is displayed in an achromatic color or a chromatic character area in which the character is displayed in a chromatic color. The character area determination unit 21 includes an edge detection unit 25, a chromatic / achromatic determination unit 26, and a signal determination unit 27. The edge detection unit 25 determines whether each pixel of the entire image is an edge pixel and detects an edge pixel. An edge pixel is a pixel that exhibits a steep change in density value that is significantly different from the density value of adjacent pixels. The edge detection unit 25 uses the 3 × 3 local mask centered on the pixel of interest among the 7 × 7 local masks based on the C signal, the M signal, and the Y signal from the mask formation unit 20, and And the difference between the density value of each adjacent pixel adjacent to the target pixel. The edge detection unit 25 compares the calculated density value difference with a predetermined threshold value. The edge detection unit 25 determines that the target pixel is an edge pixel when any of the calculated density value differences is equal to or greater than the threshold value, and all the calculated density value differences are smaller than the threshold value. In this case, it is determined that the target pixel is not an edge pixel. The edge detection unit 25 performs a determination process on the target pixel for each color of cyan, magenta, and yellow. For example, when the edge detection unit 25 determines that the target pixel is an edge pixel in any one of the colors, the edge detection unit 25 finally determines that the target pixel is an edge pixel. The determination process by the edge detection unit 25 may be realized by an edge detection filter such as a Sobel filter. An edge signal representing the determination result for the target pixel by the edge detection unit 25 is given to the signal determination unit 27.
[0038]
The chromatic / achromatic determination unit 26 determines whether each pixel of the entire image is a pixel representing a chromatic color or an achromatic color by performing threshold processing using the saturation information of the entire image, for example. . The chromatic / achromatic determining unit 26 obtains the maximum value and the minimum value for the cyan, magenta, and yellow density values of the target pixel of the 7 × 7 local mask, and subtracts the minimum value from the maximum value. Find the difference between these values. As shown in the following conditional expressions (1) and (2), the chromatic / achromatic determination unit 26 is a pixel in which the target pixel represents a chromatic color when the difference between the maximum value and the minimum value is greater than or equal to the threshold value TH. When the difference between the maximum value and the minimum value is smaller than the threshold value TH, it is determined that the target pixel is a pixel representing an achromatic color. A chromatic / achromatic determination signal representing a determination result for the target pixel by the chromatic / achromatic determination unit 26 is given to the signal determination unit 27.
max (C, M, Y) −min (C, M, Y) ≧ TH ... chromatic color (1)
max (C, M, Y) -min (C, M, Y) <TH ... achromatic ... (2)
[0039]
The signal determination unit 27 determines whether each pixel of the entire image belongs to an achromatic character region or a chromatic character region. Specifically, the signal determination unit 27 determines that the pixel of interest is an achromatic character region and a chromatic color based on the edge signal from the edge detection unit 25 and the chromatic / achromatic determination signal from the chromatic / achromatic determination unit 26. It is determined which pixel belongs to which character area. When the target pixel is an edge pixel and a pixel representing an achromatic color, the signal determination unit 27 determines that the target pixel belongs to an achromatic character region, and the target pixel is an edge pixel and represents a chromatic color. If it is a pixel, it is determined that the target pixel belongs to the chromatic character region. A character area determination signal representing a determination result for the target pixel by the signal determination unit 27 is provided to the identification signal generation unit 23.
[0040]
The halftone dot area determination unit 22 determines whether each pixel of the entire image belongs to the halftone dot area. The halftone dot region has a feature that the variation of the density value of pixels continuously arranged in a predetermined scanning direction is large with respect to the small region, and a feature that the density of the halftone dot is higher than the background as a background. The halftone dot region determination unit 22 performs a determination process using a P × Q local mask centered on the pixel of interest using the above-described features of the halftone dot region. P and Q are natural numbers and may be the same or different from each other. In the present embodiment, the halftone dot region determination unit 22 uses a 3 × 3 local mask centered on the target pixel among the 7 × 7 local masks formed by the mask forming unit 20. The halftone dot region determination unit 22 obtains an average density value Dave that is an average value of density values for the density values of 9 pixels in the 3 × 3 local mask, and a maximum density value Dmax that is a maximum density value. A minimum density value Dmin, which is the minimum density value, is obtained. The halftone dot region determination unit 22 binarizes the density value of each pixel in the 3 × 3 local mask using the average density value Dave. The halftone dot region determination unit 22 counts the number of change points from 0 to 1 and the number of change points from 1 to 0 in the main scanning direction based on the binarized result with respect to the 3 × 3 local mask, The sum of the number of change points is obtained as the number of change points Kr in the main scanning direction. The halftone dot region determination unit 22 counts the number of change points from 0 to 1 and the number of change points from 1 to 0 in the sub-scanning direction based on the binarized result regarding the 3 × 3 local mask, The sum of the number of change points is obtained as the change point number Kv in the sub-scanning direction.
[0041]
The halftone dot region determination unit 22 compares the number of change points Kr in the main scanning direction with a predetermined threshold value Tr, and compares the number of change points Kv in the sub-scanning direction with a predetermined threshold value Tv. Further, in order to prevent misjudgment between a halftone dot and a background, the halftone dot region determination unit 22 compares a value obtained by subtracting the average density value Dave from the maximum density value Dmax with a predetermined threshold value B1, and calculates the average density. A value obtained by subtracting the minimum density value Dmin from the value Dave is compared with a predetermined threshold B2. The halftone dot region determination unit 22 determines whether or not the target pixel belongs to the halftone dot region based on conditional expressions (3) to (6) shown below. The halftone dot region determination unit 22 determines that the target pixel belongs to the halftone dot region when all the conditional expressions (3) to (6) are satisfied, and does not satisfy any one of the conditional expressions (3) to (6). If there is a conditional expression, it is determined that the pixel of interest does not belong to the halftone area.
Dmax−Dave> B1 (3)
Dave-Dmin> B2 (4)
Kr> Tr (5)
Kv> Tv (6)
[0042]
As shown in the conditional expressions (3) to (6), the value obtained by subtracting the average density value Dave from the maximum density value Dmax is larger than the threshold value B1, and the value obtained by subtracting the minimum density value Dmin from the average density value Dave is the threshold value. If the change point number Kr in the main scanning direction is larger than the threshold value Tr and the change point number Kv in the sub-scanning direction is larger than the threshold value Tv, the halftone dot region determination unit 22 Is determined to belong to the halftone dot region. The halftone dot region determination unit 22 performs determination processing individually for each color of cyan, magenta, and yellow. When it is determined that the target pixel belongs to the halftone dot region in any of the colors, the halftone dot region determination unit 22 finally determines that the target pixel belongs to the halftone dot region. A halftone dot determination signal representing a determination result for the target pixel by the halftone dot region determination unit 22 is provided to the identification signal generation unit 23. For example, when the halftone dot region determination unit 22 determines that the target pixel belongs to the halftone dot region, an ON signal representing “1” is given to the identification signal generation unit 23 as a halftone dot determination signal, and the target pixel is halftone dot. When it is determined that it does not belong to the region, an OFF signal representing “0” is given to the identification signal generator 23 as a halftone dot determination signal.
[0043]
The identification signal generator 23 is an area representing the result of identifying and separating the image area from the entire image based on the character area determination signal from the character area determination section 21 and the halftone area determination signal from the halftone area determination section 22. An identification signal is generated. The area identification signal includes an achromatic character area signal, a chromatic character area signal, a halftone area determination signal, and other area signals described later. Based on the character area determination signal, the identification signal generation unit 23 includes an achromatic character area signal indicating that the pixel belongs to an achromatic character area, and a chromatic character area signal indicating that the pixel belongs to a chromatic character area. Is generated. The identification signal generator 23 generates a halftone dot region signal indicating that the pixel belongs to the halftone dot region based on the halftone dot determination signal. The identification signal generator 23 further generates another area signal indicating that the pixel belongs to the other area. Pixels determined not to belong to both the character area and the dot area are identified and separated into other areas. In addition, the identification signal generation unit 23 determines whether the character region determination signal is an achromatic character region signal or a chromatic character region signal and the halftone dot determination signal is “1”. Thus, the priority is set higher than the result of the character area determination unit 21, and the target pixel is determined to belong to the halftone dot area. The area identification signal generated for each pixel is supplied from the identification signal generation unit 23 to the black generation and under color removal unit 15, the spatial filter processing unit 16, and the gradation reproduction processing unit 18. The C signal, the M signal, and the Y signal given from the input tone correction unit 12 to the region separation processing unit 13 are given from the region separation processing unit 13 to the color correction unit 14 as they are. In order to improve the color reproducibility of the original image during image formation, the color correction unit 14 performs spectral characteristics of the cyan, magenta, and yellow color materials including unnecessary absorption components for the cyan, magenta, and yellow color materials. Based on the above, color correction processing for removing color turbidity is performed. The C signal, M signal, and Y signal that have been subjected to color correction processing by the color correction unit 14 are provided to the black generation and under color removal unit 15.
[0044]
The black generation and under color removal unit 15 is based on the C signal, M signal, and Y signal from the color correction unit 14, specifically, the C signal, M signal, and Y signal after correction by the black gradation correction unit 30 described later. Thus, black generation processing and under color removal (abbreviation UCR) processing are performed on each pixel of the entire image. In the black generation process, a black (Black) signal representing a density value of black, which is one of the color materials, is generated based on the C signal, the M signal, and the Y signal from the color correction unit 14 to generate a black color. (Hereinafter, “black signal” may be referred to as “K signal”). The under color removal process is a process of correcting the density values of cyan, magenta, and yellow in consideration of the generated black density value so that gray can be stably reproduced during image formation.
[0045]
As an example of the black generation process, there is a method of generating black by skeleton black. In this method, for example, the function representing the input / output characteristics of the skeleton curve is set to y = f (x), and the cyan density value is set to C, with respect to the cyan, magenta, and yellow density values before the undercolor removal processing. The magenta density value is M, and the yellow density value is Y. Further, assuming that the black density value generated in the black generation process is K, and for each density value of cyan, magenta and yellow after the undercolor removal process, the cyan density value is C1, the magenta density value is M1, and yellow. The density value of Y is Y1, and the undercolor removal rate is α (0 <α <1). The black generation and under color removal unit 15 performs black generation processing and under color removal processing based on the following equations (7) to (10).
K = f {min (C, M, Y)} (7)
C1 = C−αK (8)
M1 = M−αK (9)
Y1 = Y−αK (10)
[0046]
The black density value is calculated based on a function representing the input / output characteristics of the skeleton curve and the minimum density value among the cyan, magenta, and yellow density values of the pixel, as in Expression (7). The cyan density value after the under color removal process is obtained by subtracting the product of the under color removal rate and the generated black density value from the cyan density value before the under color removal process as shown in Expression (8). Calculated. The magenta density value after the under color removal process is obtained by subtracting the product of the under color removal rate and the generated black density value from the magenta density value before the under color removal process, as shown in Equation (9). Calculated. The density value of yellow after the under color removal process is obtained by subtracting the product of the under color removal rate and the generated black density value from the density value of yellow before the under color removal process as shown in Expression (10). Calculated. The black generation and under color removal unit 15 uses the formulas (7) to (10) based on the C signal, the M signal, and the Y signal after being corrected by the black gradation correction unit 30 to be described later. Under color removal processing. By the processing by the black generation and lower color removal unit 15, the three signals of the C signal, the M signal, and the Y signal are converted into four signals of the C signal, the M signal, the Y signal, and the K signal. The C signal, M signal, Y signal, and K signal that have been subjected to the black generation process and the under color removal process are provided to the spatial filter processing unit 16.
[0047]
The spatial filter processing unit 16 uses a digital filter for the original image data given as the C signal, M signal, Y signal, and K signal from the black generation and under color removal unit 15 based on the region identification signal. Processing, for example, sharp enhancement processing and low-pass filter processing. Since the spatial filter processing unit 16 corrects the spatial frequency characteristics of each image area in this way, it is possible to prevent image blurring and graininess deterioration during image formation by the image output device 4. For example, the spatial filter processing unit 16 performs sharp enhancement processing on the achromatic character region and the chromatic character region that are identified and separated by the region separation processing unit 13 to increase the enhancement amount of high frequency. Thereby, the reproducibility of an achromatic character, for example, a black character, and a chromatic character can be improved. The spatial filter processing unit 16 smoothes the halftone dot region identified and separated by the region separation processing unit 13 by low-pass filter processing. Thus, by removing the input halftone component, it is possible to suppress the occurrence of moire and improve the reproducibility of the image represented by the halftone area. The C signal, M signal, Y signal, and K signal that have been subjected to the spatial filter processing by the spatial filter processing unit 16 are provided to the output tone correction unit 17.
[0048]
The output tone correction unit 17 performs output tone correction processing for converting a pixel value of a pixel, for example, a signal representing a density value into a halftone dot area ratio that is a characteristic value of the image output device 4. The output tone correction unit 17 gives the C, M, Y, and K signals after the output tone correction processing to the tone reproduction processing unit 18. Based on the C signal, M signal, Y signal and K signal from the output gradation correction unit 17 and the region identification signal from the region separation processing unit 13, the gradation reproduction processing unit 18 finally converts the image into pixels. Dividing and performing gradation reproduction (halftone generation) processing for reproducing each gradation. The C signal, M signal, Y signal, and K signal that have been subjected to the gradation reproduction processing by the gradation reproduction processing unit 18 can be read and written to, for example, a random access memory (abbreviated as RAM). (Not shown). The storage means stores document image data based on the C signal, M signal, Y signal, and K signal from the gradation reproduction processing unit 18. The stored document image data is read from the storage means at a predetermined timing and given to the image output device 4.
[0049]
The operation unit 19 is provided in the image forming apparatus 1 and is realized by an input device such as a keyboard and a touch panel and a display device such as a liquid crystal display device. An operator of the image forming apparatus 1 can input various commands such as an image forming command for forming an image according to the type of the document to the image forming apparatus 1 by performing an input operation on the operation unit 19. it can. The image output apparatus 4 is an apparatus for forming an image on a recording material based on document image data subjected to various processes by the image processing apparatus 3. Examples of the image output device 4 include, but are not particularly limited to, an electrophotographic digital color copying machine and an inkjet and thermal transfer color printer. The image output device 4 may be an image display device such as a liquid crystal display. With respect to the image forming apparatus 1 described above, various processes on the document image data are controlled by a central processing unit (abbreviated as CPU) 28 which is a control means (hereinafter referred to as “central processing unit 28”. CPU 28 ”in some cases). The CPU 28 controls each unit of the image processing device 3 based on, for example, the operation result of the operation unit 19 by the operator.
[0050]
The black generation and under color removal unit 15 includes a black gradation correction unit 30. The black gradation correction unit 30 generates a predetermined black among the regions identified and separated from the entire image so that the black generation / under color removal unit 15 can generate a desired black and reproduce the black in the entire image. The pixel value of the pixel in the image area, specifically, the density value is corrected. The specific image area is an area of an image formed by achromatic lines. In the present embodiment, the specific image area is an achromatic character formation area (an area including a character area determined by the area separation process and a background area around the character area), and is an image, specifically a character. Is a region that should be expressed uniformly regardless of thickness, and the character has the highest density in the original image and is expressed in black. The black gradation correction unit 30 originally has the density values of the pixels in the achromatic character forming region so that the reading error caused when the image input device 2 reads the image in the achromatic character forming region is eliminated. To correct the density value. The black gradation correction unit 30 includes each color mask forming unit 31, each color high density acquisition unit 32, each color low density acquisition unit 33, and each color neural network 34.
[0051]
Each color mask formation unit 31 forms each color local mask 35 (see FIG. 4) based on the C signal, M signal, and Y signal from the color correction unit 14. Each color local mask 35 includes a plurality of pixels, and is a local mask centered on a target pixel 36 to be processed in the black gradation correction unit 30. Each color local mask 35 includes a local mask centered on the target pixel 36 for cyan, a local mask centered on the target pixel 36 for magenta, and a local mask centered on the target pixel 36 for yellow. Each color mask forming unit 31 forms each color local mask 35 using a plurality of line memories 37. The line memory 37 stores pixel density values based on at least the size of the document in the main scanning direction, specifically, the number of pixels in the main scanning direction. The line memory 37 is realized by, for example, a first-in first-out (FIFO) type memory (hereinafter, “first-in first-out type memory” may be referred to as “FIFO type memory”). The FIFO type memory is storage means configured to take out stored data in the order in which they are stored and to take out the most recently stored data last. In the present embodiment, one line memory 37 stores density values of seven pixels. Each color mask forming unit 31 is based on 6 × 7 pixels in which density values are stored by the six line memories 37 and seven pixels based on the C, M signal, and Y signal from the color correction unit 14. 7 × 7 color local masks 35 are formed. The density values of the pixels of each color local mask 35 are given to each color high density acquisition unit 32 and each color low density acquisition unit 33 described later.
[0052]
For example, it is assumed that the correction of the density value for the target pixel 36 of each color local mask 35 is completed. In each color local mask 35, the density value of the pixel having the oldest stored order is extracted from the line memory 37 that stores the density value of the pixel in the seventh row. The density value of the pixel having the oldest storage order is extracted from the line memory 37 that stores the density value of the pixel in the sixth row, and the density value of the pixel stores the density value of the pixel in the seventh row. Stored in the memory 37. The density value of the pixel having the oldest storage order is extracted from the line memory 37 that stores the density value of the pixel in the fifth row, and the density value of the pixel stores the density value of the pixel in the sixth row. Stored in the memory 37. For each line memory 37 in which the density values of the pixels in the 2nd to 4th rows are stored, the density value of the pixel having the oldest stored order is extracted in the same procedure as described above, and on the downstream side in the sub scanning direction. The density value of the pixel given by the line memory 37 that stores the density value of the pixel in the adjacent row is stored. By using the plurality of line memories 37 realized by the FIFO type memory in this way, new color local masks 35 are formed. Since the line memory 37 realized by the FIFO memory is used, the black gradation correction unit 30 can perform processing in real time. This makes it possible to reduce the storage capacity as much as possible and reduce the cost as compared with the case where the storage means for storing the density values of all the pixels of the entire image is used, and the processing in the black gradation correction unit 30 The processing speed can be improved.
[0053]
Assuming that the pixel of interest 36 of each color local mask 35 is (i, j), the input signal value from the color correction unit 14 in the pixel of interest 36, in other words, the density value for each color of cyan, magenta and yellow of the pixel of interest 36 is ( C (i, j), M (i, j), Y (i, j)). When the target pixel 36 is (i, j), each color local mask 35 can be expressed by the following equation (11).
[0054]
[Expression 1]
Figure 0004139201
[0055]
In Expression (11), m represents the number of pixels related to one of the main scanning direction and the sub-scanning direction, and n represents the number of pixels related to the other of the main scanning direction and the sub-scanning direction. i represents the coordinates of the pixel of interest 36 in either the main scanning direction or the sub-scanning direction, and j represents the coordinates of the pixel of interest 36 in either the main scanning direction or the sub-scanning direction.
[0056]
In performing density value correction processing by the black gradation correction unit 30, the pixel of interest 36 of each color local mask 35 needs to satisfy at least the following conditional expression (12).
Seg (i, j) ∈Achromatic character formation region (12)
[0057]
In the conditional expression (12), Seg (i, j) is a region separation result for the pixel of interest 36 given by the region separation processing unit 13. Based on the region identification signal from the region separation processing unit 13, the black tone correction unit 30 determines whether or not the target pixel 36 belongs to the achromatic character formation region. When it is determined that the conditional expression (12) is satisfied, that is, the target pixel 36 belongs to the achromatic character formation region, the black gradation correction unit 30 corrects the density value in units of pixels.
[0058]
In the example of FIG. 1, each color mask forming unit 31 includes a cyan mask forming unit 31a, a magenta mask forming unit 31b, and a yellow mask forming unit 31c having a plurality of line memories 37, and cyan, magenta, and yellow. A local mask is formed for each color. Specifically, the cyan mask forming unit 31 a forms a 7 × 7 local mask centered on the target pixel 36 for cyan based on the C signal from the color correction unit 14. The density value relating to cyan of each pixel of the local mask formed by the cyan mask forming section 31a is given to a cyan high density acquisition section 32a and a cyan low density acquisition section 33a described later. The magenta mask formation unit 31b forms a 7 × 7 local mask centered on the pixel of interest 36 with respect to magenta based on the M signal from the color correction unit 14. The density value relating to magenta of each pixel of the local mask formed by the magenta mask forming unit 31b is given to a magenta high density acquisition unit 32b and a magenta low density acquisition unit 33b described later. Based on the Y signal from the color correction unit 14, the yellow mask forming unit 31 c forms a 7 × 7 local mask centered on the target pixel 36 for yellow. The density value related to yellow of each pixel of the local mask formed by the yellow mask forming section 31c is given to a yellow high density acquisition section 32c and a yellow low density acquisition section 33c described later.
[0059]
Each color high density acquisition unit 32 serving as the maximum pixel value acquisition unit acquires the maximum pixel value for a predetermined specific image region among the image regions to be separated. Specifically, each color high density acquisition unit 32 obtains the maximum density value, that is, the maximum density value for each color of cyan, magenta, and yellow for each color local block 35 including the target pixel 36 belonging to the achromatic character formation region. Get each. Each color local block 35 includes a local block for cyan, a local block for magenta, and a local block for yellow. Each color high density acquisition unit 32 represents the acquired maximum density value by a maximum density value vector that is a feature vector, and uses the value of the maximum density value vector. Each color low density acquisition unit 33 serving as a minimum pixel value acquisition unit acquires the minimum pixel value for the specific image region. Specifically, each color low density acquisition unit 33 sets the minimum density value, that is, the minimum density value for each color of cyan, magenta, and yellow for each color local block 35 including the target pixel 36 belonging to the achromatic character formation region. Get each. Each color low density acquisition unit 33 represents the acquired minimum density value by a minimum density value vector that is a feature vector, and uses the value of the minimum density value vector. For each color local mask 35 when the pixel of interest is (i, j), the maximum density value vector is represented by max_v (i, j) and the minimum density value vector is represented by min_v (i, j). The value vector is expressed by Expression (13), and the minimum density value vector is expressed by Expression (14) below.
[0060]
[Expression 2]
Figure 0004139201
[0061]
On the right side of Equation (13) and Equation (14), the maximum density value and the minimum density value for each color of cyan, magenta, and yellow are divided by 255, respectively. A feature vector is obtained by dividing by the maximum value of the input signal value to the black gradation correction unit 30, that is, 255, that is, the maximum density value and the minimum density value for each color of cyan, magenta, and yellow are normalized. . As a result, values relating to cyan, magenta, and yellow handled by each color neural network 34 described later can be set to a value in the range of 0 to 1. Therefore, the processing amount of each color neural network 34 can be reduced.
[0062]
Each color high density acquisition unit 32 and each color low density acquisition unit 33 acquire a maximum density value and a minimum density value for each local mask for each color of cyan, magenta, and yellow. As a result, regarding the local block for each color, there is a possibility that the maximum density value and the minimum density value for each color of pixels at different positions may be obtained. In this case, there is a possibility that problems such as the density value not being properly corrected can occur. When the black gradation correction unit 30 determines that no problem occurs, the maximum density value is acquired by each color high density acquisition unit 32 and the minimum density value is acquired by each color low density acquisition unit 33 as described above. When it is determined by the black tone correction unit 30 that a problem occurs, regardless of the colors of cyan, magenta, and yellow, each color high density acquisition unit 32 and each color low density acquisition unit 33 determines the maximum density value (for example, max (C (X, y) + M (x, y) + Y (x, y))) and minimum density value (eg, min (C (x, y) + M (x, y) + Y (x, y))) A pixel is obtained, and the density value of the pixel is used as a maximum density value vector and a minimum density value vector. Specifically, each color high density acquisition unit 32 acquires, as the maximum density value, the density value of each color of the pixel having the maximum sum of the density values of cyan, magenta, and yellow based on the local block for each color, Used for maximum density vector. Each color low density acquisition unit 33 acquires, as a minimum density vector, the density value of each color of the pixel having the minimum sum of density values of cyan, magenta, and yellow based on the local block relating to each color, and sets the minimum density vector. Use.
[0063]
In order to facilitate understanding of the above expression (13) representing the maximum density value vector, the maximum density value vector is represented by expression (15), and the expression (14) representing the minimum density value vector is represented by expression (16). To express.
[0064]
[Equation 3]
Figure 0004139201
[0065]
Each value on the right side of Expression (15) is the maximum density value for each color of cyan, magenta, and yellow when the target pixel 36 is (i, j), and the maximum value of the input signal value to the black gradation correction unit 30. Represents the value normalized by the value. Each value on the right side of Expression (16) is the minimum density value for each color of cyan, magenta, and yellow when the target pixel 36 is (i, j), and the maximum value of the input signal value to the black gradation correction unit 30. Represents the value normalized by the value.
[0066]
In the example of FIG. 1, each color high density acquisition unit 32 includes a cyan high density acquisition unit 32a, a magenta high density acquisition unit 32b, and a yellow high density acquisition unit 32c, and each color of cyan, magenta, and yellow. Get the maximum density value. Specifically, the cyan high density acquisition unit 32a acquires the maximum density value for cyan based on the local mask for cyan formed by the cyan mask forming unit 31a, and uses the maximum density value to determine the maximum density value. Find the cyan value of the vector. A value relating to cyan in the maximum density value vector is given to a cyan neural network 34a described later from the cyan high density acquisition unit 32a. The magenta high density acquisition unit 32b acquires the maximum density value related to magenta based on the local mask related to magenta formed by the magenta mask forming unit 31b, and uses the maximum density value to relate to magenta of the maximum density value vector. Find the value. A value relating to magenta of the maximum density value vector is given from the magenta high density acquisition unit 32b to a magenta neural network 34b described later. The yellow high density acquisition unit 32c acquires the maximum density value related to yellow based on the local mask related to yellow formed by the yellow mask forming unit 31c, and uses the maximum density value to relate to yellow of the maximum density value vector. Find the value. The value related to yellow of the maximum density value vector is given to the later-described yellow neural network 34c from the yellow high density acquisition unit 32c.
[0067]
In the example of FIG. 1, each color low density acquisition unit 33 includes a cyan low density acquisition unit 33a, a magenta low density acquisition unit 33b, and a yellow low density acquisition unit 33c, and each color of cyan, magenta, and yellow. Get the minimum density value. Specifically, the cyan low density acquisition unit 33a acquires the minimum density value for cyan based on the local mask for cyan formed by the cyan mask forming unit 31a, and uses the minimum density value to determine the minimum density value. Find the cyan value of the vector. The value relating to cyan in the minimum value vector is given from the cyan low density acquisition unit 33a to the cyan neural network 34a described later. The magenta low density acquisition unit 33b acquires the minimum density value related to magenta based on the local mask related to magenta formed by the magenta mask forming unit 31b, and uses the minimum density value to relate to magenta of the minimum density value vector. Find the value. The value relating to magenta of the minimum value vector is given from the magenta low density acquisition unit 33b to the magenta neural network 34b described later. The yellow low density acquisition unit 33c acquires the minimum density value related to yellow based on the local mask related to yellow formed by the yellow mask forming unit 31c, and uses the minimum density value to relate to yellow of the minimum density value vector. Find the value. The value relating to yellow of the minimum value vector is given to the later-described yellow neural network 34c from the yellow low density acquisition unit 33c.
[0068]
Each color neural network 34 has correction information for correcting the pixel values of the pixels in the specific image area based on the acquired maximum pixel value and minimum pixel value and preset maximum target value and minimum target value. And the pixel value of the pixel in the specific image area is corrected based on the correction information. The maximum target value is a value used for correcting the maximum pixel value. The minimum target value is a value used to correct the minimum pixel value. Specifically, each color neural network 34 includes a value relating to each color of the maximum density value vector and a value relating to each color of the minimum density value vector, and a maximum target value and a minimum target value set in advance for each color of cyan, magenta and yellow. Based on the above, the correction information is calculated. Each color neural network 34 corrects the density value of the pixels in the achromatic character forming area based on the calculated correction information. Based on the density value corrected by each color neural network 34, the black density value in the achromatic character formation region is calculated by the black generation process. Each color neural network 34 includes each color storage unit 38, each color learning unit 39, and each color correction unit 40.
[0069]
FIG. 5 is a diagram for explaining a teacher document 50 for setting teacher data. FIG. 6 is a diagram for explaining a teacher document 50A for setting teacher data. Each color storage unit 38 stores a plurality of target values including maximum target values and minimum target values set in advance for each color of cyan, magenta, and yellow as teacher data. The teacher data is set based on the input characteristics of the image input device 2 that is an image input means. The input characteristics include image resolution performance. For example, when the specific image area is an achromatic character formation area in which characters are represented in black, image input is performed based on the resolution of the original image by the image input device 2, specifically, the optical resolution of the scanner unit. It is possible to assume the maximum density value and the minimum density value for each color of cyan, magenta, and yellow to be given to the image processing apparatus 3 by the apparatus 2. Thus, at least the maximum target value and the minimum target value for each color of cyan, magenta, and yellow can be set in advance and stored in each color storage unit 38 as teacher data. Each color storage unit 38 uses the teacher originals 50 and 50A shown in FIGS. 5 and 6 to store a plurality of target values including a maximum target value and a minimum target value set in advance for each color of cyan, magenta, and yellow. And memorize it as teacher data. Each color storage unit 38 is realized by various memories such as a read only memory (abbreviated as ROM) and a random access memory (abbreviated as RAM) (hereinafter referred to as “ROM”). ”And“ random access memory ”may be expressed as“ RAM ”). The teacher data includes cyan teacher data including maximum and minimum target values for cyan, magenta teacher data including maximum and minimum target values for magenta, and yellow including maximum and minimum target values for yellow. For teacher data.
[0070]
When a specific image input device 2 is used, the resolution of the original image by the image input device 2, specifically the scanner unit, even if characters are expressed with a uniform density regardless of the thickness, Depending on the optical resolution, characters having different densities depending on the thickness of the characters are formed during image formation. For example, a thick character in a document has a high density, and a thin character in a document has a low density because a signal indicating a density value is lost. In order to prevent such a problem, the image input device 2 is caused to read the image of the teacher document 50 a plurality of times, and the teacher data is stored in each color storage unit 38. The reason for reading multiple times is to average data and reduce reading errors. The teacher document 50 is a document on which the teacher characters 51 are formed, and is a document for defining the density of the teacher characters 51 and the density of the teacher paper white 52. The teacher character 51 is a character that is represented by the same density regardless of the thickness, and has the same density as the original character. Furthermore, the teacher character 51 has the highest density in the teacher original 50 and can obtain the highest density when reading the image of the teacher original 50 in advance based on the input characteristics of the image input device 2. A character having a predetermined thickness and expressed in achromatic color. The teacher paper white 52 is a paper white, specifically, a background in the teacher original 50 and has the lowest density in the teacher original 50. In the present embodiment, the teacher character 51 is a black character represented in black, and the number of times the image of the teacher document 50 is read by the image input device 2 is about ten times. By causing the image input device 2 to read the image of the teacher original 50 a plurality of times, the original density value in the high density portion of the teacher character 51 and the original density value in the teacher paper white 52 are taught. It can be set as data. A plurality of sample values are collected by causing the image input apparatus 2 to read the image of the teacher original 50 a plurality of times, and an average of these sample values is used as the teacher data. Thereby, the error of the teacher data can be reduced as much as possible. Teacher data may be set using a teacher document 50A shown in FIG. 6 in addition to the teacher document 50 shown in FIG. In the example of FIG. 6, a line pattern having different lengths and thicknesses is formed on the teacher document 50A in addition to a plurality of numbers having different character sizes and thicknesses.
[0071]
The maximum target value and the minimum target value stored as teacher data by each color storage unit 38 are expressed by, for example, the following expressions (17) and (18).
[0072]
[Expression 4]
Figure 0004139201
[0073]
In Expression (17), the maximum density value for each color of cyan, magenta, and yellow obtained from the high density portion of the teacher character 51 that is a black character in the teacher originals 50, 50A is the maximum target for each color of cyan, magenta, and yellow. The value is stored by each color storage unit 38 as a value. In equation (18), the minimum density value for each color of cyan, magenta, and yellow obtained from the paper white 52 in the teacher originals 50, 50A is stored by each color storage unit 38 as the minimum target value for each color of cyan, magenta, and yellow. Is done. The maximum target value and the minimum target value for each color of cyan, magenta, and yellow are given from each color storage unit 38 to each color learning unit 39 as teacher data. Table 1 is a correspondence table showing the relationship between the maximum density value and the minimum density value for each color of cyan, magenta, and yellow, which are input data given to each color learning unit 39, and teacher data.
[0074]
[Table 1]
Figure 0004139201
[0075]
In Table 1, each color learning unit 39 is provided with the maximum density value for cyan as input data, the maximum target value for cyan is provided as teacher data, and the minimum density value for cyan is provided as input data. The minimum target value is given as teacher data. Further, in Table 1, when each color learning unit 39 is given a maximum density value related to magenta as input data, a maximum target value related to magenta is given as teacher data, and a minimum density value related to magenta is given as input data. The minimum target value for magenta is given as teacher data. Further, in Table 1, when each color learning unit 39 is given a maximum density value related to yellow as input data, a maximum target value related to yellow is given as teacher data, and a minimum density value related to yellow is given as input data. The minimum target value for yellow is given as teacher data.
[0076]
In the example of FIG. 1, each color storage unit 38 includes a cyan storage unit 38a, a magenta storage unit 38b, and a yellow storage unit 38c. The maximum target value and the minimum target value for each color of cyan, magenta, and yellow. Remember. Specifically, the cyan storage unit 38a stores the maximum target value and the minimum target value for cyan as cyan teacher data based on the teacher originals 50 and 50A. The cyan teacher data is given from the cyan storage unit 38a to the cyan learning unit 39a. The magenta storage unit 38b stores the maximum target value and the minimum target value related to magenta as magenta teacher data based on the teacher originals 50 and 50A. The magenta teacher data is given from the magenta storage unit 38b to the magenta learning unit 39b. The yellow storage unit 38c stores the maximum target value and the minimum target value relating to yellow as yellow teacher data based on the teacher originals 50 and 50A. The yellow teacher data is given from the yellow storage unit 38c to the yellow learning unit 39c.
[0077]
FIG. 7 is a block diagram showing the neural network 55. Each color learning unit 39 that is an information calculation unit calculates correction information for correcting the pixel value of the pixel in the specific image region based on the acquired maximum pixel value and the maximum target value. In the present embodiment, each color learning unit 39 determines the pixels in the achromatic character formation region based on the acquired maximum pixel value, the maximum target value, the acquired minimum pixel value, and the maximum target value. Correction information for correcting the density value is calculated. Specifically, each color learning unit 39 includes a maximum density value acquired by each color high density acquisition unit 32, a minimum density value acquired by each color low density acquisition unit 33, and teacher data provided by each color storage unit 38. Based on the above, the correction information is calculated. The correction information includes cyan correction information for correcting the density value related to cyan of the pixels in the achromatic character forming area, magenta correction information for correcting the density value related to magenta of the pixels in the achromatic character forming area, and Correction information for yellow for correcting the density value related to yellow of the pixels in the achromatic character forming region. Each color learning unit 39 includes a neural network 55.
[0078]
As shown in FIG. 7, the neural network 55 has a hierarchical structure including a plurality of layers, specifically, a plurality of layers called an input layer 56, an intermediate layer 57, and an output layer 58. The input layer 56, the intermediate layer 57, and the output layer 58 each have one or a plurality of neurons 59. The neuron 59 is characterized in that there is no connection between neurons 59 in the same layer, and there is a connection between neurons 59 in different layers. In this way, the neural network 55 forms a network by connecting neurons 59 of different layers. A weight representing the strength of the connection between the neurons 59 is preset between the connected neurons 59. The initial value of the weight is a small value using a random number. The initial value of the weight is not set by generating a random number at any time, but a plurality of candidates are set in advance in a table using the random number and given by using this table. In this way, since the initial value of the weight is not a random number generated at any time when calculating the correction information, but a random number prepared in advance is used, the calculation amount in each color learning unit 39 is made as small as possible. Thus, the configuration of each color learning unit 39 can be simplified. The neural network 55 updates the weight to an optimum weight by learning so that a specific output is generated in response to a specific pattern of stimulation, that is, a specific input. In the present embodiment, the neural network 55 calculates correction information by learning according to the error back propagation method, in other words, updates the weight.
[0079]
In updating the weights in the neural network 55, the neural network 55 learns according to the following first to fifth procedures and calculates correction information. First, the network is initialized. Specifically, the neural network 55 sets the initial value of the weight between the connected neurons 59 to a small value using a random number. When the initialization of the network is completed, secondly, the neural network 55 gives the maximum density value vector and the minimum density value vector to the respective neurons 59 of the input layer 56 as input vectors. The neural network 55 propagates the input vector in the forward propagation direction B1 in consideration of the set weight (hereinafter, “forward propagation direction B1” may be referred to as “forward direction B1”). The forward direction B1 is a direction from the input layer 56 toward the output layer 58 and is a signal propagation direction. The backward direction B2 is a direction opposite to the forward direction B1, and is a direction in the calculation process for correcting the error component, in other words, for updating the weight.
[0080]
Each neuron 59 gives a weight to the given value, and gives the output value obtained when the weighted value is used as the input value in the sigmoid function to the neuron 59 in the downstream layer of the forward direction B1 to be connected. . The sigmoid function is a known function and is a differentiable continuous function. When a plurality of neurons 59 in the upstream B1 upstream side of the layer including the one neuron 59 are connected to one neuron 59, a sum of weighted values from the respective neurons 59 is input. An output value obtained when the sum is obtained as an input value in the sigmoid function is given to the one neuron 59. The relationship between the input value and the output value in the sigmoid function is expressed by Expression (19).
(Output value) = f (Input sum) (19)
[0081]
With respect to the sigmoid function described above, an output value corresponding to an input value is set in advance as a look-up table (abbreviated as LUT).
[0082]
Thirdly, when an input vector is given to each neuron 59 of the input layer 56, the neural network 55 gives teacher data to the output layer 58 as a teacher vector. The output layer 58 is given a teacher vector corresponding to the input vector. Specifically, when the maximum density value vector is given to the input layer 56, the maximum target value is given as a teacher vector to the output layer 58, and when the minimum density value vector is given to the input layer 56, the minimum target value is set as the teacher layer. It is given to the output layer 58 as a vector. Fourth, when the teacher vector is given to the output layer 58, the neural network 55 eliminates an error between the value in the vector output from each neuron 59 of the output layer 58 with respect to the input vector and the value in the teacher vector. In addition, the weight is updated by learning. The weight is updated according to the error back propagation method based on the value in the vector given to the neuron 59 and the neuron output representing the vector output from the neuron 59. The weight after the update may be a value different from the weight before the update, or may be the same value as the weight before the update. The new weight is expressed by equation (20).
(New weight) = (previous weight) + α × δ × (neuron output) (20)
[0083]
On the right side of Equation (20), the first term is the weight before being updated, and the second term is the integration of a predetermined constant α (0 <α <1), coefficient δ, and neuron output value. It is the value. The coefficient δ is a value called a learning signal or a differential back propagation amount, and the weight in the neuron 59 of the input layer 56 and the neuron 59 of the intermediate layer 57 is updated in calculating a new weight using the equation (20). This value is set according to either the case where the weight is updated or the weight is updated in the neuron 59 of the intermediate layer 57 and the neuron 59 of the output layer 58. The neuron output represents the output value from the neuron 59 upstream of the forward direction B1 out of the two neurons 59 to be coupled, and is the same as the value when passing through the weight before being updated. The above-described coefficient δ is set using any one of the equations (21) and (22).
δ = (output) × [1− (output)]
× [(Teacher data)-(Neuron output)] (21)
δ = (output) × [1− (output)]
× (Weighted sum of δ from the next layer) (22)
[0084]
When updating the weights of the neurons 59 in the intermediate layer 57 and the neurons 59 in the output layer 58, the coefficient δ is calculated using the equation (21). In equation (21), the coefficient δ is a value obtained by integrating the output, the value obtained by subtracting the output from 1 and the value obtained by subtracting the neuron output from the teacher data. The output is an output value from the neuron 59 of the output layer 58. When updating the weights of the neurons 59 in the input layer 56 and the neurons 59 in the intermediate layer 57, the coefficient δ is calculated using Expression (22). In the equation (22), the coefficient δ is a value obtained by integrating the output, the value obtained by subtracting the output from 1, and the weighted sum of the coefficient δ from the next layer. In Expression (21) and Expression (22), the output is an output value output from the output layer 58 with respect to the input to the input layer 56. The weighted sum of the coefficients δ from the next layer is given from the upstream layer in the forward direction B1 and is calculated based on the coefficients δ before updating using the equation (22) and the weights. It is.
[0085]
Fifth, the neural network 55 determines whether to update the weight based on the error reduction amount. When the neural network 55 determines that the error reduction amount is equal to or less than the predetermined value, each color learning unit 39 ends the learning process using the neural network 55 and corrects the obtained updated weight for each color correction. Part 40 is given. Specifically, the error reduction amount is an error reduction amount between the output value of the neuron 59 of the output layer 58 obtained by using the updated new weight and the teacher data. If the neural network 55 determines that the error reduction amount exceeds a predetermined value, the neural network 55 updates the weight according to the second to fourth procedures.
[0086]
In the example of FIG. 1, each color learning unit 39 includes a cyan learning unit 39a, a magenta learning unit 39b, and a yellow learning unit 39c each having a neural network 55, and for each color of cyan, magenta, and yellow. Calculate correction information. Specifically, the learning unit for cyan 39a learns the weight set in advance according to the first to fifth procedures based on the maximum density value, the minimum density value, the maximum target value, and the minimum target value related to cyan. Update. The weights learned and updated by the cyan learning unit 39a are given to the cyan correction unit 40a as cyan correction information. The magenta learning unit 39b updates the weight set in advance according to the above-described first to fifth procedures by learning based on the maximum density value, the minimum density value, the maximum target value, and the minimum target value related to magenta. The weights learned and updated by the magenta learning unit 39b are given to the magenta correction unit 40b as magenta correction information. The learning unit 39c for yellow updates the weight set in advance according to the above-described first to fifth procedures by learning based on the maximum density value, the minimum density value, the maximum target value, and the minimum target value relating to yellow. The weights learned and updated by the yellow learning unit 39c are given to the yellow correction unit 40c as yellow correction information.
[0087]
Each color correction unit 40, which is a correction unit, corrects the pixel value of the pixel in the specific image area based on the correction information. Each color correction unit 40 is configured to include a neural network 55 like each color learning unit 39. Each color correction unit 40 calculates density values relating to cyan, magenta, and yellow of the pixels in the achromatic character formation region based on correction information, specifically, weights given by learning processing by the neural network 55 of each color learning unit 39. to correct. The corrected density value of the pixels in the achromatic character forming region is a value obtained by feedforward calculation using the weights by the respective color correction units 40, in other words, the forward direction B1 using the updated weights in the neural network 55. This is the output value from the output layer 58 obtained by processing, specifically, product-sum calculation. For the product-sum calculation, for example, a digital signal processor (abbreviated as DSP) is used.
[0088]
In the example of FIG. 1, each color correction unit 40 includes a cyan correction unit 40a, a magenta correction unit 40b, and a yellow correction unit 40c, and an achromatic character formation region for each color of cyan, magenta, and yellow. The density value of the pixel is corrected. Specifically, the cyan correction unit 40a calculates a density value related to cyan of the pixel in the achromatic character forming region after correction by feedforward calculation using the weight given by the cyan learning unit 39a. The magenta correction unit 40b calculates a density value related to magenta of the pixel in the achromatic character forming region after correction by feedforward calculation using the weight given by the magenta learning unit 39b. The yellow correction unit 40c calculates a density value related to yellow of the pixel in the achromatic character formation region after correction by feedforward calculation using the weight given by the yellow learning unit 39c. The black generation and under color removal unit 15 performs the black generation process and the under color based on the density values of the pixels in the achromatic character forming area after correction by the cyan correction unit 40a, the magenta correction unit 40b, and the yellow correction unit 40c. Remove it. The weight set in advance is updated by learning using the maximum density value and the minimum density value acquired as described above and the teacher data. Using the updated weight as correction information, the density value of the pixel in the achromatic character formation region is corrected using the neural network 55. Thereby, in the achromatic character forming region, in addition to the maximum density value and the minimum density value, the density value between the maximum density value and the minimum density value can be accurately corrected to the original density value.
[0089]
FIG. 8 is a flowchart showing a processing procedure performed by the black tone correction unit 30 and the black generation and under color removal unit 15. The image processing method of the present embodiment includes a region separation step, a maximum pixel value acquisition step and a minimum pixel value acquisition step in step s3, an information calculation step in step s4, and a correction step in step s5. The image processing method of the present embodiment further includes a step of performing black generation and under color removal processing in step s6. The region separation step is a step of identifying and separating a plurality of image regions from the entire image by the region separation processing unit 13. In the maximum pixel value acquisition step, the maximum pixel value, that is, the maximum density value for each color of cyan, magenta, and yellow is determined for each color for a predetermined specific image region, specifically, an achromatic character formation region, among the image regions to be separated. This is a step of obtaining by the high concentration obtaining unit 32. The minimum pixel value acquisition step acquires the minimum pixel value, that is, the minimum density value for each color of cyan, magenta, and yellow by each color low density acquisition unit 33 with respect to the specific image region, specifically, the achromatic character formation region. It is.
[0090]
The information calculation step is a step of calculating correction information for correcting the pixel value of the pixel in the specific image region based on the maximum density value, the minimum density value, the maximum target value, and the minimum target value. The maximum target value is a value set in advance for each color used to correct the maximum density value for each color of cyan, magenta, and yellow. The minimum target value is a value set in advance for each color used to correct the minimum density value for each color of cyan, magenta, and yellow. In the information calculation step, the correction information is calculated using the neural network 55. Specifically, the information calculation process is preset in the neural network 55 by each color learning unit 39 based on the maximum density value, the minimum density value, the maximum target value, and the minimum target value for each color of cyan, magenta, and yellow. This is a step of updating the weight by learning. The correction step is a step of correcting the pixel value of the pixel in the specific image area based on the correction information. Specifically, the correcting step is a step of correcting the density values relating to cyan, magenta and yellow of the pixels in the achromatic character forming area based on the weights relating to each color of cyan, magenta and yellow given by each color learning unit 39. . In FIG. 8, before the processing procedure is started in step s0, the processing in the region separation process has already been completed.
[0091]
In step s0, a processing procedure according to the image processing method of this embodiment is started, and the process proceeds to step s1. In step s1, the black gradation correction unit 30 determines whether the target pixel 36 belongs to the achromatic character formation region based on the region identification signal from the region separation processing unit 15. In step s1, if the black gradation correcting unit 30 determines that the pixel of interest 36 belongs to the achromatic character formation region, the process proceeds to step s2. If the pixel of interest 36 does not belong to the achromatic character formation region, the process proceeds to step s7. Proceed and finish all processing steps.
[0092]
In step s <b> 2, each color mask forming unit 31 forms a 7 × 7 color local mask 35 centered on the target pixel 36. Specifically, the cyan mask forming unit 31a forms a 7 × 7 local mask centered on the pixel of interest 36 with respect to cyan, and the magenta mask forming unit 31b forms a 7 × pixel centered on the pixel of interest 36 with respect to magenta. 7 local masks are formed, and the yellow mask forming unit 31c forms a 7 × 7 local mask centered on the target pixel 36 for yellow. When a local mask is formed for each color of cyan, magenta, and yellow in step s2, the process proceeds to step s3.
[0093]
In the maximum pixel value acquisition step and the minimum pixel value acquisition step of step s3, each color high density acquisition unit 32 acquires the maximum density value for each color local mask 35, and each color low density acquisition unit 33 sets the minimum for each color local mask 35. Get the density value. Specifically, the cyan high density acquisition unit 32a acquires the maximum density value related to cyan for the local mask related to cyan, and the magenta high density acquisition unit 32b acquires the maximum density value related to magenta regarding the local mask related to magenta. The maximum density value for yellow is obtained for the local mask for yellow. The cyan low density acquisition unit 33a acquires the minimum density value for cyan with respect to the local mask for cyan, and the magenta low density acquisition unit 33b acquires the minimum density value for magenta with respect to the local mask for magenta. The acquisition unit 33c acquires the minimum density value related to yellow with respect to the local mask related to yellow. When the maximum density value and the minimum density value for each color of cyan, magenta, and yellow are acquired in step s3, the process proceeds to step s4.
[0094]
In the information calculation process of step s4, each color learning unit 39 is preset in the neural network 55 based on the maximum density value, minimum density value, maximum target value, and minimum target value for each color of cyan, magenta, and yellow. The weight is updated by learning. When the weight is updated using the neural network 55 in step s4, the process proceeds to step s5.
[0095]
In the correction process of step s5, each color correction unit 40 calculates density values related to cyan, magenta, and yellow of the pixels in the achromatic character forming region based on the weights related to each color of cyan, magenta, and yellow given by each color learning unit 39. to correct. Regarding the achromatic character forming region, the density values for the remaining cyan, magenta, and yellow except the maximum density value and the minimum density value are corrected by feedforward calculation. When the density value of the pixel in the achromatic character forming area is corrected in step s5, the process proceeds to step s6. In step s6, the black generation and under color removal unit 15 performs black generation processing and under color removal processing based on the corrected density value. When the density values relating to cyan, magenta, and yellow of the pixels in the achromatic character forming area are corrected in step s6, the process proceeds to step s7, and all processing procedures are completed.
[0096]
FIG. 9 is a graph showing the relationship between the number of iterations time and the error amount energy related to cyan. FIG. 10 is a graph showing the relationship between the cyan input signal value and the cyan correction signal value when the iteration number time in FIG. 9 is 50,000. FIG. 11 is a graph showing the relationship between the number of iterations time and the error amount energy related to magenta. FIG. 12 is a graph showing the relationship between the magenta input signal value and the magenta correction signal value when the number of iterations time in FIG. 11 is 50,000. FIG. 13 is a graph showing the relationship between the number of iterations time and the error amount energy related to yellow. FIG. 14 is a graph showing the relationship between the input signal value for yellow and the correction signal value for yellow when the number of repetitions time in FIG. 13 is 50,000. As an example of correction processing by the black tone correction unit 30, a document on which the same image as the teacher document 50A shown in FIG. 6 is formed is used. Based on the result of reading the image formed on the original and the result of reading the teacher original 50A, the input data and the teacher data are expressed as shown in Table 2.
[0097]
[Table 2]
Figure 0004139201
[0098]
In Table 2, sample numbers 1 to 5 are numbers assigned to regions surrounded by solid lines 63a to 63d and two-dot chain line 63e in FIG. In Table 2, for example, C signal, M signal and Y signal minimum value signals in sample numbers 1 to 5 indicate values obtained by normalizing the minimum density values for cyan, magenta, and yellow. The maximum value signals for C signal, M signal, and Y signal in sample numbers 1 to 5 indicate values obtained by normalizing the maximum density values for cyan, magenta, and yellow. Sample number 1 to 4, that is, the minimum value signal for C signal, M signal and Y signal, and maximum value signal for C signal, M signal and Y signal in the region surrounded by solid lines 63a to 63d are input data. Used. Sample number 5, that is, C signal, M signal and Y signal minimum value signals, and C signal, M signal and Y signal maximum value signals in a region surrounded by a two-dot chain line 63e are sample numbers 1 to 5. And is used as teacher data.
[0099]
Using the obtained input data and teacher data, the weight in the neural network 55 was updated by learning. The upper limit of the number of iterations, which is the number of times the weight is updated by learning, is 50,000 times. The initial value of the weight is given using the table as described above. The horizontal axis in FIG. 9 is the number of iterations, and the unit is “times”. The vertical axis in FIG. 9 is an error amount energy related to cyan. The error amount related to cyan is the output value of the neuron 59 of the output layer 58 when the density value related to cyan of the pixel of the achromatic character forming region is given to the neuron 59 of the input layer 56, and the maximum target value related to cyan of the teacher data. Represents the error amount. The error amount energy for cyan is the largest value when the number of iteration times is 0, and decreases as the iteration number time increases, and the iteration number time exceeds approximately 2,500 times and 50,000. The value is 0 in the range less than the number of times. As described above, when the number of iterations time is increased, the error amount energy related to cyan can be reduced.
[0100]
The horizontal axis in FIG. 10 is the input signal value for cyan. The vertical axis in FIG. 10 is the correction signal value for cyan. The input signal value for cyan represents a density value related to cyan of the pixels in the achromatic character forming region given to the cyan correction unit 40a. The cyan correction signal value represents a density value related to cyan of the pixels in the achromatic character forming area after the cyan correction unit 40a corrects the cyan input signal value based on the weight. When the number of iterations is 50,000, the graph representing the relationship between the cyan input signal value and the cyan correction signal value is a cyan conversion graph represented by the solid line 60a in FIG. The x mark 61a represents a target value for cyan of the teacher data, and the graph represented by a two-dot chain line 62a represents an interpolation teacher graph that is a graph obtained by linear interpolation of the x mark 61a. The cyan conversion graph almost coincides with the waveform of the interpolation teacher graph represented by the two-dot chain line 62a. As described above, it is confirmed that the density value related to cyan of the pixels in the achromatic character forming region is corrected to the same value as the target value related to cyan of the teacher data, in other words, to the original density value. it can.
[0101]
The horizontal axis in FIG. 11 is the number of iterations, and the unit is “times”. The vertical axis in FIG. 11 is an error amount energy related to magenta. The error amount related to magenta is the output value of the neuron 59 of the output layer 58 when the density value related to magenta of the pixel in the achromatic character forming region is given to the neuron 59 of the input layer 56, and the maximum target value related to magenta of the teacher data. Represents the error amount. The error amount energy related to magenta is the largest value when the number of iteration times is 0, and decreases as the iteration number time increases, and the iteration number time exceeds approximately 2,500 times and 50,000. The value is 0 in the range less than the number of times. When the number of iterations time is increased in this way, the error amount energy related to magenta can be reduced.
[0102]
The horizontal axis in FIG. 12 represents the magenta input signal value. The vertical axis in FIG. 12 is the magenta correction signal value. The magenta input signal value represents a density value related to magenta of the pixels in the achromatic character forming area provided to the magenta correction unit 40b. The magenta correction signal value represents a density value relating to magenta of the pixels in the achromatic character forming area after the magenta correction unit 40b corrects the magenta input signal value based on the weight. When the number of iterations is 50,000, the graph representing the relationship between the magenta input signal value and the magenta correction signal value is the magenta conversion graph represented by the solid line 60b in FIG. The x mark 61b represents a target value related to magenta of the teacher data, and the graph represented by a two-dot chain line 62b represents an interpolation teacher graph that is a graph obtained by linearly interpolating the x mark 61b. The magenta conversion graph almost coincides with the waveform of the interpolation teacher graph represented by the two-dot chain line 62b. In this way, it is confirmed that the density value related to magenta of the pixels in the achromatic character forming region is corrected to the same value as the target value related to magenta in the teacher data, in other words, to the original density value. it can.
[0103]
The horizontal axis in FIG. 13 is the number of iterations, and the unit is “times”. The vertical axis in FIG. 13 is the error amount energy related to yellow. The error amount related to yellow is the output value of the neuron 59 of the output layer 58 when the density value related to yellow of the pixel in the achromatic character forming region is given to the neuron 59 of the input layer 56, and the maximum target value related to yellow of the teacher data. Represents the error amount. The error amount energy relating to yellow is the largest value when the number of iteration times is 0, and decreases as the iteration number time increases, and the iteration number time exceeds approximately 2,000 times and 50,000. The value is 0 in the range less than the number of times. As described above, when the number of repetition times is increased, the error amount energy related to yellow can be reduced.
[0104]
The horizontal axis in FIG. 14 is the yellow input signal value. The vertical axis in FIG. 14 is the yellow correction signal value. The yellow input signal value represents a density value relating to yellow of the pixels in the achromatic character forming region provided to the yellow correcting unit 40c. The yellow correction signal value represents a density value related to yellow of the pixels in the achromatic character formation region after the yellow correction unit 40c corrects the yellow input signal value based on the weight. When the number of iterations is 50,000, the graph representing the relationship between the yellow input signal value and the yellow correction signal value is the yellow conversion graph represented by the solid line 60c in FIG. The x mark 61c represents the target value for yellow of the teacher data, and the graph represented by the two-dot chain line 62c represents an interpolation teacher graph that is a graph obtained by linear interpolation of the x mark 61c. The conversion graph for yellow almost matches the waveform of the interpolation teacher graph represented by the two-dot chain line 62c. As shown in FIG. 10, FIG. 12, and FIG. 14, the optimum density value characteristic can be set based on the graph connecting the maximum target value and the minimum target value that are teacher data. As described above, it is confirmed that the density value related to yellow of the pixels in the achromatic character forming region is corrected to the same value as the target value related to yellow of the teacher data, in other words, to the original density value. it can. For example, regarding an unlearned range such as the input signal value for cyan of 80 to 130 in FIG. 10, a smooth conversion graph for cyan can be obtained by the generalization ability of the neural network 55. By using the obtained smooth conversion graph for cyan, the remaining density values excluding the maximum density value and the minimum density value, that is, the intermediate density value can be accurately corrected. As a result, the density value can be corrected for all image areas of the entire image including the achromatic character forming area.
[0105]
As shown in Expression (23), the corrected signal value is given as an output value when the input signal value is used as an input value with respect to a function representing a conversion graph.
[0106]
[Equation 5]
Figure 0004139201
[0107]
In order to facilitate understanding, Expression (23) collectively expresses the correction signal value, the function representing the conversion graph, and the input signal value for each color of cyan, magenta, and yellow. For example, the correction signal value for cyan is given as an output value when the input signal value for cyan is used as the input value for the function representing the cyan conversion graph. The magenta correction signal value is given as an output value when the magenta input signal value is used as an input value for the function representing the magenta conversion graph. The correction signal value for yellow is given as an output value when the input signal value for yellow is used as the input value for the function representing the conversion graph for yellow. The black generation amount representing the black density value can be controlled using one of the functions representing the cyan, magenta, and yellow conversion graphs. For example, when the black generation amount is controlled using a function representing a magenta conversion graph, the function representing the input / output characteristics of the skeleton curve is replaced with a function representing the magenta conversion graph. As a result, the black generation amount can be controlled in accordance with the thickness of the character. Therefore, it is necessary to add more black ink, which is a black color material, to thin characters compared to thick characters, so that the density of thin characters can be increased and the density difference between thin characters and thick characters can be eliminated. Can do.
[0108]
FIG. 15 is a diagram for explaining the uncorrected image 64A. FIG. 16 is a diagram for explaining the corrected image 64B. FIG. 17 is a density histogram related to the uncorrected image 64A. FIG. 18 is a density histogram related to the corrected image 64B. FIG. 19 is a concentration cross section taken along the solid line 65A in FIG. FIG. 20 is a concentration cross section taken along the solid line 65B in FIG. The uncorrected image 64A and the corrected image 64B are both images formed based on the same document image, for example, the same document image as the teacher document 50A. The uncorrected image 64A is an image formed on a recording material without being corrected by the black gradation correcting unit 30 after the original image is read. The corrected image 64B is an image formed on the recording material based on the processing result by the black gradation correcting unit 30 after reading the document image. In the uncorrected image 64A, thick characters are dark and thin characters are thin according to the thickness of the characters, but in the corrected image 64B, characters having a substantially uniform density are displayed regardless of the thickness of the characters. Is formed.
[0109]
The density histogram in FIG. 17 shows the relationship between the density value and the frequency for the uncorrected image 64A, and the density histogram in FIG. 18 shows the relationship between the density value and the frequency for the corrected image 64B. The horizontal axes in FIGS. 17 and 18 are density values, specifically density values for cyan, magenta, and yellow colors. In FIGS. 17 and 18, these are collectively referred to as CMY density values. The vertical axis | shaft of FIG. 17 and FIG. 18 is frequency. In FIG. 17, the density histogram for cyan is represented by a one-dot chain line 66a, the density histogram for magenta is represented by a solid line 66b, and the density histogram for yellow is represented by a broken line 66c. The density histogram for each color of cyan, magenta, and yellow in FIG. 17 has one peak at a portion where the CMY density value is small (corresponding to a white background region). Further, the density histograms for cyan, magenta, and yellow colors in FIG. 17 have similar waveforms to each other, and have almost the same frequency for the same CMY density value. In FIG. 18, the density histogram for cyan is represented by a one-dot chain line 67a, the density histogram for magenta is represented by a solid line 67b, and the density histogram for yellow is represented by a broken line 67c. The density histogram for each color of cyan, magenta, and yellow in FIG. 18 has two peaks at a portion where the CMY density value is small (white background) and a portion where the color value is large (inside the character). Further, the density histograms for cyan, magenta, and yellow colors in FIG. 18 have similar waveforms to each other and take almost the same frequency for the same CMY density value. According to FIGS. 17 and 18, at a location where the CMY density value is large, specifically, at a location where the CMY density value is approximately 180, as indicated by an arrow 68, it is compared with the frequency in the density histogram for the uncorrected image 64A. The frequency in the density histogram related to the corrected image 64B is higher. This is because the density of thin characters such as “8.0” in FIG. 16 is similar to the density of thick characters such as “2.8” in FIG. This is because the number of pixels having increased.
[0110]
The density cross section in FIG. 19 shows the relationship between the density cross section position and the density value for the uncorrected image 64A, and the graph showing the density cross section in FIG. 20 shows the density cross section position and the density value for the corrected image 64B. The relationship is shown. A solid line 65A in FIG. 15 and a solid line 65B in FIG. 16 indicate locations where a concentration cross section is created. The solid lines 65A and 65B are arranged at the same place in the document image, and cross thin characters, specifically, five vertical lines and the number “6.3” arranged in parallel with a space between each other. The horizontal axis of FIG. 19 and FIG. 20 is a value representing the position of the concentration cross section. The vertical axis in FIGS. 19 and 20 is a density value, specifically, a density value for each color of cyan, magenta, and yellow. In FIGS. 19 and 20, these are collectively expressed as CMY density values. . The positions of the concentration cross sections are the dimensions of the solid line 65A and the solid line 65B. For example, in FIGS. 19 and 20, the positions of the concentration cross sections are set such that one end of the solid line 65A and the solid line 65B is set to “0” that is the lower limit value and the other end is set to “90” that is the upper limit value. . In FIG. 19, the density cross section for cyan is represented by a one-dot chain line 69a, the density cross section for magenta is represented by a solid line 69b, and the density cross section for yellow is represented by a broken line 69c. The density cross sections for cyan, magenta, and yellow colors in FIG. 19 have similar waveforms to each other, and have substantially the same CMY density values for the same density cross section position. In FIG. 20, the density cross section for cyan is represented by a one-dot chain line 70a, the density cross section for magenta is represented by a solid line 70b, and the density cross section for yellow is represented by a broken line 70c. The density cross sections for cyan, magenta, and yellow in FIG. 20 have the same waveform, and have almost the same CMY density values for the same density cross section.
[0111]
The density cross section related to the uncorrected image 64A in FIG. 19 and the density cross section related to the corrected image 64B in FIG. 20 are in a range including five vertical lines and the background in the vicinity, in other words, the position of the density cross section is approximately 10 to 25. In the following range, the graph is roughly a triangular wave graph, and the vertical line takes a CMY density value larger than that of the background, so that the CMY density value changes alternately as the position of the density cross section increases. In the density section related to the uncorrected image 64A, the CMY density value in the central vertical line among the five vertical lines is the remaining vertical line, depending on the resolution performance of the image input device 2, specifically the optical resolution of the scanner unit. And the CMY density value in the number “6.3” are small, and the CMY density value is non-uniform. The location where the density cross section is created is a character that is sufficiently thin compared to the number “2.8” in FIG. 15 and the vertical line in the vicinity thereof, for example. Accordingly, unevenness in density occurs.
[0112]
In the density section related to the corrected image 64B, the CMY density values of the five vertical lines and the number “6.3” are almost the same. Further, in the density section related to the corrected image 64B, even for thin characters, the density difference between the high density and the low density, in other words, the difference between the CMY density value in the vertical lines and numbers and the density value in the background is widened. As described above, the density values for cyan, magenta, and yellow of the pixels in the achromatic character forming area are corrected, so that the density of the vertical lines and the density of the numbers are substantially the same as in the corrected image 64B and before correction. Are formed so that the density of the background between the vertical lines is lower than the density of the background before correction. As a result, the original image can be accurately reproduced, and the contrast of the achromatic character forming area can be accurately reproduced.
[0113]
Since the image processing apparatus 3 is configured in this way, even when the reading density is lowered due to, for example, insufficient resolution of the image input apparatus 2 and a reading error occurs, the maximum density value of the local mask and By using the minimum density value and the teacher data based on the input characteristics of the image input device 2, the reading error can be corrected and eliminated. In the image forming apparatus 1 described above, the density value of the pixels in the achromatic character forming area may be corrected using correction information obtained each time the entire image is given to the image processing apparatus 3, or during pre-scanning. Correction may be performed using the obtained correction information.
[0114]
According to the present embodiment, an entire image including pixels having pixel values related to a plurality of colors is given by the image input device 2. A plurality of image regions are identified and separated from the entire image by the region separation processing unit 13. Among the image areas to be separated, regarding the achromatic character forming area which is a predetermined specific image area, the maximum pixel value is acquired by each color high density acquisition unit 32 which is the maximum pixel value acquisition means. Based on the maximum density value that is the maximum pixel value that is acquired and the maximum target value that is set in advance for correcting the maximum density value, the correction information is calculated by each color learning unit 39 that is an information calculation means. . The correction information is information for correcting the density value of the pixels in the achromatic character formation region, and is calculated for each color of cyan, magenta, and yellow. Based on the calculated correction information, the density value of the pixel in the achromatic character formation region is corrected by each color correction unit 40 as a correction unit. By using the correction information, it is possible to eliminate the reading error by correcting the reading error generated when reading the document image so that the maximum density value in the achromatic character forming region becomes the original density value. Therefore, it is possible to accurately correct the density value of the pixel in the achromatic character forming region so that the original density value is obtained. As a result, for example, a reading error that occurs when reading an image formed on a document can be corrected to eliminate the reading error. Therefore, the pixel value of the pixel in the specific image region can be accurately corrected so that the original pixel value is obtained.
[0115]
Further, according to the present embodiment, the minimum density value, which is the minimum pixel value, is acquired by each color low density acquisition unit 33, which is the minimum pixel value acquisition means, with respect to the achromatic character forming area that is the specific image area. The minimum density value acquired by each color low density acquisition unit 33, the preset minimum target value for correcting the minimum density value, the maximum density value, and the preset maximum for correcting the maximum density value Based on the target value, correction information is calculated by each color learning unit 39. Thus, the correction information is calculated in consideration of the minimum density value and the minimum target value in addition to the maximum density value and the maximum target value. Thus, it is possible to correct a reading error that occurs when reading an image in the achromatic character forming region so that the maximum density value and the minimum density value become the original density values. Accordingly, it is possible to accurately correct the density value of the pixels in the achromatic character forming area and to accurately reproduce the contrast of the achromatic character forming area in the document image.
[0116]
Furthermore, according to the present embodiment, each color learning unit 39 as the information calculation means is configured to include a neural network 55. For example, when calculating correction information using a spline function, it is necessary to calculate the correction information using a higher-order function, so that the calculation becomes complicated and in order to realize a calculation means for performing the calculation costly. Since each color learning unit 39 includes the neural network 55, the correction information can be easily and accurately calculated by repeating simple product-sum operations. As a result, accurate correction information can be easily obtained, and the cost required to realize each color learning unit 39 can be reduced as much as possible.
[0117]
Furthermore, according to the present embodiment, the maximum target value is set based on the input characteristics of the image input device 2, so that correction information corresponding to the image input device 2 can be accurately calculated. For example, when the specific image area is a character formation area, the density of characters in the character area is uniform regardless of the thickness of the character and is the maximum in the character area, and the density of the background area is uniform. The minimum. When a character of a document image is read, it can be assumed that the density value of a pixel corresponding to the character is maximum in the character region and minimum in the pixel corresponding to the background. Accordingly, the maximum target value and the minimum target value that are pixel values to be given by the image input device 2 can be set in advance. As described above, when the target value for correcting the density value of the pixel in the specific image region is known, the image input device 2 reads an image in the image region including the pixel having the target value, and the target value is corrected. The value can be preset. As a result, the correction information can be accurately calculated.
[0118]
Furthermore, according to the present embodiment, the image forming apparatus 1 includes the above-described image processing apparatus 3, so that the original density that originally has the density value of the pixels of the achromatic character forming area that is the specific image area is included. It can be accurately corrected so as to be a value. Thus, it is possible to realize the image forming apparatus 2 that can accurately reproduce the density of characters formed on the document image.
[0119]
Further, according to the present embodiment, a plurality of image regions are identified and separated from the entire image provided by the image input device 2 in the region separation step. Among the image regions separated in the region separation step, the maximum density value is acquired in the maximum pixel value acquisition step for the achromatic character forming region that is a predetermined specific image region. Based on the acquired maximum density value and maximum target value, correction information is calculated in the information calculation step. The correction information is information for correcting the density value of the pixel in the achromatic character formation region. Based on the calculated correction information, the density value of the pixel in the achromatic character formation region is corrected in the correction step. By using the correction information, it is possible to correct a reading error that occurs when the original image is read so that the maximum density value in the achromatic character forming region becomes the original original density value. As a result, the density value of the pixels in the achromatic character forming region can be accurately corrected so that the reading density is eliminated and the original density value is obtained.
[0120]
Furthermore, according to the present embodiment, the minimum density value is acquired in the minimum pixel value acquisition step with respect to the achromatic character formation region. Based on the minimum density value and the maximum density value acquired in the minimum pixel value acquisition process, and the minimum target value and the maximum target value, correction information is calculated in the information calculation process. Thus, the correction information is calculated in consideration of the minimum density value and the minimum target value in addition to the maximum density value and the maximum target value. Accordingly, it is possible to correct a reading error that occurs when the original image is read so that the maximum density value and the minimum density value are respectively the original density values. Therefore, it is possible to accurately correct the density value of the pixels in the achromatic character forming area and to accurately reproduce the contrast of the specific image area in the entire image.
[0121]
Furthermore, according to the present embodiment, in the information calculation step, correction information is calculated using the neural network 55. For example, when calculating correction information using a spline function, it is necessary to calculate the correction information using a higher-order function, so that the calculation becomes complicated and in order to realize a calculation means for performing the calculation costly. Since the neural network 55 is used in the information calculation process, the correction information can be calculated easily and accurately by repeating simple product-sum operations. As a result, accurate correction information can be easily obtained, and the cost required to realize the processing in the information calculation process can be reduced as much as possible.
[0122]
Furthermore, according to the present embodiment, since the maximum target value is set based on the input characteristics of the image input device 2, the correction information corresponding to the image input device 2 can be accurately calculated in the information calculation step. it can. For example, when the specific image region is a character formation region, the characters in the character region are represented by pixels having a uniform density regardless of the thickness of the character and having the maximum density value. As a result, the maximum target value which is the original density value originally possessed can be known in advance. When the maximum target value is known in this way, the maximum target value can be set in advance by reading an image including a pixel having the maximum target value with the image input device 2. Accordingly, the correction information can be accurately calculated in the information calculation process.
[0123]
In the present embodiment, the black generation and under color removal unit 15 includes the black gradation correction unit 30, but the black gradation correction unit 30 is provided separately from the black generation and under color removal unit 15. In this case, the image processing apparatus 3 is configured such that the black gradation correction unit 30 performs processing before the black generation and under color removal unit 15.
[0124]
FIG. 21 is a block diagram illustrating a configuration of a black gradation correction unit 30A included in the image processing apparatus 3A of the image forming apparatus 1A according to another embodiment of the present invention. The image forming apparatus 1A according to the present embodiment is similar to the image forming apparatus 1 according to the embodiment shown in FIGS. 1 to 20 described above. Is omitted. In this embodiment, the density value corrected based on the correction information obtained from the sample image in the achromatic character forming area is not corrected based on the correction information calculated every time the entire image is given. A lookup table that is obtained and associated with the maximum density value and the minimum density value is prepared in advance. The above-described sample image of the achromatic character forming region is an image on the teacher originals 50 and 50A shown in FIGS. 5 and 6, for example.
[0125]
Providing a lookup table in advance in this way is effective when input characteristics such as resolution performance of the image input apparatus 2 are constant or known. In the present embodiment, the lookup table can correspond to input 8 bits (8 bits) and output 8 bits (8 bits) for each color of cyan, magenta, and yellow.
[0126]
Specifically, using the image input device 2 whose input characteristics are constant or known, a function representing a conversion graph for each color of cyan, magenta, and yellow is obtained from a sample image of the achromatic character formation region by, for example, simulation. The density value of the pixel of the sample image corrected based on the function is obtained in advance. The corrected pixel density value of the sample image and the maximum density value and the minimum density value in the sample image are associated with each other and stored in each color storage unit 71 as a lookup table.
[0127]
The cyan storage unit 71a of each color storage unit 71 stores a lookup table in which the corrected cyan density value obtained based on the sample image is associated with the cyan maximum density value and the minimum density value. The magenta storage unit 71b stores a look-up table in which the density value relating to magenta after correction obtained based on the sample image is associated with the maximum density value and the minimum density value relating to magenta. The yellow storage unit 71c stores a lookup table in which the obtained corrected density value related to yellow is associated with the maximum density value and the minimum density value related to yellow.
[0128]
Among the density values of the pixels in the achromatic character forming region in the entire image from the image input device 2, the maximum density value is acquired by each color high density acquisition unit 32 and is provided to each color correction unit 72. Specifically, among the density values of the pixels in the achromatic character formation region, the maximum density value for cyan is given to the cyan correction unit 72a, the maximum density value for magenta is given to the magenta correction unit 72b, and the maximum density value for yellow is given. The density value is given to the yellow correction unit 72c. Among the density values of the pixels in the achromatic character formation region in the entire image from the image input device 2, the minimum density value is acquired by each color low density acquisition unit 33 and is provided to each color correction unit 72. Specifically, among the density values of the pixels in the achromatic character forming region, the minimum density value for cyan is given to the cyan correction unit 72a, and the minimum density value for magenta is given to the magenta correction unit 72b, and yellow. Is provided to the yellow correction unit 72c.
[0129]
Based on the acquired maximum density value and minimum density value, each color correction unit 72 reads out the corrected density value associated with the maximum density value and minimum density value in the corresponding sample image from the lookup table, and Correction is performed by replacing the density value of the pixel in the achromatic character forming area with the stored density value after correction. Specifically, the cyan correction unit 72a, based on the acquired maximum density value for cyan and minimum density value for cyan, corrects associated with the maximum density value and minimum density value related to cyan of the corresponding sample image, respectively. The density value relating to the subsequent cyan is read from a lookup table stored in the cyan storage unit 71a. Further, the cyan correction unit 72a corrects the density value related to cyan of the pixels in the achromatic character forming region by replacing the read density value related to cyan after correction. The magenta correction unit 72b uses the magenta density value for magenta after correction associated with the maximum density value and the minimum density value for magenta of the sample image respectively corresponding to the acquired maximum density value for magenta and minimum density value for magenta. Reading from the lookup table stored in the storage unit 71b. Further, the magenta correction unit 72b corrects the density value relating to magenta of the pixels in the achromatic character forming region by replacing the read density value relating to magenta after correction. The yellow correction unit 72c sets the corrected yellow density value associated with the maximum density value and the minimum density value for yellow in the sample image corresponding to the acquired maximum density value for yellow and the minimum density value for yellow, respectively. It reads from the look-up table memorize | stored in the memory | storage part 71c. Further, the yellow correcting unit 72c corrects the density value related to yellow of the pixels in the achromatic character forming area by replacing the read density value related to yellow after correction. The processing in the black gradation correction unit 30A is performed when each pixel of the entire image is set as the target pixel and the pixel set as the target pixel belongs to the achromatic character formation region. Based on the density value of the pixels in the achromatic character forming region corrected by the black gradation correcting unit 30A in this way, the black generation / under color removal unit 15A performs black generation processing and under color removal processing.
[0130]
By storing the pixel density values corrected using the sample image as a lookup table as described above, the correction information is calculated and corrected each time the entire image is given. This can be improved without reducing the processing speed of the processing. Accordingly, it is possible to realize the image processing apparatus 3A that can perform high-speed correction processing and can accurately correct the above-described effect, that is, the density value of the pixels in the achromatic character forming region.
[0131]
Also, since the gamma correction is performed to correct the density value using a uniform correction curve for the entire image, the gap amount is reduced compared to the case where the black generation amount is controlled in units of areas, and the original image is smoothed. Can be reproduced.
[0132]
FIG. 22 is a flowchart showing a processing procedure by the black gradation correction unit 30A and the black generation and under color removal unit 15A. The image processing method in the present embodiment includes an information storage step, a region separation step, and a correction step. In the information storage step, the density values of the pixels of the sample image corrected by the correction information calculated based on the maximum density value of the sample image in the achromatic character forming region and the maximum target value are stored by each color storage unit 71. Is done. The calculated correction information is a function representing a conversion graph for each color of cyan, magenta, and yellow. A lookup table in which the density value of the pixel of the sample image corrected by the function representing the conversion graph relating to each color and the maximum density value and the minimum density value are associated is stored in each color storage unit 71. In the correction process of step a4, the density values of the pixels in the achromatic character forming area in the entire image are corrected by the color correction sections 72 based on the density values of the corrected sample image pixels stored in the color storage sections 71. Is done. In this embodiment, before the processing procedure based on the image processing method is started in step a0, the processing in the information storage step and the region separation step has already been performed. The image processing method of the present embodiment further includes a step of performing black generation and under color removal processing in step a5.
[0133]
In step a0, a processing procedure according to the image processing method of the present embodiment is started, and the process proceeds to step a1. In step a1, the black gradation correction unit 30A performs the same process as in step s1 of FIG. If it is determined in step a1 that the target pixel 36 belongs to the achromatic character area, the process proceeds to step a2, and if it is determined that the target pixel 36 does not belong to the achromatic character area, the process proceeds to step a6 and all processing procedures are completed. To do. In step a2, the same process as in step s2 of FIG. 8 is performed, and the process proceeds to step a3.
[0134]
In the maximum pixel value acquisition process and the minimum pixel value acquisition process of step a3, each color high density acquisition unit 32 determines the maximum density for each color of cyan, magenta, and yellow of the pixels belonging to the achromatic character formation area that is a predetermined specific image area. Each color low density acquisition unit 33 acquires a minimum density value for each color of cyan, magenta, and yellow of the pixels belonging to the achromatic character formation region. When the maximum density value and the minimum density value are acquired in step a3, the process proceeds to step a4.
[0135]
In step a4, each color correction unit 72 reads the density value from the lookup table. Specifically, each of the color correction units 72 is associated with the maximum density value and the minimum density value of the pixels of the sample image corresponding to the maximum density value and the minimum density value of the pixels in the achromatic character forming region in the entire image, respectively. The density value is read from the lookup table. Further, the density value of the pixel in the achromatic character forming region in the entire image is corrected by replacing the read density value after correction. When the density value of the pixel in the achromatic character forming area is corrected based on the lookup table in step a4, the process proceeds to step a5. In step a5, as in step s6 in FIG. 8, the black generation / undercolor removal unit 15A performs black generation / undercolor removal processing, proceeds to step a6, and ends all processing procedures. In step a5, when the density values relating to cyan, magenta, and yellow of the pixels in the achromatic character forming area are corrected, the process proceeds to step a6 and all processing procedures are completed.
[0136]
According to the present embodiment, based on the maximum density value of the sample image of the achromatic character forming area, which is a predetermined specific image area, and the preset maximum target value for correcting the maximum pixel value. The density value of the pixel of the sample image corrected by the calculated correction information is stored in each color storage unit 71. Each color correction unit 72 converts the density value of the pixel in the achromatic character formation region identified and separated from the entire image by the region separation processing unit 13 into the density value of the pixel of the corrected sample image stored in each color storage unit 71. Correct based on. Thus, for example, when the input characteristics of the image input device 2 are constant or known, the pixel of the sample image in the achromatic character forming region is not calculated every time the image input device 2 gives the entire image. The correction information is estimated based on the density value of the sample image, and the density value of the pixel of the sample image corrected based on the correction information can be stored in advance. Thus, based on the density value of the pixel of the corrected sample image stored in advance, it is possible to accurately correct the density value of the pixel in the achromatic character forming area that is identified and separated from the entire image in the area separation step. . As a result, the processing amount of the image processing apparatus 1A, specifically, the black gradation correction unit 30A can be reduced as much as possible, and the processing speed can be improved.
[0137]
Further, according to the present embodiment, in the information storing step, based on the maximum density value of the sample image in the achromatic character forming area and the preset maximum target value for correcting the maximum density value. The density values of the pixels of the sample image corrected by the calculated correction information are stored in each color storage unit 71. In the correction process, based on the density value of the pixel of the sample image after correction stored in each color storage unit 71, the density value of the pixel in the specific image area identified and separated from the entire image in the area separation process is corrected. Thus, when the input characteristics of the image input device 2 are constant or known, correction is performed using the sample image of the achromatic character forming region without calculating correction information every time the image input device 2 gives the entire image. Information can be estimated, and the pixel density values of the sample image corrected based on the correction information can be stored in advance. As described above, based on the density value of the pixel of the corrected sample image stored in advance, it is possible to accurately correct the density value of the pixel in the achromatic character forming region that has been identified and separated. As a result, the processing amount of the image processing apparatus 1A, specifically, the black gradation correction unit 30A can be reduced as much as possible, and the processing speed can be improved.
[0138]
In the present embodiment, the black generation and under color removal unit 15A includes the black gradation correction unit 30A. However, the black gradation correction unit 30A includes the black generation and under color removal unit 15A separately. In this case, the image processing apparatus 3A is configured such that the black gradation correction unit 30A performs processing before the black generation and under color removal unit 15A. Further, correction information for a plurality of types of image input devices 2 having different characteristics such as resolution performance may be stored, and the configuration may be applicable to a plurality of types of image input devices 2.
[0139]
In each embodiment of the present invention, the local mask in the region separation processing unit 13 may be formed using the line memory 37. In the line memory 37, the number of pixels in which the density value is stored is not limited based on the size of each color local mask 35, and may be changed depending on the number of FIFO type memories, or a storage unit such as a hard disk. The configuration may be such that the density value is stored in cooperation with the. As a result, the number of pixels included in each color local mask 35 can be easily changed, and the determination process of the image area and the correction process of the density value of the pixel in the specific image area can be accurately performed. Further, in order to calculate correction information, instead of using the maximum density value and the minimum density value for each color of cyan, magenta, and yellow for each color local mask 35, for example, the density value of each pixel of each color local mask 35 is set in ascending or descending order. Alternatively, the density value of the upper predetermined pixel and the density value of the lower predetermined pixel may be used.
[0140]
FIG. 23 is a diagram showing a configuration of a computer system 75 which is still another embodiment of the present invention. The present embodiment is configured to record a program 84 on a computer-readable recording medium 83 using a program for causing a computer to execute the image processing method of the present invention. Accordingly, the recording medium 83 on which the program 84 for executing the image processing method of the present invention is recorded can be carried. The computer system 75 includes a computer 76, an image display device 78, an image input device 79, a printer 80 that is an image output device, a keyboard 81 that is an input device, and a mouse 82. The computer 76 includes a ROM 77 that is a recording medium separable from the computer 76.
[0141]
In the computer system 75, the program is recorded in the ROM 77. The computer 76 reads the above-mentioned program from the ROM 77 and executes it, whereby the image processing method of the present invention is performed. Further, by inserting the recording medium 83 on which the program 84 is recorded into a program reading device which is an external storage device (not shown), the program 84 is read from the recording medium 83 and the program 76 is executed by the computer 76. Good.
[0142]
The image display device 78 is a device for displaying a processing result by the computer 76, and for example, a cathode ray tube display (abbreviated as CRT) display and a liquid crystal display are used. The image input device 79 is a device that reads an image formed on a document, and for example, a flatbed scanner, a film scanner, and a digital camera are used. The printer 80 forms the processing result by the computer 76 on the recording material as an image. Furthermore, the computer system 75 may be provided with a modem which is a communication means for connecting to a server via a communication network, for example.
[0143]
The program 84 may be configured to be executed by the computer 76 by being read from the recording medium 83 by the microprocessor, and the read program 84 is once transferred to a program storage area provided in the computer 76. It may be configured to be executed later.
[0144]
The recording medium 83 may be a medium that is configured to be separable from the computer 76 and that records the program 84 fixedly using a magnetic tape and a cassette tape. As another example of the recording medium 83, in the case of a magnetic disk, a flexible disk and a hard disk, and in the case of an optical disk, a compact disk-read only memory (abbreviated as CD-ROM), a magnet optical. (Magneto Optical; abbreviated as MO), mini disk (abbreviated as MD), or digital versatile disk (abbreviated as DVD) may be used as the recording medium 83.
[0145]
Further, a mask ROM, an EPROM (abbreviated as EPROM), an EPROM (abbreviated as EEPROM), and a flash ROM (Flash Read Only Memory), which are semiconductor memories, are used as the recording medium 83. You can also
[0146]
The computer system 75 may be configured to be connectable to a communication network including the Internet, and a recording medium that fluidly records the program 84 so as to transfer and record the above-described program 84 to the ROM 77 via the communication network. 83 may be sufficient. When the program 84 is downloaded via the communication network in this way, the download program for transferring, that is, downloading the program 84 is recorded in the computer system 75 in advance or from another recording medium 83 to the computer system. 75 may be installed, that is, installed.
[0147]
According to the present embodiment, the image processing method for correcting the density value of the pixel in the achromatic character forming area which is the specific image area based on the correction information is represented by the program 84, whereby the above-described image processing method is stored in the computer. Can be executed. By causing the computer 76 to execute the process according to the image processing method, the image represented by the specific image area in the document can be accurately reproduced.
[0148]
Further, according to the present embodiment, the program 84 for causing the computer 76 to execute the image processing method for correcting the density value of the pixels in the achromatic character forming area based on the correction information is a record readable by the computer 76. It is recorded on the medium 83. For example, by recording the program 84 on a portable recording medium 83 such as a flexible disk, the program 84 can be read from the recording medium 83 to the desired computer 76, and the program 84 can be read from the recording medium 83 to the computer 76. The program 84 can be executed by the computer 76 by being read.
[0149]
【The invention's effect】
According to the present invention, an entire image including pixels having pixel values relating to a plurality of colors is given by the image input means. A plurality of image areas are identified and separated from the whole image by the area separating means. Among the image regions to be separated, the maximum pixel value is acquired by the maximum pixel value acquisition unit with respect to a predetermined specific image region. Based on the acquired maximum pixel value and a preset maximum target value for correcting the maximum pixel value, correction information is calculated by the information calculation means. The correction information is information for correcting the pixel value of the pixel in the specific image area. Based on the calculated correction information, the pixel value of the pixel in the specific image area is corrected by the correcting means. By using the correction information, the pixel value of the pixel in the specific image area can be corrected so that the maximum pixel value in the specific image area becomes the original pixel value. As a result, for example, a reading error generated when reading an image formed on a document can be corrected to eliminate the reading error. Therefore, the pixel values of the pixels in the specific image area can be accurately corrected so that the pixel values to be given by the image input means are obtained.
[0150]
According to the invention, the minimum pixel value is acquired by the minimum pixel value acquisition means for the specific image area. A minimum pixel value acquired by the minimum pixel value acquisition means, a preset minimum target value for correcting the minimum pixel value, a maximum pixel value, and a value for correcting the maximum pixel value Based on the preset maximum target value, the correction information is calculated by the information calculation means. Thus, the correction information is calculated in consideration of the minimum pixel value and the minimum target value in addition to the maximum pixel value and the maximum target value. Accordingly, it is possible to correct a reading error that occurs when reading a specific image area in the entire image so that the maximum and minimum pixel values become the original pixel values. Therefore, it is possible to accurately reproduce the contrast of the specific image area in the entire image after accurately correcting the pixel value of the pixel in the specific image area.
[0151]
According to the present invention, the information calculation means includes a neural network. For example, when calculating correction information using a spline function, it is necessary to calculate the correction information using a higher-order function, so that the calculation becomes complicated and in order to realize a calculation means for performing the calculation costly. Since the information calculation means includes a neural network, the correction information can be calculated easily and accurately by repeating simple product-sum operations. Accordingly, accurate correction information can be easily obtained, and the cost required for realizing the information calculation means can be reduced as much as possible.
[0152]
According to the present invention, since the maximum target value is set based on the input characteristics of the image input means, the correction information corresponding to the image input means can be accurately calculated. For example, when the specific image area is a character formation area, the density of characters in the character formation area is uniform regardless of the thickness of the character and is the maximum in the character area, and the density of the background area is uniform. It is the smallest in the manner. When the character forming area in the entire image is read, it can be assumed that the pixel value of the pixel corresponding to the character is the maximum pixel value in the character forming area, and the density value of the pixel corresponding to the background is minimum. Thereby, the maximum target value and the minimum target value, which are the original pixel values, can be set in advance. As described above, when the target value for correcting the pixel value of the pixel in the specific image region is known, the target value is set in advance by reading the entire image including the pixel having the target value with the image input unit. Can be set. As a result, the correction information can be accurately calculated.
[0153]
Further, according to the present invention, correction is performed using correction information calculated based on a maximum pixel value of a sample image in a predetermined specific image area and a preset maximum target value for correcting the maximum pixel value. The pixel values of the pixels of the sample image thus obtained are stored in the storage means. The pixel value of the pixel of the specific image area identified and separated by the area separating unit is corrected by the correcting unit based on the pixel value of the pixel of the corrected sample image stored in the storage unit. Thus, for example, when the input characteristics of the image input means are constant or known, the pixel value of the sample image pixel in the specific image area is not calculated every time the image input means gives the entire image. Correction information can be estimated based on this, and the pixel value of the pixel of the sample image corrected based on this correction information can be stored in advance. By using the pixel value of the pixel of the corrected sample image stored in advance as described above, the pixel value of the pixel in the specific image region identified and separated from the entire image by the region separation unit can be accurately corrected. Thereby, the processing amount of the image processing apparatus can be reduced as much as possible, and the processing speed can be improved.
[0154]
According to the present invention, since the image forming apparatus includes the above-described image processing apparatus, the pixel value of the pixel in the specific image region can be accurately corrected so as to be the original pixel value. As a result, an image forming apparatus capable of accurately reproducing a specific image area in the entire image can be realized.
[0155]
According to the invention, the whole image including pixels having pixel values relating to a plurality of colors is given by the image input means. From this entire image, a plurality of image regions are identified and separated in the region separation step. Of the image regions separated in the region separation step, the maximum pixel value is acquired in the maximum pixel value acquisition step for a predetermined specific image region. Based on the acquired maximum pixel value and a preset maximum target value for correcting the maximum pixel value, correction information is calculated in the information calculation step. The correction information is information for correcting the pixel value of the pixel in the specific image area. Based on the calculated correction information, the pixel value of the pixel in the specific image region is corrected in the correction step. By using the correction information, it is possible to correct a reading error that occurs when the specific image area in the entire image is read so that the maximum pixel value in the specific image area becomes a pixel value to be given by the image input means. . As a result, the pixel value of the pixel in the specific image region can be accurately corrected so that the reading error is eliminated and the original pixel value is obtained.
[0156]
According to the invention, the minimum pixel value is acquired in the minimum pixel value acquisition step for the specific image region. A minimum pixel value acquired in the minimum pixel value acquisition step, a preset minimum target value for correcting the minimum pixel value, a maximum pixel value, and a correction for correcting the maximum pixel value Based on the preset maximum target value, correction information is calculated in the information calculation step. Thus, the correction information is calculated in consideration of the minimum pixel value and the minimum target value in addition to the maximum pixel value and the maximum target value. Accordingly, it is possible to correct a reading error that occurs when reading a specific image area in the entire image so that the maximum and minimum pixel values become the original pixel values. Therefore, the pixel value of the pixel in the specific image area can be accurately corrected, and the contrast of the specific image area in the entire image can be accurately reproduced.
[0157]
According to the invention, in the information calculation step, correction information is calculated using a neural network. For example, when calculating correction information using a spline function, it is necessary to calculate the correction information using a higher-order function, so that the calculation becomes complicated and in order to realize a calculation means for performing the calculation costly. Since the neural network is used in the information calculation step, the correction information can be calculated easily and accurately by repeating simple product-sum operations. Accordingly, accurate correction information can be easily obtained, and the cost required for realizing the information calculation means can be reduced as much as possible.
[0158]
According to the present invention, since the maximum target value is set based on the input characteristics of the image input means, the correction information corresponding to the image input means can be accurately calculated. For example, when the specific image region is a character forming region, the characters in the character forming region are represented by pixels having a uniform density regardless of the thickness of the character and having the maximum pixel value. Thus, the maximum target value that is the original pixel value can be known in advance. Thus, when the maximum target value is known, the maximum target value can be set in advance by reading the entire image including the pixel having the maximum target value with the image input means. As a result, the correction information can be accurately calculated.
[0159]
According to the invention, in the information storing step, the calculation is performed based on the maximum pixel value of the sample image in the predetermined specific image area and the preset maximum target value for correcting the maximum pixel value. The pixel value of the pixel of the sample image corrected by the correction information is stored in the storage unit. In the correction step, the pixel value of the pixel in the specific image region identified and separated from the entire image in the region separation step is corrected based on the pixel value of the pixel of the corrected sample image stored in the storage unit. Thus, when the input characteristics of the image input means are constant or known, the correction information is estimated using the sample image of the specific image area without calculating the correction information every time the image input means gives the whole image. The pixel values of the pixels of the sample image corrected based on the correction information can be stored in advance. By using the pixel value of the pixel of the corrected sample image stored in advance as described above, the pixel value of the pixel in the specific image region that has been identified and separated can be accurately corrected. Thereby, the processing amount of the image processing apparatus can be reduced as much as possible, and the processing speed can be improved.
[0160]
According to the present invention, the image processing method for correcting the pixel value of the pixel in the specific image region based on the correction information is represented by a program, whereby the computer can execute processing according to the above-described image processing method. By causing the computer to execute processing according to the image processing method, it is possible to accurately reproduce the image represented by the specific image region in the document.
[0161]
Further, according to the present invention, a program for causing a computer to execute an image processing method for correcting a pixel value of a pixel in a specific image area based on the correction information is recorded on a computer-readable recording medium. For example, by recording the program on a portable recording medium such as a flexible disk, the program can be read from the recording medium to a desired computer, and the program can be read from the recording medium to the computer. Can be executed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a black tone correction unit 30 of an image processing apparatus 3 provided in an image forming apparatus 1 according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a configuration of the entire image forming apparatus 1. FIG.
FIG. 3 is a block diagram showing a configuration of a region separation processing unit 13;
FIG. 4 is a diagram for explaining local color masks 35 formed by a black gradation correction unit 30;
FIG. 5 is a diagram for explaining a teacher document 50 for setting teacher data.
FIG. 6 is a diagram for explaining a teacher document 50A for setting teacher data.
7 is a block diagram showing a neural network 55. FIG.
FIG. 8 is a flowchart illustrating a processing procedure performed by a black tone correction unit 30 and a black generation and under color removal unit 15;
FIG. 9 is a graph showing the relationship between the number of iterations time and the error amount energy related to cyan.
10 is a graph showing a relationship between an input signal value for cyan and a correction signal value for cyan when the number of iterations time in FIG. 9 is 50,000. FIG.
FIG. 11 is a graph showing the relationship between the number of iterations time and the error amount energy related to magenta.
12 is a graph showing the relationship between the magenta input signal value and the magenta correction signal value when the number of iterations time in FIG. 11 is 50,000. FIG.
FIG. 13 is a graph showing the relationship between the number of iterations time and the error amount energy related to yellow.
14 is a graph showing a relationship between a yellow input signal value and a yellow correction signal value when the number of repetition times in FIG. 13 is 50,000.
FIG. 15 is a diagram for explaining an uncorrected image 64A.
FIG. 16 is a diagram for explaining a corrected image 64B.
FIG. 17 is a density histogram related to an uncorrected image 64A.
FIG. 18 is a density histogram related to a corrected image 64B.
19 is a concentration cross section taken along a solid line 65A in FIG.
20 is a concentration cross section taken along a solid line 65B in FIG.
FIG. 21 is a block diagram illustrating a configuration of a black gradation correction unit 30A included in the image processing apparatus 3A of the image forming apparatus 1A according to another embodiment of the present invention.
FIG. 22 is a flowchart illustrating a processing procedure performed by a black gradation correction unit 30A and a black generation and under color removal unit 15A.
FIG. 23 is a diagram showing a configuration of a computer system 75 according to still another embodiment of the present invention.
[Explanation of symbols]
1,1A image forming apparatus
2 Image input device
3,3A image processing device
13 Region separation processing unit
15,15A Black generation under color removal part
30,30A Black gradation correction part
32 Each color high density acquisition part
33 Low density acquisition unit for each color
34 Each color neural network
38, 71 each color memory
39 Each color learning section
40 and 72 color correction units
55 Neural network
75 Computer system
76 computers
83 Recording media
84 programs

Claims (9)

画像入力手段によって与えられ、かつ複数の色に関する画素値を有する画素を含む全体画像から、複数の画像領域を識別分離する領域分離手段と、
分離される画像領域のうち、無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最大濃度値を取得する最大画素値取得手段と、
前記無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最小濃度値を取得する最小画素値取得手段と、
神経回路網を含んで構成され、取得される最大濃度値と、前記最大濃度値を補正するために用いられる予め教師データによって設定される最大目標値と、取得される最小濃度値と、前記最小濃度値を補正するために用いられる予め教師データによって設定される最小目標値とに基づいて、最大濃度値と最大目標値との誤差、最小濃度値と最小目標値との誤差が無くなるように学習によって神経回路網中のニューロン間の結合強さを表す重みを演算して更新する情報演算手段と、
更新された重みに基づいて、前記無彩文字形成領域の画素の濃度値を補正する補正手段とを含むことを特徴とする画像処理装置。
Area separation means for discriminating and separating a plurality of image areas from an entire image including pixels having pixel values relating to a plurality of colors, which are given by the image input means;
A maximum pixel value acquisition means for acquiring a maximum density value for each color local block including the target pixel belonging to the achromatic character formation region among the image regions to be separated;
Minimum pixel value acquisition means for acquiring a minimum density value for each color local block including the target pixel belonging to the achromatic character formation region;
A maximum density value acquired including a neural network, a maximum target value set in advance by teacher data used to correct the maximum density value, a minimum density value acquired, and the minimum Based on the minimum target value set in advance by the teacher data used to correct the density value, learning is made so that there is no error between the maximum density value and the maximum target value and between the minimum density value and the minimum target value. Information calculating means for calculating and updating weights representing the strength of connection between neurons in the neural network ,
An image processing apparatus comprising: a correction unit that corrects a density value of a pixel in the achromatic character forming region based on the updated weight .
前記最大目標値および最小目標値は、教師用原稿を用いて教師データを取り込むことで画像入力手段の入力特性に基づいて設定されることを特徴とする請求項1記載の画像処理装置。The image processing apparatus according to claim 1, wherein the maximum target value and the minimum target value are set based on input characteristics of an image input unit by capturing teacher data using a teacher document . 予めサンプル画像を用いた学習によって、前記情報演算手段が更新した前記重みを記憶しておく記憶手段を有し、
前記補正手段は、記憶されている重みに基づいて、前記無彩文字形成領域の画素の濃度値を補正することを特徴とする請求項1または2記載の画像処理装置。
Storage means for storing the weight updated by the information calculation means by learning using a sample image in advance;
The image processing apparatus according to claim 1 , wherein the correction unit corrects a density value of a pixel in the achromatic character forming region based on a stored weight .
請求項1〜3のいずれか1つに記載の画像処理装置を備える画像形成装置。An image forming apparatus comprising the image processing apparatus according to claim 1. 画像入力手段によって与えられ、かつ複数の色に関する画素値を有する画素を含む全体画像から、複数の画像領域を識別分離する領域分離工程と、
分離される画像領域のうち、無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最大濃度値を取得する最大画素値取得工程と、
前記無彩文字形成領域に属する注目画素を含む各色局所ブロックごとの最小濃度値を取得する最小画素値取得工程と、
取得される最大濃度値と、前記最大濃度値を補正するために用いられる予め教師データによって設定される最大目標値と、取得される最小濃度値と、前記最小濃度値を補正するために用いられる予め教師データによって設定される最小目標値とに基づいて、最大濃度値と最大目標値との誤差、最小濃度値と最小目標値との誤差が無くなるように学習によって神経回路網中のニューロン間の結合強さを表す重みを演算して更新する情報演算工程と、
更新された重みに基づいて、前記無彩文字形成領域の画素の濃度値を補正する補正工程とを含むことを特徴とする画像処理方法
A region separation step for identifying and separating a plurality of image regions from the entire image including pixels having pixel values relating to a plurality of colors, which are given by the image input means ;
A maximum pixel value acquisition step for acquiring a maximum density value for each color local block including a target pixel belonging to the achromatic character formation region among the image regions to be separated ;
A minimum pixel value acquisition step for acquiring a minimum density value for each color local block including a target pixel belonging to the achromatic character formation region;
Used to correct the acquired maximum density value, the maximum target value preset by teacher data used to correct the maximum density value, the acquired minimum density value, and the minimum density value Based on the minimum target value set in advance by the teacher data, learning eliminates the error between the maximum density value and the maximum target value, and the error between the minimum density value and the minimum target value. An information calculation step of calculating and updating a weight representing the bond strength;
Based on the updated weights, an image processing method characterized by comprising a correction step of correcting the density value of the pixel of the achromatic character formation region.
前記最大目標値および最小目標値は、教師用原稿を用いて教師データを取り込むことで画像入力手段の入力特性に基づいて設定されることを特徴とする請求項5記載の画像処理方法。6. The image processing method according to claim 5, wherein the maximum target value and the minimum target value are set based on input characteristics of image input means by taking in teacher data using a teacher document. 予めサンプル画像を用いた学習によって、前記情報演算工程で更新した前記重みを記憶しておく情報記憶工程をさらに含み、
前記補正工程では、記憶されている重みに基づいて、前記無彩文字形成領域の画素の濃度値を補正することを特徴とする請求項5または6記載の画像処理方法。
An information storage step of storing the weight updated in the information calculation step by learning using a sample image in advance;
7. The image processing method according to claim 5 , wherein, in the correction step, a density value of a pixel in the achromatic character forming region is corrected based on a stored weight .
請求項5〜7のいずれか1つに記載の画像処理方法を、コンピュータに実行させるためのプログラム。The program for making a computer perform the image processing method as described in any one of Claims 5-7. 請求項8記載のプログラムが記録されたコンピュータ読取り可能な記録媒体。A computer-readable recording medium on which the program according to claim 8 is recorded.
JP2002355861A 2002-12-06 2002-12-06 Image processing method, image processing apparatus, and image forming apparatus including the same Expired - Fee Related JP4139201B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002355861A JP4139201B2 (en) 2002-12-06 2002-12-06 Image processing method, image processing apparatus, and image forming apparatus including the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002355861A JP4139201B2 (en) 2002-12-06 2002-12-06 Image processing method, image processing apparatus, and image forming apparatus including the same

Publications (2)

Publication Number Publication Date
JP2004193682A JP2004193682A (en) 2004-07-08
JP4139201B2 true JP4139201B2 (en) 2008-08-27

Family

ID=32756427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002355861A Expired - Fee Related JP4139201B2 (en) 2002-12-06 2002-12-06 Image processing method, image processing apparatus, and image forming apparatus including the same

Country Status (1)

Country Link
JP (1) JP4139201B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101463354B1 (en) * 2013-10-22 2014-11-18 영남대학교 산학협력단 Apparatus for target detection of hyperspectral image and method thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4830923B2 (en) * 2007-03-13 2011-12-07 Nkワークス株式会社 Image processing apparatus and image processing method
JP4775289B2 (en) * 2007-03-13 2011-09-21 Nkワークス株式会社 Image processing apparatus and image processing method
WO2023095490A1 (en) * 2021-11-26 2023-06-01 新興窯業株式会社 Program, information processing device, information processing method, method for generating learning model, and imaging system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3335830B2 (en) * 1995-12-28 2002-10-21 シャープ株式会社 Image processing device
JPH10283460A (en) * 1997-04-04 1998-10-23 Minolta Co Ltd Image processor
JP3789662B2 (en) * 1998-12-11 2006-06-28 株式会社リコー COLOR IMAGE PROCESSING DEVICE, COLOR IMAGE PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM RECORDING PROGRAM FOR CAUSING COMPUTER TO EXECUTE THE METHOD

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101463354B1 (en) * 2013-10-22 2014-11-18 영남대학교 산학협력단 Apparatus for target detection of hyperspectral image and method thereof

Also Published As

Publication number Publication date
JP2004193682A (en) 2004-07-08

Similar Documents

Publication Publication Date Title
JP4173154B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP4495197B2 (en) Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program
JPH0380767A (en) Gradation recorder for image
US20090034005A1 (en) Image processing method, image processing apparatus, image forming apparatus, image reading apparatus, and recording medium
JP5275325B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
JP3760969B2 (en) Image forming apparatus and method
JPH1185978A (en) Image processor and its method
JP4755532B2 (en) Image forming apparatus
JP4139201B2 (en) Image processing method, image processing apparatus, and image forming apparatus including the same
JP2002101298A (en) Region separator and image processor comprising it and region separating method
JP2006287623A (en) Input image correction device, method, and program, image processor, image formation apparatus, and recording medium
JP4549227B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
US8441683B2 (en) Image processing apparatus, image processing method, and recording medium for correcting the density at an edge of an image to be printed
US6055331A (en) Image processing apparatus
US7295344B2 (en) Image processing method and image processing apparatus, program and recording medium, and image forming apparatus
JP4545167B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP4099366B2 (en) Image processing apparatus, image reading apparatus, image forming apparatus, and image processing method
JP2008154131A (en) Image forming apparatus
JP2005072635A (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, image processing program, and computer-readable recording medium stored with the image processing program
JP3967217B2 (en) Image processing method, image processing program, recording medium recording image processing program, image processing apparatus, and image processing system
JP3183787B2 (en) Halftone area determination device
JP4334498B2 (en) Image processing apparatus, image forming apparatus, image processing method, and computer program
JP4176053B2 (en) Image processing method, image processing apparatus, image forming apparatus, and computer program
JP4271644B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium recording image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080603

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080606

R150 Certificate of patent or registration of utility model

Ref document number: 4139201

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130613

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees