JP2004193682A - Image processing method, image processor and image forming apparatus having the same - Google Patents

Image processing method, image processor and image forming apparatus having the same Download PDF

Info

Publication number
JP2004193682A
JP2004193682A JP2002355861A JP2002355861A JP2004193682A JP 2004193682 A JP2004193682 A JP 2004193682A JP 2002355861 A JP2002355861 A JP 2002355861A JP 2002355861 A JP2002355861 A JP 2002355861A JP 2004193682 A JP2004193682 A JP 2004193682A
Authority
JP
Japan
Prior art keywords
image
value
pixel
density
maximum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002355861A
Other languages
Japanese (ja)
Other versions
JP4139201B2 (en
Inventor
Makoto Otsu
誠 大津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2002355861A priority Critical patent/JP4139201B2/en
Publication of JP2004193682A publication Critical patent/JP2004193682A/en
Application granted granted Critical
Publication of JP4139201B2 publication Critical patent/JP4139201B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method, a program, a recording medium, an image processor and an image forming apparatus which precisely reproduce an image formed on a manuscript, e.g., characters. <P>SOLUTION: A region separating processor 13 identifies and separates achromatic character forming regions from the entire image given by an image input unit 2. As for the achromatic character forming region, high-density acquirers 32 for the individual colors acquire maximum density values of pixels. Learning units 39 for the individual colors calculate correcting information, based on the maximum density values and maximum target values of the achromatic character forming region. Based on the correcting information, color correcting units 40 for the individual colors correct the density values of the pixels in the achromatic character forming region. This precisely corrects the density values of the pixels in the achromatic character forming regions and hence precisely reproduces characters formed on the manuscript. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、特定の画像領域または全体画像の画素の画素値を補正する画像処理方法、この方法を実行させるためのプログラムおよびこのプログラムを記録した記録媒体ならびに画像処理装置およびそれを備える画像形成装置に関する。
【0002】
【従来の技術】
近年、オフィスオートメーション(Office Automation;略称OA)機器のデジタル化が急速に進展するとともに、無彩色に加えて有彩色で表される画像を記録材に形成して出力するカラー画像出力の需要が増している。カラー画像出力する画像出力装置には、電子写真方式のデジタルカラー複写機ならびにインクジェット方式および熱転写方式のカラープリンタなどがある。たとえばデジタルカメラおよびスキャナなどによって与えられた画像データ、あるいはコンピュータによって作成された画像データが、前述の画像出力装置に与えられて、画像が記録材に形成される。入力された画像データに基づいて画像を記録材に形成する場合、画像は濃度の再現性が常に安定した状態で形成されることが必要である。画像の濃度の再現性を常に安定させるために、入力された画像データから複数の画像領域に分離して、分離された画像領域に対して画素の濃度値を補正する必要がある。従来の技術のカラー画像処理装置では、原稿から読取った画像の文字領域から文字の細線度合いが算出され、その細線度合いに応じて墨生成量が制御されている(たとえば特許文献1参照)。細線度合いは、線の幅が小さく線が細いほど大きい値をとる特徴量である。カラー画像処理装置は、この細線度合いを用いて、墨生成量を制御することによって、文字の濃度の再現性をできるだけ均一になるように制御している。
【0003】
【特許文献1】
特開平11−69174号公報
【0004】
【発明が解決しようとする課題】
従来の技術のカラー画像処理装置では、文字の太さに拘わらず均一に再現をしたい文字領域に対して不均一性に関連する特徴量である線の幅から墨生成量を制御する。たとえば線の幅が小さく細い文字と判断された場合、その文字に対して一様に墨量が足されてしまう。このように線の幅に応じて、決まった墨量が必ず与えられるので、原稿に形成される文字の濃度と同一にならない場合があり、原稿に形成される画像を精度良く再現することができない。
【0005】
したがって本発明の目的は、原稿に形成される画像、たとえば文字を精度良く再現することができる画像処理方法、この方法を実行させるためのプログラムおよびこのプログラムを記録した記録媒体ならびに画像処理装置およびこれを備える画像形成装置を提供することである。
【0006】
【課題を解決するための手段】
本発明は、画像入力手段によって与えられ、かつ複数の色に関する画素値を有する画素を含む全体画像から、複数の画像領域を識別分離する領域分離手段と、分離される画像領域のうち、予め定める特定画像領域に関して、最大の画素値を取得する最大画素値取得手段と、
取得される最大の画素値と、前記最大の画素値を補正するために用いられる予め設定される最大目標値とに基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算する情報演算手段と、
補正情報に基づいて、特定画像領域の画素の画素値を補正する補正手段とを含むことを特徴とする画像処理装置である。
【0007】
本発明に従えば、複数の色に関する画素値を有する画素を含む全体画像が、画像入力手段によって与えられる。この全体画像から、複数の画像領域が領域分離手段によって識別分離される。分離される画像領域のうち、予め定める特定画像領域に関して、最大の画素値が最大画素値取得手段によって取得される。取得される最大の画素値と、前記最大の画素値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算手段によって演算される。補正情報は、特定画像領域の画素の画素値を補正するための情報である。演算された補正情報に基づいて、特定画像領域の画素の画素値が補正手段によって補正される。補正情報を用いることによって、特定画像領域における最大の画素値が元々有している本来の画素値になるように、特定画像領域の画素の画素値を補正することができる。これによってたとえば原稿に形成される画像を読取るときに生じた読取り誤差を補正して、読取り誤差を無くすことができる。したがって本来の画素値になるように、特定画像領域の画素の画素値を精度良く補正することができる。
【0008】
また本発明は、前記特定画像領域に関して、最小の画素値を取得する最小画素値取得手段をさらに含み、
情報演算手段は、取得される最大の画素値と、前記最大の画素値を補正するために用いられる予め設定される最大目標値と、取得される最小画素値と、前記最小の画素値を補正するために用いられる予め設定される最小目標値とに基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算することを特徴とする。
【0009】
本発明に従えば、前記特定画像領域に関して、最小の画素値が最小画素値取得手段によって取得される。最小画素値取得手段によって取得される最小の画素値と、前記最小の画素値を補正するための予め設定される最小目標値と、最大の画素値と、前記最大の画素値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算手段によって演算される。このように補正情報は、最大の画素値および最大目標値に加えて、最小の画素値および最小目標値を考慮して演算される。これによって最大および最小の画素値が、本来の画素値になるように、全体画像における特定画像領域を読取るときに生じた読取り誤差を補正することができる。したがって特定画像領域の画素の画素値を正確に補正したうえで、全体画像における特定画像領域のコントラストを正確に再現することができる。
【0010】
また本発明は、前記情報演算手段は、神経回路網を含んで構成されることを特徴とする。
【0011】
本発明に従えば、前記情報演算手段は、神経回路網を含んで構成される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。情報演算手段が神経回路網を含んで構成されるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、情報演算手段を実現するために要するコストを可及的に削減することができる。
【0012】
また本発明は、前記最大目標値は、画像入力手段の入力特性に基づいて設定されることを特徴とする。
【0013】
本発明に従えば、前記最大目標値は、画像入力手段の入力特性に基づいて設定されるので、画像入力手段に応じた補正情報を正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字形成領域の文字は、その濃度が文字の太さに拘わらず一様でありかつ文字領域において最大となるとともに、下地領域は、その濃度が一様であり最小となる。全体画像における文字形成領域を読み取った場合、文字に対応する画素の画素値は、文字形成領域において最大の画素値になり、下地に対応する画素の濃度値は最小になると想定することができる。これによって本来の画素値である最大目標値および最小目標値を予め設定することができる。このように特定画像領域の画素の画素値を補正するための目標値が既知である場合には、目標値を有する画素を含む全体画像を、画像入力手段で読込んでおくことによって、目標値を予め設定することができる。これによって補正情報を正確に演算することができる。
【0014】
また本発明は、画像入力手段によって与えられ、かつ複数の色に関する画素値を有する画素を含む全体画像から、複数の画像領域を識別分離する領域分離手段と、
分離される画像領域のうち、予め定める特定画像領域のサンプル画像の最大の画素値と、その最大の画素値を補正するための予め設定される最大目標値とに基づいて演算された補正情報により補正された前記サンプル画像の画素の画素値を記憶する記憶手段と、
記憶手段に記憶される補正後のサンプル画像の画素の画素値に基づいて、分離された特定画像領域の画素の画素値を補正する補正手段とを含むことを特徴とする画像処理装置である。
【0015】
本発明に従えば、予め定める特定画像領域のサンプル画像の最大の画素値と、その最大の画素値を補正するための予め設定される最大目標値とに基づいて演算された補正情報により補正された前記サンプル画像の画素の画素値が、記憶手段に記憶される。領域分離手段によって識別分離された特定画像領域の画素の画素値が、記憶手段に記憶される補正後のサンプル画像の画素の画素値に基づいて、補正手段によって補正される。これによって、たとえば画像入力手段の入力特性が一定または既知である場合には、画像入力手段が全体画像を与えるたびに補正情報を演算することなく、特定画像領域のサンプル画像の画素の画素値に基づいて補正情報を推定し、この補正情報に基づいて補正したサンプル画像の画素の画素値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の画素値を用いることによって、全体画像から領域分離手段によって識別分離された特定画像領域の画素の画素値を精度良く補正することができる。これによって画像処理装置による処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0016】
また本発明は、前述の画像処理装置を備える画像形成装置である。
本発明に従えば、画像形成装置は、前述の画像処理装置を備えるので、特定画像領域の画素の画素値を、本来の画素の画素値になるように精度良く補正することができる。これによって全体画像における特定画像領域を正確に再現することが可能な画像形成装置を実現することができる。
【0017】
また本発明は、画像入力手段によって与えられ、かつ複数の色に関する画素値を有する画素を含む全体画像から、複数の画像領域を識別分離する領域分離工程と、
分離される画像領域のうち、予め定める特定画像領域に関して、最大の画素値を取得する最大画素値取得工程と、
取得される最大の画素値と、前記最大の画素値を補正するために用いられる予め設定される最大目標値とに基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算する情報演算工程と、
補正情報に基づいて、特定画像領域の画素の画素値を補正する補正工程とを含むことを特徴とする画像処理方法である。
【0018】
本発明に従えば、複数の色に関する画素値を有する画素を含む全体画像が、画像入力手段によって与えられる。この全体画像から、複数の画像領域が領域分離工程で識別分離される。領域分離工程で分離される画像領域のうち、予め定める特定画像領域に関して、最大の画素値が最大画素値取得工程で取得される。取得される最大の画素値と、前記最大の画素値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算工程で演算される。補正情報は、特定画像領域の画素の画素値を補正するための情報である。演算された補正情報に基づいて、特定画像領域の画素の画素値が補正工程で補正される。補正情報を用いることによって、特定画像領域における最大の画素値が本来の画素値になるように、全体画像における特定画像領域を読取るときに生じた読取り誤差を補正することができる。これによって読取り誤差を無くして、本来の画素値になるように、特定画像領域の画素の画素値を精度良く補正することができる。
【0019】
また本発明は、前記特定画像領域に関して、最小の画素値を取得する最小画素値取得工程をさらに含み、
情報演算工程は、取得される最大の画素値と、前記最大の画素値を補正するために用いられる予め設定される最大目標値と、取得される最小画素値と、前記最小の画素値を補正するために用いられる予め設定される最小目標値とに基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算することを特徴とする。
【0020】
本発明に従えば、前記特定画像領域に関して、最小の画素値が最小画素値取得工程で取得される。最小画素値取得工程で取得される最小の画素値と、前記最小の画素値を補正するための予め設定される最小目標値と、最大の画素値と、前記最大の画素値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算工程で演算される。このように補正情報は、最大の画素値および最大目標値に加えて、最小の画素値および最小目標値を考慮して演算される。これによって最大および最小の画素値が、それぞれ本来の画素値になるように、全体画像における特定画像領域を読取るときに生じた読取り誤差を補正することができる。したがって特定画像領域の画素の画素値を精度良く補正することができるとともに、全体画像における特定画像領域のコントラストを正確に再現することができる。
【0021】
また本発明は、前記情報演算工程は、神経回路網を用いて補正情報を演算することを特徴とする。
【0022】
本発明に従えば、前記情報演算工程では、神経回路網を用いて補正情報が演算される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。情報演算工程では、神経回路網を用いるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、情報演算手段を実現するために要するコストを可及的に削減することができる。
【0023】
また本発明は、前記最大目標値は、画像入力手段の入力特性に基づいて設定されることを特徴とする。
【0024】
本発明に従えば、前記最大目標値は、画像入力手段の入力特性に基づいて設定されるので、画像入力手段に応じた補正情報を正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字形成領域の文字は、その濃度が文字の太さに拘わらず一様であり、かつ最大の画素値を有する画素によって表される。これによって本来の画素値である最大目標値を予め知ることができる。このように最大目標値が既知である場合には、最大目標値を有する画素を含む全体画像を、画像入力手段で読込んでおくことによって、最大目標値を予め設定することができる。これによって補正情報を正確に演算することができる。
【0025】
また本発明は、画像入力手段によって与えられ、かつ複数の色に関する画素値を有する画素を含む全体画像から分離される画像領域のうち、予め定める特定画像領域のサンプル画像の最大の画素値と、その最大の画素値を補正するための予め設定される最大目標値とに基づいて演算された補正情報により補正された前記サンプル画像の画素の画素値を、記憶手段に記憶する情報記憶工程と、
全体画像から、複数の画像領域を識別分離する領域分離工程と、
記憶手段に記憶される補正後のサンプル画像の画素の画素値に基づいて、分離された特定画像領域の画素の画素値を補正する補正工程とを含むことを特徴とする画像処理方法である。
【0026】
本発明に従えば、情報記憶工程では、予め定める特定画像領域のサンプル画像の最大の画素値と、その最大の画素値を補正するための予め設定される最大目標値とに基づいて演算した補正情報により補正した前記サンプル画像の画素の画素値が記憶手段に記憶される。補正工程では、記憶手段に記憶される補正後のサンプル画像の画素の画素値に基づいて、領域分離工程で全体画像から識別分離された特定画像領域の画素の画素値が補正される。これによって画像入力手段の入力特性が一定または既知である場合には、画像入力手段が全体画像を与えるたびに補正情報を演算することなく、特定画像領域のサンプル画像を用いて補正情報を推定し、この補正情報に基づいて補正したサンプル画像の画素の画素値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の画素値を用いることによって、識別分離された特定画像領域の画素の画素値を精度良く補正することができる。これによって画像処理装置による処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0027】
また本発明は、前述の画像処理方法を、コンピュータに実行させるためのプログラムである。
【0028】
本発明に従えば、補正情報に基づいて、特定画像領域の画素の画素値を補正する画像処理方法をプログラムで表すことによって、コンピュータに前述の画像処理方法に従う処理を実行させることができる。前記画像処理方法に従う処理をコンピュータに実行させることによって、全体画像における特定画像領域を精度良く再現することができる。
【0029】
また本発明は、前述のプログラムが記録されたコンピュータ読取り可能な記録媒体である。
【0030】
本発明に従えば、補正情報に基づいて、特定画像領域の画素の画素値を補正する画像処理方法をコンピュータに実行させるためのプログラムを、コンピュータによって読取り可能な記録媒体に記録させる。たとえばフレキシブルディスクなどの持運び可能な記録媒体にプログラムを記録させることによって、プログラムを記録媒体から所望のコンピュータに読込ませることができるとともに、記録媒体からコンピュータにプログラムを読込ませて、このプログラムをコンピュータに実行させることができる。
【0031】
【発明の実施の形態】
図1は、本発明の実施の一形態である画像形成装置1が備える画像処理装置3の黒階調補正部30の構成を示すブロック図である。図2は、画像形成装置1全体の構成を示すブロック図である。図3は、領域分離処理部13の構成を示すブロック図である。図4は、黒階調補正部30によって形成される各色局所マスク35を説明するための図である。図1〜3では、図解を容易にするために、シアン信号を「C」で表し、マゼンタ信号を「M」で表し、イエロー信号を「Y」で表している。図2では、図解を容易にするために、赤信号を「R」で表し、緑信号を「G」で表し、青信号を「B」で表している。画像形成装置1は、原稿に形成される画像、すなわち原稿画像を読取り、原稿画像を精度よく再現することができるように適切な処理をして、記録材に画像を形成する装置である。記録材は、紙および紙以外の材料から成る記録用のシートを含む。画像形成装置1は、たとえばデジタルカラー複写機であって、読取った原稿画像をデジタルデータに変換して各種の処理をするとともに、無彩色および有彩色で表される画像を記録材に形成する。画像形成装置1は、画像入力装置2、画像処理装置3および画像出力装置4を含んで構成される。
【0032】
画像入力装置2は、原稿画像を読取る画像読取り手段であるとともに、読取った原稿画像を画像処理装置3に与える画像入力手段である。画像入力装置2は、固体撮像素子を備えるスキャナ部を含んで構成される。スキャナ部は、光源から発せられて原稿で反射した光を赤(R)、緑(G)および青(B)の3色に分解する。スキャナ部の固体撮像素子は、たとえば蓄積電荷結合素子(Charge
Coupled Device;略称CCD)を用いたラインセンサによって実現される(以下、「蓄積電荷結合素子」を、CCDと呼ぶ場合がある)。画像入力装置2において、光源によって光を原稿に照射して、原稿からの反射光の色を、CCDラインセンサによって、主走査方向および副走査方向に並ぶ複数の画素に分割して検出して原稿画像を読取る。主走査方向は、CCDラインセンサが延在する方向である。副走査方向は、スキャナ部の走査方向である。具体的には副走査方向は、主走査方向に垂直かつ原稿画像の読取り時において原稿に沿う方向である。さらに画像入力装置2は、各画素の色および強度によって原稿画像を表す原稿画像データを、電気信号によって画像処理装置3に与える。原稿画像データは、3つの色成分である赤、緑および青の濃度に対応する数値によって表される。原稿画像データは、赤信号、緑信号および青信号として画像入力装置2によって画像処理装置3に与えられる。赤信号は、原稿からの赤色光の反射率を画素毎にアナログで表す電気信号である(以下、「赤信号」を「R信号」と表記する場合がある)。緑信号は、原稿からの緑色光の反射率を画素毎にアナログで表す電気信号である(以下、「緑信号」を「G信号」と表記する場合がある)。青信号は、原稿からの青色光の反射率を画素毎にアナログで表す電気信号である(以下、「青信号」を「B信号」と表記する場合がある)。
【0033】
画像処理装置3は、画像形成時に、原稿画像を精度よく再現することができるように、全体画像に対して適切な処理をする装置である。全体画像は、原稿画像データによって表される原稿画像であって、複数の色に関する画素値を有する画素を含む。画像処理装置3は、アナログデジタル変換部(以下、「A/D変換部」と呼ぶ)10、シェーディング補正部11、入力階調補正部12、領域分離処理部13、色補正部14、黒生成下色除去部15、空間フィルタ処理部16、出力階調補正部17および階調再現処理部18を含んで構成される。
【0034】
A/D変換部10は、与えられるアナログ信号をデジタル信号に変換する。A/D変換部10は、アナログ信号であって、画像入力装置2によって与えられるR信号、G信号およびB信号を、各画素毎に赤色光、緑色光および青色光の反射率をデジタルで表すデジタル信号にそれぞれ変換する。A/D変換部10によってデジタル信号に変換されたR信号、G信号およびB信号は、シェーディング補正部11に与えられる。シェーディング補正部11は、A/D変換部10からのR信号、G信号およびB信号の表すデータに含まれる歪み成分を取り除く処理をする。シェーディング補正部11は、A/D変換部10からのR信号、G信号およびB信号に対して、画像入力装置2の照明系、結像光学系および撮像系(受像系)で生じる各種の歪み成分を取り除く処理をする。シェーディング補正部11による処理後のR信号、G信号およびB信号は、入力階調補正部12に与えられる。
【0035】
入力階調補正部12は、シェーディング補正部11からのR信号、G信号およびB信号に対して、各色成分の光の反射率値をこれに基づいてカラーバランスを整えるように補正するとともに、各色成分の光の反射率値を、赤色光の濃度値と緑色光の濃度値と青色光の濃度値とを表す信号に変換する。入力階調補正部12は、各画素の赤、緑および青の濃度値で表されるR信号、G信号およびB信号を補色反転して、シアンの濃度値を表すシアン信号と、マゼンタの濃度値を表すマゼンタ信号と、イエローの濃度値を表すイエロー信号とに変換する。入力階調補正部12による処理後のシアン信号、マゼンタ信号およびイエロー信号は、領域分離処理部13に与えられる(以下、「シアン信号」を「C信号」と表記し、「マゼンタ信号」を「M信号」と表記し、「イエロー信号」を「Y信号」と表記する場合がある)。
【0036】
領域分離処理部13は、入力階調補正部12からのC信号、M信号およびY信号に基づいて、全体画像から複数の画像領域を識別分離する。具体的には領域分離処理部13は、全体画像の各画素を複数の画像領域、たとえば文字領域および網点領域ならびに写真領域や下地領域のその他領域として分離する。文字領域は、文字の縁部分である文字エッジを表す画像領域であり、文字は、漢字、英字、数字および記号を含む。網点領域は、網点で像を表す画像領域である。その他領域は、中間調で表される印画紙写真画像を表す画像領域および下地領域である。領域分離処理部13は、マスク形成部20、文字領域判定部21、網点領域判定部22および識別信号生成部23を含んで構成される。マスク形成部20は、複数の画素を含み、かつ複数の画素がマトリクス状に配置される局所マスクを形成する。本実施の形態では、マスク形成部20は、主走査方向および副走査方向に7つの画素がそれぞれ並ぶ局所マスク、すなわち7×7の局所マスクを形成する。局所マスクの中心の画素は、その局所マスクにおける処理の対象となる注目画素である。局所マスク内の各画素に関するC信号、M信号およびY信号は、文字領域判定部21のエッジ検出部25および有彩/無彩判定部26ならびに網点領域判定部22に与えられる。
【0037】
文字領域判定部21は、全体画像の各画素が文字領域に属するか否かを判定する。さらに文字領域判定部21は、文字領域に属する画素に対して、文字を無彩色で表す無彩文字領域と文字を有彩色で表す有彩文字領域とのいずれに属するかを判定する。文字領域判定部21は、エッジ検出部25、有彩/無彩判定部26および信号判定部27を含んで構成される。エッジ検出部25は、全体画像の各画素がエッジ画素であるか否かを判定して、エッジ画素を検出する。エッジ画素は、その濃度値が隣接する画素の濃度値に比べて大きく異なる急峻な変化を示す画素である。エッジ検出部25は、マスク形成部20からのC信号、M信号およびY信号に基づいて、7×7の局所マスクのうち注目画素を中心とする3×3の局所マスクを用いて、注目画素の濃度値と注目画素に隣接する各隣接画素の濃度値との差をそれぞれ演算する。エッジ検出部25は、それぞれ演算された濃度値の差を予め定める閾値と比較する。エッジ検出部25は、それぞれ演算された濃度値の差のうちいずれかが閾値以上である場合、注目画素がエッジ画素であると判定し、それぞれ演算された濃度値の差がすべて閾値よりも小さい場合、注目画素がエッジ画素ではないと判定する。エッジ検出部25は、注目画素に対して、シアン、マゼンタおよびイエローの各色毎に判定処理をする。たとえばエッジ検出部25は、各色のうちいずれか1つにおいて注目画素がエッジ画素であると判定した場合、注目画素がエッジ画素であると最終的に判定する。エッジ検出部25による判定処理は、ゾーベルフィルタなどのエッジ検出用フィルタによって実現されてもよい。エッジ検出部25による注目画素に対する判定結果を表すエッジ信号は、信号判定部27に与えられる。
【0038】
有彩/無彩判定部26は、たとえば全体画像の彩度情報を用いて閾値処理することによって、全体画像の各画素が有彩色および無彩色のいずれの色を表す画素であるかを判定する。有彩/無彩判定部26は、7×7の局所マスクの注目画素が有するシアン、マゼンタおよびイエローの濃度値に関して、最大値および最小値を求めるとともに、最大値から最小値を減算することによってそれらの値の差分を求める。有彩/無彩判定部26は、以下の条件式(1),(2)に示すように、最大値と最小値との差分が閾値TH以上である場合、注目画素が有彩色を表す画素であると判定し、最大値および最小値の差分が閾値THよりも小さい場合、注目画素が無彩色を表す画素であると判定する。有彩/無彩判定部26による注目画素に対する判定結果を表す有彩無彩判定信号は、信号判定部27に与えられる。

Figure 2004193682
【0039】
信号判定部27は、全体画像の各画素が、無彩文字領域および有彩文字領域のいずれに属する画素であるかを判定する。具体的には信号判定部27は、エッジ検出部25からのエッジ信号と有彩/無彩判定部26からの有彩無彩判定信号とに基づいて、注目画素が無彩文字領域および有彩文字領域のいずれに属する画素であるかを判定する。信号判定部27は、注目画素がエッジ画素であり、かつ無彩色を表す画素である場合、注目画素が無彩文字領域に属すると判定し、注目画素がエッジ画素であり、かつ有彩色を表す画素である場合、注目画素が有彩文字領域に属すると判定する。信号判定部27による注目画素に対する判定結果を表す文字領域判定信号は、識別信号生成部23に与えられる。
【0040】
網点領域判定部22は、全体画像の各画素が網点領域に属するか否かを判定する。網点領域は、小領域に関して、予め定める走査方向に連続して並ぶ画素の濃度値の変動が大きいという特徴と、背景となる下地に比べて網点の濃度が高いという特徴とを有する。網点領域判定部22は、前述の網点領域の特徴を利用して、注目画素を中心とするP×Qの局所マスクを用いて判定処理をする。PおよびQは、自然数であって相互に同一であってもよいし、異なっていてもよい。本実施の形態では、網点領域判定部22は、マスク形成部20によって形成される7×7の局所マスクのうち注目画素を中心とする3×3の局所マスクを用いる。網点領域判定部22は、3×3の局所マスク内の9画素の濃度値に関して、濃度値の平均値である平均濃度値Daveを求めるとともに、最大の濃度値である最大濃度値Dmaxと、最小の濃度値である最小濃度値Dminとを求める。網点領域判定部22は、平均濃度値Daveを用いて、3×3の局所マスク内の各画素の濃度値を2値化する。網点領域判定部22は、3×3の局所マスクに関して2値化した結果に基づいて、主走査方向に関して0から1への変化点数と1から0への変化点数とをそれぞれ計数するとともに、各変化点数の和を主走査方向における変化点数Krとして求める。網点領域判定部22は、3×3の局所マスクに関して2値化した結果に基づいて、副走査方向に関して0から1への変化点数と1から0への変化点数とをそれぞれ計数するとともに、各変化点数の和を副走査方向における変化点数Kvとして求める。
【0041】
網点領域判定部22は、主走査方向における変化点数Krを予め定める閾値Trと比較するとともに、副走査方向における変化点数Kvを予め定める閾値Tvと比較する。さらに網点と下地との誤判定を防止するために、網点領域判定部22は、最大濃度値Dmaxから平均濃度値Daveを減算した値と、予め定める閾値B1とを比較するとともに、平均濃度値Daveから最小濃度値Dminを減算した値と、予め定める閾値B2とを比較する。網点領域判定部22は、注目画素が網点領域に属するか否かを以下に示される条件式(3)〜(6)に基づいて判定する。網点領域判定部22は、条件式(3)〜(6)を全て満たす場合、注目画素が網点領域に属すると判定し、条件式(3)〜(6)のうち1つでも満たさない条件式がある場合、注目画素が網点領域に属さないと判定する。
Dmax−Dave>B1 …(3)
Dave−Dmin>B2 …(4)
Kr>Tr …(5)
Kv>Tv …(6)
【0042】
条件式(3)〜(6)に示すように、最大濃度値Dmaxから平均濃度値Daveを減算した値が閾値B1よりも大きく、かつ平均濃度値Daveから最小濃度値Dminを減算した値が閾値B2よりも大きく、かつ主走査方向における変化点数Krがしきい値Trよりも大きく、かつ副走査方向における変化点数Kvがしきい値Tvよりも大きい場合、網点領域判定部22は、注目画素が網点領域に属すると判定する。網点領域判定部22は、シアン、マゼンタおよびイエローの各色毎に個別に判定処理をする。網点領域判定部22は、各色のいずれかにおいて注目画素が網点領域に属すると判定した場合、注目画素が網点領域に属すると最終的に判定する。網点領域判定部22による注目画素に対する判定結果を表す網点判定信号は、識別信号生成部23に与えられる。たとえば網点領域判定部22によって、注目画素が網点領域に属すると判定された場合、網点判定信号として「1」を表すオン信号が識別信号生成部23に与えられ、注目画素が網点領域に属さないと判定された場合、網点判定信号として「0」を表すオフ信号が識別信号生成部23に与えられる。
【0043】
識別信号生成部23は、文字領域判定部21からの文字領域判定信号と網点領域判定部22からの網点領域判定信号とに基づいて、全体画像から画像領域を識別分離した結果を表す領域識別信号を生成する。領域識別信号は、後述の無彩文字領域信号、有彩文字領域信号、網点領域判定信号およびその他領域信号を含む。識別信号生成部23は、文字領域判定信号に基づいて、画素が無彩文字領域に属することを表す無彩文字領域信号と、画素が有彩文字領域に属することを表す有彩文字領域信号とを生成する。識別信号生成部23は、網点判定信号に基づいて、画素が網点領域に属することを表す網点領域信号を生成する。識別信号生成部23は、画素がその他領域に属することを表すその他領域信号をさらに生成する。文字領域および網点領域共に属さないと判定された画素はその他領域に識別分離される。また、識別信号生成部23は、文字領域判定信号が無彩文字領域信号あるいは有彩文字領域信号であり、網点判定信号が「1」の時は、網点領域判定部22の結果に対して優先順位を文字領域判定部21の結果に比べて高く設定し、注目画素を網点領域に属すると判定するようにしている。各画素に対して生成された領域識別信号は、識別信号生成部23から黒生成下色除去部15、空間フィルタ処理部16および階調再現処理部18に与えられる。入力階調補正部12から領域分離処理部13に与えられたC信号、M信号およびY信号は、そのまま領域分離処理部13から色補正部14に与えられる。色補正部14は、画像形成時に原稿画像の色の再現性を向上するために、不要吸収成分を含むシアン、マゼンタおよびイエローの各色材に対して、シアン、マゼンタおよびイエローの各色材の分光特性に基づいて色濁りを取り除く色補正処理をする。色補正部14によって色補正処理が施されたC信号、M信号およびY信号は、黒生成下色除去部15に与えられる。
【0044】
黒生成下色除去部15は、色補正部14からのC信号、M信号およびY信号、具体的には後述の黒階調補正部30による補正後のC信号、M信号およびY信号に基づいて、全体画像の各画素に対して黒生成処理および下色除去(Under
Color Removal:略称UCR)処理をする。黒生成処理は、色補正部14からのC信号、M信号およびY信号に基づいて、色材の1つである黒色の濃度値を表す黒(Bl ack;略称K)信号を発生して黒色を生成する処理である(以下、「黒信号」を「K信号」と表記する場合がある)。下色除去処理は、画像形成時に灰色を安定して再現することができるように、シアン、マゼンタおよびイエローの濃度値を、生成された黒色の濃度値を考慮して補正する処理である。
【0045】
黒生成処理の一例として、スケルトンブラックによって黒色を生成する方法がある。この方法では、たとえば、スケルトンカーブの入出力特性を表す関数をy=f(x)とし、下色除去処理される前のシアン、マゼンタおよびイエローの各濃度値に関して、シアンの濃度値をC、マゼンタの濃度値をM、イエローの濃度値をYとする。さらに黒生成処理で生成される黒色の濃度値をKとし、下色除去処理された後のシアン、マゼンタおよびイエローの各濃度値に関して、シアンの濃度値をC1、マゼンタの濃度値をM1、イエローの濃度値をY1とし、下色除去率をα(0<α<1)とする。黒生成下色除去部15は、以下の式(7)〜(10)に基づいて黒生成処理および下色除去処理をする。
K=f{min(C,M,Y)} …(7)
C1=C−αK …(8)
M1=M−αK …(9)
Y1=Y−αK …(10)
【0046】
黒色の濃度値は、式(7)のように、スケルトンカーブの入出力特性を表す関数と、画素のシアン、マゼンタおよびイエローの濃度値のうち最小となる濃度値とに基づいて算出される。下色除去処理後のシアンの濃度値は、式(8)のように、下色除去処理前のシアンの濃度値から下色除去率と生成された黒色の濃度値との積を減じることによって算出される。下色除去処理後のマゼンタの濃度値は、式(9)のように、下色除去処理前のマゼンタの濃度値から下色除去率と生成された黒色の濃度値との積を減じることによって算出される。下色除去処理後のイエローの濃度値は、式(10)のように、下色除去処理前のイエローの濃度値から下色除去率と生成された黒色の濃度値との積を減じることによって算出される。黒生成下色除去部15は、後述の黒階調補正部30によって補正された後のC信号、M信号およびY信号に基づいて、式(7)〜(10)を用いて黒生成処理および下色除去処理をする。黒生成下色除去部15による処理によって、C信号、M信号およびY信号の3色の信号が、C信号、M信号、Y信号およびK信号の4色の信号に変換される。黒生成処理および下色除去処理を施されたC信号、M信号、Y信号およびK信号は、空間フィルタ処理部16に与えられる。
【0047】
空間フィルタ処理部16は、領域識別信号に基づいて、黒生成下色除去部15からのC信号、M信号、Y信号およびK信号として与えられる原稿画像データに対してディジタルフィルタを用いて空間フィルタ処理、たとえば鮮鋭強調処理およびローパスフィルタ処理をする。このように空間フィルタ処理部16が各画像領域の空間周波数特性を補正するので、画像出力装置4による画像形成時に画像のぼやけおよび粒状性劣化を防ぐことができる。たとえば空間フィルタ処理部16は、領域分離処理部13によって識別分離された無彩文字領域および有彩文字領域に対して鮮鋭強調処理をして、高周波数の強調量を大きくする。これによって無彩色文字、たとえば黒文字と、有彩色文字との再現性を向上することができる。空間フィルタ処理部16は、領域分離処理部13によって識別分離された網点領域に対してローパスフィルタ処理をして平滑化する。これによって入力網点成分を除去することによって、モアレの発生を抑制して、網点領域で表される画像の再現性を向上することができる。空間フィルタ処理部16によって空間フィルタ処理が施されたC信号、M信号、Y信号およびK信号は、出力階調補正部17に与えられる。
【0048】
出力階調補正部17は、画素の画素値、たとえば濃度値を表す信号を画像出力装置4の特性値である網点面積率に変換する出力階調補正処理をする。出力階調補正部17は、出力階調補正処理後のC信号、M信号、Y信号およびK信号を階調再現処理部18に与える。階調再現処理部18は、出力階調補正部17からのC信号、M信号、Y信号およびK信号、ならびに領域分離処理部13からの領域識別信号に基づいて、画像を画素に最終的に分割して、それぞれの階調を再現するための階調再現(中間調生成)処理をする。階調再現処理部18によって階調再現処理が施されたC信号、M信号、Y信号およびK信号は、たとえばランダムアクセスメモリ(Random Access Memory;略称RAM)などの読み出しおよび書き込み可能な記憶手段(図示せず)に与えられる。記憶手段は、階調再現処理部18からのC信号、M信号、Y信号およびK信号に基づく原稿画像データを記憶される。記憶される原稿画像データは、予め定めるタイミングで記憶手段から読み出されて画像出力装置4に与えられる。
【0049】
操作部19は、画像形成装置1に備えられ、たとえばキーボードおよびタッチパネルなどの入力装置ならびに液晶表示装置などの表示装置によって実現される。画像形成装置1の操作者は、操作部19を入力操作することによって、たとえば原稿の種類に応じて画像を形成するための画像形成指令などの各種の指令を画像形成装置1に入力することができる。画像出力装置4は、画像処理装置3によって各種の処理が施された原稿画像データに基づいて、画像を記録材に形成するための装置である。画像出力装置4の例として、たとえば電子写真方式のデジタルカラー複写機ならびにインクジェット方式および熱転写方式のカラープリンタなどを挙げることができるが、特に限定されるものではない。また画像出力装置4は、画像表示装置たとえば液晶ディスプレイであってもよい。前述の画像形成装置1に関して、原稿画像データに対する各種の処理は、制御手段である中央演算処理装置(Central Processing Unit:略称CPU)28によって制御される(以下、「中央演算処理装置28」を「CPU28」と表記する場合がある)。CPU28は、たとえば操作者による操作部19の操作結果に基づいて、画像処理装置3の各部を制御する。
【0050】
前述の黒生成下色除去部15は、黒階調補正部30を含んで構成される。黒階調補正部30は、黒生成下色除去部15によって所望の黒色を生成して全体画像における黒色を再現することができるように、全体画像から識別分離された領域のうち、予め定める特定画像領域の画素の画素値、具体的には濃度値を補正する。特定画像領域は、無彩色の線で形成される画像の領域である。本実施の形態では、特定画像領域は、無彩文字形成領域(領域分離処理により判定された文字領域とこの文字領域の周辺の下地領域を含む領域)であって、画像、具体的には文字の濃度が太さによらず一様に表されるべき領域であり、また文字は、原稿画像において最も高い濃度を有し、かつ黒色で表される。黒階調補正部30は、無彩文字形成領域の画像を画像入力装置2によって読取るときに生じた読取り誤差が無くなるように、無彩文字形成領域の画素の濃度値を元々有している本来の濃度値に補正する。黒階調補正部30は、各色マスク形成部31、各色高濃度取得部32、各色低濃度取得部33、各色ニューラルネットワーク34を含んで構成される。
【0051】
各色マスク形成部31は、色補正部14からのC信号、M信号およびY信号に基づいて、各色局所マスク35(図4参照)を形成する。各色局所マスク35は、複数の画素を含み、黒階調補正部30において処理の対象となる注目画素36を中心とする局所マスクである。各色局所マスク35は、シアンに関して注目画素36を中心とする局所マスクと、マゼンタに関して注目画素36を中心とする局所マスクと、イエローに関して注目画素36を中心とする局所マスクを含む。各色マスク形成部31は、複数のラインメモリ37を用いて各色局所マスク35を形成する。ラインメモリ37は、少なくとも原稿の主走査方向サイズ、具体的には主走査方向における画素数に基づいて、画素の濃度値を記憶する。ラインメモリ37は、たとえば先入れ先出し(First In First Out;略称FIFO)形メモリによって実現される(以下、「先入れ先出し形メモリ」を「FIFO形メモリ」と表記する場合がある)。FIFO形メモリは、記憶したデータを記憶した順に取り出すとともに、一番新しく記憶したデータを一番最後に取り出すように構成される記憶手段である。本実施の形態では、1つのラインメモリ37には、7つの画素の濃度値が記憶される。各色マスク形成部31は、6つのラインメモリ37によって濃度値が記憶される6×7個の画素と、色補正部14からのC、M信号およびY信号に基づく7個の画素とに基づいて、7×7の各色局所マスク35を形成する。各色局所マスク35の画素の濃度値は、後述の各色高濃度取得部32および各色低濃度取得部33に与えられる。
【0052】
たとえばある各色局所マスク35の注目画素36に対する濃度値の補正が終了したとする。その各色局所マスク35において7行目の画素の濃度値を記憶するラインメモリ37から、記憶した順番が最も古い画素の濃度値が取り出される。6行目の画素の濃度値を記憶するラインメモリ37から、記憶した順番が最も古い画素の濃度値が取り出されて、その画素の濃度値が、7行目の画素の濃度値を記憶するラインメモリ37に記憶される。5行目の画素の濃度値を記憶するラインメモリ37から、記憶した順番が最も古い画素の濃度値が取り出されて、その画素の濃度値が、6行目の画素の濃度値を記憶するラインメモリ37に記憶される。2〜4行目の画素の濃度値が記憶される各ラインメモリ37に対しても前述と同様の手順で、記憶した順番が最も古い画素の濃度値が取り出され、かつ副走査方向下流側で隣接する行の画素の濃度値を記憶するラインメモリ37によって与えられる画素の濃度値が記憶される。このようにしてFIFO形メモリによって実現される複数のラインメモリ37を用いることによって、新たな各色局所マスク35が形成される。FIFO形メモリによって実現されるラインメモリ37を用いるので、黒階調補正部30においてリアルタイムに処理をすることができる。これによって全体画像のすべての画素の濃度値を記憶する記憶手段を用いる場合に比べて、記憶容量を可及的に小さくしてコストを削減することができるとともに、黒階調補正部30における処理の処理速度を向上することができる。
【0053】
各色局所マスク35の注目画素36を(i,j)とすると、注目画素36における色補正部14からの入力信号値、換言すると注目画素36のシアン、マゼンタおよびイエローの各色に関する濃度値は、(C(i,j),M(i,j),Y(i,j))と表すことができる。注目画素36を(i,j)とした場合、各色局所マスク35は、以下の式(11)によって表すことができる。
【0054】
【数1】
Figure 2004193682
【0055】
式(11)において、mは主走査方向および副走査方向のいずれか一方に関する画素の数を表し、nは主走査方向および副走査方向のいずれか他方に関する画素の数を表す。iは主走査方向および副走査方向のいずれか一方に関する注目画素36の座標を表し、jは主走査方向および副走査方向のいずれか他方に関する注目画素36の座標を表す。
【0056】
黒階調補正部30による濃度値の補正処理をするにあたって、各色局所マスク35の注目画素36は、少なくとも以下の条件式(12)を満足する必要がある。
Seg(i,j)∈無彩文字形成領域 …(12)
【0057】
条件式(12)おいて、Seg(i,j)は、領域分離処理部13によって与えられる、注目画素36に対する領域分離結果である。黒階調補正部30は、領域分離処理部13からの領域識別信号に基づいて、注目画素36が無彩文字形成領域に属するか否かを判断する。黒階調補正部30は、条件式(12)を満足する、つまり注目画素36が無彩文字形成領域に属すると判断した場合、画素単位で濃度値を補正する。
【0058】
図1の例では各色マスク形成部31は、複数のラインメモリ37を有するシアン用マスク形成部31a、マゼンタ用マスク形成部31bおよびイエロー用マスク形成部31cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に局所マスクを形成する。具体的にはシアン用マスク形成部31aは、色補正部14からのC信号に基づいて、シアンに関して注目画素36を中心とする7×7の局所マスクを形成する。シアン用マスク形成部31aによって形成された局所マスクの各画素のシアンに関する濃度値は、後述のシアン用高濃度取得部32aおよびシアン用低濃度取得部33aに与えられる。マゼンタ用マスク形成部31bは、色補正部14からのM信号に基づいて、マゼンタに関して注目画素36を中心とする7×7の局所マスクを形成する。マゼンタ用マスク形成部31bによって、形成された局所マスクの各画素のマゼンタに関する濃度値は、後述のマゼンタ用高濃度取得部32bおよびマゼンタ用低濃度取得部33bに与えられる。イエロー用マスク形成部31cは、色補正部14からのY信号に基づいて、イエローに関して注目画素36を中心とする7×7の局所マスクを形成する。イエロー用マスク形成部31cによって形成された局所マスクの各画素のイエローに関する濃度値は、後述のイエロー用高濃度取得部32cおよびイエロー用低濃度取得部33cに与えられる。
【0059】
最大画素値取得手段である各色高濃度取得部32は、分離される画像領域のうち、予め定める特定画像領域に関して、最大の画素値を取得する。具体的には各色高濃度取得部32は、無彩文字形成領域に属する注目画素36を含む各色局所ブロック35に関して、シアン、マゼンタおよびイエローの各色毎に、最大の濃度値、すなわち最大濃度値をそれぞれ取得する。各色局所ブロック35は、シアンに関する局所ブロックと、マゼンタに関する局所ブロックと、イエローに関する局所ブロックとを含む。各色高濃度取得部32は、取得される最大濃度値を、特徴ベクトルである最大濃度値ベクトルで表し、その最大濃度値ベクトルの値を用いる。最小画素値取得手段である各色低濃度取得部33は、特定画像領域に関して、最小の画素値を取得する。具体的には各色低濃度取得部33は、無彩文字形成領域に属する注目画素36を含む各色局所ブロック35に関して、シアン、マゼンタおよびイエローの各色毎に、最小の濃度値、すなわち最小濃度値をそれぞれ取得する。各色低濃度取得部33は、取得される最小濃度値を、特徴ベクトルである最小濃度値ベクトルで表し、その最小濃度値ベクトルの値を用いる。注目画素を(i,j)とした場合の各色局所マスク35に関して、最大濃度値ベクトルをmax_v(i,j)で表し、最小濃度値ベクトルをmin_v(i,j)で表した場合、最大濃度値ベクトルは、式(13)で表され、最小濃度値ベクトルは、以下の式(14)で表される。
【0060】
【数2】
Figure 2004193682
【0061】
式(13)および式(14)の右辺において、シアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値を255でそれぞれ除算している。黒階調補正部30への入力信号値の最大値、すなわち255で除算することによって、特徴ベクトルが求められる、すなわちシアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値が正規化される。これによって後述の各色ニューラルネットワーク34が扱うシアン、マゼンタおよびイエローの各色に関する値を、0以上1以下の範囲内の値にすることができる。したがって各色ニューラルネットワーク34による処理の処理量を小さくすることができる。
【0062】
各色高濃度取得部32および各色低濃度取得部33では、シアン、マゼンタおよびイエローの各色に関する局所マスク毎に、最大濃度値および最小濃度値をそれぞれ取得している。これによって各色に関する局所ブロックに関して、相互に異なる位置の画素の各色に関する最大濃度値および最小濃度値が取得される可能性がある。この場合、濃度値を好適に補正することができないなどの不具合が生じるおそれがある。黒階調補正部30によって不具合が生じないと判断された場合、前述のように各色高濃度取得部32によって最大濃度値を取得し、各色低濃度取得部33によって最小濃度値を取得する。黒階調補正部30によって不具合が生じると判断された場合、シアン、マゼンタおよびイエローの各色に拘わらず、各色高濃度取得部32および各色低濃度取得部33によって最大濃度値(たとえば、max(C(x,y)+M(x,y)+Y(x,y)))および最小濃度値(たとえば、min(C(x,y)+M(x,y)+Y(x,y)))を有する画素を求め、その画素の濃度値を最大濃度値ベクトルおよび最小濃度値ベクトルに利用する。具体的には各色高濃度取得部32は、各色に関する局所ブロックに基づいて、シアン、マゼンタおよびイエローの各濃度値の総和が最大となる画素の各色の濃度値を、最大濃度値として取得し、最大濃度ベクトルに用いる。各色低濃度取得部33は、各色に関する局所ブロックに基づいて、シアン、マゼンタおよびイエローの各濃度値の総和が最小となる画素の各色の濃度値を、最小濃度値として取得し、最小濃度ベクトルに用いる。
【0063】
前述の最大濃度値ベクトルを表す式(13)を、理解を容易にするために、最大濃度値ベクトルを式(15)で表し、最小濃度値ベクトルを表す式(14)を式(16)で表す。
【0064】
【数3】
Figure 2004193682
【0065】
式(15)の右辺の各値は、注目画素36を(i,j)とした場合のシアン、マゼンタおよびイエローの各色に関する最大濃度値を、黒階調補正部30への入力信号値の最大値で正規化した値を表す。式(16)の右辺の各値は、注目画素36を(i,j)とした場合のシアン、マゼンタおよびイエローの各色に関する最小濃度値を、黒階調補正部30への入力信号値の最大値で正規化した値を表す。
【0066】
図1の例では各色高濃度取得部32は、シアン用高濃度取得部32a、マゼンタ用高濃度取得部32bおよびイエロー用高濃度取得部32cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に最大濃度値を取得する。具体的にはシアン用高濃度取得部32aは、シアン用マスク形成部31aによって形成されるシアンに関する局所マスクに基づいて、シアンに関する最大濃度値を取得し、その最大濃度値を用いて最大濃度値ベクトルのシアンに関する値を求める。最大濃度値ベクトルのシアンに関する値は、シアン用高濃度取得部32aから後述のシアン用ニューラルネットワーク34aに与えられる。マゼンタ用高濃度取得部32bは、マゼンタ用マスク形成部31bによって形成されるマゼンタに関する局所マスクに基づいて、マゼンタに関する最大濃度値を取得し、その最大濃度値を用いて最大濃度値ベクトルのマゼンタに関する値を求める。最大濃度値ベクトルのマゼンタに関する値は、マゼンタ用高濃度取得部32bから後述のマゼンタ用ニューラルネットワーク34bに与えられる。イエロー用高濃度取得部32cは、イエロー用マスク形成部31cによって形成されるイエローに関する局所マスクに基づいて、イエローに関する最大濃度値を取得し、その最大濃度値を用いて最大濃度値ベクトルのイエローに関する値を求める。最大濃度値ベクトルのイエローに関する値は、イエロー用高濃度取得部32cから後述のイエロー用ニューラルネットワーク34cに与えられる。
【0067】
図1の例では各色低濃度取得部33は、シアン用低濃度取得部33a、マゼンタ用低濃度取得部33bおよびイエロー用低濃度取得部33cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に最小濃度値を取得する。具体的にはシアン用低濃度取得部33aは、シアン用マスク形成部31aによって形成されるシアンに関する局所マスクに基づいて、シアンに関する最小濃度値を取得し、その最小濃度値を用いて最小濃度値ベクトルのシアンに関する値を求める。最小値ベクトルのシアンに関する値は、シアン用低濃度取得部33aから後述のシアン用ニューラルネットワーク34aに与えられる。マゼンタ用低濃度取得部33bは、マゼンタ用マスク形成部31bによって形成されるマゼンタに関する局所マスクに基づいて、マゼンタに関する最小濃度値を取得し、その最小濃度値を用いて最小濃度値ベクトルのマゼンタに関する値を求める。最小値ベクトルのマゼンタに関する値は、マゼンタ用低濃度取得部33bから後述のマゼンタ用ニューラルネットワーク34bに与えられる。イエロー用低濃度取得部33cは、イエロー用マスク形成部31cによって形成されるイエローに関する局所マスクに基づいて、イエローに関する最小濃度値を取得し、その最小濃度値を用いて最小濃度値ベクトルのイエローに関する値を求める。最小値ベクトルのイエローに関する値は、イエロー低濃度取得部33cから後述のイエロー用ニューラルネットワーク34cに与えられる。
【0068】
各色ニューラルネットワーク34は、取得される最大の画素値および最小の画素値、ならびに予め設定される最大目標値および最小目標値に基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算し、その補正情報に基づいて、特定画像領域の画素の画素値を補正する。最大目標値は、最大の画素値を補正するために用いられる値である。最小目標値は、最小の画素値を補正するために用いられる値である。各色ニューラルネットワーク34は、具体的には、最大濃度値ベクトルの各色に関する値および最小濃度値ベクトルの各色に関する値、ならびにシアン、マゼンタおよびイエローの各色毎に予め設定される最大目標値および最小目標値に基づいて、補正情報を演算する。各色ニューラルネットワーク34は、演算した補正情報に基づいて、無彩文字形成領域の画素の濃度値を補正する。各色ニューラルネットワーク34によって補正された濃度値に基づいて、無彩文字形成領域における黒色の濃度値が黒生成処理によって算出される。各色ニューラルネットワーク34は、各色記憶部38、各色学習部39および各色補正部40を含んで構成される。
【0069】
図5は、教師データを設定するための教師用原稿50を説明するための図である。図6は、教師データを設定するための教師用原稿50Aを説明するための図である。各色記憶部38は、シアン、マゼンタおよびイエローの各色毎に予め設定される最大目標値および最小目標値を含む複数の目標値を教師データとして記憶する。教師データは、画像入力手段である画像入力装置2の入力特性に基づいて設定される。前記入力特性は、画像の解像性能を含む。たとえば特定画像領域が黒色で文字が表される無彩文字形成領域である場合には、画像入力装置2による原稿画像の解像性能、具体的にはスキャナ部の光学解像度に基づいて、画像入力装置2が画像処理装置3に与えるべきシアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値を想定することができる。これによって少なくともシアン、マゼンタおよびイエローの各色に関する最大目標値および最小目標値を予め設定して、教師データとして各色記憶部38に記憶させておくことができる。各色記憶部38は、図5および図6に示す教師用原稿50,50Aを用いて、シアン、マゼンタおよびイエローの各色毎に予め設定される最大目標値および最小目標値を含む複数の目標値を、教師データとして記憶する。各色記憶部38は、たとえばリードオンリーメモリ(Read Only Memory;略称ROM)およびランダムアクセスメモリ(Random Access Memory;略称RAM)などの各種のメモリによって実現される(以下、「リードオンリーメモリ」を「ROM」と表記し、「ランダムアクセスメモリ」を「RAM」と表記する場合がある)。教師データは、シアンに関する最大目標値および最小目標値を含むシアン用教師データと、マゼンタに関する最大目標値および最小目標値を含むマゼンタ用教師データと、イエローに関する最大目標値および最小目標値を含むイエロー用教師データとを含む。
【0070】
特定の画像入力装置2を用いる場合、原稿では太さに拘わらず一様な濃度で表される文字であっても、画像入力装置2による原稿画像の解像性能、具体的にはスキャナ部の光学解像度によって、画像形成時には、文字の太さによって異なる濃度を有する文字が形成される。たとえば原稿の太い文字は、濃度が高くなり、原稿の細い文字は、濃度値を表す信号がなまってしまい、濃度が低くなる。このような不具合を防止するために、画像入力装置2に教師用原稿50の画像を複数回にわたって読取らせて、教師データを各色記憶部38に記憶させる。複数回読取らせる理由は、データの平均化を行い読取り誤差を少なくするためである。教師用原稿50は、教師用文字51が形成される原稿であって、教師用文字51の濃度と教師用ペーパーホワイト52の濃度とを定義するための原稿である。教師用文字51は、太さに拘わらず同一の濃度で表され、かつ原稿の文字と同一の濃度を有する文字である。さらに教師用文字51は、教師用原稿50において最も高い濃度を有し、教師用原稿50の画像の読み取り時に最も高い濃度を得ることができるように、画像入力装置2の入力特性に基づいた予め定める太さを有し、かつ無彩色で表される文字である。教師用ペーパーホワイト52は、ペーパーホワイト、具体的には教師用原稿50における下地であって、教師用原稿50において最も低い濃度を有する。本実施の形態では、教師用文字51は、黒色で表される黒文字であるとともに、画像入力装置2による教師用原稿50の画像の読取り回数は、10回程度である。この教師用原稿50の画像を画像入力装置2に複数回にわたって読取らせることによって、教師用文字51の高濃度部分において本来の濃度値と、教師用ペーパーホワイト52において本来の濃度値とを教師データとして設定することができる。教師用原稿50の画像を複数回にわたって画像入力装置2に読取らせることによって複数のサンプル値を採取し、これらのサンプル値を平均した値を教師データとして用いる。これによって教師データの誤差を可及的に小さくすることができる。図5に示す教師原稿50の他に、図6に示す教師用原稿50Aを用いて教師データを設定してもよい。図6の例では、教師原稿用50Aには、字の大きさおよび太さが異なる複数の数字に加えて、長さおよび太さが異なるラインパターンが形成されている。
【0071】
各色記憶部38によって、教師データとして記憶される最大目標値および最小目標値は、たとえば以下の式(17)および式(18)で表される。
【0072】
【数4】
Figure 2004193682
【0073】
式(17)において、教師用原稿50,50Aにおける黒文字である教師用文字51の高濃度部分から得られるシアン、マゼンタおよびイエローの各色に関する最大濃度値が、シアン、マゼンタおよびイエローの各色に関する最大目標値として各色記憶部38によって記憶される。式(18)において、教師用原稿50,50Aにおけるペーパーホワイト52から得られるシアン、マゼンタおよびイエローの各色に関する最小濃度値が、シアン、マゼンタおよびイエローの各色に関する最小目標値として各色記憶部38によって記憶される。シアン、マゼンタおよびイエローの各色に関する最大目標値および最小目標値は、教師データとして各色記憶部38から各色学習部39に与えられる。また各色学習部39に与えられる入力データであるシアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値と教師データとの関係を表す対応表は表1である。
【0074】
【表1】
Figure 2004193682
【0075】
表1において、各色学習部39には、シアンに関する最大濃度値が入力データとして与えられる場合、シアンに関する最大目標値が教師データとして与えられ、シアンに関する最小濃度値が入力データとして与えられる場合、シアンに関する最小目標値が教師データとして与えられる。さらに表1において、各色学習部39には、マゼンタに関する最大濃度値が入力データとして与えられる場合、マゼンタに関する最大目標値が教師データとして与えられ、マゼンタに関する最小濃度値が入力データとして与えられる場合、マゼンタに関する最小目標値が教師データとして与えられる。さらに表1において、各色学習部39には、イエローに関する最大濃度値が入力データとして与えられる場合、イエローに関する最大目標値が教師データとして与えられ、イエローに関する最小濃度値が入力データとして与えられる場合、イエローに関する最小目標値が教師データとして与えられる。
【0076】
図1の例では各色記憶部38は、シアン用記憶部38a、マゼンタ用記憶部38bおよびイエロー用記憶部38cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に最大目標値および最小目標値を記憶する。具体的にはシアン用記憶部38aは、教師用原稿50,50Aに基づいて、シアンに関する最大目標値および最小目標値を、シアン用教師データとして記憶する。シアン用教師データは、シアン用記憶部38aからシアン用学習部39aに与えられる。マゼンタ用記憶部38bは、教師用原稿50,50Aに基づいて、マゼンタに関する最大目標値および最小目標値を、マゼンタ用教師データとして記憶する。マゼンタ用教師データは、マゼンタ用記憶部38bからマゼンタ用学習部39bに与えられる。イエロー用記憶部38cは、教師用原稿50,50Aに基づいて、イエローに関する最大目標値および最小目標値を、イエロー用教師データとして記憶する。イエロー用教師データは、イエロー用記憶部38cからイエロー用学習部39cに与えられる。
【0077】
図7は、神経回路網55を示すブロック図である。情報演算手段である各色学習部39は、取得される最大の画素値と、最大目標値とに基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算する。本実施の形態では、各色学習部39は、取得される最大の画素値と、最大目標値と、取得される最小の画素値と、最大目標値とに基づいて、無彩文字形成領域の画素の濃度値を補正するための補正情報を演算する。具体的には各色学習部39は、各色高濃度取得部32によって取得された最大濃度値と、各色低濃度取得部33によって取得された最小濃度値と、各色記憶部38によって与えられる教師データとに基づいて、補正情報を演算する。補正情報は、無彩文字形成領域の画素のシアンに関する濃度値を補正するためのシアン用補正情報と、無彩文字形成領域の画素のマゼンタに関する濃度値を補正するためのマゼンタ用補正情報と、無彩文字形成領域の画素のイエローに関する濃度値を補正するためのイエロー用補正情報とを含む。各色学習部39は、神経回路網55を含んで構成される。
【0078】
神経回路網55は、図7に示すように複数の層、具体的には入力層56、中間層57および出力層58と呼ばれる複数の層によって構成される階層構造を有する。入力層56、中間層57および出力層58は、1または複数のニューロン59をそれぞれ有する。ニューロン59は、同じ層のニューロン59間には結合がなく、異なる層のニューロン59間には結合があるという特徴を有する。このようにして神経回路網55は、相互に異なる層のニューロン59が結合することによってネットワークを構成する。結合するニューロン59間には、ニューロン59間の結合の強さを表す重みが予め設定される。重みの初期値は、乱数を用いた小さい値である。重みの初期値は、乱数を随時発生して設定するのではなく、乱数を用いて複数の候補をテーブルに予め設定しておき、このテーブルを用いて与えられる。このように重みの初期値を、補正情報を演算するにあたって随時発生させた乱数を用いることなく、予め用意しておいた乱数を用いるので、各色学習部39における計算量を可及的に小さくして、各色学習部39の構成を簡単にすることができる。神経回路網55は、特定のパターンの刺激、すなわち特定の入力に対して特定の出力をするように、重みを学習によって最適な重みに更新する。本実施の形態では、神経回路網55は、誤差逆伝播(Error Back Propagation)法に従う学習によって、補正情報を演算する、換言すると重みを更新する。
【0079】
神経回路網55で重みを更新するにあたって、神経回路網55は、以下の第1〜第5の手順に従って学習し、補正情報を演算する。第1に、ネットワークが初期化される。具体的には神経回路網55は、結合するニューロン59間の重みの初期値を、乱数を用いて小さい値に設定する。ネットワークの初期化が終了すると、第2に、神経回路網55は、最大濃度値ベクトルおよび最小濃度値ベクトルを入力ベクトルとして入力層56の各ニューロン59に与える。神経回路網55は、入力ベクトルを、設定される重みを考慮して前向きの伝播方向B1に伝播する(以下、「前向きの伝播方向B1」を「前方向B1」と表記する場合がある)。前方向B1は、入力層56から出力層58に向かう方向であって、信号の伝播方向である。後ろ方向B2は、前方向B1とは逆向きの方向であって、誤差成分を修正する、換言すると重みを更新するための計算過程における向きである。
【0080】
各ニューロン59は、与えられる値に重みを付けて、その重みの付いた値をシグモイド関数における入力値としたときに得られる出力値を、結合する前方向B1下流側の層のニューロン59に与える。シグモイド関数は、既知の関数であり、微分可能な連続関数である。1つのニューロン59に対して、前記1つのニューロン59を含む層よりも前方向B1上流側の層のニューロン59が複数結合している場合、各ニューロン59からの重みの付いた値の和を入力和として求め、その入力和を、シグモイド関数における入力値としたときに得られる出力値を、前記1つのニューロン59に与える。シグモイド関数における入力値と出力値との関係は、式(19)で表される。
(出力値)=f(入力和) …(19)
【0081】
前述のシグモイド関数に関して入力値に対する出力値が、ルックアップテーブル(Look Up Table;略称LUT)として予め設定されている。
【0082】
入力層56の各ニューロン59に入力ベクトルが与えられると、第3に、神経回路網55は、出力層58に教師データを教師ベクトルとして与える。出力層58には、入力ベクトルに対応した教師ベクトルが与えられる。具体的には最大濃度値ベクトルが入力層56に与えられる場合、最大目標値が教師ベクトルとして出力層58に与えられるとともに、最小濃度値ベクトルが入力層56に与えられる場合、最小目標値が教師ベクトルとして出力層58に与えられる。出力層58に教師ベクトルが与えられると、第4に、神経回路網55は、入力ベクトルに対する出力層58の各ニューロン59から出力されるベクトルにおける値と、教師ベクトルにおける値との誤差が無くなるように、学習によって重みを更新する。重みは、ニューロン59に与えられるベクトルにおける値と、そのニューロン59から出力されるベクトルを表すニューロン出力とに基づいて、誤差逆伝播法に従って更新される。更新後の重みは、更新前の重みと異なる値であってもよいし、更新前の重みと同一の値であってもよい。新しい重みは、式(20)で表される。
(新しい重み)=(前の重み)+α×δ×(ニューロン出力)…(20)
【0083】
式(20)の右辺において、第1項は、更新される前の重みであって、第2項は、予め定める定数α(0<α<1)と係数δとニューロン出力の値とを積算した値である。係数δは、学習信号または差逆伝播量と呼ばれる値であって、式(20)を用いて新しい重みを算出するにあたって、入力層56のニューロン59と中間層57のニューロン59とにおける重みを更新する場合と、中間層57のニューロン59と出力層58のニューロン59とにおける重みを更新する場合とのいずれかの場合に応じて設定される値である。ニューロン出力は、結合する2つのニューロン59のうち、前方向B1上流側のニューロン59からの出力値を表し、更新される前の重みを通るときの値と同一になる。前述の係数δは、式(21)および式(22)のいずれかの式を用いて設定される。
Figure 2004193682
【0084】
中間層57のニューロン59と出力層58のニューロン59とにおける重みを更新する場合、係数δは、式(21)を用いて算出される。式(21)において、係数δは、出力と1から出力を減算した値と教師データからニューロン出力を減算した値とを積算した値である。出力は、出力層58のニューロン59からの出力値である。入力層56のニューロン59と中間層57のニューロン59とにおける重みを更新する場合、係数δは、式(22)を用いて算出される。式(22)において、係数δは、出力と1から出力を減算した値と1つ後ろの層からの係数δの重み付け和とを積算した値である。式(21)および式(22)において、出力は、入力層56への入力に対する出力層58から出力される出力値である。1つ後ろの層からの係数δの重み付け和は、前方向B1上流側の層から与えられ、かつ式(22)を用いて更新する前の係数δと、重みとに基づいて算出した重み付け和である。
【0085】
第5に、神経回路網55は、誤差の減少量に基づいて重みを更新するか否かを判断する。誤差の減少量が所定値以下であると神経回路網55によって判断されると、各色学習部39は、神経回路網55を用いた学習処理を終了し、得られた更新後の重みを各色補正部40に与える。誤差の減少量は、具体的には更新した新しい重みを用いて得られる出力層58のニューロン59の出力値と、教師データとの誤差の減少量である。前記誤差の減少量が所定値を超えると神経回路網55によって判断されると、神経回路網55は、第2〜第4の手順に従って重みを更新する。
【0086】
図1の例では各色学習部39は、神経回路網55をそれぞれ有するシアン用学習部39a、マゼンタ用学習部39bおよびイエロー用学習部39cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に補正情報を演算する。具体的にはシアン用学習部39aは、シアンに関する最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、前述の第1〜第5の手順に従って予め設定される重みを学習によって更新する。シアン用学習部39aによって学習されて更新された重みは、シアン用補正情報としてシアン用補正部40aに与えられる。マゼンタ用学習部39bは、マゼンタに関する最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、前述の第1〜第5の手順に従って予め設定される重みを学習によって更新する。マゼンタ用学習部39bによって学習されて更新された重みは、マゼンタ用補正情報としてマゼンタ用補正部40bに与えられる。イエロー用学習部39cは、イエローに関する最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、前述の第1〜第5の手順に従って予め設定される重みを学習によって更新する。イエロー用学習部39cによって学習されて更新された重みは、イエロー用補正情報としてイエロー用補正部40cに与えられる。
【0087】
補正手段である各色補正部40は、補正情報に基づいて、特定画像領域の画素の画素値を補正する。各色補正部40は、各色学習部39と同様に神経回路網55を含んで構成される。各色補正部40は、補正情報、具体的には各色学習部39の神経回路網55による学習処理によって与えられる重みに基づいて、無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値を補正する。補正後の無彩文字形成領域の画素の濃度値は、各色補正部40による重みを用いたフィードフォワード計算によって得られる値、換言すると神経回路網55において、更新された重みを用いた前方向B1への処理、具体的には積和計算によって得られる出力層58からの出力値である。積和計算には、たとえばデジタルシグナルプロセッサ(Digital Signal Processor;略称DSP)が用いられる。
【0088】
図1の例では、各色補正部40は、シアン用補正部40a、マゼンタ用補正部40bおよびイエロー用補正部40cを含んで構成され、シアン、マゼンタおよびイエローの各色毎に、無彩文字形成領域の画素の濃度値を補正する。具体的にはシアン用補正部40aは、シアン用学習部39aによって与えられる重みを用いたフィードフォワード計算によって、補正後の無彩文字形成領域の画素のシアンに関する濃度値を算出する。マゼンタ用補正部40bは、マゼンタ用学習部39bによって与えられる重みを用いたフィードフォワード計算によって、補正後の無彩文字形成領域の画素のマゼンタに関する濃度値を算出する。イエロー用補正部40cは、イエロー用学習部39cによって与えられる重みを用いたフィードフォワード計算によって、補正後の無彩文字形成領域の画素のイエローに関する濃度値を算出する。黒生成下色除去部15は、シアン用補正部40a、マゼンタ用補正部40bおよびイエロー用補正部40cによる補正後の無彩文字形成領域の画素の濃度値に基づいて、黒生成処理および下色除去処理をする。このように取得された最大濃度値および最小濃度値ならびに教師データを用いた学習によって、予め設定される重みが更新される。この更新後の重みを補正情報として用いて、無彩文字形成領域の画素の濃度値が神経回路網55を用いて補正される。これによって無彩文字形成領域において、最大濃度値および最小濃度値に加えて、最大濃度値と最小濃度値との間の濃度値を本来の濃度値に精度良く補正することができる。
【0089】
図8は、黒階調補正部30および黒生成下色除去部15による処理の手順を示すフローチャートである。本実施の形態の画像処理方法は、領域分離工程、ステップs3の最大画素値取得工程および最小画素値取得工程、ステップs4の情報演算工程ならびにステップs5の補正工程を含む。本実施の形態の画像処理方法は、ステップs6の黒生成下色除去処理をする工程をさらに含む。領域分離工程は、全体画像から複数の画像領域を領域分離処理部13によって識別分離する工程である。最大画素値取得工程は、分離される画像領域のうち、予め定める特定画像領域、具体的には無彩文字形成領域に関して、最大の画素値すなわちシアン、マゼンタおよびイエローの各色に関する最大濃度値を各色高濃度取得部32によって取得する工程である。最小画素値取得工程は、前記特定画像領域、具体的には無彩文字形成領域に関して、最小の画素値すなわちシアン、マゼンタおよびイエローの各色に関する最小濃度値を各色低濃度取得部33によって取得する工程である。
【0090】
情報演算工程は、最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算する工程である。最大目標値は、シアン、マゼンタおよびイエローの各色に関する最大濃度値を補正するために用いられる、各色毎に予め設定される値である。最小目標値は、シアン、マゼンタおよびイエローの各色に関する最小濃度値を補正するために用いられる、各色毎に予め設定される値である。情報演算工程において、補正情報は神経回路網55を用いて演算される。具体的には情報演算工程は、各色学習部39によって、シアン、マゼンタおよびイエローの各色に関する最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、神経回路網55において予め設定される重みを学習によって更新する工程である。補正工程は、補正情報に基づいて、特定画像領域の画素の画素値を補正する工程である。具体的には補正工程は、各色学習部39によって与えられるシアン、マゼンタおよびイエローの各色に関する重みに基づいて、無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値を補正する工程である。図8において、ステップs0において処理手順を開始する前に、領域分離工程における処理は既に終了している。
【0091】
ステップs0では、本実施の形態の画像処理方法に従う処理手順を開始して、ステップs1に進む。ステップs1では、黒階調補正部30は、領域分離処理部15からの領域識別信号に基づいて、注目画素36が無彩文字形成領域に属するか否かを判断する。ステップs1では、黒階調補正部30が、注目画素36が無彩文字形成領域に属すると判断するとステップs2に進み、注目画素36が無彩文字形成領域に属さないと判断すると、ステップs7に進んですべての処理手順を終了する。
【0092】
ステップs2では、各色マスク形成部31は、注目画素36を中心とする7×7の各色局所マスク35を形成する。具体的にはシアン用マスク形成部31aは、シアンに関して注目画素36を中心とする7×7の局所マスクを形成し、マゼンタ用マスク形成部31bは、マゼンタに関して注目画素36を中心とする7×7の局所マスクを形成し、イエロー用マスク形成部31cは、イエローに関して注目画素36を中心とする7×7の局所マスクを形成する。ステップs2においてシアン、マゼンタおよびイエローの各色毎に局所マスクが形成されると、ステップs3に進む。
【0093】
ステップs3の最大画素値取得工程および最小画素値取得工程では、各色高濃度取得部32は、各色局所マスク35に関して最大濃度値を取得し、各色低濃度取得部33は、各色局所マスク35に関して最小濃度値を取得する。具体的にはシアン用高濃度取得部32aは、シアンに関する局所マスクに関してシアンに関する最大濃度値を取得し、マゼンタ用高濃度取得部32bは、マゼンタに関する局所マスクに関してマゼンタに関する最大濃度値を取得し、イエローに関する局所マスクに関してイエローに関する最大濃度値を取得する。シアン用低濃度取得部33aは、シアンに関する局所マスクに関してシアンに関する最小濃度値を取得し、マゼンタ用低濃度取得部33bは、マゼンタに関する局所マスクに関してマゼンタに関する最小濃度値を取得し、イエロー用低濃度取得部33cは、イエローに関する局所マスクに関してイエローに関する最小濃度値を取得する。ステップs3においてシアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値が取得されると、ステップs4に進む。
【0094】
ステップs4の情報演算工程では、各色学習部39は、シアン、マゼンタおよびイエローの各色に関する最大濃度値、最小濃度値、最大目標値および最小目標値に基づいて、神経回路網55において予め設定される重みを学習によって更新する。ステップs4において神経回路網55を用いて重みが更新されると、ステップs5に進む。
【0095】
ステップs5の補正工程では、各色補正部40は、各色学習部39によって与えられるシアン、マゼンタおよびイエローの各色に関する重みに基づいて、無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値を補正する。無彩文字形成領域に関して、最大濃度値および最小濃度値を除く残余のシアン、マゼンタおよびイエローに関する濃度値は、フィードフォワード計算によって補正される。ステップs5で、無彩文字形成領域の画素の濃度値が補正されると、ステップs6に進む。ステップs6では、黒生成下色除去部15が、補正された濃度値に基づいて黒生成処理および下色除去処理をする。ステップs6において、無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値が補正されると、ステップs7に進んですべての処理手順を終了する。
【0096】
図9は、反復回数timeとシアンに関する誤差量energyとの関係を表すグラフである。図10は、図9における反復回数timeが50,000回である場合のシアン用入力信号値とシアン用補正信号値との関係を表すグラフである。図11は、反復回数timeとマゼンタに関する誤差量energyとの関係を表すグラフである。図12は、図11における反復回数timeが50,000回である場合のマゼンタ用入力信号値とマゼンタ用補正信号値との関係を表すグラフである。図13は、反復回数timeとイエローに関する誤差量energyとの関係を表すグラフである。図14は、図13における反復回数timeが50,000回である場合のイエロー用入力信号値とイエロー用補正信号値との関係を表すグラフである。黒階調補正部30による補正処理の一例として、図6に示す教師用原稿50Aと同一の画像が形成される原稿を用いた。この原稿に形成される画像を読み取った結果と、教師用原稿50Aを読み取った結果とに基づいて、入力データおよび教師データは、表2のように表される。
【0097】
【表2】
Figure 2004193682
【0098】
表2において、サンプル番号1〜5は、図6の実線63a〜63dおよび二点鎖線63eで囲まれる領域に付された番号である。表2において、たとえばサンプル番号1〜5におけるC信号用、M信号用およびY信号用最小値信号は、シアン、マゼンタおよびイエローに関する最小濃度値を正規化した値を示す。サンプル番号1〜5におけるC信号用、M信号用およびY信号用最大値信号は、シアン、マゼンタおよびイエローに関する最大濃度値を正規化した値を示す。サンプル番号1〜4、すなわち実線63a〜63dで囲まれる領域におけるC信号用、M信号用およびY信号用最小値信号ならびにC信号用、M信号用およびY信号用最大値信号は、入力データとして用いられる。サンプル番号5、すなわち二点鎖線63eで囲まれる領域におけるC信号用、M信号用およびY信号用最小値信号ならびにC信号用、M信号用およびY信号用最大値信号は、サンプル番号1〜5において最大値であって、教師データとして用いられる。
【0099】
得られた入力データと教師データとを用いて、神経回路網55における重みを学習によって更新した。学習による重みの更新回数である反復回数の上限値は、50,000回である。重みの初期値は、前述のようにテーブルを用いて与えられる。図9の横軸は、反復回数であって、単位は「回」である。図9の縦軸は、シアンに関する誤差量energyである。シアンに関する誤差量は、無彩文字形成領域の画素のシアンに関する濃度値を入力層56のニューロン59に与えた場合の出力層58のニューロン59の出力値と、教師データのシアンに関する最大目標値との誤差量を表す。シアンに関する誤差量energyは、反復回数timeが0回である場合に最も大きい値であり、反復回数timeが大きくなるとそれに伴って小さくなり、反復回数timeがおよそ2,500回を超えかつ50,000回以下の範囲では0の値になる。このように反復回数timeを大きくすると、シアンに関する誤差量energyを小さくすることができる。
【0100】
図10の横軸は、シアン用入力信号値である。図10の縦軸は、シアン用補正信号値である。シアン用入力信号値は、シアン用補正部40aに与えられる無彩文字形成領域の画素のシアンに関する濃度値を表す。シアン用補正信号値は、シアン用補正部40aが重みに基づいてシアン用入力信号値を補正した後の無彩文字形成領域の画素のシアンに関する濃度値を表す。反復回数が50,000回である場合に、シアン用入力信号値とシアン用補正信号値との関係を表すグラフは、図10の実線60aで表されるシアン用変換グラフである。×印61aは、教師データのシアンに関する目標値を表し、二点鎖線62aで表すグラフは、×印61aを線形補間したグラフである補間教師グラフを表す。シアン用変換グラフは、二点鎖線62aで表される補間教師グラフの波形とほとんど一致する。このように無彩文字形成領域の画素のシアンに関する濃度値が、教師データのシアンに関する目標値と同一の値になるように、換言すると本来の濃度値になるように補正されていることが確認できる。
【0101】
図11の横軸は、反復回数であって、単位は「回」である。図11の縦軸は、マゼンタに関する誤差量energyである。マゼンタに関する誤差量は、無彩文字形成領域の画素のマゼンタに関する濃度値を入力層56のニューロン59に与えた場合の出力層58のニューロン59の出力値と、教師データのマゼンタに関する最大目標値との誤差量を表す。マゼンタに関する誤差量energyは、反復回数timeが0回である場合に最も大きい値であり、反復回数timeが大きくなるとそれに伴って小さくなり、反復回数timeがおよそ2,500回を超えかつ50,000回以下の範囲では0の値になる。このように反復回数timeを大きくすると、マゼンタに関する誤差量energyを小さくすることができる。
【0102】
図12の横軸は、マゼンタ用入力信号値である。図12の縦軸は、マゼンタ用補正信号値である。マゼンタ用入力信号値は、マゼンタ用補正部40bに与えられる無彩文字形成領域の画素のマゼンタに関する濃度値を表す。マゼンタ用補正信号値は、マゼンタ用補正部40bが重みに基づいてマゼンタ用入力信号値を補正した後の無彩文字形成領域の画素のマゼンタに関する濃度値を表す。反復回数が50,000回である場合に、マゼンタ用入力信号値とマゼンタ用補正信号値との関係を表すグラフは、図12の実線60bで表されるマゼンタ用変換グラフである。×印61bは、教師データのマゼンタに関する目標値を表し、二点鎖線62bで表すグラフは、×印61bを線形補間したグラフである補間教師グラフを表す。マゼンタ用変換グラフは、二点鎖線62bで表される補間教師グラフの波形とほとんど一致する。このように無彩文字形成領域の画素のマゼンタに関する濃度値が、教師データのマゼンタに関する目標値と同一の値になるように、換言すると本来の濃度値になるように補正されていることが確認できる。
【0103】
図13の横軸は、反復回数であって、単位は「回」である。図13の縦軸は、イエローに関する誤差量energyである。イエローに関する誤差量は、無彩文字形成領域の画素のイエローに関する濃度値を入力層56のニューロン59に与えた場合の出力層58のニューロン59の出力値と、教師データのイエローに関する最大目標値との誤差量を表す。イエローに関する誤差量energyは、反復回数timeが0回である場合に最も大きい値であり、反復回数timeが大きくなるとそれに伴って小さくなり、反復回数timeがおよそ2,000回を超えかつ50,000回以下の範囲では0の値になる。このように反復回数timeを大きくすると、イエローに関する誤差量energyを小さくすることができる。
【0104】
図14の横軸は、イエロー用入力信号値である。図14の縦軸は、イエロー用補正信号値である。イエロー用入力信号値は、イエロー用補正部40cに与えられる無彩文字形成領域の画素のイエローに関する濃度値を表す。イエロー用補正信号値は、イエロー用補正部40cが重みに基づいてイエロー用入力信号値を補正した後の無彩文字形成領域の画素のイエローに関する濃度値を表す。反復回数が50,000回である場合に、イエロー用入力信号値とイエロー用補正信号値との関係を表すグラフは、図14の実線60cで表されるイエロー用変換グラフである。×印61cは、教師データのイエローに関する目標値を表し、二点鎖線62cで表すグラフは、×印61cを線形補間したグラフである補間教師グラフを表す。イエロー用変換グラフは、二点鎖線62cで表される補間教師グラフの波形とほとんど一致する。図10、図12および図14に示すように教師データとなる最大目標値および最小目標値を結ぶグラフに基づいて、最適な濃度値特性を設定することができる。このように無彩文字形成領域の画素のイエローに関する濃度値が、教師データのイエローに関する目標値と同一の値になるように、換言すると本来の濃度値になるように補正されていることが確認できる。たとえば図10のシアン用入力信号値が80〜130の範囲などの未学習の範囲に関して、神経回路網55による汎化能力によって、滑らかなシアン用変換グラフを得ることができる。得られた滑らかなシアン用変換グラフを用いることによって、最大濃度値および最小濃度値を除く残余の濃度値、すなわち中間濃度値を精度良く補正することができる。これによって無彩文字形成領域を含む全体画像のすべての画像領域に対しても濃度値の補正をすることができる。
【0105】
補正後の信号値は、式(23)に示すように、変換グラフを表す関数に関して、入力信号値を入力値としたときの出力値として与えられる。
【0106】
【数5】
Figure 2004193682
【0107】
式(23)は、理解を容易にするために、シアン、マゼンタおよびイエローの各色に関して、補正信号値、変換グラフを表す関数および入力信号値をまとめて表記している。たとえばシアン用補正信号値は、シアン用変換グラフを表す関数に関して、シアン用入力信号値を入力値としたときの出力値として与えられる。マゼンタ用補正信号値は、マゼンタ用変換グラフを表す関数に関して、マゼンタ用入力信号値を入力値としたときの出力値として与えられる。イエロー用補正信号値は、イエロー用変換グラフを表す関数に関して、イエロー用入力信号値を入力値としたときの出力値として与えられる。シアン用、マゼンタ用およびイエロー用変換グラフを表す各関数のうち1つを用いて、黒色の濃度値を表す黒生成量を制御することができる。たとえばマゼンタ用変換グラフを表す関数を用いて黒生成量を制御する場合、前述のスケルトンカーブの入出力特性を表す関数をマゼンタ用変換グラフを表す関数に置き換える。これによって黒生成量を文字の太さに応じて制御することができる。したがって細い文字には太い文字に比べて多めの黒色の色材である黒インクを足すことになり、細い文字の濃度を高くすることができるとともに、細い文字と太い文字との濃度差をなくすことができる。
【0108】
図15は、補正なし画像64Aを説明するための図である。図16は、補正後画像64Bを説明するための図である。図17は、補正なし画像64Aに関する濃度ヒストグラムである。図18は、補正後画像64Bに関する濃度ヒストグラムである。図19は、図15の実線65Aにおける濃度断面である。図20は、図16の実線65Bにおける濃度断面である。補正なし画像64Aおよび補正後画像64Bは、ともに同一の原稿画像、たとえば教師用原稿50Aと同一の原稿画像に基づいて形成された画像である。補正なし画像64Aは、原稿画像を読み取った後、黒階調補正部30によって補正処理をせずに記録材に形成した画像である。補正後画像64Bは、原稿画像を読み取った後、黒階調補正部30による処理結果に基づいて記録材に形成した画像である。補正なし画像64Aでは、文字の太さに応じて、太い文字は濃く、細い文字は薄くなっているけれども、補正後画像64Bでは、文字の太さに拘わらず、ほぼ均一な濃度を有する文字が形成されている。
【0109】
図17の濃度ヒストグラムは、補正なし画像64Aに関して、濃度値と度数との関係を示し、図18の濃度ヒストグラムは、補正後画像64Bに関して、濃度値と度数との関係を示す。図17および図18の横軸は濃度値、具体的にはシアン、マゼンタおよびイエローの各色に関する濃度値であって、図17および図18では、それらをまとめてCMY濃度値と表記している。図17および図18の縦軸は度数である。図17では、シアンに関する濃度ヒストグラムを一点鎖線66aで表し、マゼンタに関する濃度ヒストグラムを実線66bで表し、イエローに関する濃度ヒストグラムを破線66cで表している。図17のシアン、マゼンタおよびイエローの各色に関する濃度ヒストグラムは、大略的にCMY濃度値が小さい箇所(白下地領域にあたる)で1つのピークを有する。さらに図17のシアン、マゼンタおよびイエローの各色に関する濃度ヒストグラムは、相互に同様の波形を有し、かつ同一のCMY濃度値に対してほぼ同一の度数をとる。図18では、シアンに関する濃度ヒストグラムを一点鎖線67aで表し、マゼンタに関する濃度ヒストグラムを実線67bで表し、イエローに関する濃度ヒストグラムを破線67cで表している。図18のシアン、マゼンタおよびイエローの各色に関する濃度ヒストグラムは、大略的にCMY濃度値が小さい箇所(白下地)と大きい箇所(文字内部)とで2つのピークを有する。さらに図18のシアン、マゼンタおよびイエローの各色に関する濃度ヒストグラムは、相互に同様の波形を有し、かつ同一のCMY濃度値に対してほぼ同一の度数をとる。図17および図18によれば、CMY濃度値が大きい箇所、具体的にはCMY濃度値がおよそ180の箇所では、矢符68で示すように、補正なし画像64Aに関する濃度ヒストグラムにおける度数に比べて、補正後画像64Bに関する濃度ヒストグラムおける度数のほうが高くなっている。これは黒階調補正部30による補正処理によって、図16の「8.0」などの細い文字の濃度が、図16の「2.8」などの太い文字の濃度と同程度の濃度特性を有する画素の数が増えたためである。
【0110】
図19の濃度断面は、補正なし画像64Aに関して、濃度断面の位置と濃度値との関係を示し、図20の濃度断面を示すグラフは、補正後画像64Bに関して、濃度断面の位置と濃度値との関係を示す。図15の実線65Aと図16の実線65Bとは、濃度断面を作成した箇所を示している。実線65A,65Bは、原稿画像において同一の箇所に配置され、細い文字、具体的には相互に間隔をあけて平行に配置される5本の縦線と数字「6.3」とを横切る。図19および図20の横軸は、濃度断面の位置を表す値である。図19および図20の縦軸は、濃度値、具体的にはシアン、マゼンタおよびイエローの各色に関する濃度値であって、図19および図20では、それらをまとめてCMY濃度値と表記している。濃度断面の位置は、実線65Aおよび実線65Bの寸法である。たとえば図19および図20では、濃度断面の位置は、実線65Aおよび実線65Bの一端部を下限値である「0」と設定され、他端部を上限値である「90」と設定されている。図19では、シアンに関する濃度断面を一点鎖線69aで表し、マゼンタに関する濃度断面を実線69bで表し、イエローに関する濃度断面を破線69cで表している。図19のシアン、マゼンタおよびイエローの各色に関する濃度断面は、相互に同様の波形を有し、かつ同一の濃度断面の位置に対してほぼ同一のCMY濃度値をとる。図20では、シアンに関する濃度断面を一点鎖線70aで表し、マゼンタに関する濃度断面を実線70bで表し、イエローに関する濃度断面を破線70cで表している。図20のシアン、マゼンタおよびイエローの各色に関する濃度断面は、相互に同様の波形を有し、かつ同一の濃度断面の位置に対してほぼ同一のCMY濃度値をとる。
【0111】
図19の補正なし画像64Aに関する濃度断面と図20の補正後画像64Bに関する濃度断面とは、5本の縦線とその近傍の下地とを含む範囲、換言すると濃度断面の位置がおよそ10以上25以下の範囲では、大略的に三角波状のグラフであり、縦線は下地に比べて大きいCMY濃度値をとるので、濃度断面の位置が大きくなるにつれてCMY濃度値が大小交互に変化する。補正なし画像64Aに関する濃度断面では、画像入力装置2の解像性能、具体的にはスキャナ部の光学解像度によって、5本の縦線のうち中央の縦線におけるCMY濃度値が、残余の縦線と数字「6.3」とにおけるCMY濃度値に比べて小さくなっており、CMY濃度値が不均一になっている。濃度断面を作成した箇所は、たとえば図15の数字「2.8」およびその近傍の縦線などに比べて充分に細い文字であるので、前述のように補正なし画像64Aでは文字の太さに応じて濃度にむらが発生する。
【0112】
補正後画像64Bに関する濃度断面では、5本の縦線と数字「6.3」とにおけるCMY濃度値はほぼ同一である。さらに補正後画像64Bに関する濃度断面では、細い文字であっても高濃度と低濃度との濃度差、換言すると縦線および数字におけるCMY濃度値と下地における濃度値との差が広がっている。このように無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値が補正されるので、補正後画像64Bのように、縦線の濃度と数字の濃度とがほぼ同一に、かつ補正前の文字の濃度に比べて大きくなるように形成されるとともに、縦線間などの込み入った文字間の下地の濃度が補正前の下地の濃度に比べて低くなるように形成されている。これによって原稿画像を精度良く再現することができるとともに、無彩文字形成領域のコントラストを正確に再現することができる。
【0113】
このように画像処理装置3が構成されるので、たとえば画像入力装置2の解像力不足に起因して、読取り濃度が低下して読取り誤差が生じた場合であっても、局所マスクの最大濃度値および最小濃度値と、画像入力装置2の入力特性に基づく教師データとを用いることによって、読取り誤差を補正して無くすことができる。前述の画像形成装置1において、無彩文字形成領域の画素の濃度値は、画像処理装置3に全体画像が与えられるたびに得られた補正情報を用いて補正されてもよいし、プレスキャン時に得られた補正情報を用いて補正されてもよい。
【0114】
本実施の形態によれば、複数の色に関する画素値を有する画素を含む全体画像が、画像入力装置2によって与えられる。この全体画像から、複数の画像領域が領域分離処理部13によって識別分離される。分離される画像領域のうち、予め定める特定画像領域である無彩文字形成領域に関して、最大の画素値が最大画素値取得手段である各色高濃度取得部32によって取得される。取得される最大の画素値である最大濃度値と、最大濃度値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算手段である各色学習部39によって演算される。補正情報は、無彩文字形成領域の画素の濃度値を補正するための情報であって、シアン、マゼンタおよびイエローの各色毎に演算される。演算された補正情報に基づいて、無彩文字形成領域の画素の濃度値が補正手段である各色補正部40によって補正される。補正情報を用いることによって、無彩文字形成領域における最大濃度値が、本来の濃度値になるように、原稿画像を読取るときに生じた読取り誤差を補正して、読取り誤差を無くすことができる。したがって本来の濃度値になるように、無彩文字形成領域の画素の濃度値を精度良く補正することができる。これによってたとえば原稿に形成される画像を読取るときに生じた読取り誤差を補正して、読み取り誤差を無くすことができる。したがって本来の画素値になるように、特定画像領域の画素の画素値を精度良く補正することができる。
【0115】
さらに本実施の形態によれば、前記特定画像領域である無彩文字形成領域に関して、最小の画素値である最小濃度値が最小画素値取得手段である各色低濃度取得部33によって取得される。各色低濃度取得部33によって取得される最小濃度値と、最小濃度値を補正するための予め設定される最小目標値と、最大濃度値と、最大濃度値を補正するための予め設定される最大目標値とに基づいて、補正情報が各色学習部39によって演算される。このように補正情報は、最大濃度値および最大目標値に加えて、最小濃度値および最小目標値を考慮して演算される。これによって最大濃度値および最小濃度値が、本来の濃度値になるように、無彩文字形成領域の画像を読取るときに生じた読取り誤差を補正することができる。したがって無彩文字形成領域の画素の濃度値を精度良く補正することができるとともに、原稿画像における無彩文字形成領域のコントラストを正確に再現することができる。
【0116】
さらに本実施の形態によれば、前記情報演算手段である各色学習部39は、神経回路網55を含んで構成される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。各色学習部39が神経回路網55を含んで構成されるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、各色学習部39を実現するために要するコストを可及的に削減することができる。
【0117】
さらに本実施の形態によれば、前記最大目標値は、画像入力装置2の入力特性に基づいて設定されるので、画像入力装置2に応じた補正情報を正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字領域の文字は、その濃度が文字の太さに拘わらず一様でありかつ文字領域において最大となるとともに、下地領域は、その濃度が一様で最小となる。原稿画像の文字を読み取った場合、文字に対応する画素の濃度値は文字領域において最大になり、下地に対応する画素において最小になると想定することができる。これによって画像入力装置2によって与えられるべき画素値である最大目標値および最小目標値を予め設定することができる。このように特定画像領域の画素の濃度値を補正するための目標値が既知である場合には、目標値を有する画素を含む画像領域の画像を、画像入力装置2で読込ませておき、目標値を予め設定することができる。これによって補正情報を正確に演算することができる。
【0118】
さらに本実施の形態によれば、画像形成装置1は、前述の画像処理装置3を備えるので、特定画像領域である無彩文字形成領域の画素の濃度値を、元々有している本来の濃度値になるように精度良く補正することができる。これによって原稿画像に形成される文字の濃度を正確に再現することが可能な画像形成装置2を実現することができる。
【0119】
また本実施の形態によれば、画像入力装置2によって与えられる全体画像から、複数の画像領域が領域分離工程で識別分離される。領域分離工程で分離される画像領域のうち、予め定める特定画像領域である無彩文字形成領域に関して、最大濃度値が最大画素値取得工程で取得される。取得される最大濃度値と最大目標値とに基づいて、補正情報が情報演算工程で演算される。補正情報は、無彩文字形成領域の画素の濃度値を補正するための情報である。演算された補正情報に基づいて、無彩文字形成領域の画素の濃度値が補正工程で補正される。補正情報を用いることによって、無彩文字形成領域における最大濃度値が元々有している本来の濃度値になるように、原稿画像を読取るときに生じた読取り誤差を補正することができる。これによって読取り誤差を無くして、本来の濃度値になるように、無彩文字形成領域の画素の濃度値を精度良く補正することができる。
【0120】
さらに本実施の形態によれば、無彩文字形成領域に関して、最小濃度値が最小画素値取得工程で取得される。最小画素値取得工程で取得される最小濃度値および最大濃度値、ならびに最小目標値および最大目標値に基づいて、補正情報が情報演算工程で演算される。このように補正情報は、最大濃度値および最大目標値に加えて、最小濃度値および最小目標値を考慮して演算される。これによって最大濃度値および最小濃度値が、それぞれ本来の濃度値になるように、原稿画像を読取るときに生じた読取り誤差を補正することができる。したがって無彩文字形成領域の画素の濃度値を精度良く補正することができるとともに、全体画像における特定画像領域のコントラストを正確に再現することができる。
【0121】
さらに本実施の形態によれば、前記情報演算工程では、神経回路網55を用いて補正情報が演算される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。情報演算工程では神経回路網55を用いるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、情報演算工程における処理を実現するために要するコストを可及的に削減することができる。
【0122】
さらに本実施の形態によれば、前記最大目標値は、画像入力装置2の入力特性に基づいて設定されるので、画像入力装置2に応じた補正情報を情報演算工程で正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字領域の文字は、その濃度が文字の太さに拘わらず一様であり、かつ最大の濃度値を有する画素によって表される。これによって元々有している本来の濃度値である最大目標値を予め知ることができる。このように最大目標値が既知である場合には、最大目標値を有する画素を含む画像を、画像入力装置2で読込んでおくことによって、最大目標値を予め設定することができる。これによって補正情報を情報演算工程で正確に演算することができる。
【0123】
本実施の形態では、黒生成下色除去部15は、黒階調補正部30を含む構成であったけれども、黒階調補正部30が黒生成下色除去部15と別途に設けられる構成であってもよく、この場合、画像処理装置3は、黒階調補正部30が黒生成下色除去部15の前段で処理するように構成される。
【0124】
図21は、本発明の他の実施の形態における画像形成装置1Aの画像処理装置3Aが備える黒階調補正部30Aの構成を示すブロック図である。本実施の形態の画像形成装置1Aは、前述の図1〜図20に示す実施の形態の画像形成装置1と類似しており、同様の構成には同一の参照符号を付し、同様の説明は省略する。本実施の形態では、全体画像が与えられるたびに演算した補正情報に基づいて補正するのではなく、無彩文字形成領域のサンプル画像から得られた補正情報に基づいて補正された濃度値を予め求めておき、これと最大濃度値および最小濃度値とを関連付けたルックアップテーブルを予め備えておく。前述の無彩文字形成領域のサンプル画像は、たとえば図5および図6に示す教師用原稿50,50Aなどにおける画像である。
【0125】
このようにルックアップテーブルを予め備えておくことは、画像入力装置2の解像性能などの入力特性が一定である場合または既知である場合に有効である。本実施の形態では、ルックアップテーブルは、シアン、マゼンタおよびイエローの各色に関して、入力8ビット(8bit)および出力8ビット(8bit)で対応することができる。
【0126】
具体的には入力特性が一定または既知である画像入力装置2を用いて、無彩文字形成領域のサンプル画像からシアン、マゼンタおよびイエローの各色に関する変換グラフを表わす関数が、たとえばシミュレーションなどによって求められ、その関数に基づいて補正したサンプル画像の画素の濃度値が予め求められる。この補正したサンプル画像の画素の濃度値と、サンプル画像における最大濃度値および最小濃度値とは、それぞれ関連付けられてルックアップテーブルとして各色記憶部71に記憶される。
【0127】
各色記憶部71のシアン用記憶部71aは、サンプル画像に基づいて求められた補正後のシアンに関する濃度値と、シアンに関する最大濃度値および最小濃度値とをそれぞれ関連付けたルックアップテーブルを記憶する。マゼンタ用記憶部71bは、サンプル画像に基づいて求められた補正後のマゼンタに関する濃度値と、マゼンタに関する最大濃度値および最小濃度値とをそれぞれ関連付けたルックアップテーブルを記憶する。イエロー用記憶部71cは、求められた補正後のイエローに関する濃度値と、イエローに関する最大濃度値および最小濃度値とをそれぞれ関連付けたルックアップテーブルを記憶する。
【0128】
画像入力装置2からの全体画像における無彩文字形成領域の画素の濃度値のうち、最大濃度値が各色高濃度取得部32によって取得されて、各色補正部72に与えられる。具体的には無彩文字形成領域の画素の濃度値のうち、シアンに関する最大濃度値がシアン用補正部72aに与えられ、マゼンタに関する最大濃度値がマゼンタ用補正部72bに与えられ、イエローに関する最大濃度値がイエロー用補正部72cに与えられる。画像入力装置2からの全体画像における無彩文字形成領域の画素の濃度値のうち、最小濃度値が各色低濃度取得部33によって取得されて、各色補正部72に与えられる。具体的には無彩文字形成領域の画素の濃度値のうち、シアンに関する最小濃度値が、シアン用補正部72aに与えられ、マゼンタに関する最小濃度値が、マゼンタ用補正部72bに与えられ、イエローに関する最小濃度値が、イエロー用補正部72cに与えられる。
【0129】
各色補正部72は、取得された最大濃度値および最小濃度値に基づいて、それらに対応するサンプル画像における最大濃度値および最小濃度値と関連付けられる補正後の濃度値をルックアップテーブルから読み出して、無彩文字形成領域の画素の濃度値を、記憶される補正後の濃度値に置き換えて補正する。具体的にはシアン用補正部72aは、取得されたシアン用最大濃度値およびシアン用最小濃度値に基づいて、それらにそれぞれ対応するサンプル画像のシアンに関する最大濃度値および最小濃度値に関連付けられる補正後のシアンに関する濃度値を、シアン用記憶部71aに記憶されるルックアップテーブルから読み出す。さらにシアン用補正部72aは、無彩文字形成領域の画素のシアンに関する濃度値を、読み出した補正後のシアンに関する濃度値に置き換えて補正する。マゼンタ補正部72bは、取得されたマゼンタ用最大濃度値およびマゼンタ用最小濃度値にそれぞれ対応するサンプル画像のマゼンタに関する最大濃度値および最小濃度値に関連付けられる補正後のマゼンタに関する濃度値を、マゼンタ用記憶部71bに記憶されるルックアップテーブルから読み出す。さらにマゼンタ用補正部72bは、無彩文字形成領域の画素のマゼンタに関する濃度値を、読み出した補正後のマゼンタに関する濃度値に置き換えて補正する。イエロー用補正部72cは、取得されたイエロー用最大濃度値およびイエロー用最小濃度値にそれぞれ対応するサンプル画像のイエローに関する最大濃度値および最小濃度値に関連付けられる補正後のイエローに関する濃度値を、イエロー用記憶部71cに記憶されるルックアップテーブルから読み出す。さらにイエロー用補正部72cは、無彩文字形成領域の画素のイエローに関する濃度値を、読み出した補正後のイエローに関する濃度値に置き換えて補正する。黒階調補正部30Aにおける処理は、全体画像の各画素を注目画素に設定して、注目画素に設定された画素が無彩文字形成領域に属する場合に施される。このようにして黒階調補正部30Aによって補正された無彩文字形成領域の画素の濃度値に基づいて、黒生成下色除去部15Aが黒生成処理および下色除去処理を施す。
【0130】
前述のようにサンプル画像を用いて補正された画素の濃度値を、ルックアップテーブルとして記憶しておくことによって、全体画像が与えられるたびに補正情報を演算して補正する場合に比べて、補正する処理の処理速度を低下させることなく、かつ向上することができる。これによって高速の補正処理をすることができるとともに、前述の効果すなわち無彩文字形成領域の画素の濃度値を精度良く補正することができる画像処理装置3Aを実現することができる。
【0131】
また全体画像に対して一様な補正曲線を用いて濃度値を補正するガンマ補正をするので、領域単位で黒生成量を制御する場合に比べてギャップ量を少なくして、原稿画像を滑らかに再現することができる。
【0132】
図22は、黒階調補正部30Aおよび黒生成下色除去部15Aによる処理の手順を示すフローチャートである。本実施の形態における画像処理方法は、情報記憶工程、領域分離工程および補正工程を含む。情報記憶工程では、無彩文字形成領域のサンプル画像の最大濃度値と、最大目標値とに基づいて演算された補正情報により補正した前記サンプル画像の画素の濃度値が、各色記憶部71によって記憶される。演算された補正情報は、シアン、マゼンタおよびイエローの各色に関する変換グラフを表わす関数である。この各色に関する変換グラフを表わす関数により補正した前記サンプル画像の画素の濃度値と、最大濃度値および最小濃度値とを関連付けたルックアップテーブルが、各色記憶部71に記憶される。ステップa4の補正工程では、各色記憶部71に記憶される補正後のサンプル画像の画素の濃度値に基づいて、全体画像における無彩文字形成領域の画素の濃度値が、各色補正部72によって補正される。本実施の形態では、ステップa0で画像処理方法に基づく処理手順が開始される前に、情報記憶工程および領域分離工程における処理が既に行われている。また本実施の形態の画像処理方法は、ステップa5の黒生成下色除去処理をする工程をさらに含む。
【0133】
ステップa0では、本実施の形態の画像処理方法に従う処理手順を開始して、ステップa1に進む。ステップa1では、黒階調補正部30Aが図8のステップs1と同様の処理をする。ステップa1において注目画素36が無彩文字領域に属すると判断されるとステップa2に進み、注目画素36が無彩文字領域に属さないと判断されるとステップa6に進んですべての処理手順を終了する。ステップa2では、図8のステップs2と同様に処理されてステップa3に進む。
【0134】
ステップa3の最大画素値取得工程および最小画素値取得工程では、各色高濃度取得部32は、予め定める特定画像領域である無彩文字形成領域に属する画素のシアン、マゼンタおよびイエローの各色に関する最大濃度値を取得し、各色低濃度取得部33は、無彩文字形成領域に属する画素のシアン、マゼンタおよびイエローの各色に関する最小濃度値を取得する。ステップa3で最大濃度値および最小濃度値が取得されると、ステップa4に進む。
【0135】
ステップa4では、各色補正部72が、ルックアップテーブルから濃度値を読み出す。具体的には各色補正部72が、全体画像における無彩文字形成領域の画素の最大濃度値および最小濃度値にそれぞれ対応するサンプル画像の画素の最大濃度値および最小濃度値に関連付けられる補正後の濃度値を、ルックアップテーブルから読み出す。さらに全体画像における無彩文字形成領域の画素の濃度値を、読み出した前記補正後の濃度値に置き換えて補正する。ステップa4でルックアップテーブルに基づいて無彩文字形成領域の画素の濃度値が補正されると、ステップa5に進む。ステップa5では、図8のステップs6と同様に、黒生成下色除去部15Aが、黒生成下色除去処理をして、ステップa6に進んですべての処理手順を終了する。ステップa5において、無彩文字形成領域の画素のシアン、マゼンタおよびイエローに関する濃度値が補正されると、ステップa6に進んですべての処理手順を終了する。
【0136】
本実施の形態によれば、予め定める特定画像領域である無彩文字形成領域のサンプル画像の最大濃度値と、その最大の画素値を補正するための予め設定される最大目標値とに基づいて演算された補正情報により補正された前記サンプル画像の画素の濃度値が、各色記憶部71に記憶される。各色補正部72は、領域分離処理部13によって全体画像から識別分離された無彩文字形成領域の画素の濃度値を、各色記憶部71に記憶される補正後のサンプル画像の画素の濃度値に基づいて補正する。これによって、たとえば画像入力装置2の入力特性が一定または既知である場合には、画像入力装置2が全体画像を与えるたびに補正情報を演算することなく、無彩文字形成領域のサンプル画像の画素の濃度値に基づいて補正情報を推定し、この補正情報に基づいて補正したサンプル画像の画素の濃度値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の濃度値に基づいて、領域分離工程で全体画像から識別分離された無彩文字形成領域の画素の濃度値を精度良く補正することができる。これによって画像処理装置1A、具体的には黒階調補正部30Aによる処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0137】
さらに本実施の形態によれば、情報記憶工程では、無彩文字形成領域のサンプル画像の最大の濃度値と、その最大の濃度値を補正するための予め設定される最大目標値とに基づいて演算した補正情報により補正した前記サンプル画像の画素の濃度値が、各色記憶部71に記憶される。補正工程では、各色記憶部71に記憶される補正後のサンプル画像の画素の濃度値に基づいて、領域分離工程で全体画像から識別分離された特定画像領域の画素の濃度値が補正される。これによって画像入力装置2の入力特性が一定または既知である場合には、画像入力装置2が全体画像を与えるたびに補正情報を演算することなく、無彩文字形成領域のサンプル画像を用いて補正情報を推定し、この補正情報に基づいて補正したサンプル画像の画素の濃度値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の濃度値に基づいて、識別分離された無彩文字形成領域の画素の濃度値を精度良く補正することができる。これによって画像処理装置1A、具体的には黒階調補正部30Aによる処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0138】
本実施の形態では、黒生成下色除去部15Aは、黒階調補正部30Aを含む構成であったけれども、黒階調補正部30Aが黒生成下色除去部15Aを別途に設けられる構成であってもよく、この場合、画像処理装置3Aは、黒階調補正部30Aが黒生成下色除去部15Aの前段で処理するように構成される。また解像性能などの特性が異なる複数種類の画像入力装置2に対する補正情報をそれぞれ記憶させておいて、複数種類の画像入力装置2に対応できる構成であってもよい。
【0139】
本発明の各実施の形態では、領域分離処理部13における局所マスクを、ラインメモリ37を用いて形成する構成であってもよい。またラインメモリ37において、濃度値が記憶される画素の数が各色局所マスク35のサイズに基づいて限定されるものではなく、FIFO形メモリの数によって変更してもよいし、ハードディスクなどの記憶手段と協働して濃度値を記憶する構成であってもよい。これによって各色局所マスク35に含まれる画素の数を容易に変更して、画像領域の判定処理および特定画像領域の画素の濃度値の補正処理を正確に行うことができる。また補正情報を演算するために、各色局所マスク35に関してシアン、マゼンタおよびイエローの各色に関する最大濃度値および最小濃度値を用いる換わりに、たとえば各色局所マスク35の各画素の濃度値を昇順または降順に並べて、上位所定番目の画素の濃度値と下位所定番目の画素の濃度値とを用いる構成であってもよい。
【0140】
図23は、本発明のさらに他の実施の形態であるコンピュータシステム75の構成を示す図である。本実施の形態は、本発明の画像処理方法を、コンピュータに実行させるためのプログラムを用いて、コンピュータ読取り可能な記録媒体83にプログラム84を記録するように構成される。これによって本発明の画像処理方法を実行するためのプログラム84を記録した記録媒体83を持運びできる。コンピュータシステム75は、コンピュータ76、画像表示装置78、画像入力装置79、画像出力装置であるプリンタ80、入力装置であるキーボード81およびマウス82を含んで構成される。コンピュータ76は、コンピュータ76から分離可能な記録媒体であるROM77を含んで構成される。
【0141】
コンピュータシステム75では、プログラムがROM77に記録される。コンピュータ76が、ROM77から上述のプログラムを読取り、実行することによって本発明の画像処理方法が施される。また図示しない外部記憶装置であるプログラム読取り装置に、プログラム84が記録される記録媒体83を挿入することによって、この記録媒体83からプログラム84を読込ませて、コンピュータ76にプログラム84を実行させてもよい。
【0142】
画像表示装置78は、コンピュータ76による処理結果を表示する装置であって、たとえばシーアールティー(cathode ray tube display;略称CRT)ディスプレイおよび液晶ディスプレイが用いられる。画像入力装置79は、原稿に形成される画像を読取る装置であって、たとえばフラットベッドスキャナ、フィルムスキャナおよびデジタルカメラが用いられる。プリンタ80は、コンピュータ76による処理結果を画像として記録材に形成する。さらにコンピュータシステム75には、たとえば通信ネットワークを介して、サーバーに接続するための通信手段であるモデムが設けられてもよい。
【0143】
プログラム84は、マイクロプロセッサによって記録媒体83から読出されることによって、コンピュータ76に実行される構成であってもよいし、読出されたプログラム84は、コンピュータ76に設けられるプログラム記憶エリアに一旦転送されてから、実行される構成であってもよい。
【0144】
記録媒体83は、コンピュータ76と分離できるように構成され、磁気テープおよびカセットテープによって固定的にプログラム84を記録する媒体であってもよい。その他の記録媒体83の一例として、磁気ディスクの場合には、フレキシブルディスクおよびハードディスク、ならびに光ディスクの場合には、コンパクトディスク−リードオンリーメモリ(Compact Disk − Read Only Memory;略称CD−ROM)、マグネットオプティカル(Magneto Optical;略称MO)、ミニディスク(Mini Disk;略称MD)、デジタルバーサタイルディスク(
Digital Versatile Disk;略称DVD)を、記録媒体83として用いてもよい。
【0145】
また半導体メモリであるマスクROM、イーピーロム(ErasableProgrammable Read Only Memory;略称EPROM)、イーイーピーロム(Electrically Erasable Programmable Read Only Memory;略称EEPROM)、およびフラッシュロム(Flash Read Only Memory)を記録媒体83として用いることもできる。
【0146】
コンピュータシステム75は、インターネットを含む通信ネットワークに接続可能な構成であってもよく、通信ネットワークを介して上述のプログラム84をROM77に転送し、記録するように流動的にプログラム84を記録する記録媒体83であってもよい。このように通信ネットワークを介してプログラム84をダウンロードする場合には、プログラム84を転送、すなわちダウンロードするためのダウンロードプログラムは、予めコンピュータシステム75に記録されているか、あるいは別な記録媒体83からコンピュータシステム75に導入、すなわちインストールされるものであってもよい。
【0147】
本実施の形態によれば、補正情報に基づいて、特定画像領域である無彩文字形成領域の画素の濃度値を補正する画像処理方法をプログラム84で表すことによって、コンピュータに前述の画像処理方法に従う処理を実行させることができる。前記画像処理方法に従う処理をコンピュータ76に実行させることによって、原稿における特定画像領域が表す画像を精度良く再現することができる。
【0148】
さらに本実施の形態によれば、補正情報に基づいて、無彩文字形成領域の画素の濃度値を補正する画像処理方法をコンピュータ76に実行させるためのプログラム84を、コンピュータ76によって読取り可能な記録媒体83に記録させる。たとえばフレキシブルディスクなどの持運び可能な記録媒体83にプログラム84を記録させることによって、プログラム84を記録媒体83から所望のコンピュータ76に読込ませることができるとともに、記録媒体83からコンピュータ76にプログラム84を読込ませて、このプログラム84をコンピュータ76に実行させることができる。
【0149】
【発明の効果】
本発明によれば、複数の色に関する画素値を有する画素を含む全体画像が、画像入力手段によって与えられる。この全体画像から、複数の画像領域が領域分離手段によって識別分離される。分離される画像領域のうち、予め定める特定画像領域に関して、最大の画素値が最大画素値取得手段によって取得される。取得される最大の画素値と、前記最大の画素値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算手段によって演算される。補正情報は、特定画像領域の画素の画素値を補正するための情報である。演算された補正情報に基づいて、特定画像領域の画素の画素値が補正手段によって補正される。補正情報を用いることによって、特定画像領域における最大の画素値が本来の画素値になるように、特定画像領域の画素の画素値を補正することができる。これによってたとえば原稿に形成される画像を読取るときに生じた読取り誤差を補正して、読取り誤差を無くすことができる。したがって画像入力手段によって与えられるべき画素値になるように、特定画像領域の画素の画素値を精度良く補正することができる。
【0150】
また本発明によれば、前記特定画像領域に関して、最小の画素値が最小画素値取得手段によって取得される。最小画素値取得手段によって取得される最小の画素値と、前記最小の画素値を補正するための予め設定される最小目標値と、最大の画素値と、前記最大の画素値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算手段によって演算される。このように補正情報は、最大の画素値および最大目標値に加えて、最小の画素値および最小目標値を考慮して演算される。これによって最大および最小の画素値が、本来の画素値になるように、全体画像における特定画像領域を読取るときに生じた読取り誤差を補正することができる。したがって特定画像領域の画素の画素値を正確に補正したうえで、全体画像における特定画像領域のコントラストを正確に再現することができる。
【0151】
また本発明によれば、前記情報演算手段は、神経回路網を含んで構成される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。情報演算手段が神経回路網を含んで構成されるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、情報演算手段を実現するために要するコストを可及的に削減することができる。
【0152】
また本発明によれば、前記最大目標値は、画像入力手段の入力特性に基づいて設定されるので、画像入力手段に応じた補正情報を正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字形成領域の文字は、その濃度が文字の太さに拘わらず一様でありかつ文字領域において最大となるとともに、下地領域は、その濃度が一様で最小となる。全体画像における文字形成領域を読み取った場合、文字に対応する画素の画素値は、文字形成領域において最大の画素値になり、下地に対応する画素の濃度値は最小になると想定することができる。これによって本来の画素値である最大目標値および最小目標値を予め設定することができる。このように特定画像領域の画素の画素値を補正するための目標値が既知である場合には、目標値を有する画素を含む全体画像を画像入力手段で読込んでおくことによって、目標値を予め設定することができる。これによって補正情報を正確に演算することができる。
【0153】
また本発明によれば、予め定める特定画像領域のサンプル画像の最大の画素値と、その最大の画素値を補正するための予め設定される最大目標値とに基づいて演算された補正情報により補正された前記サンプル画像の画素の画素値が、記憶手段に記憶される。領域分離手段によって識別分離された特定画像領域の画素の画素値が、記憶手段に記憶される補正後のサンプル画像の画素の画素値に基づいて、補正手段によって補正される。これによって、たとえば画像入力手段の入力特性が一定または既知である場合には、画像入力手段が全体画像を与えるたびに補正情報を演算することなく、特定画像領域のサンプル画像の画素の画素値に基づいて補正情報を推定し、この補正情報に基づいて補正したサンプル画像の画素の画素値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の画素値を用いることによって、全体画像から領域分離手段によって識別分離された特定画像領域の画素の画素値を精度良く補正することができる。これによって画像処理装置による処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0154】
また本発明によれば、画像形成装置は、前述の画像処理装置を備えるので、特定画像領域の画素の画素値を、本来の画素値になるように精度良く補正することができる。これによって全体画像における特定画像領域を正確に再現することが可能な画像形成装置を実現することができる。
【0155】
また本発明によれば、複数の色に関する画素値を有する画素を含む全体画像が、画像入力手段によって与えられる。この全体画像から、複数の画像領域が領域分離工程で識別分離される。領域分離工程で分離される画像領域のうち、予め定める特定画像領域に関して、最大の画素値が最大画素値取得工程で取得される。取得される最大の画素値と、前記最大の画素値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算工程で演算される。補正情報は、特定画像領域の画素の画素値を補正するための情報である。演算された補正情報に基づいて、特定画像領域の画素の画素値が補正工程で補正される。補正情報を用いることによって、特定画像領域における最大の画素値が画像入力手段によって与えられるべき画素値になるように、全体画像における特定画像領域を読取るときに生じた読取り誤差を補正することができる。これによって読取り誤差を無くして、本来の画素値になるように、特定画像領域の画素の画素値を精度良く補正することができる。
【0156】
また本発明によれば、前記特定画像領域に関して、最小の画素値が最小画素値取得工程で取得される。最小画素値取得工程で取得される最小の画素値と、前記最小の画素値を補正するための予め設定される最小目標値と、最大の画素値と、前記最大の画素値を補正するための予め設定される最大目標値とに基づいて、補正情報が情報演算工程で演算される。このように補正情報は、最大の画素値および最大目標値に加えて、最小の画素値および最小目標値を考慮して演算される。これによって最大および最小の画素値が、それぞれ本来の画素値になるように、全体画像における特定画像領域を読取るときに生じた読取り誤差を補正することができる。したがって特定画像領域の画素の画素値を精度良く補正することができるとともに、全体画像における特定画像領域のコントラストを正確に再現することができる。
【0157】
また本発明によれば、前記情報演算工程では、神経回路網を用いて補正情報が演算される。たとえばスプライン関数を用いて補正情報を演算する場合、補正情報を高次の関数を用いて演算する必要があるので、演算が複雑になるとともに、その演算をするための演算手段を実現するためにコストがかかる。情報演算工程では、神経回路網を用いるので、補正情報を簡単な積和演算の繰返しによって容易にかつ正確に演算することができる。これによって正確な補正情報を容易に得ることができるとともに、情報演算手段を実現するために要するコストを可及的に削減することができる。
【0158】
また本発明によれば、前記最大目標値は、画像入力手段の入力特性に基づいて設定されるので、画像入力手段に応じた補正情報を正確に演算することができる。たとえば特定画像領域が文字形成領域である場合、文字形成領域の文字は、その濃度が文字の太さに拘わらず一様であり、かつ最大の画素値を有する画素によって表される。これによって本来の画素値である最大目標値を予め知ることができる。このように最大目標値が既知である場合には、最大目標値を有する画素を含む全体画像を画像入力手段で読込んでおくことによって、最大目標値を予め設定することができる。これによって補正情報を正確に演算することができる。
【0159】
また本発明によれば、情報記憶工程では、予め定める特定画像領域のサンプル画像の最大の画素値と、その最大の画素値を補正するための予め設定される最大目標値とに基づいて演算した補正情報により補正した前記サンプル画像の画素の画素値が記憶手段に記憶される。補正工程では、記憶手段に記憶される補正後のサンプル画像の画素の画素値に基づいて、領域分離工程で全体画像から識別分離された特定画像領域の画素の画素値が補正される。これによって画像入力手段の入力特性が一定または既知である場合には、画像入力手段が全体画像を与えるたびに補正情報を演算することなく、特定画像領域のサンプル画像を用いて補正情報を推定し、この補正情報に基づいて補正したサンプル画像の画素の画素値を予め記憶しておくことができる。このように予め記憶される補正後のサンプル画像の画素の画素値を用いることによって、識別分離された特定画像領域の画素の画素値を精度良く補正することができる。これによって画像処理装置による処理の処理量を可及的に少なくして、処理速度を向上することができる。
【0160】
また本発明によれば、補正情報に基づいて、特定画像領域の画素の画素値を補正する画像処理方法をプログラムで表すことによって、コンピュータに前述の画像処理方法に従う処理を実行させることができる。前記画像処理方法に従う処理をコンピュータに実行させることによって、原稿における特定画像領域が表す画像を精度良く再現することができる。
【0161】
また本発明によれば、補正情報に基づいて、特定画像領域の画素の画素値を補正する画像処理方法をコンピュータに実行させるためのプログラムを、コンピュータによって読取り可能な記録媒体に記録させる。たとえばフレキシブルディスクなどの持運び可能な記録媒体にプログラムを記録させることによって、プログラムを記録媒体から所望のコンピュータに読込ませることができるとともに、記録媒体からコンピュータにプログラムを読込ませて、このプログラムをコンピュータに実行させることができる。
【図面の簡単な説明】
【図1】本発明の実施の一形態である画像形成装置1が備える画像処理装置3の黒階調補正部30の構成を示すブロック図である。
【図2】画像形成装置1全体の構成を示すブロック図である。
【図3】領域分離処理部13の構成を示すブロック図である。
【図4】黒階調補正部30によって形成される各色局所マスク35を説明するための図である。
【図5】教師データを設定するための教師用原稿50を説明するための図である。
【図6】教師データを設定するための教師用原稿50Aを説明するための図である。
【図7】神経回路網55を示すブロック図である。
【図8】黒階調補正部30および黒生成下色除去部15による処理の手順を示すフローチャートである。
【図9】反復回数timeとシアンに関する誤差量energyとの関係を表すグラフである。
【図10】図9における反復回数timeが50,000回である場合のシアン用入力信号値とシアン用補正信号値との関係を表すグラフである。
【図11】反復回数timeとマゼンタに関する誤差量energyとの関係を表すグラフである。
【図12】図11における反復回数timeが50,000回である場合のマゼンタ用入力信号値とマゼンタ用補正信号値との関係を表すグラフである。
【図13】反復回数timeとイエローに関する誤差量energyとの関係を表すグラフである。
【図14】図13における反復回数timeが50,000回である場合のイエロー用入力信号値とイエロー用補正信号値との関係を表すグラフである。
【図15】補正なし画像64Aを説明するための図である。
【図16】補正後画像64Bを説明するための図である。
【図17】補正なし画像64Aに関する濃度ヒストグラムである。
【図18】補正後画像64Bに関する濃度ヒストグラムである。
【図19】図15の実線65Aにおける濃度断面である。
【図20】図16の実線65Bにおける濃度断面である。
【図21】本発明の他の実施の形態における画像形成装置1Aの画像処理装置3Aが備える黒階調補正部30Aの構成を示すブロック図である。
【図22】黒階調補正部30Aおよび黒生成下色除去部15Aによる処理の手順を示すフローチャートである。
【図23】本発明のさらに他の実施の形態であるコンピュータシステム75の構成を示す図である。
【符号の説明】
1,1A 画像形成装置
2 画像入力装置
3,3A 画像処理装置
13 領域分離処理部
15,15A 黒生成下色除去部
30,30A 黒階調補正部
32 各色高濃度取得部
33 各色低濃度取得部
34 各色ニューラルネットワーク
38,71 各色記憶部
39 各色学習部
40,72 各色補正部
55 神経回路網
75 コンピュータシステム
76 コンピュータ
83 記録媒体
84 プログラム[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing method for correcting a pixel value of a pixel in a specific image area or an entire image, a program for executing the method, a recording medium storing the program, an image processing apparatus, and an image forming apparatus including the same About.
[0002]
[Prior art]
2. Description of the Related Art In recent years, digitalization of office automation (Office Automation) devices has been rapidly progressing, and demand for color image output for forming and outputting an image represented by chromatic colors in addition to achromatic colors on a recording material has increased. ing. Image output devices that output color images include digital color copying machines of the electrophotographic type, color printers of the inkjet type and the thermal transfer type, and the like. For example, image data given by a digital camera, a scanner, or the like, or image data created by a computer is given to the above-described image output device, and an image is formed on a recording material. When an image is formed on a recording material based on input image data, the image needs to be formed in a state where density reproducibility is always stable. In order to always stabilize the reproducibility of the density of an image, it is necessary to separate the input image data into a plurality of image areas and correct the density values of the pixels in the separated image areas. In a conventional color image processing apparatus, a thin line degree of a character is calculated from a character area of an image read from a document, and an amount of black generation is controlled in accordance with the thin line degree (for example, see Patent Document 1). The thin line degree is a feature amount that takes a larger value as the line width is smaller and the line is thinner. The color image processing apparatus controls the amount of black generation using the degree of the fine line to control the reproducibility of the character density to be as uniform as possible.
[0003]
[Patent Document 1]
JP-A-11-69174
[0004]
[Problems to be solved by the invention]
In a conventional color image processing apparatus, the amount of black generation is controlled based on the width of a line, which is a characteristic amount related to non-uniformity, in a character area that is desired to be reproduced uniformly regardless of the thickness of the character. For example, if it is determined that the character has a small line width and is a thin character, the black amount is uniformly added to the character. As described above, since the determined black amount is always given according to the line width, the density of the characters formed on the document may not be the same, and the image formed on the document cannot be accurately reproduced. .
[0005]
Therefore, an object of the present invention is to provide an image processing method capable of accurately reproducing an image formed on a document, for example, a character, a program for executing the method, a recording medium storing the program, an image processing apparatus, and an image processing apparatus. An object of the present invention is to provide an image forming apparatus including
[0006]
[Means for Solving the Problems]
The present invention provides an area separating unit for identifying and separating a plurality of image areas from an entire image including pixels having pixel values related to a plurality of colors provided by an image input unit, and a predetermined one of image areas to be separated. For a specific image area, a maximum pixel value obtaining unit that obtains a maximum pixel value,
Based on the obtained maximum pixel value and a preset maximum target value used for correcting the maximum pixel value, correction information for correcting the pixel value of the pixel in the specific image area is calculated. Information calculation means for performing
A correction unit that corrects a pixel value of a pixel in a specific image area based on the correction information.
[0007]
According to the present invention, an entire image including pixels having pixel values related to a plurality of colors is provided by the image input unit. From the whole image, a plurality of image areas are identified and separated by the area separating means. The maximum pixel value is obtained by the maximum pixel value obtaining means for a predetermined specific image region among the separated image regions. Correction information is calculated by the information calculation means based on the obtained maximum pixel value and a preset maximum target value for correcting the maximum pixel value. The correction information is information for correcting a pixel value of a pixel in a specific image area. Based on the calculated correction information, the correction unit corrects the pixel value of the pixel in the specific image area. By using the correction information, it is possible to correct the pixel values of the pixels in the specific image area so that the maximum pixel value in the specific image area becomes the original pixel value originally possessed. As a result, for example, a reading error generated when reading an image formed on a document can be corrected, and the reading error can be eliminated. Therefore, the pixel values of the pixels in the specific image area can be corrected with high accuracy so that the original pixel values are obtained.
[0008]
Further, the present invention, for the specific image area, further includes a minimum pixel value obtaining means for obtaining a minimum pixel value,
The information calculating means corrects the obtained maximum pixel value, a preset maximum target value used for correcting the maximum pixel value, the obtained minimum pixel value, and the obtained minimum pixel value. Correction information for correcting a pixel value of a pixel in a specific image area is calculated based on a preset minimum target value used for performing the correction.
[0009]
According to the present invention, the minimum pixel value is obtained by the minimum pixel value obtaining means for the specific image area. A minimum pixel value acquired by a minimum pixel value acquisition unit, a preset minimum target value for correcting the minimum pixel value, a maximum pixel value, and a value for correcting the maximum pixel value. The correction information is calculated by the information calculation means based on the preset maximum target value. As described above, the correction information is calculated in consideration of the minimum pixel value and the minimum target value in addition to the maximum pixel value and the maximum target value. This makes it possible to correct a reading error generated when reading a specific image area in the entire image so that the maximum and minimum pixel values become the original pixel values. Therefore, it is possible to accurately reproduce the contrast of the specific image area in the entire image after accurately correcting the pixel values of the pixels in the specific image area.
[0010]
Further, the present invention is characterized in that the information calculation means is configured to include a neural network.
[0011]
According to the invention, the information calculation means includes a neural network. For example, when the correction information is calculated using a spline function, it is necessary to calculate the correction information using a higher-order function. Therefore, the calculation becomes complicated, and in order to realize a calculation means for performing the calculation. costly. Since the information calculation means is configured to include the neural network, the correction information can be easily and accurately calculated by repeating a simple product-sum operation. As a result, accurate correction information can be easily obtained, and the cost required to realize the information calculation means can be reduced as much as possible.
[0012]
Further, the invention is characterized in that the maximum target value is set based on an input characteristic of an image input unit.
[0013]
According to the present invention, since the maximum target value is set based on the input characteristics of the image input unit, it is possible to accurately calculate the correction information according to the image input unit. For example, when the specific image area is a character forming area, the density of the characters in the character forming area is uniform regardless of the thickness of the characters and is maximum in the character area, and the density of the background area is one. Is the smallest. When the character forming area in the whole image is read, it can be assumed that the pixel value of the pixel corresponding to the character becomes the maximum pixel value in the character forming area and the density value of the pixel corresponding to the base becomes the minimum. As a result, the maximum target value and the minimum target value, which are the original pixel values, can be set in advance. When the target value for correcting the pixel value of the pixel in the specific image area is known in this manner, the entire image including the pixel having the target value is read by the image input unit, so that the target value is set. It can be set in advance. As a result, the correction information can be accurately calculated.
[0014]
The present invention also provides an area separation unit that identifies and separates a plurality of image areas from an entire image including pixels having pixel values related to a plurality of colors, provided by an image input unit.
Of the separated image regions, the maximum pixel value of the sample image of the predetermined specific image region and the correction information calculated based on the preset maximum target value for correcting the maximum pixel value Storage means for storing the pixel values of the pixels of the corrected sample image,
A correction unit configured to correct the pixel values of the pixels of the separated specific image area based on the pixel values of the pixels of the corrected sample image stored in the storage unit.
[0015]
According to the present invention, the correction is performed by the correction information calculated based on the maximum pixel value of the sample image of the predetermined specific image area and the preset maximum target value for correcting the maximum pixel value. The pixel values of the pixels of the sample image are stored in the storage unit. The correction unit corrects the pixel value of the pixel in the specific image area that has been identified and separated by the region separation unit based on the pixel value of the pixel of the corrected sample image stored in the storage unit. Thus, for example, when the input characteristics of the image input unit are constant or known, the pixel value of the pixel of the sample image in the specific image area is calculated without calculating the correction information every time the image input unit gives the entire image. The correction information is estimated based on the correction information, and the pixel values of the pixels of the sample image corrected based on the correction information can be stored in advance. By using the pixel values of the pixels of the corrected sample image stored in advance in this way, the pixel values of the pixels of the specific image area that has been identified and separated by the area separating unit from the entire image can be corrected with high accuracy. Thus, the processing amount of the image processing device can be reduced as much as possible, and the processing speed can be improved.
[0016]
Further, the present invention is an image forming apparatus including the above-described image processing apparatus.
According to the present invention, since the image forming apparatus includes the above-described image processing apparatus, it is possible to accurately correct the pixel value of the pixel in the specific image area to the original pixel value. This makes it possible to realize an image forming apparatus capable of accurately reproducing a specific image area in the entire image.
[0017]
The present invention also provides an area separating step of identifying and separating a plurality of image areas from an entire image including pixels having pixel values related to a plurality of colors, which is provided by an image input unit.
Of the image areas to be separated, for a predetermined specific image area, a maximum pixel value obtaining step of obtaining a maximum pixel value,
Based on the obtained maximum pixel value and a preset maximum target value used for correcting the maximum pixel value, correction information for correcting the pixel value of the pixel in the specific image area is calculated. Information calculation step
A correction step of correcting a pixel value of a pixel in a specific image area based on the correction information.
[0018]
According to the present invention, an entire image including pixels having pixel values related to a plurality of colors is provided by the image input unit. From the whole image, a plurality of image areas are identified and separated in the area separation step. Among the image areas separated in the area separation step, a maximum pixel value is obtained in a maximum pixel value obtaining step for a predetermined specific image area. Correction information is calculated in an information calculation step based on the obtained maximum pixel value and a preset maximum target value for correcting the maximum pixel value. The correction information is information for correcting a pixel value of a pixel in a specific image area. Based on the calculated correction information, the pixel values of the pixels in the specific image area are corrected in a correction step. By using the correction information, it is possible to correct a reading error generated when reading the specific image area in the entire image so that the maximum pixel value in the specific image area becomes the original pixel value. As a result, it is possible to eliminate the reading error and accurately correct the pixel values of the pixels in the specific image area so as to obtain the original pixel values.
[0019]
Further, the present invention, for the specific image area, further includes a minimum pixel value obtaining step of obtaining a minimum pixel value,
The information calculating step corrects the obtained maximum pixel value, a preset maximum target value used for correcting the maximum pixel value, the obtained minimum pixel value, and the minimum pixel value. Correction information for correcting a pixel value of a pixel in a specific image area is calculated based on a preset minimum target value used for performing the correction.
[0020]
According to the present invention, for the specific image area, the minimum pixel value is obtained in the minimum pixel value obtaining step. A minimum pixel value acquired in the minimum pixel value acquisition step, a preset minimum target value for correcting the minimum pixel value, a maximum pixel value, and a correction value for correcting the maximum pixel value. Correction information is calculated in an information calculation step based on the preset maximum target value. As described above, the correction information is calculated in consideration of the minimum pixel value and the minimum target value in addition to the maximum pixel value and the maximum target value. This makes it possible to correct a reading error generated when reading a specific image area in the entire image so that the maximum and minimum pixel values become the original pixel values, respectively. Therefore, the pixel values of the pixels in the specific image area can be accurately corrected, and the contrast of the specific image area in the entire image can be accurately reproduced.
[0021]
Further, the invention is characterized in that the information calculation step calculates correction information using a neural network.
[0022]
According to the invention, in the information calculation step, correction information is calculated using a neural network. For example, when the correction information is calculated using a spline function, it is necessary to calculate the correction information using a higher-order function. Therefore, the calculation becomes complicated, and in order to realize a calculation means for performing the calculation. costly. In the information calculation step, since a neural network is used, the correction information can be easily and accurately calculated by repeating a simple product-sum operation. As a result, accurate correction information can be easily obtained, and the cost required to realize the information calculation means can be reduced as much as possible.
[0023]
Further, the invention is characterized in that the maximum target value is set based on an input characteristic of an image input unit.
[0024]
According to the present invention, since the maximum target value is set based on the input characteristics of the image input unit, it is possible to accurately calculate the correction information according to the image input unit. For example, when the specific image region is a character forming region, the characters in the character forming region are represented by pixels having a uniform density regardless of the character thickness and having the maximum pixel value. Thus, the maximum target value, which is the original pixel value, can be known in advance. As described above, when the maximum target value is known, the maximum target value can be set in advance by reading the entire image including the pixel having the maximum target value by the image input unit. As a result, the correction information can be accurately calculated.
[0025]
Also, the present invention provides a maximum pixel value of a sample image of a predetermined specific image area among image areas provided by the image input unit and separated from an entire image including pixels having pixel values related to a plurality of colors, An information storage step of storing, in a storage unit, a pixel value of a pixel of the sample image corrected by the correction information calculated based on a preset maximum target value for correcting the maximum pixel value,
An area separation step of identifying and separating a plurality of image areas from the entire image,
A correction step of correcting the pixel values of the pixels of the separated specific image area based on the pixel values of the pixels of the corrected sample image stored in the storage unit.
[0026]
According to the present invention, in the information storage step, a correction calculated based on a maximum pixel value of a sample image of a predetermined specific image area and a preset maximum target value for correcting the maximum pixel value is set. The pixel value of the pixel of the sample image corrected by the information is stored in the storage unit. In the correction step, the pixel values of the pixels in the specific image area that have been identified and separated from the entire image in the area separation step are corrected based on the pixel values of the pixels of the corrected sample image stored in the storage unit. As a result, when the input characteristics of the image input unit are constant or known, the correction information is estimated using the sample image of the specific image area without calculating the correction information every time the image input unit provides the entire image. The pixel values of the pixels of the sample image corrected based on the correction information can be stored in advance. By using the pixel values of the pixels of the corrected sample image stored in advance in this way, the pixel values of the pixels in the specific image area that have been identified and separated can be accurately corrected. Thus, the processing amount of the image processing device can be reduced as much as possible, and the processing speed can be improved.
[0027]
Further, the present invention is a program for causing a computer to execute the above-described image processing method.
[0028]
According to the present invention, the image processing method for correcting the pixel value of the pixel in the specific image area based on the correction information is represented by a program, so that the computer can execute the processing according to the above-described image processing method. By causing a computer to execute the processing according to the image processing method, a specific image area in the entire image can be accurately reproduced.
[0029]
Further, the present invention is a computer-readable recording medium on which the above-mentioned program is recorded.
[0030]
According to the present invention, a program for causing a computer to execute an image processing method for correcting a pixel value of a pixel in a specific image area based on correction information is recorded on a computer-readable recording medium. For example, by recording the program on a portable recording medium such as a flexible disk, the program can be read from the recording medium into a desired computer, and the program can be read from the recording medium into a computer, and the program can be stored in a computer. Can be executed.
[0031]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a block diagram illustrating a configuration of a black gradation correction unit 30 of an image processing device 3 provided in an image forming apparatus 1 according to an embodiment of the present invention. FIG. 2 is a block diagram illustrating the overall configuration of the image forming apparatus 1. FIG. 3 is a block diagram illustrating a configuration of the area separation processing unit 13. FIG. 4 is a diagram for describing the local mask 35 for each color formed by the black gradation correction unit 30. 1 to 3, the cyan signal is represented by "C", the magenta signal is represented by "M", and the yellow signal is represented by "Y" for ease of illustration. In FIG. 2, a red signal is represented by "R", a green signal is represented by "G", and a blue signal is represented by "B" for ease of illustration. The image forming apparatus 1 is an apparatus that reads an image formed on a document, that is, a document image, performs appropriate processing to accurately reproduce the document image, and forms an image on a recording material. The recording material includes a recording sheet made of paper and a material other than paper. The image forming apparatus 1 is, for example, a digital color copier, converts a read document image into digital data, performs various processes, and forms images represented by achromatic and chromatic colors on a recording material. The image forming apparatus 1 includes an image input device 2, an image processing device 3, and an image output device 4.
[0032]
The image input device 2 is an image reading unit that reads a document image and an image input unit that supplies the read document image to the image processing device 3. The image input device 2 includes a scanner unit including a solid-state image sensor. The scanner unit separates light emitted from the light source and reflected by the document into three colors of red (R), green (G), and blue (B). The solid-state imaging device of the scanner unit is, for example, a charge-coupled device (Charge).
This is realized by a line sensor using a Coupled Device (abbreviated as CCD) (hereinafter, the “accumulated charge-coupled device” may be referred to as a CCD). In the image input device 2, the light source irradiates the original with light, and the color of the reflected light from the original is divided and detected by the CCD line sensor into a plurality of pixels arranged in the main scanning direction and the sub-scanning direction. Read the image. The main scanning direction is a direction in which the CCD line sensor extends. The sub-scanning direction is a scanning direction of the scanner unit. Specifically, the sub-scanning direction is a direction perpendicular to the main scanning direction and along the original when reading the original image. Further, the image input device 2 supplies document image data representing a document image by the color and intensity of each pixel to the image processing device 3 by an electric signal. The document image data is represented by numerical values corresponding to the densities of three color components, red, green and blue. The document image data is provided to the image processing device 3 by the image input device 2 as a red signal, a green signal and a blue signal. The red signal is an electric signal representing the reflectance of red light from the document in an analog manner for each pixel (hereinafter, the “red signal” may be referred to as “R signal” in some cases). The green signal is an electric signal representing the reflectance of green light from the document in an analog manner for each pixel (hereinafter, the “green signal” may be referred to as a “G signal”). The blue signal is an electric signal representing the reflectance of blue light from a document in an analog manner for each pixel (hereinafter, the “blue signal” may be referred to as “B signal” in some cases).
[0033]
The image processing device 3 is a device that performs appropriate processing on the entire image so that a document image can be accurately reproduced at the time of image formation. The whole image is a document image represented by document image data and includes pixels having pixel values for a plurality of colors. The image processing device 3 includes an analog-to-digital conversion unit (hereinafter, referred to as an “A / D conversion unit”) 10, a shading correction unit 11, an input gradation correction unit 12, an area separation processing unit 13, a color correction unit 14, and black generation. It includes a lower color removing unit 15, a spatial filter processing unit 16, an output gradation correction unit 17, and a gradation reproduction processing unit 18.
[0034]
The A / D converter 10 converts a given analog signal into a digital signal. The A / D converter 10 is an analog signal, and represents the R, G, and B signals provided by the image input device 2 with digital values of the reflectance of red light, green light, and blue light for each pixel. Each is converted to a digital signal. The R, G, and B signals converted to digital signals by the A / D converter 10 are provided to a shading corrector 11. The shading correction unit 11 performs a process of removing a distortion component included in data represented by the R signal, the G signal, and the B signal from the A / D conversion unit 10. The shading correction unit 11 performs various types of distortion on the R signal, the G signal, and the B signal from the A / D conversion unit 10 in the illumination system, the imaging optical system, and the imaging system (image receiving system) of the image input device 2. Process to remove components. The R signal, the G signal, and the B signal that have been processed by the shading correction unit 11 are provided to the input gradation correction unit 12.
[0035]
The input tone correction section 12 corrects the R, G, and B signals from the shading correction section 11 so as to adjust the light reflectance values of the respective color components so as to adjust the color balance based on the R signal, the G signal, and the B signal. The reflectance value of the component light is converted into a signal representing a density value of red light, a density value of green light, and a density value of blue light. The input tone correction unit 12 performs complementary color inversion on the R, G, and B signals represented by the red, green, and blue density values of each pixel, and outputs a cyan signal representing a cyan density value and a magenta density. The value is converted into a magenta signal representing a value and a yellow signal representing a yellow density value. The cyan signal, magenta signal, and yellow signal that have been processed by the input tone correction unit 12 are provided to the segmentation processing unit 13 (hereinafter, “cyan signal” is referred to as “C signal”, and “magenta signal” is referred to as “magenta signal”). M signal "and" yellow signal "may be described as" Y signal ").
[0036]
The area separation processing unit 13 identifies and separates a plurality of image areas from the entire image based on the C signal, the M signal, and the Y signal from the input tone correction unit 12. Specifically, the area separation processing unit 13 separates each pixel of the entire image into a plurality of image areas, for example, a character area and a halftone area, and other areas such as a photograph area and a background area. The character area is an image area representing a character edge that is an edge of the character, and the character includes kanji, alphabetic characters, numbers, and symbols. The halftone dot area is an image area representing an image with halftone dots. The other areas are an image area representing a photographic paper photographic image expressed in halftone and a base area. The area separation processing section 13 includes a mask forming section 20, a character area determining section 21, a halftone area determining section 22, and an identification signal generating section 23. The mask forming section 20 forms a local mask including a plurality of pixels and a plurality of pixels arranged in a matrix. In the present embodiment, the mask forming unit 20 forms a local mask in which seven pixels are arranged in the main scanning direction and the sub-scanning direction, that is, a 7 × 7 local mask. The pixel at the center of the local mask is a target pixel to be processed in the local mask. The C signal, M signal, and Y signal for each pixel in the local mask are provided to an edge detection unit 25, a chromatic / achromatic determination unit 26, and a dot region determination unit 22 of the character region determination unit 21.
[0037]
The character area determination unit 21 determines whether each pixel of the entire image belongs to the character area. Further, the character area determination unit 21 determines, for the pixels belonging to the character area, whether the pixel belongs to an achromatic character area that represents the character in achromatic color or a chromatic character area that represents the character in chromatic color. The character area determination unit 21 includes an edge detection unit 25, a chromatic / achromatic determination unit 26, and a signal determination unit 27. The edge detection unit 25 determines whether each pixel of the entire image is an edge pixel and detects an edge pixel. An edge pixel is a pixel whose density value shows a sharp change greatly different from the density value of an adjacent pixel. Based on the C signal, M signal, and Y signal from the mask forming unit 20, the edge detection unit 25 uses a 3 × 3 local mask centered on the target pixel among the 7 × 7 local masks, And the difference between the density value of each pixel and the density value of each adjacent pixel adjacent to the pixel of interest. The edge detection unit 25 compares the difference between the calculated density values with a predetermined threshold. The edge detection unit 25 determines that the pixel of interest is an edge pixel when any of the differences between the calculated density values is equal to or greater than the threshold, and all the differences between the calculated density values are smaller than the threshold. In this case, it is determined that the target pixel is not an edge pixel. The edge detection unit 25 performs determination processing on the target pixel for each of the colors cyan, magenta, and yellow. For example, when the edge detection unit 25 determines that the pixel of interest is an edge pixel in any one of the colors, it finally determines that the pixel of interest is an edge pixel. The determination process by the edge detection unit 25 may be realized by an edge detection filter such as a Sobel filter. An edge signal indicating a result of the determination of the target pixel by the edge detection unit 25 is provided to the signal determination unit 27.
[0038]
The chromatic / achromatic determining unit 26 determines whether each pixel of the entire image is a pixel representing a chromatic color or an achromatic color by performing threshold processing using, for example, saturation information of the entire image. . The chromatic / achromatic determining unit 26 calculates the maximum and minimum values of the cyan, magenta, and yellow density values of the target pixel of the 7 × 7 local mask, and subtracts the minimum value from the maximum value. Find the difference between those values. When the difference between the maximum value and the minimum value is equal to or larger than the threshold value TH, as shown in the following conditional expressions (1) and (2), the chromatic / achromatic determining unit 26 sets the pixel of interest to a pixel representing a chromatic color. When the difference between the maximum value and the minimum value is smaller than the threshold value TH, it is determined that the target pixel is a pixel representing an achromatic color. The chromatic / achromatic determination signal representing the result of the determination on the target pixel by the chromatic / achromatic determining unit 26 is given to the signal determining unit 27.
Figure 2004193682
[0039]
The signal determination unit 27 determines whether each pixel of the entire image belongs to an achromatic character area or a chromatic character area. More specifically, based on the edge signal from the edge detection unit 25 and the chromatic / achromatic determination signal from the chromatic / achromatic determination unit 26, the signal determination unit 27 determines whether the pixel of interest is an achromatic character area and a chromatic character region. It is determined to which of the character areas the pixel belongs. When the target pixel is an edge pixel and a pixel representing an achromatic color, the signal determination unit 27 determines that the target pixel belongs to the achromatic character area, and the target pixel is an edge pixel and represents a chromatic color. If it is a pixel, it is determined that the pixel of interest belongs to the chromatic character area. The character area determination signal indicating the determination result for the target pixel by the signal determination unit 27 is provided to the identification signal generation unit 23.
[0040]
The halftone area determination unit 22 determines whether each pixel of the entire image belongs to a halftone area. The halftone dot region has a feature that, with respect to a small region, the density value of pixels arranged continuously in a predetermined scanning direction has a large fluctuation, and a halftone dot density is higher than that of a background as a background. The dot area determination unit 22 performs a determination process using a P × Q local mask centered on the pixel of interest, using the above-described feature of the dot area. P and Q are natural numbers and may be the same or different from each other. In the present embodiment, the halftone dot area determination unit 22 uses a 3 × 3 local mask centered on the target pixel among the 7 × 7 local masks formed by the mask forming unit 20. The halftone dot area determination unit 22 calculates an average density value Dave, which is an average value of the density values, with respect to the density values of 9 pixels in the 3 × 3 local mask, and obtains a maximum density value Dmax, which is the maximum density value; A minimum density value Dmin, which is the minimum density value, is obtained. The halftone dot area determination unit 22 binarizes the density value of each pixel in the 3 × 3 local mask using the average density value Dave. The halftone dot region determination unit 22 counts the number of change points from 0 to 1 and the number of change points from 1 to 0 in the main scanning direction based on the binarized result of the 3 × 3 local mask, The sum of each change point number is obtained as a change point number Kr in the main scanning direction. The halftone dot area determination unit 22 counts the number of change points from 0 to 1 and the number of change points from 1 to 0 in the sub-scanning direction based on the binarized result of the 3 × 3 local mask, The sum of each change point number is obtained as a change point number Kv in the sub-scanning direction.
[0041]
The halftone dot area determination unit 22 compares the number of change points Kr in the main scanning direction with a predetermined threshold value Tr, and also compares the number of change points Kv in the sub-scanning direction with a predetermined threshold value Tv. Further, in order to prevent erroneous determination between a halftone dot and a background, the halftone dot region determination unit 22 compares a value obtained by subtracting the average density value Dave from the maximum density value Dmax with a predetermined threshold value B1. The value obtained by subtracting the minimum density value Dmin from the value Dave is compared with a predetermined threshold value B2. The dot area determination unit 22 determines whether or not the target pixel belongs to the halftone area based on the following conditional expressions (3) to (6). When all of the conditional expressions (3) to (6) are satisfied, the halftone region determining unit 22 determines that the pixel of interest belongs to the halftone region, and does not satisfy any one of the conditional expressions (3) to (6). If there is a conditional expression, it is determined that the pixel of interest does not belong to the dot area.
Dmax-Dave> B1 (3)
Dave-Dmin> B2 (4)
Kr> Tr (5)
Kv> Tv (6)
[0042]
As shown in conditional expressions (3) to (6), the value obtained by subtracting the average density value Dave from the maximum density value Dmax is larger than the threshold value B1, and the value obtained by subtracting the minimum density value Dmin from the average density value Dave is a threshold value. If the change point number Kr in the main scanning direction is larger than B2, the change point number Kv in the main scanning direction is larger than the threshold value Tr, and the change point number Kv in the sub-scanning direction is larger than the threshold value Tv. Is determined to belong to a dot area. The dot area determination unit 22 performs determination processing individually for each color of cyan, magenta, and yellow. When it is determined that the target pixel belongs to the halftone region in any of the colors, the halftone region determination unit 22 finally determines that the target pixel belongs to the halftone region. A halftone determination signal indicating the determination result of the target pixel by the halftone region determination unit 22 is provided to the identification signal generation unit 23. For example, when the halftone dot region determination unit 22 determines that the target pixel belongs to the halftone region, an ON signal representing “1” is given to the identification signal generation unit 23 as a halftone determination signal, and When it is determined that the pixel does not belong to the area, an off signal representing “0” is given to the identification signal generation unit 23 as a halftone dot determination signal.
[0043]
The identification signal generation unit 23 is a region representing a result of identifying and separating an image region from the entire image based on the character region determination signal from the character region determination unit 21 and the halftone region determination signal from the halftone region determination unit 22. Generate an identification signal. The area identification signal includes an achromatic character area signal, a chromatic character area signal, a halftone area determination signal, and other area signals described later. Based on the character area determination signal, the identification signal generation unit 23 generates an achromatic character area signal indicating that the pixel belongs to the achromatic character area, and a chromatic character area signal indicating that the pixel belongs to the chromatic character area. Generate The identification signal generating unit 23 generates a halftone area signal indicating that the pixel belongs to the halftone area based on the halftone determination signal. The identification signal generator 23 further generates an other area signal indicating that the pixel belongs to the other area. Pixels determined not to belong to both the character area and the halftone dot area are separated and separated into other areas. When the character area determination signal is an achromatic character area signal or a chromatic character area signal, and the halftone determination signal is “1”, the identification signal The priority is set higher than the result of the character area determination unit 21 so that the pixel of interest is determined to belong to the halftone area. The region identification signal generated for each pixel is provided from the identification signal generation unit 23 to the black generation and under color removal unit 15, the spatial filter processing unit 16, and the gradation reproduction processing unit 18. The C signal, the M signal, and the Y signal supplied from the input gradation correction unit 12 to the region separation processing unit 13 are directly supplied from the region separation processing unit 13 to the color correction unit 14. The color correction unit 14 controls the spectral characteristics of the cyan, magenta, and yellow color materials for the cyan, magenta, and yellow color materials including the unnecessary absorption components in order to improve the reproducibility of the color of the original image during image formation. Is performed based on the color correction. The C signal, the M signal, and the Y signal that have been subjected to the color correction processing by the color correction unit 14 are provided to a black generation and under color removal unit 15.
[0044]
The black generation and under color removal section 15 is based on the C signal, M signal and Y signal from the color correction section 14, specifically, the C signal, M signal and Y signal after correction by the black gradation correction section 30 described later. The black generation processing and under color removal (Under
Color Removal (abbreviated UCR) processing. The black generation processing generates a black (Black; abbreviated as K) signal representing a density value of black, which is one of the color materials, based on the C signal, the M signal, and the Y signal from the color correction unit 14 to generate a black signal. (Hereinafter, “black signal” may be referred to as “K signal” in some cases). The undercolor removal process is a process of correcting the density values of cyan, magenta, and yellow in consideration of the generated density value of black so that gray can be stably reproduced during image formation.
[0045]
As an example of the black generation processing, there is a method of generating black by skeleton black. In this method, for example, a function representing input / output characteristics of a skeleton curve is set to y = f (x), and cyan density values of cyan, magenta, and yellow before undercolor removal processing are represented by C and C, respectively. M is the density value of magenta, and Y is the density value of yellow. Further, K is the density value of black generated in the black generation process, and C1 is the density value of cyan, M1 is the density value of magenta, and M1 is the density value of yellow for each of the density values of cyan, magenta, and yellow after the undercolor removal process. Is Y1, and the undercolor removal rate is α (0 <α <1). The black generation and under color removal unit 15 performs black generation processing and under color removal processing based on the following equations (7) to (10).
K = f {min (C, M, Y)} (7)
C1 = C-αK (8)
M1 = M-αK (9)
Y1 = Y−αK (10)
[0046]
The black density value is calculated based on a function representing the input / output characteristics of the skeleton curve and the minimum density value among the cyan, magenta, and yellow density values of the pixel, as in Expression (7). The density value of cyan after the undercolor removal processing is obtained by subtracting the product of the undercolor removal rate and the density value of the generated black from the density value of cyan before the undercolor removal processing as shown in Expression (8). Is calculated. The density value of magenta after the undercolor removal processing is obtained by subtracting the product of the undercolor removal rate and the generated black density value from the density value of magenta before the undercolor removal processing, as shown in Expression (9). Is calculated. The density value of yellow after the undercolor removal processing is obtained by subtracting the product of the undercolor removal rate and the density value of the generated black from the density value of yellow before the undercolor removal processing as shown in Expression (10). Is calculated. Based on the C signal, M signal, and Y signal corrected by the black gradation correction unit 30 described later, the black generation and under color removal unit 15 performs black generation processing using equations (7) to (10). Performs under color removal processing. Through the processing by the black generation and under color removal unit 15, the three color signals of the C signal, the M signal, and the Y signal are converted into four color signals of the C signal, the M signal, the Y signal, and the K signal. The C signal, M signal, Y signal, and K signal that have been subjected to the black generation processing and the undercolor removal processing are provided to the spatial filter processing unit 16.
[0047]
The spatial filter processing unit 16 uses a digital filter to filter the original image data provided as the C, M, Y, and K signals from the black generation and under color removal unit 15 based on the region identification signal. Processing, for example, sharpening processing and low-pass filtering processing. Since the spatial filter processing unit 16 corrects the spatial frequency characteristics of each image area in this way, it is possible to prevent blurring and deterioration in graininess of the image when the image output device 4 forms an image. For example, the spatial filter processing unit 16 performs a sharp enhancement process on the achromatic character region and the chromatic character region identified and separated by the region separation processing unit 13 to increase a high-frequency enhancement amount. As a result, the reproducibility of achromatic characters, for example, black characters and chromatic characters can be improved. The spatial filter processing unit 16 performs low-pass filter processing on the halftone dot regions identified and separated by the region separation processing unit 13 to smooth the halftone dot regions. As a result, by removing the input halftone dot component, the occurrence of moire can be suppressed, and the reproducibility of the image represented by the halftone dot region can be improved. The C signal, M signal, Y signal, and K signal that have been subjected to the spatial filter processing by the spatial filter processing unit 16 are provided to the output gradation correction unit 17.
[0048]
The output tone correction unit 17 performs an output tone correction process of converting a signal representing a pixel value of a pixel, for example, a density value, into a dot area ratio which is a characteristic value of the image output device 4. The output gradation correction unit 17 supplies the C signal, the M signal, the Y signal, and the K signal after the output gradation correction processing to the gradation reproduction processing unit 18. Based on the C signal, M signal, Y signal, and K signal from the output gradation correction unit 17 and the region identification signal from the region separation processing unit 13, the gradation reproduction processing unit 18 finally converts the image into pixels. The image is divided and a gradation reproduction (halftone generation) process for reproducing each gradation is performed. The C signal, the M signal, the Y signal, and the K signal that have been subjected to the tone reproduction processing by the tone reproduction processing unit 18 are readable and writable storage means (for example, a random access memory (RAM)). (Not shown). The storage unit stores document image data based on the C signal, M signal, Y signal, and K signal from the tone reproduction processing unit 18. The stored document image data is read out from the storage unit at a predetermined timing and provided to the image output device 4.
[0049]
The operation unit 19 is provided in the image forming apparatus 1, and is realized by an input device such as a keyboard and a touch panel, and a display device such as a liquid crystal display device. The operator of the image forming apparatus 1 can input various commands to the image forming apparatus 1 such as an image forming command for forming an image according to the type of a document by performing an input operation on the operation unit 19. it can. The image output device 4 is a device for forming an image on a recording material based on document image data on which various processes have been performed by the image processing device 3. Examples of the image output device 4 include, for example, a digital color copying machine of an electrophotographic system and a color printer of an ink jet system and a thermal transfer system, but are not particularly limited. The image output device 4 may be an image display device such as a liquid crystal display. In the image forming apparatus 1 described above, various processes on the document image data are controlled by a central processing unit (CPU: Central Processing Unit) 28 which is a control unit (hereinafter, the “central processing unit 28” is referred to as “central processing unit 28”. CPU28 "). The CPU 28 controls each unit of the image processing device 3 based on, for example, an operation result of the operation unit 19 by the operator.
[0050]
The above-described black generation and under color removal section 15 includes a black gradation correction section 30. The black gradation correction unit 30 determines a predetermined black portion among the regions identified and separated from the entire image so that the black generation and undercolor removal unit 15 can generate a desired black color and reproduce black in the entire image. The pixel value of the pixel in the image area, specifically, the density value is corrected. The specific image area is an area of an image formed by achromatic lines. In the present embodiment, the specific image region is an achromatic character forming region (a region including a character region determined by the region separation process and a base region around the character region). Is a region to be uniformly displayed regardless of the thickness, and the character has the highest density in the document image and is displayed in black. The black gradation correction unit 30 originally has the density values of the pixels in the achromatic character forming area so that the reading error caused when reading the image in the achromatic character forming area by the image input device 2 is eliminated. To the density value of The black gradation correction section 30 includes a color mask forming section 31, a color high density acquisition section 32, a color low density acquisition section 33, and a color neural network 34.
[0051]
Each color mask forming unit 31 forms each color local mask 35 (see FIG. 4) based on the C signal, the M signal, and the Y signal from the color correction unit 14. Each color local mask 35 is a local mask including a plurality of pixels and centered on a target pixel 36 to be processed in the black gradation correction unit 30. Each color local mask 35 includes a local mask centering on the target pixel 36 for cyan, a local mask centering on the target pixel 36 for magenta, and a local mask centering on the target pixel 36 for yellow. Each color mask forming section 31 forms a local mask 35 for each color using a plurality of line memories 37. The line memory 37 stores pixel density values based on at least the size of the document in the main scanning direction, specifically, the number of pixels in the main scanning direction. The line memory 37 is realized by, for example, a first-in first-out (FIFO) type memory (hereinafter, “first-in first-out memory” may be referred to as “FIFO type memory”). The FIFO type memory is a storage means configured to retrieve stored data in the order of storage and retrieve the most recently stored data last. In the present embodiment, one line memory 37 stores the density values of seven pixels. Each color mask forming unit 31 is based on 6 × 7 pixels whose density values are stored by the six line memories 37 and 7 pixels based on the C, M and Y signals from the color correction unit 14. , 7 × 7 local color masks 35 are formed. The density value of the pixel of each color local mask 35 is given to each color high density acquisition unit 32 and each color low density acquisition unit 33 described later.
[0052]
For example, it is assumed that the correction of the density value for the target pixel 36 of each color local mask 35 has been completed. From the line memory 37 that stores the density values of the pixels in the seventh row in each color local mask 35, the density value of the pixel stored in the oldest order is extracted. The density value of the pixel stored in the oldest order is taken out from the line memory 37 storing the density value of the pixel on the sixth row, and the density value of the pixel is stored in the line storing the density value of the pixel on the seventh row. It is stored in the memory 37. From the line memory 37 for storing the density values of the pixels in the fifth row, the density values of the pixels stored in the oldest order are taken out, and the density values of the pixels are stored in the line for storing the density values of the pixels in the sixth row. It is stored in the memory 37. For each line memory 37 in which the density values of the pixels in the second to fourth rows are stored, the density value of the pixel stored in the oldest order is taken out in the same procedure as described above, and the density value of the pixel stored in the sub-scanning direction is downstream. The density value of the pixel given by the line memory 37 that stores the density value of the pixel in the adjacent row is stored. By using the plurality of line memories 37 realized by the FIFO memories in this manner, new local masks 35 for each color are formed. Since the line memory 37 realized by the FIFO type memory is used, the processing can be performed in real time in the black gradation correction unit 30. This makes it possible to reduce the cost by reducing the storage capacity as much as possible and reduce the processing in the black gradation correction unit 30 as compared with the case of using a storage unit that stores the density values of all the pixels of the entire image. Processing speed can be improved.
[0053]
Assuming that the target pixel 36 of each color local mask 35 is (i, j), the input signal value of the target pixel 36 from the color correction unit 14, that is, the density value of the target pixel 36 for each of the cyan, magenta, and yellow colors is ( C (i, j), M (i, j), Y (i, j)). When the target pixel 36 is (i, j), each color local mask 35 can be represented by the following equation (11).
[0054]
(Equation 1)
Figure 2004193682
[0055]
In Equation (11), m represents the number of pixels in one of the main scanning direction and the sub-scanning direction, and n represents the number of pixels in one of the other of the main scanning direction and the sub-scanning direction. i represents the coordinates of the pixel of interest 36 in one of the main scanning direction and the sub-scanning direction, and j represents the coordinates of the pixel of interest 36 in the other of the main scanning direction and the sub-scanning direction.
[0056]
In performing the density value correction processing by the black gradation correction unit 30, the target pixel 36 of each color local mask 35 must satisfy at least the following conditional expression (12).
Seg (i, j) ∈achromatic character formation area (12)
[0057]
In the conditional expression (12), Seg (i, j) is a region separation result for the target pixel 36 given by the region separation processing unit 13. The black gradation correction unit 30 determines whether or not the pixel of interest 36 belongs to the achromatic character formation region based on the region identification signal from the region separation processing unit 13. When determining that the conditional expression (12) is satisfied, that is, that the target pixel 36 belongs to the achromatic character forming area, the black gradation correction unit 30 corrects the density value in pixel units.
[0058]
In the example of FIG. 1, each color mask forming unit 31 includes a cyan mask forming unit 31a having a plurality of line memories 37, a magenta mask forming unit 31b, and a yellow mask forming unit 31c, and includes cyan, magenta, and yellow. A local mask is formed for each color. Specifically, the cyan mask forming unit 31a forms a 7 × 7 local mask centered on the target pixel 36 for cyan based on the C signal from the color correction unit 14. The density value relating to cyan of each pixel of the local mask formed by the cyan mask forming unit 31a is given to a cyan high density acquisition unit 32a and a cyan low density acquisition unit 33a described later. The magenta mask forming unit 31b forms a 7 × 7 local mask centered on the target pixel 36 for magenta based on the M signal from the color correction unit 14. The density value related to magenta of each pixel of the local mask formed by the magenta mask forming unit 31b is given to a high density obtaining unit for magenta 32b and a low density obtaining unit for magenta 33b to be described later. The yellow mask forming unit 31c forms a 7 × 7 local mask centered on the target pixel 36 for yellow based on the Y signal from the color correction unit 14. The density value related to yellow of each pixel of the local mask formed by the yellow mask forming unit 31c is given to a yellow high density acquisition unit 32c and a yellow low density acquisition unit 33c described later.
[0059]
Each color high density acquisition unit 32, which is a maximum pixel value acquisition unit, acquires the maximum pixel value for a predetermined specific image area among the separated image areas. Specifically, for each color local block 35 including the target pixel 36 belonging to the achromatic character formation area, each color high density acquisition unit 32 sets the maximum density value, that is, the maximum density value for each of the colors cyan, magenta, and yellow. Get each. Each color local block 35 includes a local block for cyan, a local block for magenta, and a local block for yellow. Each color high density acquisition unit 32 represents the acquired maximum density value by a maximum density value vector which is a feature vector, and uses the value of the maximum density value vector. Each color low-density acquisition unit 33 as a minimum pixel value acquisition unit acquires a minimum pixel value for a specific image area. Specifically, for each color local block 35 including the pixel of interest 36 belonging to the achromatic character formation area, each color low density acquisition unit 33 sets the minimum density value, that is, the minimum density value for each color of cyan, magenta, and yellow. Get each. Each color low density acquisition unit 33 represents the acquired minimum density value by a minimum density value vector which is a feature vector, and uses the value of the minimum density value vector. For each color local mask 35 when the pixel of interest is (i, j), the maximum density value vector is represented by max_v (i, j) and the minimum density value vector is represented by min_v (i, j). The value vector is represented by Expression (13), and the minimum density value vector is represented by Expression (14) below.
[0060]
(Equation 2)
Figure 2004193682
[0061]
On the right side of Expressions (13) and (14), the maximum density value and the minimum density value for each of the cyan, magenta, and yellow colors are each divided by 255. By dividing by the maximum value of the input signal value to the black gradation correction unit 30, that is, by 255, a feature vector is obtained, that is, the maximum density value and the minimum density value for each of the cyan, magenta, and yellow colors are normalized. . As a result, the values for each of the colors cyan, magenta, and yellow handled by each color neural network 34, which will be described later, can be set to values within the range of 0 or more and 1 or less. Therefore, it is possible to reduce the amount of processing by the neural network 34 for each color.
[0062]
Each color high density acquisition unit 32 and each color low density acquisition unit 33 acquire the maximum density value and the minimum density value for each local mask for each color of cyan, magenta, and yellow. As a result, regarding the local block for each color, there is a possibility that the maximum density value and the minimum density value for each color of pixels at different positions are obtained. In this case, there is a possibility that a problem such as an inability to appropriately correct the density value may occur. When it is determined by the black gradation correction section 30 that no problem occurs, the maximum density value is acquired by each color high density acquisition section 32 and the minimum density value is acquired by each color low density acquisition section 33 as described above. When the black gradation correction unit 30 determines that a problem occurs, the maximum density value (for example, max (C) is obtained by the color high density acquisition unit 32 and the color low density acquisition unit 33 regardless of the colors of cyan, magenta, and yellow. (X, y) + M (x, y) + Y (x, y)) and a minimum density value (eg, min (C (x, y) + M (x, y) + Y (x, y))). A pixel is obtained, and the density value of the pixel is used as a maximum density value vector and a minimum density value vector. Specifically, each color high density acquisition unit 32 acquires, as the maximum density value, the density value of each color of the pixel in which the sum of the density values of cyan, magenta, and yellow is maximum, based on the local block for each color, Used for maximum density vector. Each color low-density acquisition unit 33 acquires, as a minimum density value, a density value of each color of a pixel in which the sum of the density values of cyan, magenta, and yellow is minimum, based on the local block for each color, and obtains a minimum density vector. Used.
[0063]
For ease of understanding, the above expression (13) representing the maximum density value vector is represented by expression (15), and expression (14) representing the minimum density value vector is represented by expression (16). Represent.
[0064]
[Equation 3]
Figure 2004193682
[0065]
Each value on the right side of Expression (15) is the maximum density value for each color of cyan, magenta, and yellow when the target pixel 36 is (i, j), the maximum value of the input signal value to the black gradation correction unit 30. Represents a value normalized by a value. The respective values on the right side of Expression (16) are the minimum density values for the cyan, magenta, and yellow colors when the target pixel 36 is (i, j), and the maximum density of the input signal value to the black gradation correction unit 30. Represents a value normalized by a value.
[0066]
In the example of FIG. 1, each color high-density acquisition unit 32 includes a cyan high-density acquisition unit 32a, a magenta high-density acquisition unit 32b, and a yellow high-density acquisition unit 32c. To get the maximum density value. Specifically, the high density acquisition unit for cyan 32a acquires the maximum density value for cyan based on the local mask for cyan formed by the mask formation unit for cyan 31a, and uses the maximum density value to obtain the maximum density value. Find the cyan value of the vector. The cyan value of the maximum density value vector is provided from the cyan high density acquisition unit 32a to a cyan neural network 34a described later. The high density acquisition unit for magenta 32b acquires a maximum density value for magenta based on a local mask for magenta formed by the mask formation unit for magenta 31b, and uses the maximum density value to obtain a maximum density value vector for magenta. Find the value. The value relating to magenta of the maximum density value vector is provided from the high density acquisition section 32b for magenta to a neural network 34b for magenta described later. The high density acquisition unit for yellow 32c acquires a maximum density value for yellow based on the local mask for yellow formed by the mask formation unit for yellow 31c, and uses the maximum density value to acquire a maximum density value vector for yellow. Find the value. The value relating to yellow in the maximum density value vector is provided from the yellow high density acquisition unit 32c to the yellow neural network 34c described later.
[0067]
In the example of FIG. 1, each color low density acquisition unit 33 is configured to include a cyan low density acquisition unit 33a, a magenta low density acquisition unit 33b, and a yellow low density acquisition unit 33c, and for each color of cyan, magenta, and yellow. To obtain the minimum density value. Specifically, the cyan low-density obtaining unit 33a obtains a minimum density value for cyan based on the local mask for cyan formed by the cyan mask forming unit 31a, and uses the minimum density value to obtain a minimum density value for cyan. Find the cyan value of the vector. The cyan value of the minimum value vector is provided from the cyan low density acquisition unit 33a to a cyan neural network 34a described later. The magenta low-density acquisition unit 33b acquires a minimum density value for magenta based on a local mask for magenta formed by the magenta mask forming unit 31b, and uses the minimum density value for magenta of a minimum density value vector. Find the value. The value relating to magenta of the minimum value vector is provided from the low density acquisition unit for magenta 33b to a neural network for magenta 34b to be described later. The low density acquisition unit for yellow 33c acquires a minimum density value for yellow based on the local mask for yellow formed by the mask formation unit for yellow 31c, and uses the minimum density value for yellow in the minimum density value vector. Find the value. The value of the minimum value vector relating to yellow is given from the yellow low density acquisition unit 33c to a later-described neural network for yellow 34c.
[0068]
Each color neural network 34 has correction information for correcting the pixel values of the pixels in the specific image area based on the obtained maximum pixel value and minimum pixel value, and the preset maximum target value and minimum target value. Is calculated, and the pixel value of the pixel in the specific image area is corrected based on the correction information. The maximum target value is a value used to correct the maximum pixel value. The minimum target value is a value used to correct the minimum pixel value. Specifically, each color neural network 34 includes a value for each color of the maximum density value vector and a value for each color of the minimum density value vector, and a maximum target value and a minimum target value preset for each of the colors cyan, magenta, and yellow. Is used to calculate the correction information. Each color neural network 34 corrects the density value of the pixel in the achromatic character forming area based on the calculated correction information. Based on the density values corrected by the respective color neural networks 34, the black density values in the achromatic character forming area are calculated by the black generation processing. Each color neural network 34 is configured to include each color storage unit 38, each color learning unit 39, and each color correction unit 40.
[0069]
FIG. 5 is a diagram for explaining a teacher manuscript 50 for setting teacher data. FIG. 6 is a diagram for explaining a teacher manuscript 50A for setting teacher data. Each color storage unit 38 stores a plurality of target values including a maximum target value and a minimum target value set in advance for each color of cyan, magenta, and yellow as teacher data. The teacher data is set based on the input characteristics of the image input device 2 as the image input unit. The input characteristics include image resolution performance. For example, when the specific image area is an achromatic character forming area in which characters are displayed in black, image input is performed based on the resolution of the original image by the image input device 2, specifically, the optical resolution of the scanner unit. It is possible to assume a maximum density value and a minimum density value for each of the colors cyan, magenta, and yellow that the device 2 should provide to the image processing device 3. Thus, at least the maximum target value and the minimum target value for each of the colors cyan, magenta, and yellow can be set in advance and stored in each color storage unit 38 as teacher data. Each of the color storage units 38 stores a plurality of target values including a maximum target value and a minimum target value set in advance for each color of cyan, magenta, and yellow using the teacher manuscripts 50 and 50A shown in FIGS. Stored as teacher data. Each color storage unit 38 is realized by various memories such as a read-only memory (abbreviated as ROM) and a random access memory (random access memory; abbreviated RAM) (hereinafter, “read-only memory” is referred to as “ROM”). "And" random access memory "may be described as" RAM "). The teacher data includes cyan teacher data including a maximum target value and a minimum target value for cyan, magenta teacher data including a maximum target value and a minimum target value for magenta, and yellow teacher data including a maximum target value and a minimum target value for yellow. Training data.
[0070]
When the specific image input device 2 is used, even if the original is a character represented by a uniform density regardless of the thickness, the resolution of the original image by the image input device 2, specifically, the scanner unit At the time of image formation, characters having different densities are formed depending on the thickness of the characters depending on the optical resolution. For example, thick characters on a document have a high density, and thin characters on a document have a low density because the signal representing the density value is distorted. In order to prevent such a problem, the image input device 2 reads the image of the teacher's manuscript 50 a plurality of times, and stores the teacher data in the respective color storage units 38. The reason for reading a plurality of times is to reduce the reading error by averaging the data. The teacher's manuscript 50 is a manuscript on which the teacher's character 51 is formed, and is a manuscript for defining the density of the teacher's character 51 and the density of the teacher's paper white 52. The teacher character 51 is a character that is represented at the same density regardless of the thickness and has the same density as the characters of the document. Further, the teacher character 51 has the highest density in the teacher document 50, and is determined based on the input characteristics of the image input device 2 in advance so that the highest density can be obtained when the image of the teacher document 50 is read. It is a character having a predetermined thickness and expressed in achromatic color. The teacher paper white 52 is the background of the paper white, specifically, the teacher document 50, and has the lowest density in the teacher document 50. In the present embodiment, the teacher character 51 is a black character represented in black, and the number of times the image input device 2 reads the image of the teacher document 50 is about ten times. By causing the image input device 2 to read the image of the teacher's manuscript 50 a plurality of times, the original density value in the high density portion of the teacher's character 51 and the original density value in the teacher's paper white 52 are compared. Can be set as data. A plurality of sample values are collected by causing the image input device 2 to read the image of the teacher's manuscript 50 a plurality of times, and a value obtained by averaging these sample values is used as teacher data. Thereby, the error of the teacher data can be reduced as much as possible. Teacher data may be set using a teacher document 50A shown in FIG. 6 in addition to the teacher document 50 shown in FIG. In the example of FIG. 6, a line pattern having a different length and thickness is formed on the teacher manuscript document 50A in addition to a plurality of numbers having different character sizes and thicknesses.
[0071]
The maximum target value and the minimum target value stored as teacher data by each color storage unit 38 are represented by, for example, the following Expressions (17) and (18).
[0072]
(Equation 4)
Figure 2004193682
[0073]
In Expression (17), the maximum density value for each of the cyan, magenta, and yellow colors obtained from the high density portion of the teacher character 51, which is a black character, in the teacher documents 50 and 50A is the maximum target value for each of the cyan, magenta, and yellow colors. It is stored as a value by each color storage unit 38. In Expression (18), the minimum density values of cyan, magenta, and yellow obtained from the paper white 52 in the teacher's manuscripts 50 and 50A are stored by the color storage units 38 as the minimum target values of cyan, magenta, and yellow. Is done. The maximum target value and the minimum target value for each color of cyan, magenta, and yellow are given as teacher data from each color storage unit 38 to each color learning unit 39. Table 1 shows the correspondence between the maximum density value and the minimum density value for each color of cyan, magenta, and yellow, which are input data supplied to each color learning unit 39, and the teacher data.
[0074]
[Table 1]
Figure 2004193682
[0075]
In Table 1, when the maximum density value for cyan is given as input data, the maximum target value for cyan is given as teacher data to each color learning unit 39, and when the minimum density value for cyan is given as input data, Is given as teacher data. Furthermore, in Table 1, when the maximum density value for magenta is given as input data, the maximum target value for magenta is given as teacher data, and the minimum density value for magenta is given as input data to each color learning section 39. A minimum target value for magenta is given as teacher data. Furthermore, in Table 1, when the maximum density value for yellow is given as input data, the maximum target value for yellow is given as teacher data, and the minimum density value for yellow is given as input data. The minimum target value for yellow is given as teacher data.
[0076]
In the example of FIG. 1, each color storage unit 38 includes a storage unit 38a for cyan, a storage unit 38b for magenta, and a storage unit 38c for yellow, and has a maximum target value and a minimum target value for each of cyan, magenta, and yellow. Is stored. More specifically, the cyan storage unit 38a stores the maximum target value and the minimum target value for cyan as cyan teacher data based on the teacher documents 50 and 50A. The cyan teacher data is provided from the cyan storage unit 38a to the cyan learning unit 39a. The magenta storage unit 38b stores the maximum target value and the minimum target value for magenta as magenta teacher data based on the teacher documents 50 and 50A. The magenta teacher data is provided from the magenta storage unit 38b to the magenta learning unit 39b. The yellow storage section 38c stores the maximum target value and the minimum target value for yellow as yellow teacher data based on the teacher documents 50 and 50A. The yellow teacher data is provided from the yellow storage unit 38c to the yellow learning unit 39c.
[0077]
FIG. 7 is a block diagram illustrating the neural network 55. Each color learning unit 39, which is an information calculation unit, calculates correction information for correcting the pixel value of the pixel in the specific image area based on the obtained maximum pixel value and the maximum target value. In the present embodiment, each color learning unit 39 determines the pixel of the achromatic character forming area based on the acquired maximum pixel value, the maximum target value, the acquired minimum pixel value, and the maximum target value. The correction information for correcting the density value is calculated. Specifically, each color learning unit 39 includes a maximum density value acquired by each color high density acquisition unit 32, a minimum density value acquired by each color low density acquisition unit 33, and teacher data given by each color storage unit 38. Is used to calculate the correction information. The correction information is cyan correction information for correcting the density value of the pixels in the achromatic character forming region with respect to cyan, and magenta correction information for correcting the density value of the pixels in the achromatic character forming region with respect to magenta. Correction information for correcting yellow density values of pixels in the achromatic character forming area with respect to yellow. Each color learning unit 39 includes a neural network 55.
[0078]
As shown in FIG. 7, the neural network 55 has a hierarchical structure composed of a plurality of layers, specifically, a plurality of layers called an input layer 56, an intermediate layer 57, and an output layer 58. Each of the input layer 56, the intermediate layer 57, and the output layer 58 has one or a plurality of neurons 59. The neuron 59 is characterized in that there is no connection between the neurons 59 in the same layer and there is a connection between the neurons 59 in different layers. In this way, the neural network 55 forms a network by connecting neurons 59 of different layers. A weight indicating the strength of the connection between the neurons 59 is set in advance between the connected neurons 59. The initial value of the weight is a small value using a random number. The initial values of the weights are not set by generating random numbers as needed, but are set in advance in a table with a plurality of candidates using random numbers, and are given using this table. As described above, the initial value of the weight is calculated using the random number prepared in advance without using the random number generated at any time in calculating the correction information. Therefore, the amount of calculation in each color learning unit 39 is reduced as much as possible. Thus, the configuration of each color learning unit 39 can be simplified. The neural network 55 updates the weight to an optimum weight by learning so that a specific pattern of stimulus, that is, a specific output is given for a particular input. In the present embodiment, the neural network 55 calculates the correction information, in other words, updates the weight, by learning according to the error back propagation (Error Back Propagation) method.
[0079]
In updating weights in the neural network 55, the neural network 55 learns according to the following first to fifth procedures and calculates correction information. First, the network is initialized. Specifically, the neural network 55 sets the initial value of the weight between the neurons 59 to be connected to a small value using random numbers. When the initialization of the network is completed, second, the neural network 55 gives the maximum density value vector and the minimum density value vector as input vectors to each neuron 59 of the input layer 56. The neural network 55 propagates the input vector in the forward propagation direction B1 in consideration of the set weight (hereinafter, the “forward propagation direction B1” may be referred to as the “forward direction B1”). The forward direction B1 is a direction from the input layer 56 to the output layer 58, and is a signal propagation direction. The backward direction B2 is a direction opposite to the forward direction B1, and is a direction in a calculation process for correcting an error component, in other words, updating a weight.
[0080]
Each neuron 59 weights a given value and gives an output value obtained when the weighted value is used as an input value in the sigmoid function to the neuron 59 in the downstream layer in the forward direction B1 to be connected. . The sigmoid function is a known function and a differentiable continuous function. When a plurality of neurons 59 in a layer upstream of the layer including the one neuron 59 in the forward direction B1 are connected to one neuron 59, the sum of weighted values from each neuron 59 is input. A sum is obtained, and an output value obtained when the input sum is set as an input value in the sigmoid function is given to the one neuron 59. The relationship between the input value and the output value in the sigmoid function is represented by Expression (19).
(Output value) = f (input sum) (19)
[0081]
An output value with respect to an input value in the sigmoid function is set in advance as a look-up table (Look Up Table; LUT).
[0082]
Third, when an input vector is given to each neuron 59 of the input layer 56, the neural network 55 gives teacher data to the output layer 58 as a teacher vector. The output layer 58 is provided with a teacher vector corresponding to the input vector. Specifically, when the maximum density value vector is given to the input layer 56, the maximum target value is given to the output layer 58 as a teacher vector, and when the minimum density value vector is given to the input layer 56, the minimum target value is given to the teacher. This is provided to the output layer 58 as a vector. Fourth, when the teacher vector is provided to the output layer 58, fourth, the neural network 55 removes the error between the value of the vector output from each neuron 59 of the output layer 58 and the value of the teacher vector with respect to the input vector. Then, the weight is updated by learning. The weight is updated according to the backpropagation method based on the value of the vector provided to the neuron 59 and the neuron output representing the vector output from the neuron 59. The weight after the update may be a value different from the weight before the update, or may be the same value as the weight before the update. The new weight is represented by equation (20).
(New weight) = (previous weight) + α × δ × (neuron output) (20)
[0083]
In the right side of the equation (20), the first term is the weight before updating, and the second term is the integration of a predetermined constant α (0 <α <1), a coefficient δ, and the value of the neuron output. Value. The coefficient δ is a value called a learning signal or the amount of backpropagation. When calculating a new weight using Expression (20), the weight of the neuron 59 of the input layer 56 and the weight of the neuron 59 of the intermediate layer 57 are updated. This value is set in accordance with one of the following cases: the weight of the neuron 59 of the intermediate layer 57 and the weight of the neuron 59 of the output layer 58 are updated. The neuron output represents the output value from the neuron 59 on the upstream side in the forward direction B1 of the two neurons 59 to be connected, and is the same as the value when passing the weight before updating. The above-mentioned coefficient δ is set using one of the equations (21) and (22).
Figure 2004193682
[0084]
When the weights of the neuron 59 of the intermediate layer 57 and the neuron 59 of the output layer 58 are updated, the coefficient δ is calculated using Expression (21). In the equation (21), the coefficient δ is a value obtained by integrating the output, the value obtained by subtracting the output from 1 and the value obtained by subtracting the neuron output from the teacher data. The output is an output value from the neuron 59 in the output layer 58. When updating the weights of the neuron 59 of the input layer 56 and the neuron 59 of the intermediate layer 57, the coefficient δ is calculated by using Expression (22). In the equation (22), the coefficient δ is a value obtained by integrating the output, the value obtained by subtracting the output from 1, and the weighted sum of the coefficient δ from the immediately succeeding layer. In Expressions (21) and (22), the output is an output value output from the output layer 58 with respect to the input to the input layer 56. The weighted sum of the coefficient δ from the immediately succeeding layer is given by the layer on the upstream side in the forward direction B1 and calculated based on the coefficient δ before being updated using the equation (22) and the weight. It is.
[0085]
Fifth, the neural network 55 determines whether to update the weight based on the amount of error reduction. When the neural network 55 determines that the amount of reduction in the error is equal to or less than the predetermined value, each color learning unit 39 ends the learning process using the neural network 55 and corrects the obtained updated weight by each color correction. To the part 40. The error reduction amount is, specifically, an error reduction amount between the output value of the neuron 59 of the output layer 58 obtained using the updated new weight and the teacher data. If it is determined by the neural network 55 that the amount of decrease in the error exceeds a predetermined value, the neural network 55 updates the weight according to the second to fourth procedures.
[0086]
In the example of FIG. 1, each color learning unit 39 includes a learning unit 39a for cyan, a learning unit 39b for magenta, and a learning unit 39c for yellow each having a neural network 55, and for each color of cyan, magenta, and yellow. Compute the correction information. Specifically, the learning unit for cyan 39a learns, based on the maximum density value, the minimum density value, the maximum target value, and the minimum target value for cyan, the weight set in advance according to the above-described first to fifth procedures by learning. Update. The weights learned and updated by the cyan learning section 39a are given to the cyan correction section 40a as cyan correction information. The magenta learning unit 39b updates weights set in advance according to the above-described first to fifth procedures based on the maximum density value, the minimum density value, the maximum target value, and the minimum target value for magenta. The weights learned and updated by the magenta learning section 39b are provided to the magenta correction section 40b as magenta correction information. The learning unit 39c for yellow updates the weight set in advance according to the above-described first to fifth procedures based on the maximum density value, the minimum density value, the maximum target value, and the minimum target value for yellow. The weights learned and updated by the yellow learning unit 39c are given to the yellow correction unit 40c as yellow correction information.
[0087]
Each color correction unit 40, which is a correction unit, corrects a pixel value of a pixel in the specific image area based on the correction information. Each color correction unit 40 includes a neural network 55 similarly to each color learning unit 39. Each color correction unit 40 calculates the density values of the pixels in the achromatic character forming area with respect to cyan, magenta, and yellow based on the correction information, specifically, the weight given by the learning process by the neural network 55 of each color learning unit 39. to correct. The density value of the pixel in the achromatic character forming area after the correction is a value obtained by feedforward calculation using the weight by each color correction unit 40, in other words, the forward direction B1 using the updated weight in the neural network 55. , Specifically, the output value from the output layer 58 obtained by the product-sum calculation. For the product-sum calculation, for example, a digital signal processor (abbreviated as DSP) is used.
[0088]
In the example of FIG. 1, each color correction unit 40 is configured to include a correction unit for cyan 40a, a correction unit for magenta 40b, and a correction unit for yellow 40c. The achromatic character forming area is provided for each color of cyan, magenta, and yellow. Is corrected. Specifically, the cyan correction unit 40a calculates the density value of the pixels of the corrected achromatic character forming area relating to cyan by feedforward calculation using the weight given by the cyan learning unit 39a. The magenta correction unit 40b calculates the density value of the pixel of the achromatic character forming area after correction with respect to magenta by feedforward calculation using the weight given by the magenta learning unit 39b. The yellow correction unit 40c calculates the density value of the pixel of the achromatic character forming area after correction with respect to yellow by feedforward calculation using the weight given by the yellow learning unit 39c. The black generation and under color removal unit 15 performs black generation processing and under color based on the density values of the pixels in the achromatic character formation area after correction by the cyan correction unit 40a, the magenta correction unit 40b, and the yellow correction unit 40c. Perform removal processing. The weight set in advance is updated by learning using the maximum density value and the minimum density value acquired in this way and the teacher data. Using the updated weight as the correction information, the density value of the pixel in the achromatic character forming area is corrected using the neural network 55. As a result, in the achromatic character forming area, in addition to the maximum density value and the minimum density value, the density value between the maximum density value and the minimum density value can be accurately corrected to the original density value.
[0089]
FIG. 8 is a flowchart illustrating a procedure of processing by the black gradation correction unit 30 and the black generation and under color removal unit 15. The image processing method according to the present embodiment includes a region separation step, a maximum pixel value acquisition step and a minimum pixel value acquisition step in step s3, an information calculation step in step s4, and a correction step in step s5. The image processing method according to the present embodiment further includes a step of performing black generation and under color removal processing in step s6. The region separation step is a step of separating and separating a plurality of image regions from the entire image by the region separation processing unit 13. In the maximum pixel value obtaining step, the maximum pixel value, that is, the maximum density value for each color of cyan, magenta, and yellow is determined for each of the predetermined specific image area, specifically, the achromatic character forming area, of the image areas to be separated. This is the step of acquiring by the high concentration acquiring unit 32. The minimum pixel value obtaining step is a step of obtaining the minimum pixel value, that is, the minimum density value for each color of cyan, magenta, and yellow by the low-density color acquisition section 33 for the specific image area, specifically, the achromatic character formation area. It is.
[0090]
The information calculation step is a step of calculating correction information for correcting the pixel value of the pixel in the specific image area based on the maximum density value, the minimum density value, the maximum target value, and the minimum target value. The maximum target value is a value set in advance for each color used for correcting the maximum density value for each of the colors cyan, magenta, and yellow. The minimum target value is a value set in advance for each color, which is used to correct the minimum density value for each color of cyan, magenta, and yellow. In the information calculation step, the correction information is calculated using the neural network 55. Specifically, the information calculation step is preset in the neural network 55 by each color learning unit 39 based on the maximum density value, the minimum density value, the maximum target value, and the minimum target value for each color of cyan, magenta, and yellow. This is a step of updating weights by learning. The correction step is a step of correcting the pixel values of the pixels in the specific image area based on the correction information. Specifically, the correction step is a step of correcting the density values of cyan, magenta, and yellow pixels of the achromatic character forming area based on the weights of the respective colors of cyan, magenta, and yellow given by the respective color learning units 39. . In FIG. 8, before starting the processing procedure in step s0, the processing in the region separation step has already been completed.
[0091]
In step s0, a processing procedure according to the image processing method of the present embodiment is started, and the process proceeds to step s1. In step s1, the black gradation correction unit 30 determines whether or not the pixel of interest 36 belongs to the achromatic character formation region based on the region identification signal from the region separation processing unit 15. In step s1, when the black gradation correction unit 30 determines that the pixel of interest 36 belongs to the achromatic character forming area, the process proceeds to step s2. When it is determined that the pixel of interest 36 does not belong to the achromatic character forming area, the process proceeds to step s7. Proceed to end all processing procedures.
[0092]
In step s2, each color mask forming unit 31 forms a 7 × 7 color local mask 35 centered on the target pixel 36. Specifically, the cyan mask forming section 31a forms a 7 × 7 local mask centered on the target pixel 36 for cyan, and the magenta mask forming section 31b forms a 7 × 7 local mask centered on the target pixel 36 for magenta. Seven local masks are formed, and the yellow mask forming unit 31c forms a 7 × 7 local mask centered on the target pixel 36 for yellow. When the local mask is formed for each of the colors cyan, magenta and yellow in step s2, the process proceeds to step s3.
[0093]
In the maximum pixel value acquisition step and the minimum pixel value acquisition step in step s3, each color high density acquisition section 32 acquires the maximum density value for each color local mask 35, and each color low density acquisition section 33 acquires the minimum density value for each color local mask 35. Get the density value. Specifically, the cyan high-density acquisition unit 32a acquires the maximum density value for cyan for the local mask for cyan, the magenta high-density acquisition unit 32b acquires the maximum density value for magenta for the local mask for magenta, The maximum density value for yellow is acquired for the local mask for yellow. The low density acquisition unit for cyan 33a acquires the minimum density value for cyan for the local mask for cyan, and the low density acquisition unit for magenta 33b acquires the minimum density value for magenta for the local mask for magenta. The acquisition unit 33c acquires the minimum density value for yellow with respect to the local mask for yellow. When the maximum density value and the minimum density value for each color of cyan, magenta, and yellow are obtained in step s3, the process proceeds to step s4.
[0094]
In the information calculation step of step s4, each color learning unit 39 is preset in the neural network 55 based on the maximum density value, the minimum density value, the maximum target value, and the minimum target value for each color of cyan, magenta, and yellow. Update weights by learning. When the weight is updated using the neural network 55 in step s4, the process proceeds to step s5.
[0095]
In the correction step of step s5, each color correction unit 40 calculates the density values of the pixels in the achromatic character forming area for cyan, magenta, and yellow based on the weights for each color of cyan, magenta, and yellow given by each color learning unit 39. to correct. With respect to the achromatic character forming area, the remaining density values for cyan, magenta, and yellow, excluding the maximum density value and the minimum density value, are corrected by feedforward calculation. When the density value of the pixel in the achromatic character forming area is corrected in step s5, the process proceeds to step s6. In step s6, the black generation and under color removal unit 15 performs black generation processing and under color removal processing based on the corrected density value. In step s6, when the density values of the pixels in the achromatic character forming area for cyan, magenta, and yellow are corrected, the process proceeds to step s7, and all the processing procedures are ended.
[0096]
FIG. 9 is a graph showing a relationship between the number of repetitions time and the error amount energy for cyan. FIG. 10 is a graph showing the relationship between the cyan input signal value and the cyan correction signal value when the number of repetitions time in FIG. 9 is 50,000. FIG. 11 is a graph showing the relationship between the number of repetitions time and the error amount energy for magenta. FIG. 12 is a graph showing the relationship between the magenta input signal value and the magenta correction signal value when the number of repetitions time in FIG. 11 is 50,000. FIG. 13 is a graph showing the relationship between the number of repetitions time and the error amount energy for yellow. FIG. 14 is a graph showing the relationship between the yellow input signal value and the yellow correction signal value when the number of repetitions time in FIG. 13 is 50,000. As an example of the correction process by the black gradation correction unit 30, a document on which the same image as the teacher document 50A shown in FIG. 6 is formed was used. Based on the result of reading the image formed on the document and the result of reading the teacher document 50A, the input data and the teacher data are represented as shown in Table 2.
[0097]
[Table 2]
Figure 2004193682
[0098]
In Table 2, sample numbers 1 to 5 are numbers assigned to regions surrounded by solid lines 63a to 63d and two-dot chain line 63e in FIG. In Table 2, for example, the minimum value signals for the C signal, the M signal, and the Y signal in sample numbers 1 to 5 indicate values obtained by normalizing the minimum density values for cyan, magenta, and yellow. The maximum signal for the C signal, the signal for the M signal, and the signal for the Y signal in sample numbers 1 to 5 indicate values obtained by normalizing the maximum density values for cyan, magenta, and yellow. The sample number 1 to 4, that is, the minimum value signal for the C signal, the M signal, and the Y signal and the maximum value signal for the C signal, the M signal, and the Y signal in the region surrounded by the solid lines 63a to 63d are input data. Used. The sample number 5, that is, the minimum value signal for the C signal, the M signal, and the Y signal and the maximum value signal for the C signal, the M signal, and the Y signal in the region surrounded by the two-dot chain line 63e are sample numbers 1 to 5. , And is used as teacher data.
[0099]
Using the obtained input data and teacher data, the weight in the neural network 55 was updated by learning. The upper limit of the number of repetitions, which is the number of times the weight is updated by learning, is 50,000. The initial value of the weight is given using the table as described above. The horizontal axis in FIG. 9 is the number of repetitions, and the unit is “times”. The vertical axis in FIG. 9 is the error amount energy for cyan. The error amount relating to cyan includes the output value of the neuron 59 of the output layer 58 when the density value of cyan of the pixel in the achromatic character forming region is applied to the neuron 59 of the input layer 56, and the maximum target value relating to cyan of the teacher data. Represents the error amount. The error amount “energy” for cyan is the largest value when the number of repetitions “time” is 0, and decreases as the number of repetitions “time” increases. The number of repetitions “time” exceeds approximately 2,500 and is 50,000. The value is 0 in the range of less than or equal to times. When the number of repetitions time is increased in this manner, the error amount energy for cyan can be reduced.
[0100]
The horizontal axis in FIG. 10 is the input signal value for cyan. The vertical axis in FIG. 10 is the correction signal value for cyan. The cyan input signal value represents the density value of the pixel in the achromatic character forming area, which is provided to the cyan correction unit 40a, with respect to cyan. The cyan correction signal value represents the density value of the pixel of the achromatic character forming area with respect to cyan after the cyan correction unit 40a corrects the cyan input signal value based on the weight. When the number of repetitions is 50,000, the graph showing the relationship between the cyan input signal value and the cyan correction signal value is a cyan conversion graph represented by a solid line 60a in FIG. The mark 61a represents a target value for cyan in the teacher data, and the graph represented by the two-dot chain line 62a represents an interpolation teacher graph which is a graph obtained by linearly interpolating the symbol 61a. The cyan conversion graph almost matches the waveform of the interpolation teacher graph represented by the two-dot chain line 62a. In this way, it is confirmed that the density value of the pixels in the achromatic character forming area for cyan is corrected to be the same as the target value for cyan of the teacher data, in other words, to be the original density value. it can.
[0101]
The horizontal axis in FIG. 11 is the number of repetitions, and the unit is “times”. The vertical axis in FIG. 11 is the error amount energy for magenta. The error amount relating to magenta is obtained by calculating the output value of the neuron 59 of the output layer 58 when the density value of the pixel in the achromatic character forming region relating to magenta is given to the neuron 59 of the input layer 56, and the maximum target value of the teacher data relating to magenta. Represents the error amount. The error amount energy for magenta is the largest value when the number of repetitions time is 0, and decreases as the number of repetitions time increases, so that the number of repetitions time exceeds approximately 2,500 times and is 50,000. The value is 0 in the range of less than or equal to times. When the number of repetitions time is increased in this way, the error amount energy for magenta can be reduced.
[0102]
The horizontal axis in FIG. 12 is the input signal value for magenta. The vertical axis in FIG. 12 is the magenta correction signal value. The magenta input signal value indicates the density value of the pixel in the achromatic character forming area relating to magenta, which is given to the magenta correction unit 40b. The magenta correction signal value indicates the density value of the pixel in the achromatic character forming area related to magenta after the magenta input signal value is corrected by the magenta correction unit 40b based on the weight. When the number of repetitions is 50,000, the graph showing the relationship between the magenta input signal value and the magenta correction signal value is a magenta conversion graph represented by a solid line 60b in FIG. The mark 61b represents a target value for the magenta of the teacher data, and the graph represented by the two-dot chain line 62b represents an interpolation teacher graph which is a linearly interpolated graph of the mark 61b. The magenta conversion graph almost matches the waveform of the interpolation teacher graph represented by the two-dot chain line 62b. In this way, it is confirmed that the density value of the pixel in the achromatic character forming area relating to magenta is corrected to be the same as the target value relating to magenta of the teacher data, in other words, to the original density value. it can.
[0103]
The horizontal axis in FIG. 13 is the number of repetitions, and the unit is “times”. The vertical axis in FIG. 13 is the error amount energy for yellow. The error amount relating to yellow includes the output value of the neuron 59 of the output layer 58 when the density value of the pixel in the achromatic character forming region relating to yellow is given to the neuron 59 of the input layer 56, and the maximum target value relating to yellow of the teacher data. Represents the error amount. The error amount energy for yellow is the largest value when the number of repetitions time is 0, and decreases as the number of repetitions time increases, so that the number of repetitions time exceeds about 2,000 times and is 50,000. The value is 0 in the range of less than or equal to times. When the number of repetitions time is increased in this manner, the error amount energy for yellow can be reduced.
[0104]
The horizontal axis in FIG. 14 is the input signal value for yellow. The vertical axis in FIG. 14 is the correction signal value for yellow. The input signal value for yellow represents the density value of the pixel in the achromatic character forming area with respect to yellow, which is provided to the correction unit 40c for yellow. The correction signal value for yellow represents the density value of the pixel in the achromatic character forming area relating to yellow after the correction unit 40c for yellow corrects the input signal value for yellow based on the weight. When the number of repetitions is 50,000, the graph representing the relationship between the input signal value for yellow and the correction signal value for yellow is a conversion graph for yellow represented by a solid line 60c in FIG. The mark 61c represents a target value for yellow in the teacher data, and the graph represented by the two-dot chain line 62c represents an interpolation teacher graph that is a graph obtained by linearly interpolating the mark 61c. The conversion graph for yellow almost matches the waveform of the interpolation teacher graph represented by the two-dot chain line 62c. As shown in FIGS. 10, 12, and 14, an optimum density value characteristic can be set based on a graph connecting the maximum target value and the minimum target value serving as teacher data. In this way, it is confirmed that the density value of the pixel in the achromatic character forming area with respect to yellow is corrected to be the same as the target value of the teacher data with respect to yellow, in other words, to be the original density value. it can. For example, in an unlearned range such as a range of the input signal value for cyan of 80 to 130 in FIG. 10, a smooth cyan conversion graph can be obtained by the generalization ability of the neural network 55. By using the obtained smooth conversion graph for cyan, the remaining density value excluding the maximum density value and the minimum density value, that is, the intermediate density value can be accurately corrected. As a result, the density value can be corrected for all image areas of the entire image including the achromatic character forming area.
[0105]
The signal value after the correction is given as an output value when the input signal value is used as an input value for a function representing a conversion graph, as shown in Expression (23).
[0106]
(Equation 5)
Figure 2004193682
[0107]
Equation (23) collectively describes a correction signal value, a function representing a conversion graph, and an input signal value for each of the colors cyan, magenta, and yellow for easy understanding. For example, the correction signal value for cyan is given as an output value when the input signal value for cyan is used as an input value for a function representing a conversion graph for cyan. The magenta correction signal value is provided as an output value when a magenta input signal value is set as an input value for a function representing a magenta conversion graph. The correction signal value for yellow is given as an output value when the input signal value for yellow is used as an input value for a function representing the conversion graph for yellow. Using one of the functions representing the conversion graphs for cyan, magenta, and yellow, it is possible to control the black generation amount representing the black density value. For example, when controlling the amount of black generation using a function representing a conversion graph for magenta, the function representing the input / output characteristics of the skeleton curve described above is replaced with a function representing the conversion graph for magenta. Thus, the amount of black generation can be controlled according to the thickness of the character. Therefore, black ink, which is a larger black color material, is added to thin characters than to thick characters, so that the density of thin characters can be increased and the density difference between thin and thick characters can be eliminated. Can be.
[0108]
FIG. 15 is a diagram for explaining the uncorrected image 64A. FIG. 16 is a diagram for explaining the corrected image 64B. FIG. 17 is a density histogram relating to the uncorrected image 64A. FIG. 18 is a density histogram for the corrected image 64B. FIG. 19 is a concentration section taken along a solid line 65A in FIG. FIG. 20 is a concentration cross section taken along a solid line 65B in FIG. The uncorrected image 64A and the corrected image 64B are both images formed based on the same document image, for example, the same document image as the teacher document 50A. The uncorrected image 64A is an image formed on a recording material without performing a correction process by the black gradation correction unit 30 after reading a document image. The corrected image 64B is an image formed on a recording material based on the processing result of the black gradation correction unit 30 after reading the original image. In the uncorrected image 64A, thick characters are darker and thinner characters are lighter in accordance with the character thickness, but in the corrected image 64B, characters having substantially uniform density are obtained regardless of the character thickness. Is formed.
[0109]
The density histogram of FIG. 17 shows the relationship between the density value and the frequency for the uncorrected image 64A, and the density histogram of FIG. 18 shows the relationship between the density value and the frequency for the corrected image 64B. The horizontal axis in FIGS. 17 and 18 is a density value, specifically, a density value for each color of cyan, magenta, and yellow. In FIGS. 17 and 18, these are collectively referred to as CMY density values. The vertical axis in FIGS. 17 and 18 is the frequency. In FIG. 17, the density histogram for cyan is represented by a dashed-dotted line 66a, the density histogram for magenta is represented by a solid line 66b, and the density histogram for yellow is represented by a dashed line 66c. The density histogram for each color of cyan, magenta, and yellow in FIG. 17 has one peak at a location where the CMY density value is substantially small (corresponding to a white background area). Further, the density histograms for the cyan, magenta, and yellow colors in FIG. 17 have similar waveforms to each other, and have substantially the same frequency for the same CMY density value. In FIG. 18, the density histogram for cyan is represented by a dashed-dotted line 67a, the density histogram for magenta is represented by a solid line 67b, and the density histogram for yellow is represented by a dashed line 67c. The density histogram for each of the cyan, magenta, and yellow colors in FIG. 18 generally has two peaks at a portion where the CMY density value is small (white background) and a portion where the CMY density value is large (inside the character). Further, the density histograms for the cyan, magenta, and yellow colors in FIG. 18 have mutually similar waveforms, and have almost the same frequency for the same CMY density value. According to FIG. 17 and FIG. 18, at a place where the CMY density value is large, specifically, at a place where the CMY density value is about 180, as shown by an arrow 68, compared to the frequency in the density histogram regarding the uncorrected image 64A , The frequency in the density histogram for the corrected image 64B is higher. This is because the density of a thin character such as “8.0” in FIG. 16 has a density characteristic similar to that of a thick character such as “2.8” in FIG. This is because the number of pixels has increased.
[0110]
The density cross section of FIG. 19 shows the relationship between the position of the density cross section and the density value for the image 64A without correction, and the graph showing the density cross section of FIG. 20 shows the position of the density cross section and the density value for the corrected image 64B. Shows the relationship. A solid line 65A in FIG. 15 and a solid line 65B in FIG. The solid lines 65A and 65B are arranged at the same position in the document image, and cross thin characters, specifically, five vertical lines and the number “6.3” which are arranged in parallel at a distance from each other. The horizontal axis in FIGS. 19 and 20 is a value representing the position of the concentration section. The ordinates in FIGS. 19 and 20 are density values, specifically, density values for each color of cyan, magenta, and yellow. In FIGS. 19 and 20, these are collectively described as CMY density values. . The position of the concentration section is the size of the solid line 65A and the solid line 65B. For example, in FIG. 19 and FIG. 20, the position of the concentration cross section is such that one end of the solid line 65A and the solid line 65B is set to the lower limit “0”, and the other end is set to the upper limit “90”. . In FIG. 19, the density section for cyan is indicated by a dashed-dotted line 69a, the density section for magenta is indicated by a solid line 69b, and the density section for yellow is indicated by a dashed line 69c. The density cross sections for cyan, magenta, and yellow colors in FIG. 19 have similar waveforms to each other, and have substantially the same CMY density values at the same density cross section position. In FIG. 20, the density section for cyan is indicated by a dashed-dotted line 70a, the density section for magenta is indicated by a solid line 70b, and the density section for yellow is indicated by a dashed line 70c. The density cross sections for the cyan, magenta, and yellow colors in FIG. 20 have similar waveforms to each other, and have substantially the same CMY density value at the same density cross section position.
[0111]
The density cross section for the uncorrected image 64A in FIG. 19 and the density cross section for the corrected image 64B in FIG. 20 are in a range including five vertical lines and a base in the vicinity thereof, in other words, the position of the density cross section is approximately 10 to 25. In the following range, the graph is substantially a triangular waveform, and the vertical line has a larger CMY density value than the background, so that the CMY density value changes alternately as the position of the density cross section increases. In the density section of the uncorrected image 64A, the CMY density value at the center vertical line among the five vertical lines is changed according to the resolution performance of the image input device 2, specifically, the optical resolution of the scanner unit. Is smaller than the CMY density values of the numbers “6.3”, and the CMY density values are not uniform. Since the portion where the density cross section is created is a character that is sufficiently thin compared to, for example, the numeral “2.8” in FIG. 15 and a vertical line in the vicinity thereof, as described above, the thickness of the character is not changed in the uncorrected image 64A. Depending on the density, unevenness occurs.
[0112]
In the density section of the corrected image 64B, the CMY density values of the five vertical lines and the number “6.3” are almost the same. Further, in the density cross section of the corrected image 64B, even for thin characters, the density difference between the high density and the low density, in other words, the difference between the CMY density value in the vertical line and the number and the density value in the background is widened. As described above, the density values of the pixels in the achromatic character forming area relating to cyan, magenta, and yellow are corrected, so that the density of the vertical line and the density of the numbers are almost the same as in the corrected image 64B and before the correction. Are formed so as to be higher than the density of the character, and the density of the background between the complicated characters such as between vertical lines is lower than the density of the background before correction. Thus, the original image can be accurately reproduced, and the contrast of the achromatic character forming area can be accurately reproduced.
[0113]
Since the image processing apparatus 3 is configured as described above, even when the reading density is reduced and a reading error occurs due to, for example, insufficient resolution of the image input apparatus 2, the maximum density value of the local mask and the By using the minimum density value and the teacher data based on the input characteristics of the image input device 2, a reading error can be corrected and eliminated. In the above-described image forming apparatus 1, the density values of the pixels in the achromatic character forming area may be corrected using correction information obtained every time the entire image is provided to the image processing apparatus 3, or may be corrected during pre-scanning. The correction may be performed using the obtained correction information.
[0114]
According to the present embodiment, an entire image including pixels having pixel values related to a plurality of colors is provided by the image input device 2. A plurality of image regions are identified and separated from the entire image by the region separation processing unit 13. Among the separated image regions, the maximum pixel value of each achromatic character formation region, which is a predetermined specific image region, is acquired by each color high density acquisition unit 32 as maximum pixel value acquisition means. Correction information is calculated by each color learning section 39 as information calculation means based on a maximum density value which is a maximum pixel value to be obtained and a preset maximum target value for correcting the maximum density value. . The correction information is information for correcting the density values of the pixels in the achromatic character forming area, and is calculated for each of the colors cyan, magenta, and yellow. Based on the calculated correction information, the density values of the pixels in the achromatic character forming area are corrected by the respective color correction units 40 as correction means. By using the correction information, it is possible to correct a reading error generated when reading an original image so that the maximum density value in the achromatic character forming area becomes the original density value, and eliminate the reading error. Therefore, the density values of the pixels in the achromatic character forming area can be accurately corrected so that the original density values are obtained. Thus, for example, a reading error generated when reading an image formed on a document can be corrected, and the reading error can be eliminated. Therefore, the pixel values of the pixels in the specific image area can be corrected with high accuracy so that the original pixel values are obtained.
[0115]
Further, according to the present embodiment, with respect to the achromatic character forming area which is the specific image area, the minimum density value which is the minimum pixel value is obtained by each color low density obtaining unit 33 which is the minimum pixel value obtaining means. A minimum density value acquired by each color low density acquisition unit 33, a preset minimum target value for correcting the minimum density value, a maximum density value, and a preset maximum value for correcting the maximum density value. Correction information is calculated by each color learning unit 39 based on the target value. As described above, the correction information is calculated in consideration of the minimum density value and the minimum target value in addition to the maximum density value and the maximum target value. This makes it possible to correct a reading error caused when reading an image in the achromatic character forming area so that the maximum density value and the minimum density value become the original density values. Therefore, the density value of the pixel in the achromatic character forming area can be accurately corrected, and the contrast of the achromatic character forming area in the document image can be accurately reproduced.
[0116]
Further, according to the present embodiment, each color learning section 39 as the information calculation means is configured to include a neural network 55. For example, when the correction information is calculated using a spline function, it is necessary to calculate the correction information using a higher-order function. Therefore, the calculation becomes complicated, and in order to realize a calculation means for performing the calculation. costly. Since each color learning unit 39 includes the neural network 55, the correction information can be easily and accurately calculated by repeating a simple multiply-accumulate operation. As a result, accurate correction information can be easily obtained, and the cost required to realize each color learning unit 39 can be reduced as much as possible.
[0117]
Further, according to the present embodiment, since the maximum target value is set based on the input characteristics of the image input device 2, it is possible to accurately calculate the correction information according to the image input device 2. For example, when the specific image region is a character forming region, the characters in the character region have the same density regardless of the thickness of the character and are maximum in the character region, and the base region has the same density. Is the minimum. When a character of an original image is read, it can be assumed that the density value of the pixel corresponding to the character is maximized in the character area and is minimized in the pixel corresponding to the background. Thereby, the maximum target value and the minimum target value which are the pixel values to be given by the image input device 2 can be set in advance. When the target value for correcting the density value of the pixel in the specific image area is known, the image in the image area including the pixel having the target value is read by the image input device 2 and the target The value can be set in advance. As a result, the correction information can be accurately calculated.
[0118]
Further, according to the present embodiment, since the image forming apparatus 1 includes the above-described image processing apparatus 3, the original density value of the pixel in the achromatic character formation area, which is the specific image area, originally has the density value. The value can be corrected with high accuracy. As a result, it is possible to realize the image forming apparatus 2 that can accurately reproduce the density of the characters formed on the original image.
[0119]
Further, according to the present embodiment, a plurality of image areas are identified and separated in the area separation step from the entire image provided by the image input device 2. The maximum density value is obtained in the maximum pixel value obtaining step with respect to the achromatic character forming area, which is a predetermined specific image area, of the image areas separated in the area separating step. Correction information is calculated in an information calculation step based on the obtained maximum density value and maximum target value. The correction information is information for correcting the density value of the pixel in the achromatic character forming area. Based on the calculated correction information, the density values of the pixels in the achromatic character forming area are corrected in a correction step. By using the correction information, it is possible to correct a reading error generated when reading a document image so that the maximum density value in the achromatic character forming area becomes the original density value originally possessed. As a result, the density value of the pixel in the achromatic character forming area can be accurately corrected so that the reading error is eliminated and the original density value is obtained.
[0120]
Further, according to the present embodiment, the minimum density value is obtained in the minimum pixel value obtaining step for the achromatic character forming area. Correction information is calculated in the information calculation step based on the minimum density value and the maximum density value obtained in the minimum pixel value obtaining step, and the minimum target value and the maximum target value. As described above, the correction information is calculated in consideration of the minimum density value and the minimum target value in addition to the maximum density value and the maximum target value. This makes it possible to correct a reading error caused when reading a document image so that the maximum density value and the minimum density value become the original density values, respectively. Therefore, the density value of the pixel in the achromatic character forming area can be accurately corrected, and the contrast of the specific image area in the entire image can be accurately reproduced.
[0121]
Further, according to the present embodiment, in the information calculation step, correction information is calculated using the neural network 55. For example, when the correction information is calculated using a spline function, it is necessary to calculate the correction information using a higher-order function. Therefore, the calculation becomes complicated, and in order to realize a calculation means for performing the calculation. costly. Since the neural network 55 is used in the information calculation step, the correction information can be easily and accurately calculated by repeating a simple product-sum operation. As a result, accurate correction information can be easily obtained, and the cost required to realize the processing in the information calculation step can be reduced as much as possible.
[0122]
Further, according to the present embodiment, since the maximum target value is set based on the input characteristics of the image input device 2, it is possible to accurately calculate the correction information corresponding to the image input device 2 in the information calculation step. it can. For example, when the specific image region is a character forming region, the characters in the character region are represented by pixels having a uniform density regardless of the thickness of the character and having the maximum density value. As a result, the maximum target value, which is the original density value originally possessed, can be known in advance. As described above, when the maximum target value is known, the image including the pixel having the maximum target value is read by the image input device 2 so that the maximum target value can be set in advance. Thus, the correction information can be accurately calculated in the information calculation step.
[0123]
In the present embodiment, the black generation and under color removal unit 15 includes the black gradation correction unit 30, but the black gradation under correction unit 30 is provided separately from the black generation and under color removal unit 15. In this case, the image processing device 3 is configured so that the black gradation correction unit 30 performs the processing before the black generation and under color removal unit 15.
[0124]
FIG. 21 is a block diagram illustrating a configuration of a black gradation correction unit 30A included in an image processing device 3A of an image forming device 1A according to another embodiment of the present invention. The image forming apparatus 1A of the present embodiment is similar to the image forming apparatus 1 of the embodiment shown in FIGS. 1 to 20 described above, and the same components are denoted by the same reference numerals, and the same description will be given. Is omitted. In the present embodiment, instead of performing correction based on correction information calculated every time the entire image is provided, a density value corrected based on correction information obtained from a sample image of an achromatic character forming area is previously determined. A look-up table in which the values are obtained and associated with the maximum density value and the minimum density value is provided in advance. The sample image of the achromatic character forming area described above is, for example, an image in the teacher's manuscripts 50 and 50A shown in FIGS.
[0125]
Providing the look-up table in advance in this way is effective when input characteristics such as the resolution performance of the image input device 2 are constant or known. In the present embodiment, the look-up table can correspond to input 8 bits (8 bits) and output 8 bits (8 bits) for each color of cyan, magenta, and yellow.
[0126]
Specifically, using the image input device 2 whose input characteristics are constant or known, a function representing a conversion graph for each of the colors cyan, magenta, and yellow is obtained from a sample image of the achromatic character forming area by, for example, simulation. The density value of the pixel of the sample image corrected based on the function is obtained in advance. The corrected density values of the pixels of the sample image and the maximum density value and the minimum density value in the sample image are stored in the respective color storage units 71 as lookup tables in association with each other.
[0127]
The cyan storage unit 71a of each color storage unit 71 stores a lookup table in which the corrected density value for cyan obtained based on the sample image is associated with the maximum density value and the minimum density value for cyan. The magenta storage unit 71b stores a lookup table in which the corrected density value of magenta obtained based on the sample image is associated with the maximum density value and the minimum density value of magenta. The storage unit for yellow 71c stores a lookup table in which the obtained corrected density value for yellow and the maximum density value and the minimum density value for yellow are associated with each other.
[0128]
Among the density values of the pixels in the achromatic character forming area in the entire image from the image input device 2, the maximum density value is acquired by each color high density acquisition unit 32 and is given to each color correction unit 72. Specifically, among the density values of the pixels in the achromatic character forming area, the maximum density value for cyan is given to the correction unit for cyan 72a, the maximum density value for magenta is given to the correction unit 72b for magenta, and the maximum value for yellow is given. The density value is provided to the yellow correction unit 72c. The minimum density value among the density values of the pixels in the achromatic character forming region in the entire image from the image input device 2 is acquired by the low density acquisition unit 33 for each color, and is provided to each color correction unit 72. Specifically, among the density values of the pixels in the achromatic character forming area, the minimum density value for cyan is given to the correction section 72a for cyan, and the minimum density value for magenta is given to the correction section 72b for magenta. Is provided to the yellow correction unit 72c.
[0129]
Based on the obtained maximum density value and minimum density value, each color correction unit 72 reads a corrected density value associated with the maximum density value and the minimum density value in the corresponding sample image from the lookup table, The correction is performed by replacing the density value of the pixel in the achromatic character forming area with the stored density value after correction. Specifically, based on the acquired cyan maximum density value and cyan minimum density value, the cyan correction unit 72a performs correction associated with the cyan maximum density value and the cyan minimum density value of the sample image corresponding thereto, respectively. The subsequent density value for cyan is read from the lookup table stored in the cyan storage unit 71a. Further, the correction unit 72a for cyan corrects the pixel in the achromatic character forming area by replacing the density value related to cyan with the read density value related to cyan after the correction. The magenta correcting unit 72b calculates the corrected magenta density value associated with the magenta maximum density value and the minimum density value of the sample image corresponding to the acquired magenta maximum density value and magenta minimum density value, respectively. The data is read from the lookup table stored in the storage unit 71b. Further, the magenta correction unit 72b corrects the pixel in the achromatic character forming area by replacing the magenta density value with the read magenta density value after correction. The correction unit for yellow 72c converts the corrected density value of yellow associated with the maximum density value and minimum density value of yellow of the sample image corresponding to the acquired maximum density value for yellow and minimum density value for yellow into yellow, respectively. From the look-up table stored in the storage unit 71c. Further, the correction unit for yellow 72c corrects the pixel in the achromatic character forming area by replacing the density value related to yellow with the read density value related to yellow after the correction. The processing in the black gradation correction unit 30A is performed when each pixel of the entire image is set as a target pixel and the pixel set as the target pixel belongs to the achromatic character forming area. The black generation and under color removal unit 15A performs the black generation and under color removal processing based on the density values of the pixels in the achromatic character forming area corrected by the black gradation correction unit 30A in this manner.
[0130]
By storing the density values of the pixels corrected using the sample image as described above as a look-up table, the correction value is calculated as compared with the case where the correction information is calculated and calculated every time the entire image is given. The processing speed can be improved without lowering the processing speed. As a result, it is possible to realize the image processing apparatus 3A that can perform the high-speed correction processing and can correct the above-described effect, that is, the density value of the pixel in the achromatic character formation area with high accuracy.
[0131]
Also, since gamma correction is performed to correct the density value using a uniform correction curve for the entire image, the gap amount is reduced compared to when the amount of black generation is controlled for each area, and the original image is smoothed. Can be reproduced.
[0132]
FIG. 22 is a flowchart illustrating a procedure of processing by the black gradation correction unit 30A and the black generation and under color removal unit 15A. The image processing method according to the present embodiment includes an information storage step, an area separation step, and a correction step. In the information storing step, the maximum density value of the sample image in the achromatic character forming area and the density value of the pixel of the sample image corrected by the correction information calculated based on the maximum target value are stored by each color storage unit 71. Is done. The calculated correction information is a function representing a conversion graph for each color of cyan, magenta, and yellow. A look-up table in which the density values of the pixels of the sample image corrected by the function representing the conversion graph for each color are associated with the maximum density value and the minimum density value is stored in each color storage unit 71. In the correction step of step a4, the color correction unit 72 corrects the density values of the pixels in the achromatic character forming area in the entire image based on the density values of the pixels of the corrected sample image stored in the color storage units 71. Is done. In the present embodiment, before the processing procedure based on the image processing method is started in step a0, the processing in the information storage step and the area separation step has already been performed. Further, the image processing method of the present embodiment further includes a step of performing a black generation and under color removal process in step a5.
[0133]
In step a0, a processing procedure according to the image processing method of the present embodiment is started, and the process proceeds to step a1. In step a1, the black gradation correction unit 30A performs the same processing as step s1 in FIG. If it is determined in step a1 that the pixel of interest 36 belongs to the achromatic character area, the process proceeds to step a2. If it is determined that the pixel of interest 36 does not belong to the achromatic character region, the process proceeds to step a6 to end all the processing procedures. I do. In step a2, the process is performed in the same manner as in step s2 of FIG. 8, and the process proceeds to step a3.
[0134]
In the maximum pixel value acquisition step and the minimum pixel value acquisition step in step a3, each color high density acquisition section 32 determines the maximum density of each of the cyan, magenta, and yellow colors of the pixels belonging to the achromatic character forming area, which is a predetermined specific image area. The values are acquired, and each color low-density acquisition unit 33 acquires the minimum density value for each of the cyan, magenta, and yellow colors of the pixels belonging to the achromatic character forming area. When the maximum density value and the minimum density value are obtained in step a3, the process proceeds to step a4.
[0135]
In step a4, each color correction unit 72 reads the density value from the look-up table. Specifically, each of the color correction units 72 corrects the maximum density value and the minimum density value of the pixel of the sample image corresponding to the maximum density value and the minimum density value of the pixel of the achromatic character forming area in the entire image, respectively. The density value is read from the look-up table. Further, the correction is performed by replacing the density values of the pixels in the achromatic character forming area in the entire image with the read density values after the correction. When the density values of the pixels in the achromatic character forming area are corrected based on the look-up table in step a4, the process proceeds to step a5. In step a5, as in step s6 of FIG. 8, the black generation and under color removal unit 15A performs black generation and under color removal processing, and proceeds to step a6 to end all the processing procedures. In step a5, when the density values of the pixels in the achromatic character forming area for cyan, magenta, and yellow are corrected, the process proceeds to step a6, and all the processing procedures are ended.
[0136]
According to the present embodiment, based on the maximum density value of the sample image of the achromatic character forming area, which is a predetermined specific image area, and the preset maximum target value for correcting the maximum pixel value The density values of the pixels of the sample image corrected by the calculated correction information are stored in the respective color storage units 71. Each color correction unit 72 converts the density value of the pixel of the achromatic character forming area identified and separated from the entire image by the area separation processing unit 13 into the density value of the pixel of the corrected sample image stored in each color storage unit 71. Correct based on Thus, for example, when the input characteristics of the image input device 2 are constant or known, each time the image input device 2 gives the entire image, the correction information is not calculated, and the pixels of the sample image in the achromatic character forming area are not calculated. The correction information is estimated based on the density values of the sample image, and the density values of the pixels of the sample image corrected based on the correction information can be stored in advance. Based on the density values of the pixels of the corrected sample image stored in advance in this way, the density values of the pixels in the achromatic character forming area that have been identified and separated from the entire image in the area separation step can be accurately corrected. . Thus, the processing amount of the image processing apparatus 1A, specifically, the processing by the black gradation correction unit 30A can be reduced as much as possible, and the processing speed can be improved.
[0137]
Further, according to the present embodiment, in the information storage step, the maximum density value of the sample image in the achromatic character forming area and the preset maximum target value for correcting the maximum density value are set. The density values of the pixels of the sample image corrected by the calculated correction information are stored in the respective color storage units 71. In the correction step, the density values of the pixels in the specific image area that have been identified and separated from the entire image in the area separation step are corrected based on the density values of the pixels of the corrected sample image stored in each color storage unit 71. Accordingly, when the input characteristics of the image input device 2 are constant or known, the correction is performed using the sample image of the achromatic character forming area without calculating the correction information every time the image input device 2 gives the entire image. Information can be estimated, and the density values of the pixels of the sample image corrected based on the correction information can be stored in advance. Based on the density values of the pixels of the corrected sample image stored in advance in this way, the density values of the pixels in the achromatic character formation region that have been identified and separated can be accurately corrected. Thus, the processing amount of the image processing apparatus 1A, specifically, the processing by the black gradation correction unit 30A can be reduced as much as possible, and the processing speed can be improved.
[0138]
In the present embodiment, the black generation and under color removal unit 15A has a configuration including the black gradation correction unit 30A, but the black generation and correction unit 30A is provided with the black generation and under color removal unit 15A separately. In this case, the image processing device 3A is configured so that the black gradation correction unit 30A performs processing before the black generation and under color removal unit 15A. Further, a configuration may be employed in which correction information for a plurality of types of image input devices 2 having different characteristics such as resolution performance is stored, respectively, and the plurality of types of image input devices 2 can be supported.
[0139]
In each embodiment of the present invention, the local mask in the region separation processing unit 13 may be formed using the line memory 37. In the line memory 37, the number of pixels in which density values are stored is not limited based on the size of each color local mask 35, but may be changed depending on the number of FIFO memories or a storage means such as a hard disk. The configuration may be such that the density value is stored in cooperation with. As a result, the number of pixels included in each color local mask 35 can be easily changed, and the determination processing of the image area and the correction processing of the density value of the pixels in the specific image area can be accurately performed. To calculate the correction information, instead of using the maximum density value and the minimum density value for each color of cyan, magenta and yellow for each color local mask 35, for example, the density values of each pixel of each color local mask 35 are arranged in ascending or descending order. A configuration may be used in which the density value of the upper predetermined pixel and the density value of the lower predetermined pixel are arranged.
[0140]
FIG. 23 is a diagram showing a configuration of a computer system 75 according to still another embodiment of the present invention. The present embodiment is configured to record a program 84 on a computer-readable recording medium 83 using a program for causing a computer to execute the image processing method of the present invention. Thereby, the recording medium 83 storing the program 84 for executing the image processing method of the present invention can be carried. The computer system 75 includes a computer 76, an image display device 78, an image input device 79, a printer 80 as an image output device, a keyboard 81 and a mouse 82 as input devices. The computer 76 includes a ROM 77 which is a recording medium separable from the computer 76.
[0141]
In the computer system 75, the program is recorded in the ROM 77. The image processing method of the present invention is performed by the computer 76 reading and executing the above-described program from the ROM 77. Also, by inserting the recording medium 83 on which the program 84 is recorded into a program reading device, which is an external storage device (not shown), the program 84 is read from the recording medium 83 and the computer 76 executes the program 84. Good.
[0142]
The image display device 78 is a device that displays a processing result by the computer 76, and uses, for example, a CRT (cathode ray tube display; abbreviated as CRT) display and a liquid crystal display. The image input device 79 is a device for reading an image formed on a document, and includes, for example, a flatbed scanner, a film scanner, and a digital camera. The printer 80 forms the processing result of the computer 76 as an image on a recording material. Further, the computer system 75 may be provided with a modem, which is a communication means for connecting to the server via, for example, a communication network.
[0143]
The program 84 may be configured to be executed by the computer 76 by being read from the recording medium 83 by the microprocessor, or the read program 84 may be temporarily transferred to a program storage area provided in the computer 76. The configuration may be executed afterwards.
[0144]
The recording medium 83 may be configured to be separable from the computer 76, and may be a medium on which the program 84 is fixedly recorded by a magnetic tape and a cassette tape. Other examples of the recording medium 83 include a flexible disk and a hard disk in the case of a magnetic disk, and a compact disk-read only memory (abbreviated CD-ROM) in the case of an optical disk, and a magnetic optical disk. (Magneto Optical; abbreviated MO), mini disk (Mini Disk; abbreviated MD), digital versatile disk (
Digital Versatile Disk (abbreviation DVD) may be used as the recording medium 83.
[0145]
In addition, a mask ROM which is a semiconductor memory, an EPROM (Erasable Programmable Read Only Memory; abbreviated as EPROM), an EPROM (Electrically Erasable Programmable Read Only Memory; abbreviated as EEPROM, and a flash memory which is an abbreviation of ROM, and a flash memory that can be used as a flash memory) are available. You can also.
[0146]
The computer system 75 may be configured to be connectable to a communication network including the Internet, and a recording medium that fluidly records the program 84 so as to transfer and record the program 84 to the ROM 77 via the communication network. 83 may be used. When the program 84 is downloaded via the communication network as described above, the download program for transferring the program 84, that is, the download program, is recorded in the computer system 75 in advance, or the computer system 75 is downloaded from another recording medium 83. 75, that is, installed.
[0147]
According to the present embodiment, the image processing method for correcting the density value of the pixel in the achromatic character forming area, which is the specific image area, based on the correction information is represented by the program 84, so that the computer can perform the above-described image processing method. Can be executed. By causing the computer 76 to execute the processing according to the image processing method, it is possible to accurately reproduce the image represented by the specific image area in the document.
[0148]
Further, according to the present embodiment, a computer-readable recording program 84 for causing a computer 76 to execute an image processing method for correcting the density value of a pixel in an achromatic character forming area based on correction information. It is recorded on the medium 83. For example, by recording the program 84 on a portable recording medium 83 such as a flexible disk, the program 84 can be read from the recording medium 83 to a desired computer 76, and the program 84 can be read from the recording medium 83 to the computer 76. The program 84 can be read and the computer 76 can be executed.
[0149]
【The invention's effect】
According to the present invention, an entire image including pixels having pixel values related to a plurality of colors is provided by the image input unit. From the whole image, a plurality of image areas are identified and separated by the area separating means. The maximum pixel value is obtained by the maximum pixel value obtaining means for a predetermined specific image region among the separated image regions. Correction information is calculated by the information calculation means based on the obtained maximum pixel value and a preset maximum target value for correcting the maximum pixel value. The correction information is information for correcting a pixel value of a pixel in a specific image area. Based on the calculated correction information, the correction unit corrects the pixel value of the pixel in the specific image area. By using the correction information, the pixel values of the pixels in the specific image area can be corrected so that the maximum pixel value in the specific image area becomes the original pixel value. As a result, for example, a reading error generated when reading an image formed on a document can be corrected, and the reading error can be eliminated. Therefore, the pixel values of the pixels in the specific image area can be accurately corrected so that the pixel values should be given by the image input means.
[0150]
Further, according to the present invention, a minimum pixel value of the specific image area is obtained by a minimum pixel value obtaining unit. A minimum pixel value acquired by a minimum pixel value acquisition unit, a preset minimum target value for correcting the minimum pixel value, a maximum pixel value, and a value for correcting the maximum pixel value. The correction information is calculated by the information calculation means based on the preset maximum target value. As described above, the correction information is calculated in consideration of the minimum pixel value and the minimum target value in addition to the maximum pixel value and the maximum target value. This makes it possible to correct a reading error generated when reading a specific image area in the entire image so that the maximum and minimum pixel values become the original pixel values. Therefore, it is possible to accurately reproduce the contrast of the specific image area in the entire image after accurately correcting the pixel values of the pixels in the specific image area.
[0151]
According to the invention, the information calculation means is configured to include a neural network. For example, when the correction information is calculated using a spline function, it is necessary to calculate the correction information using a higher-order function. Therefore, the calculation becomes complicated, and in order to realize a calculation means for performing the calculation. costly. Since the information calculation means is configured to include the neural network, the correction information can be easily and accurately calculated by repeating a simple product-sum operation. As a result, accurate correction information can be easily obtained, and the cost required to realize the information calculation means can be reduced as much as possible.
[0152]
Further, according to the present invention, since the maximum target value is set based on the input characteristics of the image input unit, it is possible to accurately calculate the correction information according to the image input unit. For example, when the specific image area is a character forming area, the density of the characters in the character forming area is uniform regardless of the thickness of the characters and is maximum in the character area, and the density of the background area is one. And the minimum. When the character forming area in the whole image is read, it can be assumed that the pixel value of the pixel corresponding to the character becomes the maximum pixel value in the character forming area and the density value of the pixel corresponding to the base becomes the minimum. As a result, the maximum target value and the minimum target value, which are the original pixel values, can be set in advance. When the target value for correcting the pixel value of the pixel in the specific image area is known as described above, the entire image including the pixel having the target value is read by the image input unit, so that the target value is set in advance. Can be set. As a result, the correction information can be accurately calculated.
[0153]
Further, according to the present invention, correction is performed using correction information calculated based on a maximum pixel value of a sample image of a predetermined specific image area and a preset maximum target value for correcting the maximum pixel value. The obtained pixel values of the pixels of the sample image are stored in the storage unit. The correction unit corrects the pixel value of the pixel in the specific image area that has been identified and separated by the region separation unit based on the pixel value of the pixel of the corrected sample image stored in the storage unit. Thus, for example, when the input characteristics of the image input unit are constant or known, the pixel value of the pixel of the sample image in the specific image area is calculated without calculating the correction information every time the image input unit gives the entire image. The correction information is estimated based on the correction information, and the pixel values of the pixels of the sample image corrected based on the correction information can be stored in advance. By using the pixel values of the pixels of the corrected sample image stored in advance in this way, the pixel values of the pixels of the specific image area that has been identified and separated by the area separating unit from the entire image can be corrected with high accuracy. Thus, the processing amount of the image processing device can be reduced as much as possible, and the processing speed can be improved.
[0154]
Further, according to the present invention, since the image forming apparatus includes the above-described image processing apparatus, the pixel values of the pixels in the specific image area can be accurately corrected so as to be the original pixel values. This makes it possible to realize an image forming apparatus capable of accurately reproducing a specific image area in the entire image.
[0155]
Further, according to the present invention, an entire image including pixels having pixel values related to a plurality of colors is provided by the image input unit. From the whole image, a plurality of image areas are identified and separated in the area separation step. Among the image areas separated in the area separation step, a maximum pixel value is obtained in a maximum pixel value obtaining step for a predetermined specific image area. Correction information is calculated in an information calculation step based on the obtained maximum pixel value and a preset maximum target value for correcting the maximum pixel value. The correction information is information for correcting a pixel value of a pixel in a specific image area. Based on the calculated correction information, the pixel values of the pixels in the specific image area are corrected in a correction step. By using the correction information, it is possible to correct a reading error caused when reading the specific image area in the entire image so that the maximum pixel value in the specific image area becomes a pixel value to be given by the image input unit. . As a result, it is possible to eliminate the reading error and accurately correct the pixel values of the pixels in the specific image area so as to obtain the original pixel values.
[0156]
Further, according to the present invention, for the specific image area, a minimum pixel value is obtained in a minimum pixel value obtaining step. A minimum pixel value acquired in the minimum pixel value acquisition step, a preset minimum target value for correcting the minimum pixel value, a maximum pixel value, and a correction value for correcting the maximum pixel value. Correction information is calculated in an information calculation step based on the preset maximum target value. As described above, the correction information is calculated in consideration of the minimum pixel value and the minimum target value in addition to the maximum pixel value and the maximum target value. This makes it possible to correct a reading error generated when reading a specific image area in the entire image so that the maximum and minimum pixel values become the original pixel values, respectively. Therefore, the pixel values of the pixels in the specific image area can be accurately corrected, and the contrast of the specific image area in the entire image can be accurately reproduced.
[0157]
According to the invention, in the information calculation step, correction information is calculated using a neural network. For example, when the correction information is calculated using a spline function, it is necessary to calculate the correction information using a higher-order function. Therefore, the calculation becomes complicated, and in order to realize a calculation means for performing the calculation. costly. In the information calculation step, since a neural network is used, the correction information can be easily and accurately calculated by repeating a simple product-sum operation. As a result, accurate correction information can be easily obtained, and the cost required to realize the information calculation means can be reduced as much as possible.
[0158]
Further, according to the present invention, since the maximum target value is set based on the input characteristics of the image input unit, it is possible to accurately calculate the correction information according to the image input unit. For example, when the specific image region is a character forming region, the characters in the character forming region are represented by pixels having a uniform density regardless of the character thickness and having the maximum pixel value. Thus, the maximum target value, which is the original pixel value, can be known in advance. As described above, when the maximum target value is known, the maximum target value can be set in advance by reading the entire image including the pixel having the maximum target value by the image input unit. As a result, the correction information can be accurately calculated.
[0159]
According to the invention, in the information storage step, the calculation is performed based on the maximum pixel value of the sample image of the predetermined specific image area and the preset maximum target value for correcting the maximum pixel value. The pixel value of the pixel of the sample image corrected by the correction information is stored in the storage unit. In the correction step, the pixel values of the pixels in the specific image area that have been identified and separated from the entire image in the area separation step are corrected based on the pixel values of the pixels of the corrected sample image stored in the storage unit. As a result, when the input characteristics of the image input unit are constant or known, the correction information is estimated using the sample image of the specific image area without calculating the correction information every time the image input unit provides the entire image. The pixel values of the pixels of the sample image corrected based on the correction information can be stored in advance. By using the pixel values of the pixels of the corrected sample image stored in advance in this way, the pixel values of the pixels in the specific image area that have been identified and separated can be accurately corrected. Thus, the processing amount of the image processing device can be reduced as much as possible, and the processing speed can be improved.
[0160]
Further, according to the present invention, an image processing method for correcting a pixel value of a pixel in a specific image region based on correction information is represented by a program, so that a computer can execute a process according to the above-described image processing method. By causing a computer to execute the processing according to the image processing method, it is possible to accurately reproduce an image represented by a specific image area in a document.
[0161]
Further, according to the present invention, a program for causing a computer to execute an image processing method for correcting a pixel value of a pixel in a specific image area based on correction information is recorded on a computer-readable recording medium. For example, by recording the program on a portable recording medium such as a flexible disk, the program can be read from the recording medium into a desired computer, and the program can be read from the recording medium into a computer, and the program can be stored in a computer. Can be executed.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a black gradation correction unit 30 of an image processing apparatus 3 provided in an image forming apparatus 1 according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating an overall configuration of the image forming apparatus 1.
FIG. 3 is a block diagram illustrating a configuration of a region separation processing unit 13;
FIG. 4 is a diagram for explaining a local mask 35 for each color formed by the black gradation correction unit 30.
FIG. 5 is a diagram for explaining a teacher manuscript 50 for setting teacher data.
FIG. 6 is a diagram for explaining a teacher manuscript 50A for setting teacher data.
FIG. 7 is a block diagram showing a neural network 55.
FIG. 8 is a flowchart illustrating a procedure of processing by a black gradation correction unit 30 and a black generation and under color removal unit 15;
FIG. 9 is a graph showing the relationship between the number of repetitions time and the error amount energy for cyan.
10 is a graph showing a relationship between a cyan input signal value and a cyan correction signal value when the number of repetitions time in FIG. 9 is 50,000.
FIG. 11 is a graph showing a relationship between the number of repetitions time and an error amount energy for magenta.
12 is a graph showing a relationship between a magenta input signal value and a magenta correction signal value when the number of repetitions time in FIG. 11 is 50,000.
FIG. 13 is a graph showing the relationship between the number of repetitions time and the error amount energy for yellow.
14 is a graph showing a relationship between a yellow input signal value and a yellow correction signal value when the number of repetitions time in FIG. 13 is 50,000.
FIG. 15 is a diagram illustrating an uncorrected image 64A.
FIG. 16 is a diagram for explaining a corrected image 64B.
FIG. 17 is a density histogram for an uncorrected image 64A.
FIG. 18 is a density histogram relating to a corrected image 64B.
FIG. 19 is a concentration cross section taken along a solid line 65A in FIG.
20 is a concentration cross section taken along a solid line 65B in FIG.
FIG. 21 is a block diagram illustrating a configuration of a black gradation correction unit 30A provided in an image processing device 3A of an image forming apparatus 1A according to another embodiment of the present invention.
FIG. 22 is a flowchart showing a procedure of processing by a black gradation correction unit 30A and a black generation and under color removal unit 15A.
FIG. 23 is a diagram showing a configuration of a computer system 75 according to still another embodiment of the present invention.
[Explanation of symbols]
1,1A image forming apparatus
2 Image input device
3,3A image processing device
13 area separation processing unit
15, 15A Black generation and under color removal section
30, 30A Black gradation correction unit
32 High density acquisition unit for each color
33 Low density acquisition unit for each color
34 Neural Network for Each Color
38, 71 Each color storage unit
39 Each color learning unit
40,72 each color correction unit
55 Neural Network
75 Computer System
76 Computer
83 recording media
84 programs

Claims (13)

画像入力手段によって与えられ、かつ複数の色に関する画素値を有する画素を含む全体画像から、複数の画像領域を識別分離する領域分離手段と、
分離される画像領域のうち、予め定める特定画像領域に関して、最大の画素値を取得する最大画素値取得手段と、
取得される最大の画素値と、前記最大の画素値を補正するために用いられる予め設定される最大目標値とに基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算する情報演算手段と、
補正情報に基づいて、特定画像領域の画素の画素値を補正する補正手段とを含むことを特徴とする画像処理装置。
Area separation means for identifying and separating a plurality of image areas from an entire image including pixels having pixel values related to a plurality of colors, provided by the image input means,
Among the separated image areas, for a predetermined specific image area, a maximum pixel value obtaining unit that obtains a maximum pixel value,
Based on the obtained maximum pixel value and a preset maximum target value used for correcting the maximum pixel value, correction information for correcting the pixel value of the pixel in the specific image area is calculated. Information calculation means for performing
An image processing apparatus comprising: a correction unit configured to correct a pixel value of a pixel in a specific image area based on the correction information.
前記特定画像領域に関して、最小の画素値を取得する最小画素値取得手段をさらに含み、
情報演算手段は、取得される最大の画素値と、前記最大の画素値を補正するために用いられる予め設定される最大目標値と、取得される最小画素値と、前記最小の画素値を補正するために用いられる予め設定される最小目標値とに基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算することを特徴とする請求項1記載の画像処理装置。
Regarding the specific image area, further includes a minimum pixel value acquisition unit that acquires a minimum pixel value,
The information calculating means corrects the acquired maximum pixel value, a preset maximum target value used for correcting the maximum pixel value, the acquired minimum pixel value, and the acquired minimum pixel value. 2. The image processing apparatus according to claim 1, wherein correction information for correcting a pixel value of a pixel in the specific image area is calculated based on a preset minimum target value used for performing the correction.
前記情報演算手段は、神経回路網を含んで構成されることを特徴とする請求項1または2に記載の画像処理装置。The image processing device according to claim 1, wherein the information calculation unit includes a neural network. 前記最大目標値は、画像入力手段の入力特性に基づいて設定されることを特徴とする請求項1〜3のいずれかに記載の画像処理装置。The image processing apparatus according to claim 1, wherein the maximum target value is set based on an input characteristic of an image input unit. 画像入力手段によって与えられ、かつ複数の色に関する画素値を有する画素を含む全体画像から、複数の画像領域を識別分離する領域分離手段と、
分離される画像領域のうち、予め定める特定画像領域のサンプル画像の最大の画素値と、その最大の画素値を補正するための予め設定される最大目標値とに基づいて演算された補正情報により補正された前記サンプル画像の画素の画素値を記憶する記憶手段と、
記憶手段に記憶される補正後のサンプル画像の画素の画素値に基づいて、分離された特定画像領域の画素の画素値を補正する補正手段とを含むことを特徴とする画像処理装置。
Area separation means for identifying and separating a plurality of image areas from an entire image including pixels having pixel values related to a plurality of colors, provided by the image input means,
Of the separated image regions, the maximum pixel value of the sample image of the predetermined specific image region and the correction information calculated based on the preset maximum target value for correcting the maximum pixel value Storage means for storing the pixel values of the pixels of the corrected sample image,
An image processing apparatus comprising: a correction unit configured to correct a pixel value of a pixel of a separated specific image region based on a pixel value of a pixel of a sample image after correction stored in a storage unit.
請求項1〜5のいずれかに記載の画像処理装置を備える画像形成装置。An image forming apparatus comprising the image processing apparatus according to claim 1. 画像入力手段によって与えられ、かつ複数の色に関する画素値を有する画素を含む全体画像から、複数の画像領域を識別分離する領域分離工程と、
分離される画像領域のうち、予め定める特定画像領域に関して、最大の画素値を取得する最大画素値取得工程と、
取得される最大の画素値と、前記最大の画素値を補正するために用いられる予め設定される最大目標値とに基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算する情報演算工程と、
補正情報に基づいて、特定画像領域の画素の画素値を補正する補正工程とを含むことを特徴とする画像処理方法。
An area separation step of identifying and separating a plurality of image areas from an entire image including pixels having pixel values related to a plurality of colors, which is provided by the image input unit,
Of the image areas to be separated, for a predetermined specific image area, a maximum pixel value obtaining step of obtaining a maximum pixel value,
Based on the obtained maximum pixel value and a preset maximum target value used for correcting the maximum pixel value, correction information for correcting the pixel value of the pixel in the specific image area is calculated. Information calculation step
A correction step of correcting a pixel value of a pixel in a specific image area based on the correction information.
前記特定画像領域に関して、最小の画素値を取得する最小画素値取得工程をさらに含み、
情報演算工程は、取得される最大の画素値と、前記最大の画素値を補正するために用いられる予め設定される最大目標値と、取得される最小画素値と、前記最小の画素値を補正するために用いられる予め設定される最小目標値とに基づいて、特定画像領域の画素の画素値を補正するための補正情報を演算することを特徴とする請求項7に記載の画像処理方法。
For the specific image region, further includes a minimum pixel value acquisition step of acquiring a minimum pixel value,
The information calculation step corrects the obtained maximum pixel value, a preset maximum target value used for correcting the maximum pixel value, the obtained minimum pixel value, and the minimum pixel value. 8. The image processing method according to claim 7, wherein correction information for correcting a pixel value of a pixel in a specific image region is calculated based on a preset minimum target value used for performing the correction.
前記情報演算工程は、神経回路網を用いて補正情報を演算することを特徴とする請求項7または8に記載の画像処理方法。9. The image processing method according to claim 7, wherein the information calculation step calculates correction information using a neural network. 前記最大目標値は、画像入力手段の入力特性に基づいて設定されることを特徴とする請求項7〜9のいずれかに記載の画像処理方法。The image processing method according to claim 7, wherein the maximum target value is set based on an input characteristic of an image input unit. 画像入力手段によって与えられ、かつ複数の色に関する画素値を有する画素を含む全体画像から分離される画像領域のうち、予め定める特定画像領域のサンプル画像の最大の画素値と、その最大の画素値を補正するための予め設定される最大目標値とに基づいて演算された補正情報により補正された前記サンプル画像の画素の画素値を、記憶手段に記憶する情報記憶工程と、
全体画像から、複数の画像領域を識別分離する領域分離工程と、
記憶手段に記憶される補正後のサンプル画像の画素の画素値に基づいて、分離された特定画像領域の画素の画素値を補正する補正工程とを含むことを特徴とする画像処理方法。
Among the image areas provided by the image input means and separated from the entire image including pixels having pixel values related to a plurality of colors, the maximum pixel value of the sample image of the predetermined specific image area and the maximum pixel value thereof An information storage step of storing, in a storage unit, a pixel value of a pixel of the sample image corrected by correction information calculated based on a preset maximum target value for correcting
An area separation step of identifying and separating a plurality of image areas from the entire image,
A correction step of correcting the pixel values of the pixels of the separated specific image area based on the pixel values of the pixels of the corrected sample image stored in the storage unit.
請求項7〜11のいずれかに記載の画像処理方法を、コンピュータに実行させるためのプログラム。A program for causing a computer to execute the image processing method according to claim 7. 請求項12記載のプログラムが記録されたコンピュータ読取り可能な記録媒体。A computer-readable recording medium on which the program according to claim 12 is recorded.
JP2002355861A 2002-12-06 2002-12-06 Image processing method, image processing apparatus, and image forming apparatus including the same Expired - Fee Related JP4139201B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002355861A JP4139201B2 (en) 2002-12-06 2002-12-06 Image processing method, image processing apparatus, and image forming apparatus including the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002355861A JP4139201B2 (en) 2002-12-06 2002-12-06 Image processing method, image processing apparatus, and image forming apparatus including the same

Publications (2)

Publication Number Publication Date
JP2004193682A true JP2004193682A (en) 2004-07-08
JP4139201B2 JP4139201B2 (en) 2008-08-27

Family

ID=32756427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002355861A Expired - Fee Related JP4139201B2 (en) 2002-12-06 2002-12-06 Image processing method, image processing apparatus, and image forming apparatus including the same

Country Status (1)

Country Link
JP (1) JP4139201B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008227977A (en) * 2007-03-13 2008-09-25 Noritsu Koki Co Ltd Image processor and image processing method
JP2008227976A (en) * 2007-03-13 2008-09-25 Noritsu Koki Co Ltd Image processor and image processing method
WO2023095490A1 (en) * 2021-11-26 2023-06-01 新興窯業株式会社 Program, information processing device, information processing method, method for generating learning model, and imaging system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101463354B1 (en) * 2013-10-22 2014-11-18 영남대학교 산학협력단 Apparatus for target detection of hyperspectral image and method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09186877A (en) * 1995-12-28 1997-07-15 Sharp Corp Image processor
JPH10283460A (en) * 1997-04-04 1998-10-23 Minolta Co Ltd Image processor
JP2000184217A (en) * 1998-12-11 2000-06-30 Ricoh Co Ltd Color image processing unit, color image processing method, and recoding medium recording program for computer execution of this method and read by computer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09186877A (en) * 1995-12-28 1997-07-15 Sharp Corp Image processor
JPH10283460A (en) * 1997-04-04 1998-10-23 Minolta Co Ltd Image processor
JP2000184217A (en) * 1998-12-11 2000-06-30 Ricoh Co Ltd Color image processing unit, color image processing method, and recoding medium recording program for computer execution of this method and read by computer

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008227977A (en) * 2007-03-13 2008-09-25 Noritsu Koki Co Ltd Image processor and image processing method
JP2008227976A (en) * 2007-03-13 2008-09-25 Noritsu Koki Co Ltd Image processor and image processing method
WO2023095490A1 (en) * 2021-11-26 2023-06-01 新興窯業株式会社 Program, information processing device, information processing method, method for generating learning model, and imaging system

Also Published As

Publication number Publication date
JP4139201B2 (en) 2008-08-27

Similar Documents

Publication Publication Date Title
JP4173154B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP4331159B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor
JP4496239B2 (en) Image processing method, image processing apparatus, image forming apparatus, image reading apparatus, computer program, and recording medium
JPH0380767A (en) Gradation recorder for image
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
US7365880B2 (en) Image processing apparatus and image processing method
JPH1185978A (en) Image processor and its method
US20040184104A1 (en) Image forming apparatus and image forming method
JP3736535B2 (en) Document type identification device
JP4139201B2 (en) Image processing method, image processing apparatus, and image forming apparatus including the same
JP3734703B2 (en) Image processing method, image processing apparatus, and image forming apparatus
JP3923293B2 (en) Image processing method, image processing apparatus, and image forming apparatus
JP4549227B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4545766B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing program, and recording medium
JP2006287623A (en) Input image correction device, method, and program, image processor, image formation apparatus, and recording medium
JP4099366B2 (en) Image processing apparatus, image reading apparatus, image forming apparatus, and image processing method
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP2000036912A (en) Image processing method
JP2005072635A (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, image processing program, and computer-readable recording medium stored with the image processing program
JP3967217B2 (en) Image processing method, image processing program, recording medium recording image processing program, image processing apparatus, and image processing system
JP4101741B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP3810619B2 (en) Image processing apparatus, printing apparatus, and image processing method
JP4176053B2 (en) Image processing method, image processing apparatus, image forming apparatus, and computer program
JP4334498B2 (en) Image processing apparatus, image forming apparatus, image processing method, and computer program
JP7024495B2 (en) Image processing equipment, image processing system and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080603

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080606

R150 Certificate of patent or registration of utility model

Ref document number: 4139201

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130613

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees