JP3709911B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP3709911B2
JP3709911B2 JP15138998A JP15138998A JP3709911B2 JP 3709911 B2 JP3709911 B2 JP 3709911B2 JP 15138998 A JP15138998 A JP 15138998A JP 15138998 A JP15138998 A JP 15138998A JP 3709911 B2 JP3709911 B2 JP 3709911B2
Authority
JP
Japan
Prior art keywords
edge
image signal
contrast
correction
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP15138998A
Other languages
Japanese (ja)
Other versions
JPH11346315A (en
Inventor
優 奥津
幸二 相川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP15138998A priority Critical patent/JP3709911B2/en
Publication of JPH11346315A publication Critical patent/JPH11346315A/en
Application granted granted Critical
Publication of JP3709911B2 publication Critical patent/JP3709911B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Dot-Matrix Printers And Others (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ディジタル複写機やプリンタなどの画像形成装置において画像を形成する際に用いることのできる画像処理装置及び画像処理方法に関するものである。
【0002】
【従来の技術】
従来の画像形成装置における現像方法の一つとして、絶縁性トナーと磁性粒子を用いた二成分磁気現像方式があり、広く用いられている。この二成分磁気現像方式では、同色の高濃度部分と低濃度部分とが隣接した画像を再現しようとした場合、二成分磁気現像方式の出力再現特性により白抜け(以下、スターベーションと呼ぶ)が発生することが知られている。この現象は、感光体ドラム上に付着したトナーが現像器の現像剤層中に引き戻されることによって発生する。
【0003】
このような問題を解決するため、例えば特開平5−281790号公報などに記載されている方法がある。この方法では、絶縁性トナーおよび磁性粒子の粒径を制限し、またバイアス電圧の周波数を高めるなど、現像部における改善によってスターベーションの発生を防止している。しかしこのような現像部における制限は、装置の大型化やコストアップを伴うとともに、例えば高解像度化など、他の要求との両立が難しい場合が生じる。
【0004】
別の解決方法として、例えば特開平10−65919号に記載されている方法がある。この方法では、濃度の変化するエッジ部分を検出し、感光体ドラム上から現像器の現像剤層中に引き戻されるトナー量をもとに補正量を決定して、補正対象となる低濃度部の画像信号を補正する。この補正された画像信号によって画像を形成することにより、スターベーションの発生をを防止している。
【0005】
一方、上述のような同色の高濃度部分と低濃度部分とが隣接した画像を再現しようとした場合、その隣接部分(エッジ部分)の高濃度側の微小領域の濃度をより濃く、低濃度側の微小領域の濃度をより薄く再現することによってエッジ部分の再現性が向上することが知られている。図8は、エッジを含む画像信号及び形成された画像の濃度分布の一例の説明図である。例えば図8(A)に示すように低濃度部と高濃度部とが隣接したエッジを含む画像信号が入力された場合を考える。このとき、図8(B)に示すようにエッジに隣接する低濃度側の1ないし数画素程度の微小領域の濃度をより薄く、またエッジに隣接する高濃度側の1ないし数画素程度の微小領域の濃度をより濃く再現することによって、見かけ上、エッジをシャープに再現することができる。このような画像の再現特性は、電子写真方式では画像の形成時にこのような特性が得られる。
【0006】
しかしこのような低濃度側の濃度低下は微小領域において発生する限りにおいてはエッジの強調として作用するが、上述のようなスターベーションは数十画素以上といった広い範囲において発生し、濃度の低下が視認される。スターベーションが発生した画像の濃度分布を図8(C)に示している。これに対処するため、例えば上述の特願平 FN96−00432 号に記載されている方法等を用いることができる。この方法によって、図8(A)に示す画像信号を図8(D)に示すような画像信号に補正する。この図8(D)に示す画像信号を用いて画像を形成することにより、形成された画像の濃度分布は図8(E)に示すようになり、スターベーションを防止することができる。
【0007】
この図8(E)に示す濃度分布では、エッジに隣接した低濃度側の微小領域においても濃度の低下がほとんどない。そのため、エッジの鮮鋭度が低下し、エッジがぼけて見えるという不具合があった。これは図8(D)に示すようにエッジ部分において低濃度側の画像信号の濃度を濃くしているために発生する。この濃度の調整量を小さくすれば見かけ上のぼけをある程度防げるが、逆にスターベーションの発生をある程度容認せざるを得ないという問題があった。
【0008】
【発明が解決しようとする課題】
本発明は、上述した事情に鑑みてなされたもので、エッジ部分の見かけ上のぼけを抑えつつスターベーションの低減を図り、高品質の画像を形成可能な画像信号を生成する画像処理装置および画像処理方法を提供することを目的とするものである。
【0009】
【課題を解決するための手段】
本発明は、入力された画像信号を平滑化してスターベーションを低減させるための信号を生成するとともに、その平滑化された画像信号によって入力された画像信号をどの程度補正するかを示す重み係数を決定する。決定された重み係数に従って平滑化された画像信号で入力された画像信号中のエッジ付近の濃度の薄い側の領域を補正することにより、スターベーションを低減することができる。
【0010】
しかしこのままでは上述のようにエッジ部分が見かけ上ぼけるので、エッジ部分における濃度の薄い側の微小部分の濃度を補正するためのエッジ補正係数を決定し、決定したエッジ補正係数をも加味して入力された画像信号を補正することによって、エッジ部分のコントラストを向上させ、見かけ上のエッジのぼけを抑制する。
【0011】
このようにして、エッジ部分の見かけ上のぼけを抑えつつ、スターベーションを低減させることができ、高品質の画像を形成することが可能となる。
【0012】
【発明の実施の形態】
図1は、本発明の画像処理装置の実施の一形態を示すブロック図である。図中、1は入力バッファ、2は平滑化部、3は重み係数決定部、4はエッジ補正係数決定部、5は補正画素値算出部、11はコントラスト演算部、12は補正対象選択テーブル、13は重み係数選択テーブル、14は重み係数算出部、21はエッジ検出部、22はエッジ判定部、23は係数決定部である。
【0013】
入力バッファ1は、入力された画像信号を受け取り、ほぼ所定ライン数分の画像信号を保持する。そして注目画素と、注目画素の周囲を含む所定領域内の画素の値を出力する。以下、この所定領域をウィンドウと呼ぶ。また、注目画素の値を注目画素値gとする。ウィンドウの大きさは、例えば注目画素を中心とするm×n画素の矩形領域とすることができる。具体例として、例えばエッジ部分において主走査方向に14画素、副走査方向に7画素の補正を行なう場合には、ウィンドウの大きさを29×15画素とすることができる。もちろん、ウィンドウの大きさ及び形状は任意であって、平滑化部2やエッジ検出部21などの処理に必要な大きさ及び形状とすればよい。また、例えば画像信号が画像メモリなどの記憶装置に格納され、画像メモリなどから必要な領域の画素値を読み出すことができる構成であれば、この入力バッファ1を設けずに構成することもできる。
【0014】
平滑化部2は、入力バッファ1から出力されるウィンドウ内の画像信号をもとに平滑化フィルタリング処理を行なって、注目画素における平均値信号fを出力する。この平均値信号fはスターベーションを低減させるために用いる。
【0015】
重み係数決定部3は、平滑化部2から出力される平均値信号fによって注目画素値gをどの程度補正するかを示す重み係数を決定する。重み係数決定部3は、コントラスト演算部11、補正対象選択テーブル12、重み係数選択テーブル13、重み係数算出部14等によって構成されている。
【0016】
コントラスト演算部11は、注目画素値gと周囲の画素とのコントラストhを演算する。ここでは入力バッファ1から出力されるウィンドウ内の画像信号のうちから最大の濃度を検索し、検索されたウィンドウ内の最大濃度と注目画素値gとの濃度差をコントラストhとして算出する。
【0017】
補正対象選択テーブル12は、注目画素がどの程度補正を要する画素なのかを示す補正対象度whを注目画素値gから求めるためのテーブルである。図2は、注目画素値と補正対象選択テーブルに設定される補正対象度との関係の一例を示すグラフである。例えば白地では白抜けが発生してもわからない。また、エッジにおいて濃度の薄い側でも濃度が非常に濃い場合にはエッジ部分のコントラストが小さいのでスターベーションは発生しない。これらの場合にはスターベーションを低減させるための補正の必要性が低い。このように下地(エッジにおける濃度の薄い側)の濃度に応じて、スターベーションに対する補正をどの程度行なえばよいかが異なる。そのため図2に示すように、注目画素値gの値が小さい部分と大きい部分では補正対象度whを小さくして、補正の必要性が小さいことを示す。また、中間濃度においては補正を行なう対象とするため、補正対象度whを1としている。このような補正対象度whを注目画素値gと対応づけて補正対象選択テーブル12に格納しておく。これにより、補正対象選択テーブル12は注目画素値gに応じて、その補正の度合いを補正対象度whとして出力することができる。補正対象選択テーブル12は、注目画素値gを入力、補正対象度whを出力とするルックアップテーブルで構成することができるが、これに限らず、演算により補正対象度whを求めるなど、種々の構成で実現することができる。
【0018】
重み係数選択テーブル13は、コントラスト演算部11から出力されるコントラストhに対応したコントラスト重みwwを求めるためのテーブルである。このコントラスト重みwwは、平滑化部2から出力される平均値信号fによって注目画素値gをどの程度補正するかを示す。コントラストhが大きいとスターベーションの影響も大きくなるが、平均値信号fの変化も大きくなる。この両者を調節することで、見かけ上、スターベーションを減少させることができる。コントラストhに応じた平均値信号fの変化とスターベーションを減少させるための補正量の変化の対応関係をあらかじめ実験で求めておけば、平均値信号fをスターベーションを減少させるための補正量にほぼ一致させるための対応関係が得られる。この対応関係を示す値が、コントラストhに対応したコントラスト重みwwである。図3は、コントラストと重み係数選択テーブルに設定されるコントラスト重みの関係の一例を示すグラフである。例えばコントラスト演算部11で得られるコントラストhに対応づけて、図3に示すような重み係数wwを設定しておくことができる。重み係数選択テーブル13は、コントラスト演算部11から出力されるコントラストhを入力とし、対応するコントラスト重みwwを出力するルックアップテーブルとして構成することができるが、これに限らず、演算によってコントラスト重みwwを求める構成など、種々の構成で実現することができる。
【0019】
重み係数算出部14は、補正対象度whおよびコントラスト重みwwから重み係数Wを算出する。この重み係数Wは、コントラストhに応じて平均値信号fによって注目画素値gをどの程度補正するかを示すコントラスト重みwwに対して、その補正がどの程度必要かを示す補正対象度whを加味し、入力された注目画素値gに対して、平均値信号fによってどの程度の補正を行なうかを示すものである。具体的には、重み係数Wはコントラスト重みwwと補正対象度whとを乗算(W=ww×wh)して求めることができる。もちろん、他の演算方法を用いたり、ルックアップテーブルを用いるなど、他の方法で重み係数Wを求めてもよい。また、スターベーションはエッジ部分の濃度の薄い側に発生するので、濃度の濃い側には補正する必要がない。そのため、コントラストhが0(注目画素値gが最大濃度)であったり、注目画素値gが平均値信号fよりも大きい場合には、注目画素はエッジ部でないか、あるいはエッジ部において濃度が濃い側の画素である。このような場合には補正を行なう必要がないため、この重み係数算出部14において補正を行なわない重み係数、具体的には0を強制的に設定する。
【0020】
エッジ補正係数決定部4は、入力された画像信号中のエッジ部分において、濃度の薄い側の微小部分の濃度を補正してエッジを強調させるためのエッジ補正係数ewを決定する。エッジ補正係数決定部4は、エッジ検出部21,エッジ判定部22,係数決定部23などを有している。
【0021】
エッジ検出部21は、入力バッファ1から注目画素を含む所定領域の画素を受け取り、エッジの存在を検出する。エッジ検出部21は、入力バッファ1から出力されるウィンドウ内のすべての画素を参照する必要はなく、エッジを検出可能な大きさ、具体的には例えば3×3画素程度の領域の画素を参照すればよい。
【0022】
エッジ判定部22は、エッジ検出部21においてエッジが検出されたか否かとともに、重み係数決定部3のコントラスト演算部11で算出されたコントラストhが所定の閾値CNTLMTよりも大きいか否かを判定する。そして、エッジ検出部21でエッジが検出され、コントラストhが閾値CNTLMTより大きい場合に、補正処理を行なうべきエッジであると判定する。判定結果及びコントラストhを係数決定部23に送る。
【0023】
係数決定部23は、エッジ判定部22における判定結果に従い、補正処理を行なうべきエッジであると判定された場合にはエッジ補正係数ewをコントラストhに応じた値に設定する。図4は、コントラストと係数決定部23に設定されるエッジ補正係数ewとの関係の一例を示すグラフである。ここではエッジ補正係数ewは、1のときエッジ補正を行なわず、0のときスターベーションを防止するための補正量のみとする値としている。図4に示すように、コントラストhが小さい場合にはスターベーション防止のための補正量も小さいので、エッジ補正量を小さくしている。逆にコントラストhが大きい場合にはスターベーション防止のための補正量も大きくなるため、エッジ補正量を大きくしている。図4ではコントラストhに対して直線的にエッジ補正係数ewを減少させているように示しているが、実際には実験的に求めることができる。このコントラストhに応じたエッジ補正係数ewの決定は、例えばルックアップテーブルなどを用いて行なうことができる。もちろん、他の方法を適用して構成してもよく、例えば図4に示すように直線的な関係にあれば、単純な関係式に基づいて演算により求めることもできる。
【0024】
また係数決定部23は、エッジ判定部22で補正処理を行なうべきエッジではないと判定された場合には、エッジ近傍の微小部分に対する補正処理が行なわれないようにエッジ補正係数ewを設定する。例えばエッジ補正係数ewを1に設定する。
【0025】
補正画素値算出部5は、重み係数決定部3で決定した重み係数Wと、エッジ補正係数決定部4で決定されたエッジ補正係数ewに従って、平滑化部2から出力される平均値信号fにより注目画素値gを補正して出力画像信号Gを生成し、出力する。出力画像信号Gは、例えば次のような式に従って算出することができる。
G=(f×W)+(1−W)×ew×g
この式によって算出される出力画像信号Gは、スターベーションの発生するエッジ付近の領域においては重み係数Wの割合に応じて注目画素値gは平均値信号fにより補正されることになる。これによりスターベーションを低減させることができる。また、エッジ近傍の微小領域では、エッジ補正係数ewによって注目画素値gが制限されるため、エッジ近傍における濃度の薄い側の微小部分の濃度を低下させ、エッジを強調させることができる。このようにして、出力画像信号Gはエッジにおける見かけ上のぼけを抑えつつ、スターベーションを低減したものとなる。
【0026】
図5は、本発明の画像処理装置の実施の一形態における動作の一例を示すフローチャートである。画像信号が入力される前に、各種のパラメータを設定しておく。例えば平滑化部2の平滑化フィルタパラメータや、重み係数決定部3の補正対象選択テーブル12,重み係数選択テーブル13の値、エッジ補正係数決定部4のエッジ判定部22における閾値CNTLMTの値などをあらかじめ設定しておく。
【0027】
画像信号が入力されると、S31において順次入力バッファ1に保持されてゆく。所定の画素数あるいは所定のライン数だけの画像信号が入力された後、注目画素を順次移動させながら注目画素を含む所定のウィンドウ内の画素が切り出されて出力される。これを受けて平滑化部2,重み係数決定部3,エッジ補正係数決定部4がそれぞれ処理を開始する。もちろん、各部は入力バッファ1から出力されるウィンドウ内のすべての画素を利用しなくてもよい。ここでは一例として、平滑化部2及び重み係数決定部3ではウィンドウ内のすべての画素を用いることとし、エッジ補正係数決定部4では所定のウィンドウよりも小さな注目画素を含む領域の画素のみを用いることとする。
【0028】
平滑化部2は、ウィンドウ内の各画素の値をもとに、S32において平滑化フィルタ演算を行ない、注目画素に対応する平均値信号fを求める。
【0029】
また重み係数決定部3では、ウィンドウ内の各画素の値をもとに、まずコントラスト演算部11でコントラストhを算出する。そのために、S33においてウィンドウ内の各画素値から最大値を検索する。検索された最大値をMAXCとする。さらにS34において、最大値MAXCと注目画素値gの差を計算し、これをコントラストhとする。このコントラストhおよび最大値MAXCは、エッジ補正係数決定部4のエッジ判定部22にも送られる。
【0030】
重み係数算出部14は、コントラスト演算部11で算出されたコントラストhを受け、S35においてコントラストhが0以下か否かを判定する。コントラストhが0以下の場合には、ウィンドウ内が均一な濃度であるか、あるいはエッジ部において注目画素が濃度の濃い側の画素であるときを示す。同様に注目画素値gが平均値信号f以上の場合には、注目画素が濃度の濃い側の画素であることを示している。スターベーションはエッジ部の濃度の薄い側に発生するので、このようにエッジ部の濃度の濃い側については補正処理を行なう必要がない。もちろん、平坦部についても補正処理を行なう必要がない。そのため、S36において重み係数Wを0にして重み係数Wによる補正が行なわれないようにする。
【0031】
S35においてコントラストhが0より大きく、また注目画素値gが平均値信号fより小さい場合には、注目画素はエッジ部分における濃度の薄い側の画素である。そのため、スターベーションが発生する可能性がある。まずS37において、注目画素値gを補正するためのコントラスト重みwwをコントラストhに基づいて重み係数選択テーブル13から得る。同時にS38において注目画素値gに基づいて補正対象選択テーブル12から補正対象度whを得る。さらにS39において、重み係数算出部14は重み係数選択テーブル13から得られたコントラスト重みwwと補正対象選択テーブル12から得られた補正対象度whから重み係数Wを算出する。
【0032】
一方、エッジ補正係数決定部4のエッジ検出部21は、入力バッファ1内の注目画素を含む小領域、例えば3×3画素程度の領域から、S40において最大値を検索する。この最大値をMAXEとする。ここではエッジ検出部21の処理を最大値MAXEの検索のみとし、実際にエッジか否かの判定はエッジ判定部22で行なう。もちろん、種々の公知の方法によってエッジ検出部21でエッジか否かの判定を行なってもよい。
【0033】
エッジ判定部22は、S41において、エッジ検出部21で得た最大値MAXEと、コントラスト演算部11で得た最大値MAXCとを比較する。上述のように最大値MAXCはウィンドウ内の最大値であるので、ウィンドウよりも小さな領域においてこの最大値MAXCと同じ値を有する画素が存在することは、エッジを検出するための小領域が少なくとも濃度の濃い側の画素を含むことを示す。最大値MAXCと最大値MAXEが等しい場合には、さらにS42において、コントラストhがあらかじめ設定されている閾値CNTLMTより大きいか否かを判定する。コントラストhが閾値CNTLMTよりも大きい場合、所定のウィンドウ内に閾値CNTLMT以上の濃度差を有するエッジが存在し、しかも注目画素がエッジの濃度の薄い側の画素であることがわかる。S41およびS42の判定から、小領域中に濃度の濃い部分が存在するとともに、注目画素は薄い側の画素であることが判定される。すなわち、注目画素はエッジ近傍の薄い側の画素であることになる。このようにして判定された画素は、エッジ強調のために補正すべき画素である。そのためエッジを強調させるべく、S43において係数決定部23でコントラストhに基づいてエッジ補正係数ewを算出する。S41において最大値MAXCと最大値MAXEが等しくない場合、および、S42においてコントラストhが閾値CNTLMT以下の場合には、S44において係数決定部23でエッジ補正係数ewを1として、エッジ強調の補正が行なわれないようにする。
【0034】
このようにして平均値信号f、重み係数W、エッジ補正係数ewが求められた後、補正画素値算出部5はS45において出力画素信号Gを算出する。出力画素信号Gの算出は、上述のような算出式に従って演算により求めることができる。もちろん他の算出式や、多次元のルックアップテーブルを用いるなど他の手法によって求めてもよい。このようにして算出された出力画素信号Gを補正処理結果として出力すればよい。
【0035】
次に具体例を用いて本発明の画像処理装置の実施の一形態における補正処理動作の一例を説明する。図6は、入力画像信号の一例の説明図、図7は、補正処理後の出力画像信号の一例の説明図である。画像は実際には2次元状の広がりを有しているが、ここではあるラインの一部のみを示している。ここでは一例として、図6に示すように画素位置Bとその次の画素との間に濃度差が存在し、ステップ状のエッジが存在する画像を想定する。この濃度差がコントラストhである。
【0036】
入力バッファ1で切り出すウィンドウの幅を図示した幅とすると、画素位置Aよりも左側および画素位置Cよりも右側ではウィンドウ内に画素位置Bのエッジを含まない。そのため、ここでは画素位置Aから画素位置Cまでの画素について説明する。画素位置Aから画素位置Cまでの画素を注目画素とするとき、ウィンドウ中には濃度の異なる画素が含まれるため、平滑化部2によって平滑化フィルタ処理を行なうことによって図7に破線で示す平均値信号fが出力される。また、コントラスト演算部11では画素位置Aから画素位置Bまでの画素が注目画素である場合にはエッジ部分の濃度差をコントラストhとして出力し、画素位置Bの次の画素から右側ではコントラストhは0となる。
【0037】
重み係数選択テーブル13は、コントラスト演算部11からコントラストhを受け、各画素ごとに対応するコントラスト重みwwを出力する。一方、補正対象選択テーブル12からは、画素位置Aから画素位置Cまでのいずれの画素についても、補正対象であるとして補正対象度wh=1が出力されるものとする。
【0038】
重み係数算出部14では、コントラストhを判定し、画素位置Aから画素位置Bまでの各画素については補正対象度whとコントラスト重みwwから重み係数Wを計算する。ここでは補正対象度wh=1であるので、重み係数W=コントラスト重みwwとなる。また、画素位置Bの右隣の画素から右側はエッジ部の濃度の濃い側の画素であり、コントラストh=0および注目画素値g>平均値信号fとなるため、重み係数W=0とする。
【0039】
さらにエッジ検出部21では、画素位置Bよりも左側の画素が注目画素のときには、ウィンドウよりも小さな例えば3×3画素の検出領域内に濃度の濃い画素は検出されない。そのためエッジ判定部22では画素位置Bよりも左側の各画素ではエッジと判定せず、エッジ補正係数ewとして1を出力する。
【0040】
これによって、画素位置Aから画素位置Bの左隣の画素までの各画素については、エッジ補正係数ew=1であるので重み係数Wによる補正処理が行なわれ、図7に示すように平均値信号fの傾きを緩やかにした画像信号となる。このようにエッジへ向けて濃度を高くすることにより、スターベーションを抑制することができる。
【0041】
画素位置Bについては、エッジ検出部21において濃度の濃い部分が検出され、またコントラストhも十分大きいと判定されて、エッジ判定部22において画素位置Bがエッジ補正の対象となる画素であると判定される。係数決定部23ではコントラストhに対応したエッジ補正係数ewを求め、補正画素値算出部5へと出力する。これによって補正画素値算出部5ではエッジ補正係数ewおよび重み係数Wによる補正処理を行なうこととなり、エッジ補正係数ewに応じた分だけ注目画素値gが低減され、図7に示すように濃度の薄い画素が生成される。
【0042】
画素位置Bの右隣の画素よりも右側については、コントラストhが0となるためエッジ補正係数ew=1となり、また重み係数Wも0となるため、補正画素値算出部5は注目画素値gをそのまま出力画像信号Gとして出力することになる。
【0043】
このようにして、図6に示すような入力画像信号は、図7に示すようにエッジ部分の低濃度側である、画素位置Aから画素位置Bまでの各画素について、スターベーションを抑制するために濃度を高める処理が施されるとともに、画素位置Bについては濃度を低下させてエッジを強調する処理が施される。このようにして補正処理の施された出力画像信号Gを用い、画像を形成することによって、エッジ部分が見かけ上ぼけることなく、スターベーションを低減することが可能となる。形成された画像の濃度分布は、例えば図8(B)に示した分布に近い特性となる。
【0044】
上述の具体例では低濃度部から高濃度部に移行するエッジの例について示しているが、高濃度部から低濃度部に移行するエッジについても同様にエッジ部の低濃度側に補正を施すことができる。また、上述の具体例では1次元的に示しているが、2次元のウィンドウを設定してそれぞれの処理を行なっているので、主走査方向、副走査方向とも、エッジ部分の低濃度側について、上述のような補正処理を施すことができる。例えば主走査方向と副走査方向とでスターベーションの発生領域が異なる場合には、スターベーションの発生領域に応じてウィンドウの主走査方向の幅と副走査方向の幅を設定すればよい。また、同じ方向でも低濃度部から高濃度部に移行する場合と高濃度部から低濃度部に移行する場合とでスターベーションの発生領域が異なる場合でも、ウィンドウの注目画素の左右や上下の幅を適宜設定することによって対応することが可能である。もちろん上述のようにウィンドウの形状は矩形に限らず、例えば円形や菱形など、形状は任意であり、スターベーションの防止に効果的な形状及び大きさとすればよい。
【0045】
上述の説明では、ある単色の画像について行なう処理について説明したが、例えば画像形成時に複数色の色材を用いてカラー画像を形成する場合には、各色材に対応した色の画像ごとに、それぞれ上述のような処理を行なえばよい。
【0046】
【発明の効果】
以上の説明から明らかなように、本発明によれば、エッジ部分の見かけ上のぼけを抑えつつ、スターベーションを防止することができ、高品質の画像を形成可能な画像信号を生成することができるという効果がある。
【図面の簡単な説明】
【図1】 本発明の画像処理装置の実施の一形態を示すブロック図である。
【図2】 注目画素値と補正対象選択テーブルに設定される補正対象度との関係の一例を示すグラフである。
【図3】 コントラストと重み係数選択テーブルに設定されるコントラスト重みの関係の一例を示すグラフである。
【図4】 コントラストと係数決定部23に設定されるエッジ補正係数ewとの関係の一例を示すグラフである。
【図5】 本発明の画像処理装置の実施の一形態における動作の一例を示すフローチャートである。
【図6】 入力画像信号の一例の説明図である。
【図7】 補正処理後の出力画像信号の一例の説明図である。
【図8】 エッジを含む画像信号及び形成された画像の濃度分布の一例の説明図である。
【符号の説明】
1…入力バッファ、2…平滑化部、3…重み係数決定部、4…エッジ補正係数決定部、5…補正画素値算出部、11…コントラスト演算部、12…補正対象選択テーブル、13…重み係数選択テーブル、14…重み係数算出部、21…エッジ検出部、22…エッジ判定部、23…係数決定部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and an image processing method that can be used when an image is formed in an image forming apparatus such as a digital copying machine or a printer.
[0002]
[Prior art]
As a developing method in a conventional image forming apparatus, there is a two-component magnetic developing method using an insulating toner and magnetic particles, which is widely used. In this two-component magnetic development method, when an image in which a high density portion and a low density portion of the same color are adjacent to each other is to be reproduced, white spots (hereinafter referred to as starvation) are caused by the output reproduction characteristics of the two-component magnetic development method. It is known to occur. This phenomenon occurs when the toner adhered on the photosensitive drum is pulled back into the developer layer of the developing device.
[0003]
In order to solve such a problem, for example, there is a method described in JP-A-5-281790. In this method, the starvation is prevented from occurring by improving the developing portion such as limiting the particle size of the insulating toner and magnetic particles and increasing the frequency of the bias voltage. However, such a restriction in the developing unit is accompanied by an increase in the size and cost of the apparatus, and it may be difficult to satisfy other requirements such as higher resolution.
[0004]
As another solution, for example, there is a method described in JP-A-10-65919. In this method, the edge portion where the density changes is detected, the correction amount is determined based on the amount of toner drawn back from the photosensitive drum into the developer layer of the developing device, and the low density portion to be corrected is determined. Correct the image signal. By forming an image with the corrected image signal, occurrence of starvation is prevented.
[0005]
On the other hand, when trying to reproduce an image in which the high-density part and low-density part of the same color are adjacent to each other as described above, the density of the minute area on the high-density side of the adjacent part (edge part) is higher and the low-density side It has been known that the reproducibility of the edge portion is improved by reproducing the density of the minute region of the image area thinner. FIG. 8 is an explanatory diagram of an example of an image signal including an edge and a density distribution of the formed image. For example, consider a case where an image signal including an edge in which a low density portion and a high density portion are adjacent to each other is input as shown in FIG. At this time, as shown in FIG. 8B, the density of one to several pixels on the low density side adjacent to the edge is made thinner, and the density on the high density side adjacent to the edge is about one to several pixels. By reproducing the density of the region more deeply, it is possible to reproduce the edge sharply. Such image reproduction characteristics can be obtained when an image is formed in the electrophotographic method.
[0006]
However, such a decrease in density on the low density side acts as an edge enhancement as long as it occurs in a minute region, but the above starvation occurs in a wide range of several tens of pixels or more, and the decrease in density is visually recognized. Is done. FIG. 8C shows the density distribution of an image in which starvation has occurred. In order to cope with this, for example, the method described in the above-mentioned Japanese Patent Application No. FN96-00432 can be used. By this method, the image signal shown in FIG. 8A is corrected to an image signal as shown in FIG. By forming an image using the image signal shown in FIG. 8D, the density distribution of the formed image becomes as shown in FIG. 8E, and starvation can be prevented.
[0007]
In the density distribution shown in FIG. 8E, there is almost no decrease in density even in a small area on the low density side adjacent to the edge. Therefore, there is a problem that the sharpness of the edge is lowered and the edge looks blurred. This occurs because the density of the image signal on the low density side is increased at the edge portion as shown in FIG. If this amount of density adjustment is reduced, the apparent blur can be prevented to some extent, but conversely, the occurrence of starvation has to be tolerated to some extent.
[0008]
[Problems to be solved by the invention]
The present invention has been made in view of the above-described circumstances, and an image processing device and an image processing device that generate an image signal capable of forming a high-quality image while reducing starvation while suppressing apparent blur of an edge portion. The object is to provide a processing method.
[0009]
[Means for Solving the Problems]
The present invention generates a signal for reducing starvation by smoothing an input image signal, and a weight coefficient indicating how much the input image signal is corrected by the smoothed image signal. decide. Starvation can be reduced by correcting the area on the lighter side near the edge in the input image signal with the image signal smoothed according to the determined weighting factor.
[0010]
However, as described above, the edge portion appears blurry as it is, so the edge correction coefficient for correcting the density of the minute portion on the lighter side of the edge portion is determined, and the determined edge correction coefficient is also taken into account By correcting the image signal, the contrast of the edge portion is improved and the apparent blur of the edge is suppressed.
[0011]
In this way, starvation can be reduced while suppressing the apparent blur of the edge portion, and a high-quality image can be formed.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing an embodiment of an image processing apparatus of the present invention. In the figure, 1 is an input buffer, 2 is a smoothing unit, 3 is a weighting factor determination unit, 4 is an edge correction coefficient determination unit, 5 is a correction pixel value calculation unit, 11 is a contrast calculation unit, 12 is a correction target selection table, 13 is a weight coefficient selection table, 14 is a weight coefficient calculation unit, 21 is an edge detection unit, 22 is an edge determination unit, and 23 is a coefficient determination unit.
[0013]
The input buffer 1 receives the input image signal and holds image signals for almost a predetermined number of lines. Then, the value of the pixel of interest and the pixel in the predetermined area including the periphery of the pixel of interest are output. Hereinafter, this predetermined area is called a window. Further, the value of the target pixel is set as the target pixel value g. The size of the window can be, for example, a rectangular area of m × n pixels centered on the target pixel. As a specific example, for example, when correcting 14 pixels in the main scanning direction and 7 pixels in the sub-scanning direction at the edge portion, the window size can be 29 × 15 pixels. Of course, the size and shape of the window are arbitrary, and the size and shape necessary for the processing of the smoothing unit 2 and the edge detection unit 21 may be used. For example, if the image signal is stored in a storage device such as an image memory and the pixel value of a necessary area can be read from the image memory or the like, the input buffer 1 can be omitted.
[0014]
The smoothing unit 2 performs a smoothing filtering process based on the image signal in the window output from the input buffer 1 and outputs an average value signal f at the target pixel. This average value signal f is used to reduce starvation.
[0015]
The weighting factor determination unit 3 determines a weighting factor indicating how much the target pixel value g is corrected by the average value signal f output from the smoothing unit 2. The weighting factor determination unit 3 includes a contrast calculation unit 11, a correction target selection table 12, a weighting factor selection table 13, a weighting factor calculation unit 14, and the like.
[0016]
The contrast calculation unit 11 calculates the contrast h between the target pixel value g and surrounding pixels. Here, the maximum density is searched from the image signals in the window output from the input buffer 1, and the density difference between the maximum density in the searched window and the target pixel value g is calculated as the contrast h.
[0017]
The correction target selection table 12 is a table for obtaining a correction target degree wh indicating how much a target pixel needs correction from the target pixel value g. FIG. 2 is a graph showing an example of the relationship between the target pixel value and the correction target degree set in the correction target selection table. For example, even if white spots occur on a white background, it is not known. Further, when the density is very high even on the side where the density is low, the contrast of the edge portion is small and starvation does not occur. In these cases, the need for correction to reduce starvation is low. In this way, the extent to which correction for starvation should be performed differs depending on the density of the background (the lighter density side of the edge). Therefore, as shown in FIG. 2, the correction target degree wh is reduced in the portion where the pixel value g of interest is small and the portion where the value is large, indicating that the necessity for correction is small. In addition, the correction target degree wh is set to 1 because the intermediate density is a target to be corrected. Such a correction target degree wh is stored in the correction target selection table 12 in association with the target pixel value g. Thereby, the correction target selection table 12 can output the degree of correction as the correction target degree wh according to the target pixel value g. The correction target selection table 12 can be configured by a look-up table in which the target pixel value g is input and the correction target degree wh is output. However, the correction target selection table 12 is not limited to this, and various correction methods such as obtaining the correction target degree wh by calculation. It can be realized with a configuration.
[0018]
The weight coefficient selection table 13 is a table for obtaining the contrast weight ww corresponding to the contrast h output from the contrast calculation unit 11. The contrast weight ww indicates how much the target pixel value g is corrected by the average value signal f output from the smoothing unit 2. When the contrast h is large, the influence of starvation increases, but the change of the average value signal f also increases. By adjusting both, it is possible to apparently reduce starvation. If the correspondence relationship between the change in the average value signal f corresponding to the contrast h and the change in the correction amount for reducing starvation is obtained in advance by experiments, the average value signal f is used as the correction amount for reducing starvation. Correspondence for almost matching is obtained. A value indicating this correspondence is the contrast weight ww corresponding to the contrast h. FIG. 3 is a graph showing an example of the relationship between the contrast and the contrast weight set in the weight coefficient selection table. For example, a weighting factor ww as shown in FIG. 3 can be set in association with the contrast h obtained by the contrast calculation unit 11. The weighting factor selection table 13 can be configured as a lookup table that receives the contrast h output from the contrast calculation unit 11 and outputs the corresponding contrast weight ww, but is not limited thereto, and the contrast weight ww is calculated by calculation. It can implement | achieve with various structures, such as a structure which calculates | requires.
[0019]
The weight coefficient calculation unit 14 calculates the weight coefficient W from the correction target degree wh and the contrast weight ww. This weighting factor W takes into account the correction target degree wh indicating how much the correction is necessary with respect to the contrast weight ww indicating how much the target pixel value g is corrected by the average value signal f according to the contrast h. This indicates how much correction is performed by the average value signal f for the input target pixel value g. Specifically, the weighting factor W can be obtained by multiplying the contrast weight ww and the correction target degree wh (W = www × wh). Of course, the weighting factor W may be obtained by another method such as using another calculation method or using a lookup table. Further, since starvation occurs on the side of the edge portion where the density is low, it is not necessary to correct the side where the density is high. Therefore, when the contrast h is 0 (the target pixel value g is the maximum density) or the target pixel value g is larger than the average value signal f, the target pixel is not an edge portion or the density is high at the edge portion. This is the pixel on the side. In such a case, since it is not necessary to perform correction, the weighting coefficient calculation unit 14 forcibly sets a weighting coefficient that is not corrected, specifically 0.
[0020]
The edge correction coefficient determination unit 4 determines an edge correction coefficient ew for emphasizing the edge by correcting the density of the minute part on the lighter density side in the edge part in the input image signal. The edge correction coefficient determination unit 4 includes an edge detection unit 21, an edge determination unit 22, a coefficient determination unit 23, and the like.
[0021]
The edge detection unit 21 receives a pixel in a predetermined area including the target pixel from the input buffer 1 and detects the presence of an edge. The edge detection unit 21 does not need to refer to all the pixels in the window output from the input buffer 1, but refers to a pixel having a size capable of detecting an edge, specifically, an area of about 3 × 3 pixels, for example. do it.
[0022]
The edge determination unit 22 determines whether or not the edge is detected by the edge detection unit 21 and whether or not the contrast h calculated by the contrast calculation unit 11 of the weight coefficient determination unit 3 is larger than a predetermined threshold value CNTLMT. . Then, when an edge is detected by the edge detection unit 21 and the contrast h is larger than the threshold value CNTLMT, it is determined that the edge is to be corrected. The determination result and the contrast h are sent to the coefficient determination unit 23.
[0023]
The coefficient determination unit 23 sets the edge correction coefficient ew to a value corresponding to the contrast h when it is determined that the edge is to be corrected according to the determination result in the edge determination unit 22. FIG. 4 is a graph showing an example of the relationship between the contrast and the edge correction coefficient ew set in the coefficient determining unit 23. Here, the edge correction coefficient ew is a value that does not perform edge correction when it is 1, and only has a correction amount for preventing starvation when it is 0. As shown in FIG. 4, when the contrast h is small, the correction amount for preventing starvation is also small, so the edge correction amount is made small. On the contrary, when the contrast h is large, the correction amount for preventing starvation is also large, so the edge correction amount is increased. Although FIG. 4 shows that the edge correction coefficient ew is linearly decreased with respect to the contrast h, it can be obtained experimentally in practice. The edge correction coefficient ew according to the contrast h can be determined using, for example, a lookup table. Of course, other methods may be applied. For example, as shown in FIG. 4, if there is a linear relationship, it can be obtained by calculation based on a simple relational expression.
[0024]
Also, the coefficient determination unit 23 sets the edge correction coefficient ew so that the correction process is not performed on a minute portion near the edge when the edge determination unit 22 determines that the edge is not an edge to be corrected. For example, the edge correction coefficient ew is set to 1.
[0025]
The correction pixel value calculation unit 5 uses the average value signal f output from the smoothing unit 2 according to the weighting factor W determined by the weighting factor determination unit 3 and the edge correction coefficient ew determined by the edge correction factor determination unit 4. An output image signal G is generated by correcting the target pixel value g and output. The output image signal G can be calculated according to the following equation, for example.
G = (f × W) + (1−W) × ew × g
In the output image signal G calculated by this equation, the target pixel value g is corrected by the average value signal f according to the ratio of the weighting factor W in the region near the edge where starvation occurs. Thereby, starvation can be reduced. In the minute region near the edge, the target pixel value g is limited by the edge correction coefficient ew, so that the density of the minute portion on the lighter side near the edge can be reduced and the edge can be emphasized. In this way, the output image signal G has a reduced starvation while suppressing apparent blur at the edges.
[0026]
FIG. 5 is a flowchart showing an example of the operation in the embodiment of the image processing apparatus of the present invention. Various parameters are set before an image signal is input. For example, the smoothing filter parameters of the smoothing unit 2, the values of the correction target selection table 12 and the weighting factor selection table 13 of the weighting factor determination unit 3, the value of the threshold CNTLMT in the edge determination unit 22 of the edge correction factor determination unit 4 and the like. Set in advance.
[0027]
When an image signal is input, it is sequentially held in the input buffer 1 in S31. After image signals of a predetermined number of pixels or a predetermined number of lines are input, pixels in a predetermined window including the target pixel are cut out and output while sequentially moving the target pixel. In response to this, the smoothing unit 2, the weight coefficient determination unit 3, and the edge correction coefficient determination unit 4 start processing. Of course, each unit may not use all the pixels in the window output from the input buffer 1. Here, as an example, the smoothing unit 2 and the weight coefficient determination unit 3 use all the pixels in the window, and the edge correction coefficient determination unit 4 uses only the pixels in the region including the target pixel smaller than the predetermined window. I will do it.
[0028]
The smoothing unit 2 performs a smoothing filter operation in S32 based on the value of each pixel in the window to obtain an average value signal f corresponding to the target pixel.
[0029]
In the weighting factor determination unit 3, the contrast calculation unit 11 first calculates the contrast h based on the value of each pixel in the window. For this purpose, the maximum value is retrieved from each pixel value in the window in S33. Let the maximum value found be MAXC. Further, in S34, the difference between the maximum value MAXC and the target pixel value g is calculated, and this is set as the contrast h. The contrast h and the maximum value MAXC are also sent to the edge determination unit 22 of the edge correction coefficient determination unit 4.
[0030]
The weighting factor calculation unit 14 receives the contrast h calculated by the contrast calculation unit 11, and determines whether or not the contrast h is 0 or less in S35. When the contrast h is 0 or less, it indicates that the window has a uniform density or the pixel of interest is a darker pixel in the edge portion. Similarly, when the target pixel value g is equal to or greater than the average value signal f, it indicates that the target pixel is a darker pixel. Since starvation occurs on the dark side of the edge portion, it is not necessary to perform correction processing on the dark side of the edge portion. Of course, it is not necessary to perform the correction process for the flat portion. Therefore, in S36, the weighting factor W is set to 0 so that the correction by the weighting factor W is not performed.
[0031]
When the contrast h is larger than 0 and the target pixel value g is smaller than the average value signal f in S35, the target pixel is a pixel having a lower density in the edge portion. Therefore, starvation may occur. First, in S37, a contrast weight ww for correcting the target pixel value g is obtained from the weight coefficient selection table 13 based on the contrast h. At the same time, the correction target degree wh is obtained from the correction target selection table 12 based on the target pixel value g in S38. Further, in S 39, the weighting factor calculation unit 14 calculates the weighting factor W from the contrast weight ww obtained from the weighting factor selection table 13 and the correction target degree wh obtained from the correction target selection table 12.
[0032]
On the other hand, the edge detection unit 21 of the edge correction coefficient determination unit 4 searches for a maximum value in S40 from a small region including the target pixel in the input buffer 1, for example, a region of about 3 × 3 pixels. This maximum value is set as MAXE. Here, the processing of the edge detection unit 21 is only the search of the maximum value MAXE, and the edge determination unit 22 determines whether or not the edge is actually an edge. Of course, the edge detection unit 21 may determine whether or not it is an edge by various known methods.
[0033]
In S <b> 41, the edge determination unit 22 compares the maximum value MAXE obtained by the edge detection unit 21 with the maximum value MAXC obtained by the contrast calculation unit 11. As described above, since the maximum value MAXC is the maximum value in the window, the presence of a pixel having the same value as the maximum value MAXC in an area smaller than the window means that the small area for detecting an edge has at least a density. This indicates that the pixel on the dark side is included. If the maximum value MAXC and the maximum value MAXE are equal, it is further determined in S42 whether or not the contrast h is greater than a preset threshold value CNTLMT. When the contrast h is larger than the threshold value CNTLMT, it can be seen that an edge having a density difference equal to or greater than the threshold value CNTLMT exists in a predetermined window, and that the target pixel is a pixel on the side having a lower edge density. From the determinations in S41 and S42, it is determined that there is a dark portion in the small area and the target pixel is a lighter pixel. That is, the pixel of interest is a thin pixel near the edge. The pixel determined in this way is a pixel to be corrected for edge enhancement. Therefore, in order to enhance the edge, in S43, the coefficient determination unit 23 calculates the edge correction coefficient ew based on the contrast h. If the maximum value MAXC and the maximum value MAXE are not equal in S41, and if the contrast h is equal to or less than the threshold value CNTLMT in S42, the edge determination coefficient ew is set to 1 in S44 and the edge emphasis correction is performed. Do not let it.
[0034]
After the average value signal f, the weight coefficient W, and the edge correction coefficient ew are obtained in this way, the correction pixel value calculation unit 5 calculates the output pixel signal G in S45. The output pixel signal G can be calculated by calculation according to the calculation formula as described above. Of course, other calculation formulas or other methods such as using a multidimensional lookup table may be used. The output pixel signal G calculated in this way may be output as a correction processing result.
[0035]
Next, an example of the correction processing operation in the embodiment of the image processing apparatus of the present invention will be described using a specific example. FIG. 6 is an explanatory diagram of an example of an input image signal, and FIG. 7 is an explanatory diagram of an example of an output image signal after correction processing. Although the image actually has a two-dimensional spread, only a part of a certain line is shown here. Here, as an example, assume an image in which there is a density difference between the pixel position B and the next pixel as shown in FIG. This density difference is the contrast h.
[0036]
If the width of the window cut out by the input buffer 1 is the illustrated width, the edge of the pixel position B is not included in the window on the left side of the pixel position A and on the right side of the pixel position C. Therefore, here, the pixels from the pixel position A to the pixel position C will be described. When pixels from pixel position A to pixel position C are used as the target pixel, since the window includes pixels having different densities, smoothing filter processing is performed by the smoothing unit 2 to perform averaging indicated by a broken line in FIG. A value signal f is output. In contrast, when the pixel from the pixel position A to the pixel position B is the pixel of interest, the contrast calculation unit 11 outputs the density difference of the edge portion as the contrast h, and the contrast h on the right side from the next pixel of the pixel position B is 0.
[0037]
The weight coefficient selection table 13 receives the contrast h from the contrast calculation unit 11 and outputs a contrast weight ww corresponding to each pixel. On the other hand, from the correction target selection table 12, the correction target degree wh = 1 is output for any pixel from the pixel position A to the pixel position C as being a correction target.
[0038]
The weight coefficient calculation unit 14 determines the contrast h, and calculates the weight coefficient W from the correction target degree wh and the contrast weight ww for each pixel from the pixel position A to the pixel position B. Here, since the correction target degree wh = 1, weight coefficient W = contrast weight ww. Further, the pixel on the right side from the pixel on the right side of the pixel position B is the pixel on the dark side of the edge portion, and the contrast h = 0 and the target pixel value g> the average value signal f, so the weighting factor W = 0. .
[0039]
Furthermore, when the pixel on the left side of the pixel position B is the target pixel, the edge detection unit 21 does not detect a pixel having a high density within a detection area of, for example, 3 × 3 pixels smaller than the window. For this reason, the edge determination unit 22 does not determine each pixel on the left side of the pixel position B as an edge, but outputs 1 as the edge correction coefficient ew.
[0040]
Thus, for each pixel from the pixel position A to the pixel adjacent to the left of the pixel position B, since the edge correction coefficient ew = 1, the correction process using the weighting coefficient W is performed, and the average value signal as shown in FIG. The image signal has a gentle inclination of f. Thus, by increasing the density toward the edge, starvation can be suppressed.
[0041]
As for the pixel position B, the edge detection unit 21 detects a dark portion and determines that the contrast h is sufficiently large, and the edge determination unit 22 determines that the pixel position B is a pixel to be subjected to edge correction. Is done. The coefficient determination unit 23 obtains an edge correction coefficient ew corresponding to the contrast h and outputs it to the correction pixel value calculation unit 5. As a result, the correction pixel value calculation unit 5 performs correction processing using the edge correction coefficient ew and the weighting coefficient W, and the target pixel value g is reduced by an amount corresponding to the edge correction coefficient ew. As shown in FIG. Thin pixels are generated.
[0042]
On the right side of the pixel right next to the pixel position B, since the contrast h is 0, the edge correction coefficient ew = 1 and the weight coefficient W is also 0, so that the correction pixel value calculation unit 5 determines the target pixel value g Is output as an output image signal G as it is.
[0043]
In this way, the input image signal as shown in FIG. 6 suppresses starvation for each pixel from pixel position A to pixel position B on the low density side of the edge portion as shown in FIG. The pixel position B is subjected to processing for increasing the density and enhancing the edge by decreasing the density. By forming an image using the output image signal G that has been subjected to correction processing in this way, it is possible to reduce starvation without the edge portion appearing blurred. The density distribution of the formed image has characteristics close to the distribution shown in FIG. 8B, for example.
[0044]
In the above-described specific example, an example of an edge that shifts from a low density portion to a high density portion is shown. However, for an edge that transitions from a high density portion to a low density portion, correction is similarly performed on the low density side of the edge portion. Can do. In the above-described specific example, one-dimensionally shown, but since each process is performed by setting a two-dimensional window, both the main scanning direction and the sub-scanning direction are on the low density side of the edge portion. The correction process as described above can be performed. For example, when the starvation generation area differs between the main scanning direction and the sub-scanning direction, the width of the window in the main scanning direction and the width of the sub-scanning direction may be set in accordance with the starvation generation area. Even in the same direction, the horizontal and vertical widths of the pixel of interest in the window are different even when the starvation occurs in different areas from the low density area to the high density area and from the high density area to the low density area. It is possible to cope with this by appropriately setting. Of course, as described above, the shape of the window is not limited to a rectangle, and may be any shape, such as a circle or a rhombus, and may be an effective shape and size for preventing starvation.
[0045]
In the above description, the processing to be performed on a single color image has been described. For example, when forming a color image using a plurality of color materials at the time of image formation, for each color image corresponding to each color material, What is necessary is just to perform the above processes.
[0046]
【The invention's effect】
As is apparent from the above description, according to the present invention, it is possible to prevent starvation while suppressing the apparent blur of the edge portion, and to generate an image signal capable of forming a high-quality image. There is an effect that can be done.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an embodiment of an image processing apparatus according to the present invention.
FIG. 2 is a graph showing an example of a relationship between a target pixel value and a correction target degree set in a correction target selection table.
FIG. 3 is a graph showing an example of the relationship between contrast and contrast weight set in the weighting coefficient selection table.
4 is a graph showing an example of a relationship between contrast and an edge correction coefficient ew set in the coefficient determination unit 23. FIG.
FIG. 5 is a flowchart showing an example of operation in the embodiment of the image processing apparatus of the present invention.
FIG. 6 is an explanatory diagram of an example of an input image signal.
FIG. 7 is an explanatory diagram illustrating an example of an output image signal after correction processing;
FIG. 8 is an explanatory diagram of an example of an image signal including an edge and a density distribution of a formed image.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Input buffer, 2 ... Smoothing part, 3 ... Weight coefficient determination part, 4 ... Edge correction coefficient determination part, 5 ... Correction pixel value calculation part, 11 ... Contrast calculation part, 12 ... Correction object selection table, 13 ... Weight Coefficient selection table, 14... Weight coefficient calculation unit, 21... Edge detection unit, 22.

Claims (8)

入力された画像信号を平滑化する平滑化手段と、該平滑化手段によって平滑化された画像信号を用いて前記入力された画像信号中のエッジ付近の濃度の薄い側の領域を補正する際の補正の程度を示す重み係数を決定する重み係数決定手段と、前記入力された画像信号を参照し画像中のエッジ部分における濃度の薄い側の微小部分の濃度を補正するためのエッジ補正係数を決定するエッジ補正係数決定手段と、前記平滑化手段から出力される平滑化された画像信号と前記重み係数決定手段で決定した前記重み係数と前記エッジ補正係数決定手段で決定した前記エッジ補正係数に基づいて前記入力された画像信号を補正する補正手段を有し、前記補正手段は、前記入力された画像信号中のエッジ付近の濃度の薄い側の領域において前記重み係数に応じた割合で前記入力された画像信号を前記平滑化手段により平滑化された画像信号により補正するとともに、エッジ近傍の濃度の薄い側の微小領域では、前記エッジ補正係数によって前記入力された画像信号を制限することを特徴とする画像処理装置。  A smoothing unit that smoothes the input image signal, and a region on the light-density side near the edge in the input image signal using the image signal smoothed by the smoothing unit. Weight coefficient determining means for determining a weight coefficient indicating the degree of correction, and an edge correction coefficient for correcting the density of a minute portion on the lighter side of the edge portion in the image with reference to the input image signal Based on the edge correction coefficient determination means, the smoothed image signal output from the smoothing means, the weight coefficient determined by the weight coefficient determination means, and the edge correction coefficient determined by the edge correction coefficient determination means Correction means for correcting the input image signal, and the correction means sets the weighting coefficient in the lighter density area near the edge in the input image signal. The input image signal is corrected by the image signal smoothed by the smoothing means at the same rate, and the input image signal is corrected by the edge correction coefficient in a small area near the edge where the density is low. An image processing apparatus characterized by restricting 前記補正手段は、前記入力された画像信号中のエッジ付近の濃度の薄い側の領域において、前記入力された画像信号の濃度が高くなるように、前記重み係数に応じた割合で前記入力された画像信号を前記平滑化手段により平滑化された画像信号により補正するとともに、エッジ近傍の濃度の薄い側の微小領域における前記入力された画像信号の濃度が低くなるように、前記エッジ補正係数決定手段が決定した前記エッジ補正係数によって前記入力された画像信号を制限することを特徴とする請求項1に記載の画像処理装置。  The correction means receives the input at a rate corresponding to the weighting factor so that the density of the input image signal is high in a low density area near the edge in the input image signal. The edge correction coefficient determining means corrects the image signal with the image signal smoothed by the smoothing means, and reduces the density of the input image signal in a minute area on the lighter side near the edge. The image processing apparatus according to claim 1, wherein the input image signal is limited by the edge correction coefficient determined by. 前記重み係数決定手段は、前記入力された画像信号に応じた補正対象重みを決定する補正対象重み決定手段と、周囲の画像信号とのコントラストを演算するコントラスト演算手段と、該コントラスト演算手段により算出されたコントラストに応じたコントラスト重みを決定するコントラスト重み決定手段と、前記補正対象重み決定手段で決定した前記補正対象重みと前記コントラスト重み決定手段で決定した前記コントラスト重みに基づいて前記重み係数を算出する重み係数算出手段を有し、前記重み係数算出手段は、前記入力された画像信号が前記平滑化された画像信号よりも大きい場合には前記入力された画像信号がそのまま出力されるように前記重み係数を決定することを特徴とする請求項1または請求項2に記載の画像処理装置。  The weight coefficient determining means is calculated by the correction target weight determining means for determining the correction target weight according to the input image signal, the contrast calculating means for calculating the contrast with the surrounding image signal, and the contrast calculating means. A contrast weight determining means for determining a contrast weight according to the contrast, a weight coefficient calculated based on the correction target weight determined by the correction target weight determining means and the contrast weight determined by the contrast weight determining means A weighting factor calculating unit configured to output the input image signal as it is when the input image signal is larger than the smoothed image signal. The image processing apparatus according to claim 1, wherein a weighting factor is determined. 前記エッジ補正係数決定手段は、前記入力された画像信号からエッジを検出するエッジ検出手段と、該エッジ検出手段において検出されたエッジが補正すべきエッジか否かを判定するエッジ判定手段と、該エッジ判定手段における判定結果に応じて前記エッジ補正係数を決定する係数決定手段を有していることを特徴とする請求項1ないし請求項3のいずれか1項に記載の画像処理装置。  The edge correction coefficient determination means includes edge detection means for detecting an edge from the input image signal, edge determination means for determining whether the edge detected by the edge detection means is an edge to be corrected, and 4. The image processing apparatus according to claim 1, further comprising a coefficient determination unit that determines the edge correction coefficient in accordance with a determination result in an edge determination unit. 5. 前記エッジ判定手段は、前記コントラスト演算手段が算出したコントラストが所定の閾値より大きい場合に補正すべきエッジと判定することを特徴とする請求項4に記載の画像処理装置。  The image processing apparatus according to claim 4, wherein the edge determination unit determines an edge to be corrected when the contrast calculated by the contrast calculation unit is greater than a predetermined threshold. 前記係数決定手段は、前記コントラスト演算手段が算出したコントラストに応じて前記エッジ補正係数を決定することを特徴とする請求項4または請求項5に記載の画像処理装置。  The image processing apparatus according to claim 4, wherein the coefficient determining unit determines the edge correction coefficient according to the contrast calculated by the contrast calculating unit. 前記係数決定手段は、前記コントラスト演算手段が算出したコントラストが小さい場合にはエッジ補正量が小さくなるように前記エッジ補正係数を決定し、前記コントラスト演算手段が算出したコントラストが大きい場合にはエッジ補正量が大きくなるように前記エッジ補正係数を決定することを特徴とする請求項4ないし請求項6のいずれか1項に記載の画像処理装置。  The coefficient determining means determines the edge correction coefficient so that an edge correction amount is small when the contrast calculated by the contrast calculating means is small, and edge correction when the contrast calculated by the contrast calculating means is large. The image processing apparatus according to claim 4, wherein the edge correction coefficient is determined so as to increase the amount. 入力された画像信号を平滑化するとともに、平滑化された画像信号を用いて前記入力された画像信号を補正する程度を示す重み係数を前記入力された画像信号から決定し、また前記入力された画像信号を参照して画像中のエッジ部分における濃度の薄い側の微小部分の濃度を補正するためのエッジ補正係数を決定し、前記入力された画像信号中のエッジ付近の濃度の薄い側の領域において前記重み係数に応じた割合で前記入力された画像信号を前記平滑化された画像信号により補正するとともに、エッジ近傍の濃度の薄い側の微小領域では、前記エッジ補正係数によって前記入力された画像信号を制限することによって、前記入力された画像信号を補正することを特徴とする画像処理方法。  The input image signal is smoothed, and a weighting factor indicating a degree to which the input image signal is corrected using the smoothed image signal is determined from the input image signal. An edge correction coefficient for correcting the density of the minute portion on the lighter side in the edge portion in the image with reference to the image signal is determined, and the region on the lighter side near the edge in the input image signal The input image signal is corrected by the smoothed image signal at a rate corresponding to the weighting factor in the above, and the input image is input by the edge correction factor in a small area on the lighter side near the edge. An image processing method, wherein the input image signal is corrected by limiting a signal.
JP15138998A 1998-06-01 1998-06-01 Image processing apparatus and image processing method Expired - Fee Related JP3709911B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15138998A JP3709911B2 (en) 1998-06-01 1998-06-01 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15138998A JP3709911B2 (en) 1998-06-01 1998-06-01 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JPH11346315A JPH11346315A (en) 1999-12-14
JP3709911B2 true JP3709911B2 (en) 2005-10-26

Family

ID=15517523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15138998A Expired - Fee Related JP3709911B2 (en) 1998-06-01 1998-06-01 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP3709911B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001063148A (en) 1999-08-31 2001-03-13 Fuji Xerox Co Ltd Image processor
US6760126B1 (en) * 2000-06-20 2004-07-06 Hewlett-Packard Development Company, L.P. Adaptive halftoning method and apparatus
JP3713574B2 (en) 2001-05-29 2005-11-09 コニカミノルタビジネステクノロジーズ株式会社 Image processing apparatus, image processing method, and program
JP2015079155A (en) * 2013-10-17 2015-04-23 富士ゼロックス株式会社 Image forming apparatus, image processing program, and image processing method
JP6790594B2 (en) 2016-08-30 2020-11-25 コニカミノルタ株式会社 Image processing device, image forming device, image forming system and image processing method
JP6794858B2 (en) 2017-02-06 2020-12-02 コニカミノルタ株式会社 Image processing device and image processing method

Also Published As

Publication number Publication date
JPH11346315A (en) 1999-12-14

Similar Documents

Publication Publication Date Title
JP4112362B2 (en) System and method for enhancing scanned document images for color printing
US6724942B1 (en) Image processing method and system
US10798268B2 (en) Image processing apparatus, method of controlling the same, and storage medium for switching a show-through removal process based on a halftone-dot region
US7228004B2 (en) Method for sharpening a digital image
US20100238468A1 (en) Image processing apparatus and control method of image forming apparatus
JP2002314814A (en) Image processor
JP2001113754A (en) Apparatus and method for processing image
JP3791199B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JP3709911B2 (en) Image processing apparatus and image processing method
JP3790879B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JP2005508576A (en) Automatic background removal method and system
JP2019092101A (en) Image processing apparatus, image processing method, and program
WO2003079670A1 (en) Reducing halos in spatially dependent gamut mapping
JP3221426B2 (en) Image processing device
JP3753550B2 (en) Smoothing processing device
JP3275746B2 (en) Image processing device
JP2861410B2 (en) Image processing device
JPH08317255A (en) Method and device for picture quality improvement
JP3821672B2 (en) Video signal processor
JP4084537B2 (en) Image processing apparatus, image processing method, recording medium, and image forming apparatus
JP2002158872A (en) Image processing method, image processor and recording medium
JPH0662230A (en) Image forming device
JP3359377B2 (en) Background concentration detector
JP2005080152A (en) Image forming apparatus
JP3977112B2 (en) Color image processing method and color image processing apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050413

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050802

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090819

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100819

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110819

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120819

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120819

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130819

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees