JP4058823B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4058823B2
JP4058823B2 JP28100298A JP28100298A JP4058823B2 JP 4058823 B2 JP4058823 B2 JP 4058823B2 JP 28100298 A JP28100298 A JP 28100298A JP 28100298 A JP28100298 A JP 28100298A JP 4058823 B2 JP4058823 B2 JP 4058823B2
Authority
JP
Japan
Prior art keywords
target pixel
image data
edge
pixel
density
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28100298A
Other languages
Japanese (ja)
Other versions
JP2000115541A (en
Inventor
圭介 橋本
好彦 廣田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP28100298A priority Critical patent/JP4058823B2/en
Priority to US09/408,366 priority patent/US6978045B1/en
Publication of JP2000115541A publication Critical patent/JP2000115541A/en
Application granted granted Critical
Publication of JP4058823B2 publication Critical patent/JP4058823B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、デジタル画像データの処理、特に文字画像のエッジ処理に関する。
【0002】
【従来の技術】
画像処理装置は、原稿を読み取って得られたデジタル画像データを処理し、印字用のデジタル画像データを出力する。画像は、デジタル画像データに基づいて記録媒体上に再現される。
画像処理装置は、原稿の画像をよりよく再現するため、原稿の画像を読み取ったデジタル画像データについて、種々の処理をおこなう。文字原稿については、文字画像の再現のため、文字のエッジを強調することが望ましい。このため、種々のエッジ判定手法や、エッジ判定結果に基づくデータ強調手法が提案されている。
【0003】
【発明が解決しようとする課題】
画素を主走査方向に複数のサブ画素に分割して画像を形成すると、画像の解像度があがり微細な表現ができる。ここで、文字エッジ部で、注目画素の階調について周辺画素の階調を考慮して平滑化処理をする。これにより2値画像の場合でも多値階調画像を形成できる。さらに、サブ画素ごとに濃度を変化させることにより画素内で濃度の重心を変化させることができる。しかし、平滑化処理を用いた場合、文字エッジ部で平滑化処理を行って多値階調画像を生成すると、細い線の線幅が細るという問題がある。
【0004】
本発明の目的は、文字エッジ部における線幅の細りを抑えられる画像処理装置を提供することである。
【0005】
【課題を解決するための手段】
本発明に係る画像処理装置は、多値画像データに基づいて、画素を主走査方向に複数のサブ領域に分割しサブ領域の単位で画像を形成するためのデジタル画像データを出力する画像処理装置であり、注目画素とその周辺画素の多値画像データの差から注目画素のエッジ方向を識別するエッジ判定手段と、注目画素が含まれる線の線幅を判定する線幅判定手段と、平滑化処理を行うための、対称型の平滑化フィルタ及び非対称型の平滑化フィルタと、注目画素とその周辺画素の多値画像データに対して、上記線幅判定手段により線幅の細いラインと判定された場合には、対称型の平滑化フィルタを選択して平滑化処理を行い、そうでない場合には、非対称型の平滑化フィルタを選択して平滑化処理を行い、注目画素の濃度レベルを生成する濃度レベル生成手段と、濃度レベル生成手段により生成された濃度レベルを基に、上記エッジ判定手段によって判定された注目画素のエッジ方向にしたがって、画像を形成するためのデジタル画像データを注目画素内のサブ領域ごとに設定する画像データ設定手段とを備える。このように、エッジ方向は、注目画素と周辺画素との階調差を求め、その階調差の組合せによって判別され、エッジ方向の判別結果から注目画素を含む領域の線幅を求める。また、濃度レベル生成手段において、注目画素の階調を、周辺画素の階調から再計算する。これによって、2値画像の場合でも注目画素は多値階調となり、サブ画素単位の濃度を制御することにより濃度重心を変化させることができる。このとき、濃度レベル生成手段が使う平滑化フィルタを線幅によって切り替え、対称型のフィルタを用いることによって、細い線の線幅の細りを抑えることができる。
また、上記画像データ設定手段は、好ましくは、上記エッジ判定手段によって判定された注目画素のエッジ方向にしたがって、注目画素内のサブ領域ごとにデジタル画像データ設定用パラメータを設定する画像データ制御手段と、画像データ制御手段により設定されたデジタル画像データ設定用パラメータを用いて、注目画素の濃度レベルを基に、注目画素内のサブ領域ごとにデジタル画像データを設定する濃度レベル設定手段とからなる。
また、上記線幅判定手段は、エッジ判定手段によって判定された注目画素のエッジ方向と、注目画素の周辺の画素のエッジ方向とから、注目画素が含まれる線の線幅を判定する。
【0006】
【発明の実施の形態】
以下、添付の図面を参照して本発明の実施形態の画像処理装置について説明する。なお、図面において同一の参照記号は、同一または同等のものをさす。
図1は、本発明の画像処理装置の1実施形態を示す。この画像処理装置は、原稿読取装置、コンピュータなどから入力される2値デジタル画像データに基づいて、感光体を露光することにより感光体上に画像を形成するための多値デジタル画像データをサブ画素単位で生成し、プリンタに出力する。ここで、文字エッジ部の処理のため、注目画素とその周辺の画素との階調差を求め、その階調差の組合わせによって主走査方向でのエッジ方向を識別し、得られたエッジ方向の結果から注目画素を含む領域の線幅を求める。そして、エッジ平滑化の処理を線幅により切り替えて、エッジ平滑化の際のエッジ部の細い線の線幅の細りを抑える。
【0007】
具体的に説明すると、画像データ出力装置10は、ここでは図示されていない原稿読取装置、コンピュータなどから入力される2値画像のデジタル画像データを8ビットの階調データとして出力する。エッジ判定部12は、画像データ出力装置10から出力される多値階調データを用いて、注目画素とその周辺の画素との階調差を求め、その階調差の組合わせによって主走査方向でのエッジ方向を識別する。そして、エッジ判定部12の判定結果を基に、濃度レベル制御部14は、画素内の濃度重心を制御するためのパラメータ信号を、注目画素を主走査方向に分割したサブ画素の単位で生成する。一方、線幅判定部16は、エッジ判定部12で識別されたエッジ方向を用いて線幅を判定する。濃度生成部18は、注目画素および周辺画素の多値階調データを入力し、線幅判定部16で判定された線幅に応じた平滑化処理によって、注目画素の階調(濃度)を、周辺画素の階調から新たに生成する。ガンマ補正部20は、濃度生成部18から出力された階調データの非線形変換をし、プリント部26の階調性の非線形ひずみを補正する。濃度レベル設定部22は、ガンマ補正部20により補正されたデータについて、濃度レベル制御部14により生成された濃度制御パラメータ信号を用いて濃度レベルを制御して、画素内の濃度重心を変化させる。こうして、濃度レベル制御部14と濃度レベル設定部22により濃度がサブ画素単位で制御され、ガンマ補正部20により補正された濃度データが、さらに、サブ画素単位で印字用のデジタル階調データに変換される。D/A変換器24は、濃度レベル設定部22により得られたデジタル階調データをアナログ信号に変換し、プリント部26のレーザー駆動回路に出力する。プリント部26は、入力信号に基づいてレーザービームの強度をサブ画素の単位で変調し、中間調画像をラスター走査で記録媒体上に形成する。
【0008】
エッジ判定部12は、注目画素の主走査方向でのエッジ方向を次の4つの場合に区分して判定する。この判定結果に基づいてエッジをどの方向に寄せるかが判断される。ここでは、主走査方向を左右方向とする。「右エッジ」とは、文字の右側にあるエッジ、すなわち、注目画素の左側に文字部がある場合のエッジをいう。「左エッジ」とは、文字の左側にあるエッジ、すなわち、注目画素の右側に文字部がある場合のエッジをいう。また、「細線エッジ」とは、注目画素の中央に文字部がある場合、すなわち、1つの注目画素内に右エッジと左エッジがある場合のエッジをいう。なお、以上のいずれにも該当しない場合は、「非エッジ部」である。
【0009】
図2は、エッジ判定部12のブロック図である。エッジは、たとえば3×3の画素マトリクスを用いて判定される。まず、注目画素とその周辺の8画素との階調差を計算し、注目画素より濃度の高い画素と濃度の低い画素に分ける。図3に示すように、3×3の画素マトリクスにおいて、V33は注目画素の階調データを表し、V22,V23,V24,V32,V34,V42,V43,V44は注目画素に隣接する8個の画素の階調データを表す。図2に示すエッジ判定部12において、8個の階調差信号発生回路120は、注目画素の階調データV33とその周辺の8画素の階調データV22,V23,V24,V32,V34,V42,V43,V44を入力し、周辺画素と注目画素との階調データの差(階調差信号)を求める。組合せ判定回路122は、注目画素と周辺画素との階調差を入力し、その階調差の組合わせによってエッジ方向を判別する。すなわち、注目画素とその周辺の8画素との階調差を計算し、注目画素より濃度の高い画素と濃度の低い画素に分ける。そして、注目画素と周囲画素との濃度値の関係からエッジ方向を識別する。具体的には、組合せ判定回路122は、これらの8つの階調差信号の組合わせによって主走査方向でのエッジ方向(右エッジ、左エッジなど)を判別し、右寄せ信号MARKRと左寄せ信号MARKLを生成する。右寄せ信号MARKRは、右エッジが存在することを示し、左寄せ信号MARKLは左エッジが存在することを示す。そして、NANDゲート、2個のANDゲートおよび3個のセレクタ(S=LでAを選択する)からなる論理回路124は、これらの右寄せ信号MARKRと左寄せ信号MARKLからエッジ方向を判断し、エッジ方向信号EDGを出力する。すなわち、MARKRとMARKLがともに出力されていれば、EDG="01"(細線エッジ)が出力され、MARKRまたはMARKLが出力されていれば、EDG="03"(右エッジ)またはEDG="02"(左エッジ)が出力され、MARKRとMARKLがいずれも出力されていなければ、EDG="00"(非エッジ部)が出力される。
【0010】
図4は、濃度レベル制御部14のブロック図である。エッジ判定部12の出力であるエッジ方向信号EDGをアドレス信号として入力し、8個のパラメータRAM140に記憶されたテーブルより8個の濃度制御パラメータ信号A1,A2,A3,A4,B1,B2,B3,B4を得る。得られた濃度制御パラメータは、濃度レベル設定部22に送られる。
【0011】
図5は、線幅判定部16を示す。ここで、エッジ判別部12から入力される右寄せ信号MARKRと左寄せ信号MARKLから、注目画素を含む複数画素からなる領域においてそれらの連続性を判断し、線幅を1ドット線(W1DOT)、2ドット線(W2DOT)、3ドット以上の線(W3DOT)に分類する。線幅判定部16において、まず、2個のシフトレジスタ160と162は、主走査方向における右寄せ信号MARKRと左寄せ信号MARKLを、それぞれ順次入力し、注目画素とその両側の画素についてのMARKRとMARKLを、ANDゲート、ORゲートなどからなる論理回路164に出力する。論理回路164は、注目画素についてMARKLとMARKRがともに入力されたときに細線であると判断して、W1DOT信号を出力する。また、細線でなく、かつ、注目画素の前の画素と注目画素について、または、注目画素とその次の画素について、MARKLとMARKRが続けて入力されたときに、2ドットの線幅と判断して、W2DOT信号を出力する。その他の場合は、MARKLまたはMARKRが入力されたときに3ドット以上の線幅と判断して、W3DOT信号を出力する。
【0012】
図6は、濃度生成部18を示す。注目画素を含むラインの階調データV3と、その前後の2ラインの階調データV1、V2、V4、V5が、3個の平滑化回路180、182、184に入力される。平滑化回路180は、1ドットライン用の平滑化回路である。平滑化回路182は、2ドットライン用の平滑化回路であり、非対称型フィルタと対称型フィルタとの切り替える部分を備える。平滑化回路184は、3ドット以上のライン用の平滑化回路である。セレクタ186は、W1DOT信号が出力されたときは、平滑化回路180の出力信号を、その他の場合は、セレクタ188の出力信号を、信号VFとして出力する。セレクタ188は、W2DOT信号が出力されたときは、平滑化回路182の出力信号を濃度レベルとして出力し、その他の場合は、セレクタ1810の出力信号を濃度レベルとして出力する。セレクタ188は、W3DOT信号が出力されたときは、平滑化回路184の出力信号を濃度レベルとして出力し、その他の場合は、注目画素を含むラインの信号V3を出力する。(セレクタ186、188、1810は、選択信号Sが低レベルであるときにA入力を出力する。)
【0013】
図7は、濃度レベル設定部22のブロック図である。4個の濃度レベル演算部180では、ガンマ補正部12で非線形変換された階調データVGに対し、濃度制御パラメータ信号の4種の組合せA1とB1、A2とB2、A3とB3、A4とB4を用いて、それぞれ、ブロック内に示されるような1次演算(VH=A*(VG−B))を行う。この結果、VGから4つの階調信号VH1,VH2,VH3,VH4が得られる。次に、セレクタ182は、画素クロックCLKと画素クロックの倍の周波数を持つ倍速クロックXCLKとを用いて、濃度レベル演算部180において1次演算で得られた4つの階調信号VH1,VH2,VH3,VH4を1画素内でサブ画素ごとに切り換えて、濃度レベル信号VDを生成する。これにより、1画素を4サブ画素に分割し、サブ画素ごとに濃度レベル信号VDを出力する。
【0014】
図8から図11は、エッジ判定部12で判定されたエッジ種類のそれぞれについて、1画素内の濃度がどのように変化するかを示したものである。ガンマ補正部16で非線形変換で得られた階調データの階調(濃度レベル)が増加するにつれ、1画素内の4つのサブ画素に与えられるデジタル階調データがそれぞれそのように変化していくかを示す。図において各サブ画素における黒部分の高さは、濃度レベルを表す。
図8は、右エッジの場合の変化を示す。ここで濃度制御パラメータ信号は、次のとおりである。A1=A2=A3=A4=4。B1=0。B2=64。B3=128。B4=192。図には、階調レベルが0、32、64、96、128、160、192、224、255の場合を示す。図において明らかなように、右エッジであるので、濃度は左側のサブ画素から順に増加される。こうして、画素の濃度の重心は左から順次中央に移動していく。
【0015】
図9は、左エッジの場合の変化を示す。これは、図8の右エッジの場合と左右対称である。ここで濃度制御パラメータ信号は、次の通りである。A1=A2=A3=A4=4。B1=192。B2=128。B3=64。B4=0。図は、階調レベルが0、32、64、96、128、160、192、224、255の場合を示す。図において明らかなように、左エッジであるので、濃度は右側のサブ画素から順に増加される。こうして、画素の濃度の重心は右から順次中央に移動していく。
【0016】
図10は、非エッジの場合の変化を示す。ここで濃度制御パラメータ信号は、次の通りである。A1=A2=A3=A4=1。B1=B2=B3=B4=0。図は、階調レベルが0、32、64、96、128、160、192、224、255の場合を示す。図において明らかなように、エッジが存在しないので、4個のサブ画素はいずれも同じ濃度とし、したがって、画素の濃度の重心は常に中央にある。濃度は、階調レベルに対応して増加する。
【0017】
図11は、細線エッジの場合の変化を示す。ここで濃度制御パラメータ信号は、次の通りである。A1=A2=A3=A4=2。B1=128、B2=B3=0。B4=128。図は、階調レベルが0、32、64、96、128、160、192、224、255の場合を示す。右エッジと左エッジが同時に存在する細線エッジであるので、図において明らかなように、まず中央の2個のサブ画素の濃度が、階調レベルに対応して増加する。画素の濃度の重心は常に中央にある。次に、両側の2個のサブ画素の濃度が階調レベルに対応して増加する。画素の濃度の重心は常に中央にあるが、濃度分布は、階調レベル128を越えると、しだいに左右に広がっていく。図8〜図11では、主に濃度の重心の変化について説明したが、図11に示すように、注目画素内において濃度は端から増加させていくとは限らない。また、変化させるのは濃度の重心だけではなく、濃度分布である。
【0018】
図12は、濃度生成部18において、副走査方向の平滑化フィルタを線幅に応じて切り替えたときの出力画像の変化を図式的に示す。いま左側に示すような原画像を考える。文字エッジ部に対して通常はエッジ再現のため非対称型の平滑化フィルタが用いられる(図示されたフィルタのうち、右側のフィルタは上方に画像がある場合に用いられ、左側のフィルタは、下方に画像がある場合に用いられる)。非対称型の平滑化フィルタを用いると、線幅の小さいラインの場合、平滑化とサブ画素単位での濃度重心制御とにより処理した後の画像における線幅は、処理前に比べて極端に細くなる。この例では、2ドット幅のラインが、約1.4ドットの線幅になる。
これに対し、2ドット幅のラインについて、濃度生成部18における平滑化回路のフィルタとして対称型フィルタを用いると、線幅の小さいラインの線の平滑化処理による細りを抑えられる。この例では、2ドット幅のラインが、最低でも約1.7ドットの線幅になり、上の比較例の約1.4ドットの線幅より細りが少なくなり、太くなる。
【0019】
【発明の効果】
画像処理装置において、文字エッジ部の平滑化処理における線幅の細りを防止できる。
【図面の簡単な説明】
【図1】 画像処理装置の1実施形態のブロック図。
【図2】 エッジ判定部のブロック図。
【図3】 エッジ判定用の9個の画素の信号の分布を示す図。
【図4】 濃度レベル制御部のブロック図。
【図5】 線幅判定部のブロック図。
【図6】 濃度生成部のブロック図。
【図7】 濃度レベル設定部のブロック図。
【図8】 右エッジの場合の階調レベルに対する濃度の変化を示す図。
【図9】 左エッジの場合の階調レベルに対する濃度の変化を示す図。
【図10】 非エッジ部の場合の階調レベルに対する濃度の変化を示す図。
【図11】 細線エッジの場合の階調レベルに対する濃度の変化を示す図。
【図12】 平滑化処理後の実際の画像データを示す図。
【符号の説明】
10 画像データ出力装置、 12 ガンマ補正部、 14 エッジ判定部、 16 線幅判定部、 18 濃度生成部、 22濃度レベル設定部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to processing of digital image data, and more particularly to edge processing of character images.
[0002]
[Prior art]
The image processing apparatus processes digital image data obtained by reading a document and outputs digital image data for printing. The image is reproduced on a recording medium based on the digital image data.
The image processing apparatus performs various processes on the digital image data obtained by reading the image of the document in order to better reproduce the image of the document. For character manuscripts, it is desirable to emphasize the edge of the characters in order to reproduce the character image. For this reason, various edge determination methods and data enhancement methods based on edge determination results have been proposed.
[0003]
[Problems to be solved by the invention]
When an image is formed by dividing a pixel into a plurality of sub-pixels in the main scanning direction, the resolution of the image is increased and a fine expression can be achieved. Here, at the character edge portion, the gradation of the pixel of interest is smoothed in consideration of the gradation of surrounding pixels. As a result, a multi-value gradation image can be formed even in the case of a binary image. Furthermore, the density centroid can be changed within the pixel by changing the density for each sub-pixel. However, when the smoothing process is used, there is a problem that the line width of a thin line becomes thin when the smoothing process is performed at the character edge portion to generate a multi-value gradation image.
[0004]
An object of the present invention is to provide an image processing apparatus capable of suppressing a thin line width at a character edge portion.
[0005]
[Means for Solving the Problems]
An image processing apparatus according to the present invention outputs, based on multi-valued image data, digital image data for dividing a pixel into a plurality of sub areas in the main scanning direction and forming an image in units of sub areas. An edge determination unit for identifying the edge direction of the target pixel from the difference between the multi-valued image data of the target pixel and its surrounding pixels, a line width determination unit for determining the line width of the line including the target pixel, and smoothing A symmetric smoothing filter and an asymmetric smoothing filter for processing, and multi-valued image data of the target pixel and its surrounding pixels are determined to be thin lines by the line width determining means. If this happens, select a symmetric smoothing filter and perform smoothing. Otherwise, select an asymmetric smoothing filter and perform smoothing to generate the density level of the pixel of interest. Concentration Based on the density level generated by the bell generation means and the density level generation means, digital image data for forming an image is converted into sub-pixels in the target pixel according to the edge direction of the target pixel determined by the edge determination means. Image data setting means for setting each area. As described above, the edge direction is determined by the gradation difference between the target pixel and the surrounding pixels, and is determined by the combination of the gradation differences, and the line width of the region including the target pixel is determined from the determination result of the edge direction. Further, in the density level generation means, the gradation of the target pixel is recalculated from the gradations of the peripheral pixels. Thus, even in the case of a binary image, the target pixel has a multi-value gradation, and the density centroid can be changed by controlling the density in units of sub-pixels. At this time, thinning of the thin line can be suppressed by switching the smoothing filter used by the density level generation unit according to the line width and using a symmetric filter.
The image data setting means preferably includes image data control means for setting a digital image data setting parameter for each sub-region in the target pixel in accordance with the edge direction of the target pixel determined by the edge determination means. And density level setting means for setting digital image data for each sub-region in the target pixel based on the density level of the target pixel using the digital image data setting parameters set by the image data control means.
The line width determination unit determines the line width of the line including the target pixel from the edge direction of the target pixel determined by the edge determination unit and the edge direction of the pixels around the target pixel.
[0006]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the accompanying drawings. In the drawings, the same reference symbols denote the same or equivalent ones.
FIG. 1 shows an embodiment of an image processing apparatus of the present invention. This image processing apparatus sub-pixels multi-value digital image data for forming an image on a photoconductor by exposing the photoconductor based on binary digital image data input from a document reading device, a computer, or the like. Generate in units and output to printer. Here, for the processing of the character edge part, the gradation difference between the target pixel and the surrounding pixels is obtained, the edge direction in the main scanning direction is identified by the combination of the gradation differences, and the obtained edge direction From the result, the line width of the region including the target pixel is obtained. Then, the edge smoothing process is switched according to the line width to suppress the thinning of the line width of the thin edge portion at the time of edge smoothing.
[0007]
More specifically, the image data output device 10 outputs binary image digital image data input from a document reading device, a computer, etc., not shown here, as 8-bit gradation data. The edge determination unit 12 uses the multi-value gradation data output from the image data output device 10 to obtain a gradation difference between the pixel of interest and its surrounding pixels, and in the main scanning direction by combining the gradation differences. Identify the edge direction at. Then, based on the determination result of the edge determination unit 12, the density level control unit 14 generates a parameter signal for controlling the density centroid in the pixel in units of sub-pixels obtained by dividing the target pixel in the main scanning direction. . On the other hand, the line width determination unit 16 determines the line width using the edge direction identified by the edge determination unit 12. The density generation unit 18 receives the multi-value gradation data of the target pixel and the surrounding pixels, and performs the smoothing process according to the line width determined by the line width determination unit 16 to change the gradation (density) of the target pixel. It is newly generated from the gradation of the peripheral pixels. The gamma correction unit 20 performs non-linear conversion of the tone data output from the density generation unit 18 and corrects the non-linear tone distortion of the print unit 26. The density level setting unit 22 controls the density level of the data corrected by the gamma correction unit 20 using the density control parameter signal generated by the density level control unit 14 to change the density centroid in the pixel. In this way, the density is controlled in units of subpixels by the density level control unit 14 and the density level setting unit 22, and the density data corrected by the gamma correction unit 20 is further converted into digital gradation data for printing in units of subpixels. Is done. The D / A converter 24 converts the digital gradation data obtained by the density level setting unit 22 into an analog signal and outputs the analog signal to the laser driving circuit of the printing unit 26. The print unit 26 modulates the intensity of the laser beam in units of subpixels based on the input signal, and forms a halftone image on the recording medium by raster scanning.
[0008]
The edge determination unit 12 determines the edge direction in the main scanning direction of the target pixel by dividing into the following four cases. Based on this determination result, it is determined in which direction the edge is moved. Here, the main scanning direction is the left-right direction. “Right edge” refers to an edge on the right side of a character, that is, an edge when a character portion is on the left side of a pixel of interest. “Left edge” refers to an edge on the left side of a character, that is, an edge when a character portion is on the right side of a pixel of interest. The “thin line edge” refers to an edge when a character portion is in the center of the target pixel, that is, when a right edge and a left edge are present in one target pixel. If none of the above applies, it is a “non-edge portion”.
[0009]
FIG. 2 is a block diagram of the edge determination unit 12. The edge is determined using, for example, a 3 × 3 pixel matrix. First, the gradation difference between the target pixel and the surrounding eight pixels is calculated and divided into a pixel having a higher density and a lower density than the target pixel. As shown in FIG. 3, in the 3 × 3 pixel matrix, V33 represents the gradation data of the target pixel, and V22, V23, V24, V32, V34, V42, V43, and V44 are eight adjacent to the target pixel. Represents pixel gradation data. In the edge determination unit 12 shown in FIG. 2, the eight gradation difference signal generation circuits 120 include gradation data V33 of the target pixel and gradation data V22, V23, V24, V32, V34, V42 of the surrounding eight pixels. , V43, V44 are inputted, and the difference (gradation difference signal) of the gradation data between the peripheral pixel and the target pixel is obtained. The combination determination circuit 122 receives the gradation difference between the target pixel and the surrounding pixels, and determines the edge direction based on the combination of the gradation differences. That is, the gradation difference between the target pixel and the surrounding eight pixels is calculated and divided into a pixel having a higher density and a lower density than the target pixel. Then, the edge direction is identified from the relationship between the density values of the target pixel and the surrounding pixels. Specifically, the combination determination circuit 122 determines the edge direction (right edge, left edge, etc.) in the main scanning direction by combining these eight gradation difference signals, and outputs the right-justified signal MARKR and the left-justified signal MARKL. Generate. The right justified signal MARKR indicates that a right edge exists, and the left justified signal MARKL indicates that a left edge exists. A logic circuit 124 including a NAND gate, two AND gates, and three selectors (selecting A when S = L) determines the edge direction from the right-justified signal MARKR and the left-justified signal MARKL, and determines the edge direction. The signal EDG is output. That is, if both MARKR and MARKL are output, EDG = “01” (thin line edge) is output, and if MARKR or MARKL is output, EDG = “03” (right edge) or EDG = “02”. If “(left edge)” is output and neither MARKR nor MARKL is output, EDG = “00” (non-edge portion) is output.
[0010]
FIG. 4 is a block diagram of the density level control unit 14. The edge direction signal EDG, which is the output of the edge determination unit 12, is input as an address signal, and eight density control parameter signals A1, A2, A3, A4, B1, B2, B3 from the table stored in the eight parameter RAMs 140 are input. , B4. The obtained density control parameter is sent to the density level setting unit 22.
[0011]
FIG. 5 shows the line width determination unit 16. Here, from the right justified signal MARKR and the left justified signal MARKL input from the edge discriminating unit 12, their continuity is judged in an area composed of a plurality of pixels including the target pixel, and the line width is set to 1 dot line (W1DOT), A line (W2DOT) is classified into a line of 3 dots or more (W3DOT). In the line width determination unit 16, first, the two shift registers 160 and 162 sequentially input the right-justified signal MARKR and the left-justified signal MARKL in the main scanning direction, respectively, and obtain MARKR and MARKL for the pixel of interest and the pixels on both sides thereof. , An AND gate, an OR gate, and the like. The logic circuit 164 determines that the line is a thin line when both MARKL and MARKR are input for the target pixel, and outputs a W1DOT signal. In addition, when MARKL and MARKR are continuously input for the pixel before the target pixel and the target pixel, or the target pixel and the next pixel, not a thin line, it is determined that the line width is 2 dots. And outputs a W2DOT signal. In other cases, when MARKKL or MARKKR is input, it is determined that the line width is 3 dots or more, and a W3DOT signal is output.
[0012]
FIG. 6 shows the concentration generator 18. The gradation data V3 of the line including the target pixel and the gradation data V1, V2, V4, and V5 of the two lines before and after the line are input to the three smoothing circuits 180, 182, and 184. The smoothing circuit 180 is a smoothing circuit for one dot line. The smoothing circuit 182 is a smoothing circuit for 2 dot lines, and includes a portion for switching between an asymmetric filter and a symmetric filter. The smoothing circuit 184 is a smoothing circuit for lines of 3 dots or more. The selector 186 outputs the output signal of the smoothing circuit 180 as the signal VF when the W1DOT signal is output, and the output signal of the selector 188 in other cases. The selector 188 outputs the output signal of the smoothing circuit 182 as the density level when the W2DOT signal is output, and outputs the output signal of the selector 1810 as the density level in other cases. The selector 188 outputs the output signal of the smoothing circuit 184 as the density level when the W3DOT signal is output, and outputs the signal V3 of the line including the target pixel in other cases. (The selectors 186, 188, and 1810 output the A input when the selection signal S is at a low level.)
[0013]
FIG. 7 is a block diagram of the density level setting unit 22. In the four density level calculation units 180, four types of combinations A1 and B1, A2 and B2, A3 and B3, A4 and B4 of the density control parameter signal are applied to the gradation data VG nonlinearly converted by the gamma correction unit 12. Are used to perform a primary operation (VH = A * (VG−B)) as shown in each block. As a result, four gradation signals VH1, VH2, VH3, and VH4 are obtained from VG. Next, the selector 182 uses the gray level signal VH1, VH2, VH3 obtained by the primary calculation in the density level calculation unit 180 using the pixel clock CLK and the double speed clock XCLK having a frequency twice that of the pixel clock. , VH4 are switched for each sub-pixel within one pixel to generate a density level signal VD. Thereby, one pixel is divided into four sub-pixels, and the density level signal VD is output for each sub-pixel.
[0014]
8 to 11 show how the density in one pixel changes for each of the edge types determined by the edge determination unit 12. As the gradation (density level) of the gradation data obtained by the non-linear conversion in the gamma correction unit 16 increases, the digital gradation data given to the four sub-pixels in one pixel changes accordingly. Indicate. In the figure, the height of the black portion in each sub-pixel represents the density level.
FIG. 8 shows the change in the case of the right edge. Here, the density control parameter signal is as follows. A1 = A2 = A3 = A4 = 4. B1 = 0. B2 = 64. B3 = 128. B4 = 192. In the figure, the gradation levels are 0, 32, 64, 96, 128, 160, 192, 224, and 255. As is apparent in the figure, since it is the right edge, the density is increased in order from the left sub-pixel. In this way, the center of gravity of the pixel density shifts sequentially from the left to the center.
[0015]
FIG. 9 shows the change in the case of the left edge. This is symmetrical to the right edge in FIG. Here, the density control parameter signal is as follows. A1 = A2 = A3 = A4 = 4. B1 = 192. B2 = 128. B3 = 64. B4 = 0. The figure shows the case where the gradation levels are 0, 32, 64, 96, 128, 160, 192, 224, and 255. As is clear in the figure, since it is the left edge, the density is increased in order from the right sub-pixel. In this way, the center of gravity of the pixel density shifts sequentially from the right to the center.
[0016]
FIG. 10 shows the change in the non-edge case. Here, the density control parameter signal is as follows. A1 = A2 = A3 = A4 = 1. B1 = B2 = B3 = B4 = 0. The figure shows the case where the gradation levels are 0, 32, 64, 96, 128, 160, 192, 224, and 255. As can be seen in the figure, since there is no edge, all four sub-pixels have the same density, and therefore the center of gravity of the pixel density is always in the center. The density increases corresponding to the gradation level.
[0017]
FIG. 11 shows the change in the case of a thin line edge. Here, the density control parameter signal is as follows. A1 = A2 = A3 = A4 = 2. B1 = 128, B2 = B3 = 0. B4 = 128. The figure shows the case where the gradation levels are 0, 32, 64, 96, 128, 160, 192, 224, and 255. Since the right edge and the left edge are thin line edges that exist at the same time, as clearly shown in the figure, first, the density of the central two sub-pixels increases corresponding to the gradation level. The center of gravity of the pixel density is always in the center. Next, the density of the two sub-pixels on both sides increases corresponding to the gradation level. The center of gravity of the pixel density is always in the center, but the density distribution gradually spreads to the left and right when the gradation level 128 is exceeded. Although FIGS. 8 to 11 mainly describe changes in the density centroid, as shown in FIG. 11, the density does not always increase from the end within the pixel of interest. Also, it is not only the density centroid that changes, but also the density distribution.
[0018]
FIG. 12 schematically shows changes in the output image when the density generation unit 18 switches the smoothing filter in the sub-scanning direction according to the line width. Consider the original image shown on the left. Usually, an asymmetric smoothing filter is used for the edge reproduction for the character edge portion (among the illustrated filters, the right filter is used when there is an image above, and the left filter is below. Used when there is an image). When an asymmetric smoothing filter is used, in the case of a line with a small line width, the line width in an image after processing by smoothing and density centroid control in sub-pixel units becomes extremely narrow compared to before processing. . In this example, a line with a width of 2 dots has a line width of about 1.4 dots.
On the other hand, if a symmetric filter is used as a filter of the smoothing circuit in the density generation unit 18 for a line with a width of 2 dots, thinning due to the smoothing process of a line with a small line width can be suppressed. In this example, a line with a width of 2 dots has a line width of at least about 1.7 dots, and is thinner and thinner than the line width of about 1.4 dots in the above comparative example.
[0019]
【The invention's effect】
In the image processing apparatus, thinning of the line width in the smoothing process of the character edge portion can be prevented.
[Brief description of the drawings]
FIG. 1 is a block diagram of an embodiment of an image processing apparatus.
FIG. 2 is a block diagram of an edge determination unit.
FIG. 3 is a diagram showing a signal distribution of nine pixels for edge determination.
FIG. 4 is a block diagram of a density level control unit.
FIG. 5 is a block diagram of a line width determination unit.
FIG. 6 is a block diagram of a density generation unit.
FIG. 7 is a block diagram of a density level setting unit.
FIG. 8 is a diagram showing a change in density with respect to a gradation level in the case of a right edge.
FIG. 9 is a diagram showing a change in density with respect to a gradation level in the case of a left edge.
FIG. 10 is a diagram illustrating a change in density with respect to a gradation level in the case of a non-edge portion.
FIG. 11 is a diagram showing a change in density with respect to a gradation level in the case of a thin line edge.
FIG. 12 is a view showing actual image data after smoothing processing;
[Explanation of symbols]
10 image data output device, 12 gamma correction unit, 14 edge determination unit, 16 line width determination unit, 18 density generation unit, 22 density level setting unit.

Claims (3)

多値画像データに基づいて、画素を主走査方向に複数のサブ領域に分割しサブ領域の単位で画像を形成するためのデジタル画像データを出力する画像処理装置であり、
注目画素とその周辺画素の多値画像データの差から注目画素のエッジ方向を識別するエッジ判定手段と、
注目画素が含まれる線の線幅を判定する線幅判定手段と、
平滑化処理を行うための、対称型の平滑化フィルタ及び非対称型の平滑化フィルタと、
注目画素とその周辺画素の多値画像データに対して、上記線幅判定手段により線幅の細いラインと判定された場合には、対称型の平滑化フィルタを選択して平滑化処理を行い、そうでない場合には、非対称型の平滑化フィルタを選択して平滑化処理を行い、注目画素の濃度レベルを生成する濃度レベル生成手段と、
濃度レベル生成手段により生成された濃度レベルを基に、上記エッジ判定手段によって判定された注目画素のエッジ方向にしたがって、画像を形成するためのデジタル画像データを注目画素内のサブ領域ごとに設定する画像データ設定手段と
を備えることを特徴とした画像処理装置。
An image processing apparatus that outputs digital image data for forming an image in units of sub-regions by dividing a pixel into a plurality of sub-regions in the main scanning direction based on multi-valued image data.
Edge determination means for identifying the edge direction of the target pixel from the difference between the multi-valued image data of the target pixel and its surrounding pixels;
Line width determining means for determining the line width of the line including the pixel of interest;
A symmetric smoothing filter and an asymmetric smoothing filter for performing smoothing processing ;
For the multi-valued image data of the target pixel and its surrounding pixels, if the line width determination means determines that the line has a narrow line width, a symmetric type smoothing filter is selected to perform the smoothing process, If not, density level generation means for selecting the asymmetric smoothing filter and performing the smoothing process to generate the density level of the pixel of interest;
Based on the density level generated by the density level generation unit, digital image data for forming an image is set for each sub-region in the target pixel according to the edge direction of the target pixel determined by the edge determination unit. An image processing apparatus comprising: image data setting means.
上記画像データ設定手段は、
上記エッジ判定手段によって判定された注目画素のエッジ方向にしたがって、注目画素内のサブ領域ごとにデジタル画像データ設定用パラメータを設定する画像データ制御手段と、
画像データ制御手段により設定されたデジタル画像データ設定用パラメータを用いて、注目画素の濃度レベルを基に、注目画素内のサブ領域ごとにデジタル画像データを設定する濃度レベル設定手段と
からなることを特徴とした請求項1に記載された画像処理装置。
The image data setting means includes
Image data control means for setting digital image data setting parameters for each sub-region in the target pixel according to the edge direction of the target pixel determined by the edge determination means;
A density level setting means for setting digital image data for each sub-region in the target pixel based on the density level of the target pixel using the digital image data setting parameter set by the image data control means. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized.
上記線幅判定手段は、エッジ判定手段によって判定された注目画素のエッジ方向と、注目画素の周辺の画素のエッジ方向とから、注目画素が含まれる線の線幅を判定することを特徴とした請求項1に記載された画像処理装置。  The line width determination unit is configured to determine a line width of a line including the target pixel from the edge direction of the target pixel determined by the edge determination unit and the edge direction of pixels around the target pixel. The image processing apparatus according to claim 1.
JP28100298A 1998-10-02 1998-10-02 Image processing device Expired - Fee Related JP4058823B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP28100298A JP4058823B2 (en) 1998-10-02 1998-10-02 Image processing device
US09/408,366 US6978045B1 (en) 1998-10-02 1999-09-29 Image-processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28100298A JP4058823B2 (en) 1998-10-02 1998-10-02 Image processing device

Publications (2)

Publication Number Publication Date
JP2000115541A JP2000115541A (en) 2000-04-21
JP4058823B2 true JP4058823B2 (en) 2008-03-12

Family

ID=17632912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28100298A Expired - Fee Related JP4058823B2 (en) 1998-10-02 1998-10-02 Image processing device

Country Status (1)

Country Link
JP (1) JP4058823B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4834244B2 (en) 2000-06-21 2011-12-14 株式会社東芝 Dimensional inspection method and apparatus, and mask manufacturing method
JP5507794B2 (en) * 2007-01-30 2014-05-28 京セラ株式会社 Portable electronic devices
JP5896203B2 (en) * 2011-07-22 2016-03-30 富士ゼロックス株式会社 Image processing apparatus, image forming apparatus, and program
JP5863001B2 (en) * 2011-07-26 2016-02-16 富士ゼロックス株式会社 Image processing apparatus, image forming apparatus, and program

Also Published As

Publication number Publication date
JP2000115541A (en) 2000-04-21

Similar Documents

Publication Publication Date Title
JP3874828B2 (en) Processing system for processing color documents
US7532365B2 (en) Threshold matrix generation method, threshold matrix generation apparatus, and recording medium
JPH03193472A (en) Highly definite image generating system of image processor
EP1267564B1 (en) Method of determining threshold array for generating gradation image
US5130821A (en) Method and apparatus for digital halftoning employing density distribution for selection of a threshold template
US5805724A (en) Method and system for hybrid error diffusion processing of image information using dynamic screens based on brightness/darkness settings
JPH1070659A (en) Error spread method and system
JPH1070660A (en) Error spread method and error spread system
JPH1070661A (en) Error spread method and error spread system
US6978045B1 (en) Image-processing apparatus
JP4058823B2 (en) Image processing device
JP3823562B2 (en) Image processing device
JP3757644B2 (en) Image processing device
JP4169054B2 (en) Image processing apparatus, image processing method, and program
JP4281126B2 (en) Image processing device
JPH11215363A (en) Image-forming device
JP2006074809A (en) Image processor and image processing method
JPH08125860A (en) Image recorder
JP3501533B2 (en) Color image forming equipment
KR20000050344A (en) Image data processing apparatus
JP3489288B2 (en) Image processing method and image processing apparatus
JP2943591B2 (en) Multi-tone whiteout data generation method and apparatus
JP3589415B2 (en) Image processing device
JPS6253573A (en) Half tone recording system
JPS6226632B2 (en)

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20051214

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20051214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101228

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111228

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111228

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121228

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131228

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees