JP3757644B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP3757644B2
JP3757644B2 JP28102798A JP28102798A JP3757644B2 JP 3757644 B2 JP3757644 B2 JP 3757644B2 JP 28102798 A JP28102798 A JP 28102798A JP 28102798 A JP28102798 A JP 28102798A JP 3757644 B2 JP3757644 B2 JP 3757644B2
Authority
JP
Japan
Prior art keywords
target pixel
density
pixel
density level
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28102798A
Other languages
Japanese (ja)
Other versions
JP2000115542A (en
Inventor
圭介 橋本
好彦 廣田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP28102798A priority Critical patent/JP3757644B2/en
Priority to US09/408,366 priority patent/US6978045B1/en
Publication of JP2000115542A publication Critical patent/JP2000115542A/en
Application granted granted Critical
Publication of JP3757644B2 publication Critical patent/JP3757644B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color, Gradation (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、デジタル画像データの処理、特に文字画像のエッジ処理に関する。
【0002】
【従来の技術】
画像処理装置は、原稿を読み取って得られたデジタル画像データを処理し、印字用のデジタル印字データを出力する。画像は、デジタル印字データに基づいて再現される。
画像処理装置は、原稿の画像をよりよく再現するため、原稿の画像を読み取ったデジタル画像データについて、種々の処理をおこなう。文字原稿については、文字画像の再現のため、文字のエッジを強調することが望ましい。このため、種々のエッジ判定手法や、エッジ判定結果に基づくデータ強調手法が提案されている。
【0003】
【発明が解決しようとする課題】
画素を複数のサブ画素に分割して、サブ画素単位で濃度を制御する手法がある(たとえば特開平9―240053号公報参照)。この場合、入力された階調データが2値データであれば、濃度重心の位置が常に一定であるため、サブ画素単位で濃度を制御しても、エッジを滑らかにする効果が得られない。
【0004】
本発明の目的は、入力階調データが2値データである場合でもエッジを滑らかにする画像処理装置を提供することである。
【0005】
【課題を解決するための手段】
本発明に係る画像処理装置は、多値画像データに基づいて、画素を主走査方向に複数のサブ領域に分割しサブ領域の単位で画像を形成するためのデジタル画像データを出力する画像処理装置である。エッジ判定手段は、多値画像データに基づいて、注目画素とその周辺画素の濃度レベルの差から注目画素のエッジ方向を判定する。濃度レベル生成手段は、上記エッジ判定部でエッジであると判定された画素にのみ、注目画素を中心とした非対称なフィルタを用い注目画素に対して平滑化処理を行い、新たに注目画素の濃度レベルを生成する。こうして、周辺画素の階調から再計算によって、2値画像の場合でも注目画素は多値階調となる。濃度制御手段は、上記エッジ判定手段によって判定された注目画素のエッジ方向にしたがって、注目画素内の複数のサブ領域に濃度レベルを設定して注目画素の濃度分布を変化させる。
また、この画像処理装置において、前記の濃度制御手段は、上記エッジ判定手段によって判定された注目画素のエッジ方向にしたがって、注目画素内のサブ領域ごとに濃度レベル設定用パラメータを設定する濃度レベル制御手段と、濃度レベル制御手段により設定された濃度レベル設定用パラメータを用いて、注目画素の濃度レベルを基に、注目画素内の複数のサブ領域それぞれに濃度レベルを設定する濃度レベル設定手段とからなる。
また、この画像処理装置において、濃度レベル補正手段で用いるフィルタは、副走査方向に非対称である。
また、この画像処理装置において、濃度レベル補正手段は、複数のフィルタから1つを選択して使用する。好ましくは、この画像処理装置において、濃度レベル補正手段は、複数のフィルタを用いて平滑化した結果のうち最小の濃度レベルが得られるフィルタを選択する。
また、本発明に係る画像処理の方法は、多値画像データに基づいて、画素を主走査方向に複数のサブ領域に分割しサブ領域の単位で画像を形成するためのデジタル画像データを出力する画像処理の方法であり、多値画像データに基づいて、注目画素とその周辺画素の濃度レベルの差から注目画素のエッジ方向を判定し、エッジであると判定された画素にのみ、注目画素に対し注目画素を中心とした非対称なフィルタを用いた平滑化処理を行い、新たに注目画素の濃度レベルを生成し、判定された注目画素のエッジ方向にしたがって、注目画素内の複数のサブ領域に濃度レベルを設定して注目画素の濃度分布を変化させることを特徴とする。
【0006】
【発明の実施の形態】
以下、添付の図面を参照して本発明の実施形態の画像処理装置について説明する。なお、図面において同一の参照記号は、同一または同等のものをさす。
図1は、本発明の画像処理装置の1実施形態を示す。画像処理装置は、原稿読取装置、コンピュータなどから入力されるデジタル画像データに基づいて、感光体を露光することにより感光体上に画像を形成するためのデジタル画像データを生成し、プリンタに出力する。ここで、注目画素とその周辺の画素との階調差を求め、その階調差の組合わせによって主走査方向でのエッジ方向を識別する。そして、エッジ部分で注目画素に対して、副走査方向に非対称なフィルタを用いて、周辺画素を考慮して濃度レベルを再計算する。そして、識別されたエッジ方向にしたがって濃度重心を変化させる。
【0007】
具体的に説明すると、画像データ出力装置10は、ここでは図示されていない原稿読取装置、コンピュータなどから入力されるデジタル画像データを出力する。ここでは、画像データを、1画素あたり8ビットの階調データとして出力する。エッジ判定部12は、画像データ出力装置10から出力される階調データを用いて、注目画素とその周辺の画素との階調差を求め、その階調差の組合わせによって主走査方向でのエッジ方向を識別する。そして、エッジ判定部12の判定結果を基に、濃度レベル制御部14は、画素内の濃度重心を制御するためのパラメータ信号を、注目画素を主走査方向に分割したサブ画素の単位で生成する。一方、階調生成部16は、エッジ判定部12の判定結果に基づき、画像データ出力装置10から入力される階調データから、新たに階調データを生成する。ガンマ補正部18は、濃度生成部16から出力された階調データの非線形変換をし、プリント部24の階調性の非線形ひずみを補正する。濃度レベル設定部20は、ガンマ補正部18により補正されたデータについて、濃度レベル制御部14により生成された濃度制御パラメータ信号を用いて濃度レベルを制御して、画素内の濃度重心を変化させる。D/A変換器22は、濃度レベル設定部20により得られたデジタル階調データをアナログ信号に変換し、プリント部24のレーザー駆動回路に出力する。プリント部24は、入力データに基づいてレーザービームの強度をサブ画素の単位で変調し、中間調画像をラスター走査で記録媒体上に形成する。
【0008】
エッジ判定部12は、注目画素の主走査方向でのエッジ方向を次の4つの場合に区分して判定する。この判定結果に基づいてエッジをどの方向に寄せるかが判断される。ここでは、主走査方向を左右方向とする。「右エッジ」とは、文字の右側にあるエッジ、すなわち、注目画素の左側に文字部がある場合のエッジをいう。「左エッジ」とは、文字の左側にあるエッジ、すなわち、注目画素の右側に文字部がある場合のエッジをいう。また、「細線エッジ」とは、注目画素の中央に文字部がある場合、すなわち、1つの注目画素内に右エッジと左エッジがある場合のエッジをいう。なお、以上のいずれにも該当しない場合は、「非エッジ部」である。
【0009】
図2は、エッジ判定部12のブロック図である。エッジは、たとえば3×3の画素マトリクスを用いて判定される。まず、注目画素とその周辺の8画素との階調差を計算し、注目画素より濃度の高い画素と濃度の低い画素に分ける。図3に示すように、3×3の画素マトリクスにおいて、V33は注目画素の階調データを表し、V22,V23,V24,V32,V34,V42,V43,V44は注目画素に隣接する8個の画素の階調データを表す。図2に示すエッジ判定部12において、8個の階調差信号発生回路120は、注目画素の階調データV33とその周辺の8画素の階調データV22,V23,V24,V32,V34,V42,V43,V44を入力し、周辺画素と注目画素との階調データの差(階調差信号)を求める。組合せ判定回路122は、注目画素と周辺画素との階調差を入力し、その階調差の組合わせによってエッジ方向を判別する。すなわち、注目画素とその周辺の8画素との階調差を計算し、注目画素より濃度の高い画素と濃度の低い画素に分ける。そして、注目画素と周囲画素との濃度値の関係からエッジ方向を識別する。具体的には、組合せ判定回路122は、これらの8つの階調差信号の組合わせによって主走査方向でのエッジ方向(右エッジ、左エッジなど)を判別し、右寄せ信号MARKRと左寄せ信号MARKLを生成する。右寄せ信号MARKRは、右エッジが存在することを示し、左寄せ信号MARKLは左エッジが存在することを示す。そして、NANDゲート、2個のANDゲートおよび3個のセレクタ(S=LでAを選択する)からなる論理回路124は、これらの右寄せ信号MARKRと左寄せ信号MARKLからエッジ方向を判断し、エッジ方向信号EDGを出力する。すなわち、MARKRとMARKLがともに出力されていれば、EDG="01"(細線エッジ)が出力され、MARKRまたはMARKLが出力されていれば、EDG="03"(右エッジ)またはEDG="02"(左エッジ)が出力され、MARKRとMARKLがいずれも出力されていなければ、EDG="00"(非エッジ部)が出力される。
【0010】
図4は、濃度レベル制御部14のブロック図である。エッジ判定部12の出力であるエッジ方向信号EDGをアドレス信号として入力し、8個のパラメータRAM140に記憶されたテーブルより8個の濃度制御パラメータ信号A1,A2,A3,A4,B1,B2,B3,B4を得る。得られた濃度制御パラメータは、濃度レベル設定部20に送られる。
【0011】
図5は、階調生成部16を示す。注目画素を含むライン(V3)と、その前後の2ラインの画像データ(V1、V2、V4、V5)が2種の平滑化回路160、162に入力される。平滑化回路160と平滑化回路162は、それぞれ、処理結果を、セレクタ164と比較器166に送る。セレクタ164は、比較器166の出力に合わせていずれかの出力を選択するが、ここで、平滑結果の階調値が小さい方を選択して、信号VH1として出力する。セレクタ166は、セレクタ164の出力と注目画素を含むラインの信号V3(VH2)のいずれかを選択する。ここで、セレクタ166は、MARKRとMARKLを入力するNORゲート168に合わせていずれかを選択するが、ここで、エッジの場合にのみ、平滑化回路160の出力信号VH1を階調レベルVFとして出力し、その他の場合は、注目画素の信号V3(VH2)を、階調レベルVFとして出力する。
【0012】
図6は、濃度レベル設定部22のブロック図である。4個の濃度レベル演算部180では、ガンマ補正部12で非線形変換された階調データVGに対し、濃度制御パラメータ信号の4種の組合せA1とB1、A2とB2、A3とB3、A4とB4を用いて、それぞれ、ブロック内に示されるような1次演算(VH=A*(VG−B))を行う。この結果、VGから4つの階調信号VH1,VH2,VH3,VH4が得られる。次に、セレクタ182は、画素クロックCLKと画素クロックの倍の周波数を持つ倍速クロックXCLKとを用いて、濃度レベル演算部180において1次演算で得られた4つの階調信号VH1,VH2,VH3,VH4を1画素内でサブ画素ごとに切り換えて、濃度レベル信号VDを生成する。これにより、1画素を4サブ画素に分割し、サブ画素ごとに濃度レベルVDを出力する。
【0013】
図7から図10は、エッジ判定部12で判定されたエッジ種類のそれぞれについて、1画素内の濃度がどのように変化するかを示したものである。ガンマ補正部16で非線形変換された階調データの階調が増加するにつれ、1画素内の4つのサブ画素に与えられるデジタル階調データがそれぞれそのように変化していくかを示す。図において、各サブ画素における黒部分の高さは、濃度レベルを表す。
図7は、右エッジの場合の変化を示す。ここで濃度制御パラメータ信号は、次のとおりである。A1=A2=A3=A4=4。B1=0。B2=64。B3=128。B4=192。図には、階調レベルが0、32、64、96、128、160、192、224、255の場合を示す。図において明らかなように、右エッジであるので、濃度は左側のサブ画素から順に増加される。こうして、画素の濃度の重心は左から順次中央に移動していく。
【0014】
図8は、左エッジの場合の変化を示す。これは、図7の右エッジの場合と左右対称である。ここで濃度制御パラメータ信号は、次の通りである。A1=A2=A3=A4=4。B1=192。B2=128。B3=64。B4=0。図は、階調レベルが0、32、64、96、128、160、192、224、255の場合を示す。図において明らかなように、左エッジであるので、濃度は右側のサブ画素から順に増加される。こうして、画素の濃度の重心は右から順次中央に移動していく。
【0015】
図9は、非エッジの場合の変化を示す。ここで濃度制御パラメータ信号は、次の通りである。A1=A2=A3=A4=1。B1=B2=B3=B4=0。図は、階調レベルが0、32、64、96、128、160、192、224、255の場合を示す。図において明らかなように、エッジが存在しないので、4個のサブ画素はいずれも同じ濃度とし、したがって、画素の濃度の重心は常に中央にある。濃度は、階調レベルに対応して増加する。
【0016】
図10は、細線エッジの場合の変化を示す。ここで濃度制御パラメータ信号は、次の通りである。A1=A2=A3=A4=2。B1=128、B2=B3=0。B4=128。図は、階調レベルが0、32、64、96、128、160、192、224、255の場合を示す。右エッジと左エッジが同時に存在する細線エッジであるので、図において明らかなように、まず中央の2個のサブ画素の濃度が、階調レベルに対応して増加する。画素の濃度の重心は常に中央にある。次に、両側の2個のサブ画素の濃度が階調レベルに対応して増加する。画素の濃度の重心は常に中央にあるが、濃度分布は、階調レベル128を越えると、しだいに左右に広がっていく。図7〜図10では、主に濃度の重心の変化について説明したが、図11に示すように、注目画素内において濃度は端から増加させていくとは限らない。また、変化させるのは重心だけではなく、濃度分布である。
【0017】
図11は、平滑化処理によるエッジ部の再現の状態を示す。左側に示す原画像は2値画像である。この原画像に対して平滑化処理をおこなうと、中央に示す画像が得られる。ここで、斜線部は白と黒の間の濃度レベルを示す。右側に示す画像は、さらにサブ画素単位で非対称フィルタを用いて濃度重心制御を行った時の画像であり、エッジが滑らかに表現されることがわかる。
【0018】
図12は、非対称なフィルタを用いた場合と、対称なフィルタを用いた場合の平滑化処理の効果を図式的に示す。左側に示す原画像に対し、対称なフィルタを用いると、右上に示す画像が得られる。ここで、エッジ部の1番目の画素について濃度重心が1/8右に寄せられ、2番目の画素について3/8右に寄せられ、3番目の画素については、重心位置は変化されない。これに対し、左側に示す原画像に対し、2つの非対称なフィルタを用いて生成される階調値の小さい方を選択すると、右下に示す画像が得られる。ここで、エッジ部の1番目の画素について濃度重心が約1/3右に寄せられ、2番目の画素について約2/3右に寄せられ、3番目の画素については、重心位置は変化されない。非対称なフィルタを用いると、再現画像において、エッジ部が滑らかに再現される。
【0019】
【発明の効果】
再現画像において、エッジ部が滑らかに再現される。
【図面の簡単な説明】
【図1】 画像処理装置の1実施形態のブロック図。
【図2】 エッジ判定部のブロック図。
【図3】 エッジ判定用の9個の画素の信号の分布を示す図。
【図4】 濃度レベル制御部のブロック図。
【図5】 濃度生成部のブロック図。
【図6】 濃度レベル設定部のブロック図。
【図7】 右エッジの場合の階調レベルに対する濃度の変化を示す図。
【図8】 左エッジの場合の階調レベルに対する濃度の変化を示す図。
【図9】 非エッジ部の場合の階調レベルに対する濃度の変化を示す図。
【図10】 細線エッジの場合の階調レベルに対する濃度の変化を示す図。
【図11】 平滑化処理の結果の1例の図。
【図12】 非対称フィルタを用いた平滑化処理の結果の1例の図。
【符号の説明】
10 画像データ出力装置、 12 エッジ判定部、
14 濃度レベル制御部、 16 階調生成部、 18 ガンマ補正部、
20 濃度レベル設定部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to processing of digital image data, and more particularly to edge processing of character images.
[0002]
[Prior art]
The image processing apparatus processes digital image data obtained by reading a document and outputs digital print data for printing. The image is reproduced based on the digital print data.
The image processing apparatus performs various processes on the digital image data obtained by reading the image of the document in order to better reproduce the image of the document. For character manuscripts, it is desirable to emphasize the edge of the characters in order to reproduce the character image. For this reason, various edge determination methods and data enhancement methods based on edge determination results have been proposed.
[0003]
[Problems to be solved by the invention]
There is a method of dividing a pixel into a plurality of sub-pixels and controlling the density in units of sub-pixels (see, for example, JP-A-9-240053). In this case, if the input gradation data is binary data, the position of the density centroid is always constant. Therefore, even if the density is controlled in units of subpixels, the effect of smoothing the edge cannot be obtained.
[0004]
An object of the present invention is to provide an image processing apparatus that smoothes edges even when input gradation data is binary data.
[0005]
[Means for Solving the Problems]
An image processing apparatus according to the present invention outputs, based on multi-valued image data, digital image data for dividing a pixel into a plurality of sub areas in the main scanning direction and forming an image in units of sub areas. It is. The edge determination means determines the edge direction of the target pixel from the difference in density level between the target pixel and its surrounding pixels based on the multivalued image data. The density level generation means performs a smoothing process on the target pixel using an asymmetric filter centered on the target pixel only for the pixel determined to be an edge by the edge determination unit, and newly sets the density of the target pixel. Generate a level. In this way, the pixel of interest becomes a multi-value gradation even in the case of a binary image, by recalculation from the gradation of the peripheral pixels. The density control means changes the density distribution of the target pixel by setting density levels in a plurality of sub-regions in the target pixel according to the edge direction of the target pixel determined by the edge determination means.
Further, in this image processing apparatus, the density control unit sets density level setting parameters for each sub-region in the target pixel in accordance with the edge direction of the target pixel determined by the edge determination unit. And density level setting means for setting the density level in each of a plurality of sub-regions in the target pixel based on the density level of the target pixel using the density level setting parameter set by the density level control means. Become.
In this image processing apparatus, the filter used by the density level correction unit is asymmetric in the sub-scanning direction.
Further, in this image processing apparatus, the density level correction means selects and uses one from a plurality of filters. Preferably, in the image processing apparatus, the density level correction unit selects a filter that can obtain a minimum density level from the results of smoothing using a plurality of filters.
The image processing method according to the present invention outputs digital image data for forming an image in units of sub-regions by dividing a pixel into a plurality of sub-regions in the main scanning direction based on multi-value image data. This is an image processing method. Based on the multi-value image data, the edge direction of the target pixel is determined from the difference in density level between the target pixel and its surrounding pixels. On the other hand, a smoothing process using an asymmetric filter centered on the target pixel is performed to newly generate a density level of the target pixel, and in accordance with the determined edge direction of the target pixel, a plurality of sub-regions in the target pixel are generated. A feature is that the density distribution of the pixel of interest is changed by setting the density level.
[0006]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the accompanying drawings. In the drawings, the same reference symbols denote the same or equivalent ones.
FIG. 1 shows an embodiment of an image processing apparatus of the present invention. The image processing apparatus generates digital image data for forming an image on the photosensitive member by exposing the photosensitive member based on digital image data input from a document reading device, a computer, and the like, and outputs the digital image data to a printer. . Here, the gradation difference between the target pixel and the surrounding pixels is obtained, and the edge direction in the main scanning direction is identified by the combination of the gradation differences. Then, with respect to the pixel of interest at the edge portion, a density level is recalculated in consideration of surrounding pixels using a filter that is asymmetric in the sub-scanning direction. Then, the density centroid is changed according to the identified edge direction.
[0007]
More specifically, the image data output device 10 outputs digital image data input from a document reading device, a computer or the like not shown here. Here, the image data is output as 8-bit gradation data per pixel. The edge determination unit 12 uses the gradation data output from the image data output device 10 to obtain the gradation difference between the target pixel and the surrounding pixels, and in the main scanning direction by combining the gradation differences. Identifies the edge direction. Then, based on the determination result of the edge determination unit 12, the density level control unit 14 generates a parameter signal for controlling the density centroid in the pixel in units of sub-pixels obtained by dividing the target pixel in the main scanning direction. . On the other hand, the gradation generation unit 16 newly generates gradation data from the gradation data input from the image data output device 10 based on the determination result of the edge determination unit 12. The gamma correction unit 18 performs non-linear conversion of the tone data output from the density generation unit 16 and corrects the non-linear tone distortion of the print unit 24. The density level setting unit 20 controls the density level of the data corrected by the gamma correction unit 18 using the density control parameter signal generated by the density level control unit 14 to change the density centroid in the pixel. The D / A converter 22 converts the digital gradation data obtained by the density level setting unit 20 into an analog signal and outputs the analog signal to the laser drive circuit of the printing unit 24. The print unit 24 modulates the intensity of the laser beam in units of subpixels based on the input data, and forms a halftone image on the recording medium by raster scanning.
[0008]
The edge determination unit 12 determines the edge direction in the main scanning direction of the target pixel by dividing into the following four cases. Based on this determination result, it is determined in which direction the edge is moved. Here, the main scanning direction is the left-right direction. “Right edge” refers to an edge on the right side of a character, that is, an edge when a character portion is on the left side of a pixel of interest. “Left edge” refers to an edge on the left side of a character, that is, an edge when a character portion is on the right side of a pixel of interest. The “thin line edge” refers to an edge when a character portion is in the center of the target pixel, that is, when a right edge and a left edge are present in one target pixel. If none of the above applies, it is a “non-edge portion”.
[0009]
FIG. 2 is a block diagram of the edge determination unit 12. The edge is determined using, for example, a 3 × 3 pixel matrix. First, the gradation difference between the target pixel and the surrounding eight pixels is calculated and divided into a pixel having a higher density and a lower density than the target pixel. As shown in FIG. 3, in the 3 × 3 pixel matrix, V33 represents the gradation data of the target pixel, and V22, V23, V24, V32, V34, V42, V43, and V44 are eight adjacent to the target pixel. Represents pixel gradation data. In the edge determination unit 12 shown in FIG. 2, the eight gradation difference signal generation circuits 120 include gradation data V33 of the target pixel and gradation data V22, V23, V24, V32, V34, V42 of the surrounding eight pixels. , V43, V44 are inputted, and the difference (gradation difference signal) of the gradation data between the peripheral pixel and the target pixel is obtained. The combination determination circuit 122 receives the gradation difference between the target pixel and the surrounding pixels, and determines the edge direction based on the combination of the gradation differences. That is, the gradation difference between the target pixel and the surrounding eight pixels is calculated and divided into a pixel having a higher density and a lower density than the target pixel. Then, the edge direction is identified from the relationship between the density values of the target pixel and the surrounding pixels. Specifically, the combination determination circuit 122 determines the edge direction (right edge, left edge, etc.) in the main scanning direction by combining these eight gradation difference signals, and outputs the right-justified signal MARKR and the left-justified signal MARKL. Generate. The right justified signal MARKR indicates that a right edge exists, and the left justified signal MARKL indicates that a left edge exists. A logic circuit 124 including a NAND gate, two AND gates, and three selectors (selecting A when S = L) determines the edge direction from the right-justified signal MARKR and the left-justified signal MARKL, and determines the edge direction. The signal EDG is output. That is, if both MARKR and MARKL are output, EDG = “01” (thin line edge) is output, and if MARKR or MARKL is output, EDG = “03” (right edge) or EDG = “02”. If “(left edge)” is output and neither MARKR nor MARKL is output, EDG = “00” (non-edge portion) is output.
[0010]
FIG. 4 is a block diagram of the density level control unit 14. The edge direction signal EDG, which is the output of the edge determination unit 12, is input as an address signal, and eight density control parameter signals A1, A2, A3, A4, B1, B2, B3 from the table stored in the eight parameter RAMs 140 are input. , B4. The obtained density control parameter is sent to the density level setting unit 20.
[0011]
FIG. 5 shows the tone generation unit 16. The line (V3) including the target pixel and the image data (V1, V2, V4, V5) of the two lines before and after the line are input to the two types of smoothing circuits 160 and 162. The smoothing circuit 160 and the smoothing circuit 162 send the processing results to the selector 164 and the comparator 166, respectively. The selector 164 selects one of the outputs in accordance with the output of the comparator 166. Here, the selector 164 selects the one with the smaller smoothed gradation value and outputs it as the signal VH1. The selector 166 selects either the output of the selector 164 or the signal V3 (VH2) of the line including the target pixel. Here, the selector 166 selects either one according to the NOR gate 168 to which MARKR and MARKL are input, but here, only in the case of an edge, the output signal VH1 of the smoothing circuit 160 is output as the gradation level VF. In other cases, the signal V3 (VH2) of the target pixel is output as the gradation level VF.
[0012]
FIG. 6 is a block diagram of the density level setting unit 22. In the four density level calculation units 180, four types of combinations A1 and B1, A2 and B2, A3 and B3, A4 and B4 of the density control parameter signal are applied to the gradation data VG nonlinearly converted by the gamma correction unit 12. Are used to perform a primary operation (VH = A * (VG−B)) as shown in each block. As a result, four gradation signals VH1, VH2, VH3, and VH4 are obtained from VG. Next, the selector 182 uses the gray level signal VH1, VH2, VH3 obtained by the primary calculation in the density level calculation unit 180 using the pixel clock CLK and the double speed clock XCLK having a frequency twice that of the pixel clock. , VH4 are switched for each sub-pixel within one pixel to generate a density level signal VD. As a result, one pixel is divided into four sub-pixels, and a density level VD is output for each sub-pixel.
[0013]
FIGS. 7 to 10 show how the density in one pixel changes for each of the edge types determined by the edge determination unit 12. It shows how the digital gradation data given to the four sub-pixels in one pixel change as the gradation of gradation data nonlinearly converted by the gamma correction unit 16 increases. In the figure, the height of the black portion in each sub-pixel represents the density level.
FIG. 7 shows the change in the case of the right edge. Here, the density control parameter signal is as follows. A1 = A2 = A3 = A4 = 4. B1 = 0. B2 = 64. B3 = 128. B4 = 192. In the figure, the gradation levels are 0, 32, 64, 96, 128, 160, 192, 224, and 255. As is apparent in the figure, since it is the right edge, the density is increased in order from the left sub-pixel. In this way, the center of gravity of the pixel density shifts sequentially from the left to the center.
[0014]
FIG. 8 shows the change in the case of the left edge. This is symmetrical with the right edge in FIG. Here, the density control parameter signal is as follows. A1 = A2 = A3 = A4 = 4. B1 = 192. B2 = 128. B3 = 64. B4 = 0. The figure shows the case where the gradation levels are 0, 32, 64, 96, 128, 160, 192, 224, and 255. As is clear in the figure, since it is the left edge, the density is increased in order from the right sub-pixel. In this way, the center of gravity of the pixel density shifts sequentially from the right to the center.
[0015]
FIG. 9 shows the change in the non-edge case. Here, the density control parameter signal is as follows. A1 = A2 = A3 = A4 = 1. B1 = B2 = B3 = B4 = 0. The figure shows the case where the gradation levels are 0, 32, 64, 96, 128, 160, 192, 224, and 255. As can be seen in the figure, since there is no edge, all four sub-pixels have the same density, and therefore the center of gravity of the pixel density is always in the center. The density increases corresponding to the gradation level.
[0016]
FIG. 10 shows the change in the case of a thin line edge. Here, the density control parameter signal is as follows. A1 = A2 = A3 = A4 = 2. B1 = 128, B2 = B3 = 0. B4 = 128. The figure shows the case where the gradation levels are 0, 32, 64, 96, 128, 160, 192, 224, and 255. Since the right edge and the left edge are thin line edges that exist at the same time, as clearly shown in the figure, first, the density of the central two sub-pixels increases corresponding to the gradation level. The center of gravity of the pixel density is always in the center. Next, the density of the two sub-pixels on both sides increases corresponding to the gradation level. The center of gravity of the pixel density is always in the center, but the density distribution gradually spreads to the left and right when the gradation level 128 is exceeded. Although FIGS. 7 to 10 mainly describe the change in the center of gravity of the density, as shown in FIG. 11, the density is not always increased from the end in the target pixel. Also, it is not only the center of gravity that changes, but also the density distribution.
[0017]
FIG. 11 shows the state of edge portion reproduction by the smoothing process. The original image shown on the left side is a binary image. When smoothing processing is performed on this original image, an image shown in the center is obtained. Here, the shaded portion indicates the density level between white and black. The image shown on the right side is an image when density centroid control is further performed using an asymmetric filter in units of subpixels, and it can be seen that the edges are expressed smoothly.
[0018]
FIG. 12 schematically shows the effect of the smoothing process when an asymmetric filter is used and when a symmetric filter is used. When a symmetrical filter is used for the original image shown on the left side, the image shown on the upper right side is obtained. Here, the density centroid is shifted to the right by 1/8 for the first pixel in the edge portion, and the centroid position is not changed for the third pixel by shifting to the right by 3/8 for the second pixel. On the other hand, when the smaller gradation value generated using two asymmetric filters is selected for the original image shown on the left, the image shown on the lower right is obtained. Here, the density centroid is shifted to the right by about 1/3 for the first pixel in the edge portion, and is shifted to the right by about 2/3 for the second pixel, and the barycentric position is not changed for the third pixel. When an asymmetric filter is used, the edge portion is smoothly reproduced in the reproduced image.
[0019]
【The invention's effect】
In the reproduced image, the edge portion is reproduced smoothly.
[Brief description of the drawings]
FIG. 1 is a block diagram of an embodiment of an image processing apparatus.
FIG. 2 is a block diagram of an edge determination unit.
FIG. 3 is a diagram showing a signal distribution of nine pixels for edge determination.
FIG. 4 is a block diagram of a density level control unit.
FIG. 5 is a block diagram of a density generation unit.
FIG. 6 is a block diagram of a density level setting unit.
FIG. 7 is a diagram showing a change in density with respect to a gradation level in the case of a right edge.
FIG. 8 is a diagram showing a change in density with respect to a gradation level in the case of a left edge.
FIG. 9 is a diagram illustrating a change in density with respect to a gradation level in the case of a non-edge portion.
FIG. 10 is a diagram showing a change in density with respect to a gradation level in the case of a thin line edge.
FIG. 11 is a diagram illustrating an example of a result of smoothing processing.
FIG. 12 is a diagram illustrating an example of a result of smoothing processing using an asymmetric filter.
[Explanation of symbols]
10 image data output device, 12 edge determination unit,
14 density level control unit, 16 gradation generation unit, 18 gamma correction unit,
20 Density level setting section.

Claims (6)

多値画像データに基づいて、画素を主走査方向に複数のサブ領域に分割しサブ領域の単位で画像を形成するためのデジタル画像データを出力する画像処理装置であり、
多値画像データに基づいて、注目画素とその周辺画素の濃度レベルの差から注目画素のエッジ方向を判定するエッジ判定手段と、
上記エッジ判定手段でエッジであると判定された画素にのみ、注目画素に対し注目画素を中心とした非対称なフィルタを用いた平滑化処理を行い、新たに注目画素の濃度レベルを生成する濃度レベル生成手段と、
上記エッジ判定手段によって判定された注目画素のエッジ方向にしたがって、注目画素内の複数のサブ領域に濃度レベルを設定して注目画素の濃度分布を変化させる濃度制御手段と
を備えることを特徴とした画像処理装置。
An image processing apparatus that outputs digital image data for forming an image in units of sub-regions by dividing a pixel into a plurality of sub-regions in the main scanning direction based on multi-valued image data.
An edge determination means on the basis of the multivalued image data, to determine the edge direction of the pixel of interest pixel of interest from the difference in density level of the surrounding pixels,
Only for pixels that are determined to be edges by the edge determination means , a density level that performs a smoothing process using an asymmetric filter centered on the target pixel with respect to the target pixel and newly generates a density level of the target pixel Generating means;
A density control unit configured to change a density distribution of the target pixel by setting density levels in a plurality of sub-regions in the target pixel according to the edge direction of the target pixel determined by the edge determination unit. Image processing device.
前記の濃度制御手段は、
上記エッジ判定手段によって判定された注目画素のエッジ方向にしたがって、注目画素内のサブ領域ごとに濃度レベル設定用パラメータを設定する濃度レベル制御手段と、
濃度レベル制御手段により設定された濃度レベル設定用パラメータを用いて、注目画素の濃度レベルを基に、注目画素内の複数のサブ領域それぞれに濃度レベルを設定する濃度レベル設定手段と
からなることを特徴とした請求項1に記載された画像処理装置。
The concentration control means is
Density level control means for setting a density level setting parameter for each sub-region in the target pixel according to the edge direction of the target pixel determined by the edge determination means;
Using density level setting parameters set by the density level control means, based on the density level of the pixel of interest, and density level setting means for setting the density level in each of a plurality of sub-regions within the pixel of interest. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized.
濃度レベル補正手段で用いるフィルタは、副走査方向に非対称であることを特徴とした請求項1に記載された画像処理装置。The image processing apparatus according to claim 1, wherein the filter used in the density level correction unit is asymmetric in the sub-scanning direction. 濃度レベル補正手段は、複数のフィルタから1つを選択して使用することを特徴とした請求項1に記載された画像処理装置。The image processing apparatus according to claim 1, wherein the density level correcting unit selects and uses one of a plurality of filters. 濃度レベル補正手段は、複数のフィルタを用いて平滑化した結果のうち最小の濃度レベルが得られるフィルタを選択することを特徴とした請求項4に記載された画像処理装置。The image processing apparatus according to claim 4, wherein the density level correction unit selects a filter that obtains a minimum density level from a result of smoothing using a plurality of filters. 多値画像データに基づいて、画素を主走査方向に複数のサブ領域に分割しサブ領域の単位で画像を形成するためのデジタル画像データを出力する画像処理の方法であり、
多値画像データに基づいて、注目画素とその周辺画素の濃度レベルの差から注目画素のエッジ方向を判定し、
エッジであると判定された画素にのみ、注目画素に対し注目画素を中心とした非対称なフィルタを用いた平滑化処理を行い、新たに注目画素の濃度レベルを生成し、
判定された注目画素のエッジ方向にしたがって、注目画素内の複数のサブ領域に濃度レベルを設定して注目画素の濃度分布を変化させる
ことを特徴とした画像処理の方法。
An image processing method for outputting digital image data for dividing a pixel into a plurality of sub-regions in the main scanning direction based on multi-value image data and forming an image in units of sub-regions,
Based on the multi-valued image data, determine the edge direction of the target pixel from the difference in density level between the target pixel and its surrounding pixels,
Only a pixel determined to be an edge is subjected to a smoothing process using an asymmetric filter centered on the target pixel with respect to the target pixel, and a new density level of the target pixel is generated.
A method of image processing characterized in that, according to the determined edge direction of a target pixel, density levels are set in a plurality of sub-regions within the target pixel to change the density distribution of the target pixel.
JP28102798A 1998-10-02 1998-10-02 Image processing device Expired - Fee Related JP3757644B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP28102798A JP3757644B2 (en) 1998-10-02 1998-10-02 Image processing device
US09/408,366 US6978045B1 (en) 1998-10-02 1999-09-29 Image-processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28102798A JP3757644B2 (en) 1998-10-02 1998-10-02 Image processing device

Publications (2)

Publication Number Publication Date
JP2000115542A JP2000115542A (en) 2000-04-21
JP3757644B2 true JP3757644B2 (en) 2006-03-22

Family

ID=17633277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28102798A Expired - Fee Related JP3757644B2 (en) 1998-10-02 1998-10-02 Image processing device

Country Status (1)

Country Link
JP (1) JP3757644B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6894699B2 (en) 2000-07-21 2005-05-17 Mitsubishi Denki Kabushiki Kaisha Image display device employing selective or asymmetrical smoothing
US7088474B2 (en) * 2001-09-13 2006-08-08 Hewlett-Packard Development Company, Lp. Method and system for enhancing images using edge orientation
US7330596B2 (en) 2002-07-17 2008-02-12 Ricoh Company, Ltd. Image decoding technique for suppressing tile boundary distortion

Also Published As

Publication number Publication date
JP2000115542A (en) 2000-04-21

Similar Documents

Publication Publication Date Title
JPH03193472A (en) Highly definite image generating system of image processor
JPH04213964A (en) Photographic picture playback apparatus giving digital half-tone to screen picture facilitating adjustable roughness
JP4107059B2 (en) Image processing method and image processing apparatus
JPH08227147A (en) Dot forming method and device therefor
JPH1070659A (en) Error spread method and system
US6978045B1 (en) Image-processing apparatus
JPH1070660A (en) Error spread method and error spread system
JPH1070661A (en) Error spread method and error spread system
JP3648142B2 (en) Method and apparatus for improving image of digital copying apparatus
JP3757644B2 (en) Image processing device
JP4058823B2 (en) Image processing device
JP3823562B2 (en) Image processing device
JP4281126B2 (en) Image processing device
JP2004135317A (en) Color image processing apparatus and color image processing method
JP4127281B2 (en) Image processing apparatus and image processing method
JPH1075360A (en) Level number reduction method and system for multi-level gradation picture element value
JP3736593B2 (en) Image processing apparatus and image smoothing method
JP2007006271A (en) Image processing apparatus for binarization process, and image processing program
JP2007006269A (en) Image processing apparatus for binarization process, and image processing program
JPS59189782A (en) Picture processing device
JP3589415B2 (en) Image processing device
KR100490244B1 (en) Error diffusion method using variable threshold value in image processing system
JPS60236363A (en) Halftone display method
JP3501533B2 (en) Color image forming equipment
US20040157144A1 (en) Method of and apparatus for generating proof image

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050712

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051219

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100113

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110113

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110113

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120113

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130113

Year of fee payment: 7

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees