JP3222570B2 - Image area identification device - Google Patents

Image area identification device

Info

Publication number
JP3222570B2
JP3222570B2 JP24529692A JP24529692A JP3222570B2 JP 3222570 B2 JP3222570 B2 JP 3222570B2 JP 24529692 A JP24529692 A JP 24529692A JP 24529692 A JP24529692 A JP 24529692A JP 3222570 B2 JP3222570 B2 JP 3222570B2
Authority
JP
Japan
Prior art keywords
image
gradient vector
area identification
image area
averaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24529692A
Other languages
Japanese (ja)
Other versions
JPH0698163A (en
Inventor
直史 山本
秀和 関沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba TEC Corp
Original Assignee
Toshiba Corp
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba TEC Corp filed Critical Toshiba Corp
Priority to JP24529692A priority Critical patent/JP3222570B2/en
Publication of JPH0698163A publication Critical patent/JPH0698163A/en
Application granted granted Critical
Publication of JP3222570B2 publication Critical patent/JP3222570B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、ディジタル画像を処理
して記録・表示などを行うディジタル画像処理装置に係
り、特に入力画像を文字・線画などのように解像度が重
要な領域と写真などのように階調性の重要な領域とに識
別する像域識別装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a digital image processing apparatus for processing a digital image and recording / displaying the digital image. Thus, the present invention relates to an image area discriminating apparatus for discriminating an important area of gradation.

【0002】[0002]

【従来の技術】近年、ファクシミリ、ドキュメントファ
イル、ディジタル複写機などのように文書画像をディジ
タル信号として扱うディジタル画像処理装置が増えてい
る。画像をディジタル信号として扱うと多様な編集・補
正処理や電子的な記録や伝送が容易であるなど、多くの
利点がある。このようなディジタル画像処理装置は、従
来は主に文字・線画などのモノクロ二値画像を対象とし
ていたが、最近では階調画が混在した画像をも扱いたい
という要求が高まっている。
2. Description of the Related Art In recent years, digital image processing apparatuses that handle document images as digital signals, such as facsimile machines, document files, and digital copying machines, have been increasing. When an image is treated as a digital signal, there are many advantages such as various editing / correction processes and electronic recording and transmission being easy. Conventionally, such digital image processing apparatuses mainly deal with monochrome binary images such as characters and line drawings, but recently there is an increasing demand to handle images having mixed gradation images.

【0003】文字と階調画が混在する画像を扱う上で
は、ハードコピーへの記録が1つの問題となる。ディジ
タル画像の記録方式として、溶融熱転写方式や電子写真
方式がよく用いられる。これらの方法は通常、1記録画
点につき2ないし数レベル程度の濃度を表現する能力し
かない。このため、階調画を表現するには面積変調法な
どの手法を用いる。面積変調法は、複数画点の組合せに
より階調を表現する手法であり、組織的ディザ法などが
有名である。
[0003] One problem in recording an image in which characters and gradation images are mixed is hard copy. As a digital image recording method, a fusion heat transfer method and an electrophotographic method are often used. These methods usually only have the ability to represent on the order of two to several levels of density per recorded pixel. Therefore, a method such as an area modulation method is used to express a gradation image. The area modulation method is a method of expressing gradation by a combination of a plurality of pixels, and a systematic dither method or the like is famous.

【0004】組織的ディザ法は原理的に階調性と解像度
の両立する記録方法であるが、原稿読取り系によりエッ
ジのだれた文字・線画がかすれて再現されたり、網点原
稿ではモアレノイズが生ずるなどの欠点がある。文書画
像において文字や線画の情報はきわめて重要であり、ま
た、文書画像においては階調画の表現に網点印刷が多く
用いられるので、これらの欠点は致命的である。
The systematic dither method is a recording method in which gradation and resolution are compatible in principle. However, a character / line image having a sharp edge is reproduced by the original reading system, and moire noise is generated in a halftone original. There are drawbacks such as. In a document image, information of characters and line drawings is extremely important, and in a document image, halftone printing is often used for expressing a gradation image, so these drawbacks are fatal.

【0005】これらの欠点を除き、解像度と階調性の両
立した画像記録を行うために、像域識別方法が用いられ
る。像域識別とは、記録すべき入力画像を写真などのよ
うに階調性の重要な領域と、文字・線画などのように解
像度が重要な領域とに識別する方法であり、この識別結
果に従って記録処理を切換えることにより解像度、階調
性共に良好な画像記録が可能となる。
[0005] To eliminate these drawbacks, an image area discrimination method is used to perform image recording in which resolution and gradation are compatible. Image area identification is a method of identifying an input image to be recorded into an area where gradation is important, such as a photograph, and an area where resolution is important, such as characters and line drawings. By switching the recording process, an image can be recorded with good resolution and gradation.

【0006】従来の像域識別方法として、階調領域と文
字領域の局所的な濃度の変化の違いを利用した方法と、
局所的なパターンの違いを利用する方法が知られる。前
者の例として例えば特開昭58−3374号公報には、
画像を小ブロックに分割し、各ブロック内の最大濃度と
最小濃度の差を求め、その差が閾値より大きければ当該
ブロックを文字画領域とし、小さければ当該ブロックを
階調画領域として識別する方法が開示されている。この
方法では写真のような連続調画像と文字だけの場合に
は、高い精度で識別を行うことができるが、網点のよう
に局所的に濃度変化の多い領域では識別精度が極めて悪
いという問題があった。
As a conventional image area discriminating method, a method utilizing a difference in local density change between a gradation area and a character area,
There is known a method using a local pattern difference. As an example of the former, for example, JP-A-58-3374 discloses that
A method in which an image is divided into small blocks, the difference between the maximum density and the minimum density in each block is determined, and if the difference is larger than a threshold value, the block is identified as a character image area, and if the difference is smaller, the block is identified as a gradation image area. Is disclosed. With this method, it is possible to perform high-precision discrimination in the case of only continuous tone images and characters such as photographs, but the problem is that the discrimination accuracy is extremely poor in areas where there are many local density changes such as halftone dots. was there.

【0007】一方、後者の例として特開昭60−204
177号公報には、画像にラプラシアン・フィルタをか
けた後、適当な閾値で二値化し、その二値化パターンの
例えば4×4画素のパターンの形状により像域識別を行
う方法が開示されている。この方法によると、は網点画
も識別することができる。しかし、画像の二値化パター
ンを用いているので、二値化の際の閾値を適切に選ばな
いと効果が小さいという問題や、閾値を越えたノイズに
弱いという問題があった。また、テーブル参照方式の場
合、テーブルのサイズの制約から参照領域が4×4画素
程度に制限されるなどの問題があった。このため濃度の
低い文字や粗い網点画像の場合に十分な識別精度が得ら
れなかった。
On the other hand, Japanese Patent Application Laid-Open No. 60-204 discloses an example of the latter.
No. 177 discloses a method of applying an Laplacian filter to an image, binarizing the image with an appropriate threshold value, and performing image area identification based on the shape of the binarized pattern, for example, a pattern of 4 × 4 pixels. I have. According to this method, halftone dots can also be identified. However, since the binarization pattern of the image is used, there is a problem that the effect is small unless a threshold value for binarization is properly selected, and a problem that the image is weak to noise exceeding the threshold value. Further, in the case of the table reference method, there is a problem that the reference area is limited to about 4 × 4 pixels due to the restriction of the table size. For this reason, sufficient identification accuracy could not be obtained in the case of low density characters and coarse halftone images.

【0008】さらに、上述した二つの像域識別方法を組
合わせたり、像域はある程度広い領域内で一定であると
いう特徴を利用して、周囲の画素の識別結果から補正を
行う方法を併用することにより、識別精度を改善する試
みもあるが、未だ十分ではなかった。
Further, a method of combining the two image area identification methods described above or utilizing the characteristic that the image area is constant within a certain wide area to perform correction from the identification result of surrounding pixels is also used. Attempts have been made to improve the discrimination accuracy, but this has not been sufficient.

【0009】[0009]

【発明が解決しようとする課題】上述したように、従来
の像域識別方法のうち濃淡分布を用いる方法は、網点画
を識別することができず、またパターン形状を利用する
方法では、網点画も識別できるが、二値化を行うために
ノイズの影響を受けやすいという問題や、パターン識別
の計算量の制約のため広い領域を参照できず、識別の安
定性が低いという問題があり、十分な識別精度を得るこ
とができなかった。
As described above, of the conventional image area discrimination methods, the method using the grayscale distribution cannot discriminate the halftone image, and the method using the pattern shape does not allow the halftone image. However, there is a problem that it is susceptible to noise due to binarization, and there is a problem that it is not possible to refer to a wide area due to the limitation of the amount of calculation for pattern identification and the stability of identification is low. High identification accuracy could not be obtained.

【0010】本発明は、画像の広い領域のパターン情報
を有効に利用して、文字などの解像度が重要な領域と階
調領域とを高い精度で識別する像域識別装置を提供する
ことを目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an image area discriminating apparatus for discriminating, with high accuracy, an area where resolution is important, such as a character, from a gradation area by effectively utilizing pattern information of a wide area of an image. And

【0011】[0011]

【課題を解決するための手段】上記の課題を解決するた
め、本発明に係る像域識別装置は入力画像の勾配ベクト
ルを計算する勾配ベクトル計算手段と、この勾配ベクト
ル計算手段により計算された勾配ベクトルの偏角を2倍
にする偏角2倍化手段と、この偏角2倍化手段により得
られた勾配ベクトルを入力画像の微小領域毎に平均化す
る平均化手段と、この平均化手段により平均化された勾
配ベクトルから入力画像についての像域識別信号を生成
する像域識別信号生成手段とを備えることを特徴とす
る。
In order to solve the above-mentioned problems, an image area identifying apparatus according to the present invention comprises a gradient vector calculating means for calculating a gradient vector of an input image, and a gradient calculated by the gradient vector calculating means. Declination doubling means for doubling the declination of a vector, averaging means for averaging the gradient vector obtained by the declination doubling means for each minute area of the input image, and averaging means And an image area identification signal generating means for generating an image area identification signal for the input image from the gradient vector averaged by the above.

【0012】ここで、像域識別信号生成手段は、例えば
平均化された勾配ベクトルの絶対値を計算し、さらに該
絶対値を前記微小領域より大きな領域内で平均化して像
域識別信号を生成する構成とする。また、本発明は上記
のような像域識別装置を誤差拡散方式を用いて画像を記
録または表示する画像処理装置に適用する。この場合、
像域識別信号生成手段においては、先の平均化された勾
配ベクトルの強度および方向を像域識別信号として生成
する。そして、この像域識別信号に従って、入力画像に
誤差拡散処理を施す際の誤差拡散係数を切り換える構成
とする。
Here, the image area identification signal generating means calculates, for example, an absolute value of the averaged gradient vector, and further averages the absolute value in an area larger than the minute area to generate an image area identification signal. Configuration. In addition, the present invention is applied to the image processing apparatus for recording or displaying an image using the error diffusion method using the above-described image area identifying apparatus. in this case,
The image area identification signal generation means generates the intensity and direction of the averaged gradient vector as an image area identification signal. Then, according to this image area identification signal, an error diffusion coefficient for performing error diffusion processing on an input image is switched.

【0013】[0013]

【作用】入力画像の勾配ベクトルを計算することによっ
て、入力画像のエッジ状の領域が検出される。この勾配
ベクトルの偏角を2倍化すると、入力画像中のエッジ状
の領域のうち線の両側の勾配ベクトルは同方向のベクト
ルとなる。この偏角2倍化後の勾配ベクトルを微小領域
内で平均化すると、平均化の効果でノイズが小さくなる
とともに、網点のように狭い領域の中でエッジの向きが
ばらばらであるために方向の揃っていない勾配ベクトル
は打ち消され、方向の揃っている直線状部分の勾配ベク
トルはノルム、すなわち絶対値の大きなベクトルとな
る。
By calculating the gradient vector of the input image, an edge-like area of the input image is detected. If the argument of the gradient vector is doubled, the gradient vectors on both sides of the line in the edge-like area in the input image become vectors in the same direction. If the gradient vector after declination doubling is averaged in a minute area, the noise is reduced by the averaging effect, and the direction of the edge is varied in a narrow area such as a halftone dot, so that the direction is changed. Are canceled, and the gradient vector of the linear portion having the same direction is a norm, that is, a vector having a large absolute value.

【0014】従って、平均化後の勾配ベクトルの絶対値
を計算し、さらにそれを適当な閾値と比較することによ
り、文字などのように直線状のエッジにより多くが構成
された解像度が重要な領域か、網点画などを含む階調領
域かの識別が精度よく行われることになる。さらに、平
均化された勾配ベクトルの強度および方向を像域識別信
号として生成し、この像域識別信号に従って誤差拡散処
理における誤差拡散係数を切り換えれば、画質劣化の少
ない階調表現が可能となる。
Therefore, by calculating the absolute value of the averaged gradient vector and comparing the absolute value with an appropriate threshold value, an area where the resolution is important, such as a character, which is constituted more by straight edges, is important. Or a gradation area including a halftone image or the like is accurately determined. Further, if the averaged gradient vector intensity and direction are generated as an image area identification signal, and the error diffusion coefficient in the error diffusion processing is switched according to the image area identification signal, gradation expression with less image quality degradation can be achieved. .

【0015】[0015]

【実施例】以下、図面を参照して本発明の実施例を説明
する。図1は、本発明をディジタル画像複写装置に適用
した第1の実施例の構成を示すブロック図である。この
画像複写装置は画像入力部1、像域識別部2、適応処理
部3、二値化処理部4および画像記録部5により構成さ
れている。本発明による像域識別装置は、像域識別部2
に適用される。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of a first embodiment in which the present invention is applied to a digital image copying apparatus. This image copying apparatus includes an image input unit 1, an image area identification unit 2, an adaptive processing unit 3, a binarization processing unit 4, and an image recording unit 5. The image area identification device according to the present invention includes an image area identification unit 2.
Applied to

【0016】画像入力部1は、原稿画像を各画素の明る
さに応じた電気信号として読取る。具体的には、画像入
力部1は例えばCCDアレイセンサによって原稿画像を
走査することにより、画像をラスタスキャンの時系列信
号として読取り、さらにこの時系列信号をA/D変換器
でディジタル信号に変換した後、シェーディング補正処
理を施す。この処理はCCDラインセンサの各素子の感
度むらや、原稿上の照度むらを補正する処理であり、こ
れにより原稿画像が黒および白の場合に画像信号がそれ
ぞれ0および1になるように規格化されて画像信号が出
力される。この部分の具体的な構成については例えば、
特開昭61−71764号に詳しく記述されている。
The image input section 1 reads an original image as an electric signal corresponding to the brightness of each pixel. More specifically, the image input unit 1 scans a document image by, for example, a CCD array sensor, reads the image as a raster scan time-series signal, and converts the time-series signal into a digital signal by an A / D converter. After that, a shading correction process is performed. This process is a process for correcting unevenness in sensitivity of each element of the CCD line sensor and uneven illuminance on the original, thereby standardizing the image signals to be 0 and 1 when the original image is black and white, respectively. Then, an image signal is output. For the specific configuration of this part, for example,
This is described in detail in JP-A-61-71764.

【0017】画像入力部1から得られた画像信号は、像
域識別部2および適応処理部3に入力される。像域識別
部2では入力された画像信号の特徴を検出して、局所的
な領域の属性、すなわち文字・線画のように解像度が重
要な領域であるか、階調画のように階調性が重要な領域
であるかを識別する。そして、適応処理部3で像域識別
部2の領域識別結果に応じた処理が施される。
An image signal obtained from the image input unit 1 is input to an image area identification unit 2 and an adaptive processing unit 3. The image area identification unit 2 detects the characteristics of the input image signal and determines the attributes of the local area, that is, whether the area is an area where the resolution is important, such as a character or a line drawing, or the gradation of the image, such as a gradation image. Is an important area. Then, the adaptive processing unit 3 performs processing according to the area identification result of the image area identification unit 2.

【0018】次に、本発明に基づく像域識別部2の構成
について詳しく説明する。像域識別部2では画像上の各
部分について、連続的なエッジであるかどうかの識別を
行う。文字・線画や階調画のエッジ部分は、階調性より
解像度が画質に重要である。特に、文字、線の境界や階
調画の輪郭部分に現れる直線上に連続したエッジは視覚
的に印象度が高く、解像度の低下による画質劣化が大き
い。
Next, the configuration of the image area identifying section 2 according to the present invention will be described in detail. The image area identification unit 2 identifies each part on the image as to whether or not it is a continuous edge. In the edge portion of a character / line image or gradation image, resolution is more important for image quality than gradation. In particular, edges that are continuous on a straight line appearing at the boundary of a character or a line or a contour portion of a gradation image have a visually high impression degree, and the image quality is largely degraded due to a decrease in resolution.

【0019】一方、階調画の濃度変化のなだらかな部分
では、解像度より階調性の方が重要となる。但し、エッ
ジ部分でも階調画上の細かい輪郭や網点などによる細か
く入組んだエッジは視覚的に印象度が小さく、解像度の
低下による画質への影響は少ない。むしろ、網点のエッ
ジは消えた方が妨害感が小さい。このような観点から、
像域識別部2では入力画像中のエッジが連続的なエッジ
であるかどうかにより、解像度の重要な領域か階調性の
重要な領域かの識別を行う。
On the other hand, in a portion where the density change of the gradation image is gentle, the gradation is more important than the resolution. However, even at the edge portion, a finely formed edge such as a fine outline or a halftone dot on a gradation image has a small visual impression, and the image quality due to the reduction in resolution is small. Rather, the sense of obstruction is smaller when the edges of the halftone dots disappear. From this perspective,
The image area identification unit 2 identifies whether the resolution is important or the gradation is important, depending on whether the edges in the input image are continuous edges.

【0020】図3に、像域識別部2の具体的な構成例を
示す。この像域識別部は勾配ベクトルを計算するための
勾配フィルタ11,12、勾配ベクトルの偏角を2倍化
するためのルックアップテーブル13、勾配ベクトルを
微小領域内で平均化するための第1の平均化回路14,
15、絶対値計算のためのルックアップテーブル16お
よび像域識別信号を最終的に求める第2の平均化回路1
7からなる。
FIG. 3 shows a specific example of the configuration of the image area identification unit 2. The image area identification unit includes gradient filters 11 and 12 for calculating a gradient vector, a look-up table 13 for doubling the argument of the gradient vector, and a first table for averaging the gradient vector in a minute area. Averaging circuit 14,
15. Lookup table 16 for calculating absolute value and second averaging circuit 1 for finally obtaining image area identification signal
Consists of seven.

【0021】図1の画像入力部1からの画像信号は勾配
フィルタ11,12に入力され、次式(1)(2)(3) により
x方向の勾配ベクトルVxとy方向の勾配ベクトルVy
が計算される。
An image signal from the image input unit 1 shown in FIG. 1 is input to gradient filters 11 and 12, and a gradient vector Vx in the x direction and a gradient vector Vy in the y direction are calculated by the following equations (1), (2) and (3).
Is calculated.

【0022】 Vx(x,y) =P(x+1,y+1) +P(x+1,y) −P(x,y+1) −P(x,y) (1) Vy(x,y) =P(x+1,y+1) +P(x,y+1) −P(x+1,y) −P(x,y) (2) |V|=(Vx2 +Vy2 ) (3) Vx (x, y) = P (x + 1, y + 1) + P (x + 1, y) -P (x, y + 1) -P (x, y) (1) Vy (x , y) = P (x + 1, y + 1) + P (x, y + 1) -P (x + 1, y) -P (x, y) (2) | V | = (Vx 2 + Vy 2 ) (3)

【0023】図2に、勾配フィルタ11,12のカーネ
ルの例を図2(a)(b)に示す。ここでP(x,y) 、Vx(x,y)
およびVy(x,y)は、それぞれ点(x,y) の画像信号、勾配
ベクトルのx成分およびy成分を表す。
FIGS. 2A and 2B show examples of kernels of the gradient filters 11 and 12. FIG. Where P (x, y) and Vx (x, y)
And Vy (x, y) represent the image signal at point (x, y) and the x and y components of the gradient vector, respectively.

【0024】次に、第1のルックアップテーブル13に
よって、勾配ベクトルVx,Vyからその絶対値を保っ
たまま偏角θを2倍化したベクトルUx,Uyが次式
(4)(5)(6) に従って求められる。
Next, using the first look-up table 13, the vectors Ux, Uy obtained by doubling the argument θ from the gradient vectors Vx, Vy while maintaining their absolute values are given by the following equations.
(4) Determined according to (5) (6).

【0025】 Ux=|V|・cos2θ (4) Uy=|V|・sin2θ (5) θ =arctan(Vy/Vx) (6) Ux = | V | · cos2θ (4) Uy = | V | · sin2θ (5) θ = arctan (Vy / Vx) (6)

【0026】ルックアップテーブル13は、例えば式
(4)(5)(6) に従って予め計算された値を記憶したROM
によって実現される。
The look-up table 13 is, for example, a formula
(4) ROM storing values calculated in advance according to (5) and (6)
It is realized by.

【0027】次に、ルックアップテーブル13で得られ
た偏角2倍化ベクトルは、第1の平均化回路14,15
によって注目画素の近傍の微小領域S1で平均化され、
次式(7)(8)に示すベクトルをU′x,U′yとなる。微
小領域S1としては、例えば参照する注目画素周辺の5
×5画素程度の矩形領域を用いる。
Next, the argument doubling vector obtained by the look-up table 13 is used for the first averaging circuits 14 and 15.
Is averaged in the minute area S1 near the pixel of interest,
The vectors shown in the following equations (7) and (8) are U'x and U'y. As the minute region S1, for example, 5 around the target pixel to be referred to
A rectangular area of about × 5 pixels is used.

【0028】 U′x=ΣUx/Σ (7) U′y=ΣUy/Σ (8) U′x = ΣUx / Σ (7) U′y = ΣUy / Σ (8)

【0029】次に、平均化回路14,15で平均化され
たベクトルU′x,U′yは、第2のルックアップテー
ブル16に入力され、次式(9) に示すように絶対値Qが
求められる。このルックアップテーブル16も、ルック
アップテーブル13と同様、ROMにより実現される。
Next, the vectors U'x and U'y averaged by the averaging circuits 14 and 15 are inputted to a second look-up table 16, and the absolute value Q is calculated as shown in the following equation (9). Is required. This lookup table 16 is also realized by a ROM, like the lookup table 13.

【0030】 Q =|U′| (9) Q = | U ′ | (9)

【0031】さらに、この絶対値Qは第2の平均化回路
17において注目画素の近傍の領域S2で平均化されて
Q′となる。この領域S2としては、勾配ベクトルを平
均化した微小領域S1より広い領域、例えば9×9画素
程度の矩形領域を用いる。
Further, the absolute value Q is averaged by the second averaging circuit 17 in the area S2 near the pixel of interest to obtain Q '. As the area S2, an area wider than the minute area S1 in which the gradient vectors are averaged, for example, a rectangular area of about 9 × 9 pixels is used.

【0032】 Q′=ΣQ/Σ (10)Q ′ = ΣQ / Σ (10)

【0033】こうして平均化回路17で得られたQ′
(エッジ度という)が像域識別信号として出力される。
また、この像域識別信号は必要に応じてさらに適当な閾
値で閾値処理される。
The Q 'obtained by the averaging circuit 17 in this manner
(Referred to as edge degree) is output as an image area identification signal.
Further, the image area identification signal is subjected to a threshold processing with a further appropriate threshold as needed.

【0034】次に、上記のような像域識別部2により入
力画像の文字やエッジ部分が識別されることを図4〜図
7を参照して説明する。図4(a) に示すような線部分
と、図4(b) に示すような網点部分を入力画像とした場
合を例にとる。この入力画像のグラジェントである勾配
ベクトルVは、画像のエッジの傾きに応じた大きさで、
方向がエッジの法線方向と平行となる。
Next, a description will be given of how characters and edges of an input image are identified by the image area identifying section 2 with reference to FIGS. An example is given in which a line portion as shown in FIG. 4A and a halftone dot portion as shown in FIG. The gradient vector V, which is the gradient of the input image, has a magnitude corresponding to the inclination of the edge of the image.
The direction is parallel to the normal direction of the edge.

【0035】図4(a)(b)の画像についての勾配ベクトル
を模式的に示したのが図5(a)(b)である。図5の矢印の
方向、長さが勾配ベクトルの方向、大きさをそれぞれ表
す。図5に示されるように、(a) の文字部のエッジでは
勾配ベクトルの方向が揃い、(b) の網点部では方向がま
ちまちになる。
FIGS. 5 (a) and 5 (b) schematically show the gradient vectors for the images of FIGS. 4 (a) and 4 (b). The direction and length of the arrow in FIG. 5 indicate the direction and magnitude of the gradient vector, respectively. As shown in FIG. 5, the direction of the gradient vector is uniform at the edge of the character portion in FIG. 5A, and the direction varies in the halftone dot portion in FIG.

【0036】図5(a)(b)の勾配ベクトルVに偏角のみ2
倍化したベクトルUを図6(a)(b)に示す。但し、ここで
は水平方向右側への線を偏角の基準としている。偏角の
2倍化により、図4(a)(b)では方向が180°ずれた、
つまり互いに方向が逆の勾配ベクトルが図5(a)(b)では
同方向のベクトルとなり、また図4(a)(b)では方向が9
0°ずれた勾配ベクトルが図5(a)(b)では互いに反対方
向のベクトルとなる。この結果、例えば図6(a) の線の
両側のエッジでの勾配ベクトルは、同方向のベクトルと
なる。
Only the declination is 2 in the gradient vector V of FIGS.
The doubled vector U is shown in FIGS. 6 (a) and 6 (b). Here, the line to the right in the horizontal direction is used as the reference for the declination. Due to the doubling of the deflection angle, the direction is shifted by 180 ° in FIGS. 4 (a) and 4 (b).
That is, the gradient vectors whose directions are opposite to each other are vectors in the same direction in FIGS. 5 (a) and 5 (b), and the direction is 9 in FIGS.
The gradient vectors shifted by 0 ° are vectors in directions opposite to each other in FIGS. 5 (a) and 5 (b). As a result, for example, the gradient vectors at both edges of the line in FIG. 6A are vectors in the same direction.

【0037】この偏角を2倍化した勾配ベクトルUを近
傍領域内で平均化した結果を図7に示す。この平均化に
より、図6(b)のような向きの揃っていない勾配ベクト
ルは互いに打消されて、図7(b) のように絶対値の小さ
いベクトルになる。これに対し、図6(a) のように向き
の揃った勾配ベクトルは互いに打消されず、絶対値の大
きなベクトルとなる。
FIG. 7 shows the result of averaging the gradient vector U obtained by doubling the declination in the neighboring region. By this averaging, the gradient vectors whose directions are not aligned as shown in FIG. 6B are canceled each other, and become a vector having a small absolute value as shown in FIG. 7B. On the other hand, the gradient vectors having the same orientation as shown in FIG. 6A are not canceled out with each other, and become vectors having a large absolute value.

【0038】すなわち、文字や線画のように勾配ベクト
ルの向きの揃ったエッジにより構成される領域ではエッ
ジ度Qは大きく、一方、網点や階調画の入り組んだ輪郭
などでは、勾配ベクトルの向きが不規則であるためQは
0または小さい値となる。また、本来勾配の小さな部分
でもエッジ度Qは小さい値となる。ここで、図6(a)(b)
のような偏角2倍化の処理を行っていないと、互いに勾
配方向が逆である細い線の両側のエッジでの勾配ベクト
ルが平均化により打消されるため、細い線の部分でのエ
ッジ度Qの値が小さくなり、エッジとして識別されにく
くなる。偏角2倍化を行ってから平均化を行うことによ
り、このような問題が除かれる。
That is, the edge degree Q is large in an area composed of edges having the same gradient vector direction, such as a character or a line drawing, while the gradient vector direction is large in a halftone dot or a complicated contour of a gradation image. Is irregular, Q is 0 or a small value. In addition, the edge degree Q has a small value even in a portion where the gradient is originally small. Here, FIGS. 6 (a) and 6 (b)
If the declination doubling process is not performed as described above, the gradient vectors at the edges on both sides of the thin line whose gradient directions are opposite to each other are canceled out by averaging. The value of Q becomes small, making it difficult to be identified as an edge. By averaging after doubling the deflection angle, such a problem is eliminated.

【0039】このようにエッジ度Qは連続するエッジで
高い値をとる。しかし、図8(a)(b)に示すような線の端
点や交差点などでは、エッジが方向の種々異なる線で構
成されるので、文字や線画の一部であるにもかかわらず
エッジ度Qは低い値となる。このような部分も文字と識
別し、高い解像度で表現する必要がある。第2の平均化
回路17による平均化を行うことにより、このような部
分でも文字と識別することができる。一つの文字はエッ
ジ度Qの高い線素部分とエッジ度Qの低い交差点や端点
よりなっているが、交差点や端点はそれぞれ孤立してお
り、常にその周辺にはエッジ度の高い線素が存在する。
従って、平均化回路17によって文字を構成する線素よ
り大きい領域でエッジ度Qを平均化することにより、交
差点や端点なども周囲のエッジ度Qの高い領域の影響で
大きい値を持つ。
As described above, the edge degree Q takes a high value at successive edges. However, at the end points and intersections of the lines as shown in FIGS. 8A and 8B, the edges are composed of lines having various directions. Is a low value. It is necessary to identify such a part as a character and express it with high resolution. By performing averaging by the second averaging circuit 17, even such a portion can be identified as a character. One character is composed of a line element part with a high edge degree Q and an intersection or an end point with a low edge degree Q, but the intersection or the end point is isolated, and a line element with a high edge degree always exists around it. I do.
Therefore, the averaging circuit 17 averages the edge degree Q in a region larger than a line element constituting a character, so that an intersection, an end point, and the like also have a large value under the influence of a surrounding region having a high edge degree Q.

【0040】なお、この実施例では平均化として単純平
均を用いたが、画素により重み係数を変える重み付け平
均化を用いてもよい。また、第1の平均化回路14,1
5のみで必要な像域識別精度が得られる場合は、第2の
平均化回路17を省略し、エッジ度Qをそのまま像域識
別結果としてもよい。図1に説明を戻すと、適応処理部
3では像域識別部2から出力された像域識別信号Q′に
従って、領域毎に適した処理を施す。適応処理部3の具
体的な構成を図9に示す。まず、図1の画像入力部1か
らの画像信号は高域抽出フィルタ21に入力される。こ
の高域抽出フィルタ21は、例えば図10に示すような
カーネルを持つ。この高域抽出フィルタ21の出力は、
画像濃度の凸部分で正の大きな値を、凹部分で負の大き
な値をそれぞれとり、濃度変化の小さい部分や勾配の一
様な部分では0に近い値をとる。
In this embodiment, the simple averaging is used as the averaging. However, a weighted averaging that changes the weight coefficient depending on the pixel may be used. Further, the first averaging circuits 14, 1
When the required image area identification accuracy can be obtained with only 5, the second averaging circuit 17 may be omitted, and the edge degree Q may be used as the image area identification result. Returning to FIG. 1, the adaptive processing unit 3 performs a process suitable for each area according to the image area identification signal Q ′ output from the image area identification unit 2. FIG. 9 shows a specific configuration of the adaptive processing unit 3. First, an image signal from the image input unit 1 in FIG. The high-frequency extraction filter 21 has a kernel as shown in FIG. 10, for example. The output of the high-pass extraction filter 21 is
A large positive value is taken at the convex portion of the image density, and a large negative value is taken at the concave portion, and a value close to 0 is taken at the portion where the density change is small and the gradient is uniform.

【0041】高域抽出フィルタ21の出力信号は、変調
回路22に入力され、像域識別部2からの像域識別結果
であるでエッジ度Q′に応じた係数が乗じられた後、加
算器23で元の画像信号に加算される。この係数はエッ
ジ度Q′が高い場合には例えば4程度の大きな値をと
り、エッジ度Q′が低い場合には例えば0〜−1程度の
小さい値をとる。これにより、文字線画や階調画のエッ
ジ部分などのようにエッジ度Q′の高い部分ではよりエ
ッジが強調され、網点画像や階調画像上の濃度変化のな
だらかな領域などのようにエッジ度Q′の低い部分では
平滑され、エッジが抑制される。
The output signal of the high-frequency extraction filter 21 is input to the modulation circuit 22 and multiplied by a coefficient corresponding to the edge degree Q ', which is the image area identification result from the image area identification unit 2, and then added to the adder. At 23, it is added to the original image signal. This coefficient takes a large value, for example, about 4 when the edge degree Q 'is high, and takes a small value, for example, about 0 to -1 when the edge degree Q' is low. As a result, the edge is more emphasized in a portion having a high edge degree Q ', such as an edge portion of a character line drawing or a gradation image, and the edge is enhanced as in a halftone image or a gradation image where a density change is gentle. In the portion where the degree Q 'is low, smoothing is performed and edges are suppressed.

【0042】こうして適応処理部3で適応処理された画
像信号は、二値化処理部4で二値の画像信号に変換され
た後、画像記録部5で紙面上に画像記録される。本実施
例では、この画像記録に例えば電子写真方式を用いる。
電子写真方式は感光体へ照射するレーザ光を画像信号に
応じて変調することにより、感光体上に画像信号に応じ
た静電潜像を形成し、さらに静電潜像をトナーで現像し
て画像形成を行う。
The image signal thus adaptively processed by the adaptive processing unit 3 is converted into a binary image signal by the binarization processing unit 4, and then the image is recorded on the paper by the image recording unit 5. In this embodiment, for example, an electrophotographic method is used for this image recording.
In the electrophotographic method, an electrostatic latent image corresponding to an image signal is formed on a photoconductor by modulating a laser beam applied to a photoconductor in accordance with an image signal, and the electrostatic latent image is developed with toner. An image is formed.

【0043】本実施例では、感光体へのレーザ光の制御
を0,1の二値のいずれかを切換えることにより、画素
当たり二値レベルの記録を行っている。そのため、画素
単位では多値の濃度を表現できないので、二値化処理部
4で組織ディザ法を用いて階調表現を行う。組織ディザ
法は理想的な文字画像や階調画像については解像度、階
調性とも両立する記録信号変調方式である。
In the present embodiment, the binary control of the laser beam on the photosensitive member is switched between 0 and 1 to record the binary level per pixel. For this reason, since multi-valued density cannot be expressed in pixel units, the binarization processing unit 4 performs gradation expression using the tissue dither method. The tissue dither method is a recording signal modulation method that is compatible with both resolution and gradation for ideal character images and gradation images.

【0044】しかし、組織ディザ法は原画像に網点構造
があるとモアレノイズが生じ、画質が著しく劣化すると
いう欠点がある。シャープなエッジは高い解像度で表現
できるが、画像入力系のボケなどによりエッジがなまる
と、解像度が低下する。このような画質劣化を防ぐに
は、網点画像についてはローパスフィルタなどにより網
点構造を除いておく必要がある。また、文字やエッジ部
分については高域強調処理などによりエッジの「だれ」
を補正しておく必要がある。
However, the tissue dither method has a drawback that if the original image has a halftone structure, moire noise is generated and the image quality is remarkably deteriorated. Although a sharp edge can be expressed with a high resolution, the resolution is reduced when the edge is rounded due to blurring of an image input system or the like. In order to prevent such image quality deterioration, it is necessary to remove a dot structure from a dot image by using a low-pass filter or the like. For characters and edges, high-frequency emphasis processing etc.
Needs to be corrected.

【0045】そこで、本実施例では図1に示すように二
値化処理部4で二値化処理を行う前に適応処理部3で前
述した適応処理を施すことにより、網点画像では網点構
造が除去され、またエッジはシャープに補正される。従
って、文字やエッジはシャープに、また階調部分はモア
レなどが生せず滑らかに再現され、高画質の画像記録が
できる。
Therefore, in the present embodiment, as shown in FIG. 1, the adaptive processing section 3 performs the above-described adaptive processing before performing the binarization processing in the binarization processing section 4, so that a halftone image Structure is removed and edges are sharpened. Therefore, characters and edges are sharply reproduced, and gradation portions are reproduced smoothly without moiré, so that high-quality image recording can be performed.

【0046】なお、本実施例では適応処理部3で線形フ
ィルタ処理を行い、像域識別部2からの像域識別結果に
応じて、そのフィルタの特性を切り換えているが、本発
明はこれに限るものではない。例えば、メディアンフィ
ルタのような論理フィルタを用い、そのフィルタのサイ
ズを識別結果に応じて切り換えてもよい。さらに、コン
トラスト強調関数をかけ、その強調の度合を像域識別結
果に応じて切り換えてもよい。
In the present embodiment, the linear filter processing is performed by the adaptive processing unit 3 and the characteristics of the filter are switched according to the image area identification result from the image area identification unit 2. However, the present invention is not limited to this. It is not limited. For example, a logical filter such as a median filter may be used, and the size of the filter may be switched according to the identification result. Further, a contrast enhancement function may be applied, and the degree of the enhancement may be switched according to the image area identification result.

【0047】次に、本発明をディジタル複写機に適用し
た第2の実施例について説明する。本実施例におけるデ
ィジタル複写機の構成を図11に示す。本実施例では第
1の実施例と同様に、画像入力部31で画像をディジタ
ル信号として読込んだ後、このディジタル画像信号につ
いて像域識別部32によりエッジ度を検出し、それを像
域識別結果として出力する。
Next, a second embodiment in which the present invention is applied to a digital copying machine will be described. FIG. 11 shows the configuration of a digital copying machine according to this embodiment. In this embodiment, as in the first embodiment, after an image is read as a digital signal by the image input unit 31, the edge degree of the digital image signal is detected by the image area identification unit 32, and the edge degree is detected. Output as result.

【0048】すなわち、像域識別部32では第1の実施
例と異なり、図13に示すように平均化回路14,15
からの平均化した勾配ベクトルの強度と方向をルックア
ップテーブル18によって求め、エッジ強度信号U′a
およびエッジ方向信号U′θとして出力する。これを次
式に示す。但し、U′x,U′yはそれぞれ式(7)(8)に
示したように、偏角2倍化勾配ベクトルを平均したもの
である。
That is, unlike the first embodiment, the image area discriminating section 32 has the averaging circuits 14, 15 as shown in FIG.
, The strength and direction of the averaged gradient vector from the edge strength signal U'a
And an edge direction signal U′θ. This is shown in the following equation. Here, U'x and U'y are the averages of the declination doubling gradient vectors, respectively, as shown in equations (7) and (8).

【0049】 U′a=(U′x2 +U′y2 ) (11) U′θ=arctan(U′y/U′x) (12)U′a = (U′x 2 + U′y 2 ) (11) U′θ = arctan (U′y / U′x) (12)

【0050】画像入力部31で読取られた画像信号は、
二値化処理部33にも入力されて誤差拡散方式で二値化
信号に変換された後、画像記録部34に送られて紙面上
に記録される。
The image signal read by the image input unit 31 is
After being also input to the binarization processing unit 33 and converted into a binarized signal by an error diffusion method, it is sent to the image recording unit 34 and recorded on the paper.

【0051】本実施例では、第1の実施例と同様に二値
の電子写真方式を用いているが、二値化処理部33では
誤差拡散方式を用いて階調表現を行っている。誤差拡散
方式は、二値化したときの量子化誤差を近傍の二値化処
理前の画素に拡散マトリクス係数に応じて分配して加算
していく方式で、ディザ法と同様に解像度および階調性
を両立する階調記録方式として知られている。
In this embodiment, a binary electrophotographic system is used as in the first embodiment, but the binarization processing section 33 performs gradation expression using an error diffusion system. The error diffusion method is a method of distributing and adding a quantization error at the time of binarization to nearby pixels before binarization processing in accordance with a diffusion matrix coefficient. This is known as a gradation recording method that achieves both characteristics.

【0052】拡散マトリクスの典型的な例を図12に示
す。この方式では局所的な領域での平均濃度が保存され
るため、モアレノイズは生じにくいが、一方、だれたエ
ッジは「ぎざぎざ」に再現されたり、濃度変化のなだら
かな領域で独特の不規則なテクスチャが発生するなどの
問題がある。
FIG. 12 shows a typical example of the diffusion matrix. This method preserves the average density in a local area, so moire noise is unlikely to occur, but on the other hand, wavy edges are reproduced in “jaggies” or unique irregular textures in areas with gradual density changes. And other problems.

【0053】本実施例では、二値化処理部33において
拡散マトリクス(誤差拡散係数)を像域識別部32から
出力されるエッジ方向信号およびエッジ強度信号によっ
て切換えることにより、これらの画質劣化、特に前者の
エッジ部分での劣化を防いでいる。エッジ強度信号とエ
ッジ方向信号および選択する拡散マトリクスの関係を図
14に示す。エッジ強度がある閾値より小さい場合は、
図14(a) に示すように標準の拡散マトリクスを用い
る。エッジ強度が閾値より大きい場合はエッジの法線方
向により、図14(a)(b)(c)(d)(e) の4通りの拡散マト
リクスから一つを選択する。
In this embodiment, the binarization processing section 33 switches the diffusion matrix (error diffusion coefficient) according to the edge direction signal and the edge intensity signal output from the image area identification section 32, thereby deteriorating the image quality, especially The former prevents edge deterioration. FIG. 14 shows the relationship between the edge strength signal, the edge direction signal, and the selected diffusion matrix. If the edge strength is less than a certain threshold,
A standard diffusion matrix is used as shown in FIG. If the edge strength is larger than the threshold value, one is selected from the four diffusion matrices shown in FIGS. 14 (a), (b), (c), (d) and (e) according to the normal direction of the edge.

【0054】このような拡散マトリクスの選択を行うこ
とにより、エッジの法線方向には誤差が拡散されず、エ
ッジをシャープに再現することができる。すなわち、本
実施例のように像域識別部32で連続的なエッジの方向
および強度を検出して、それに応じて二値化処理部33
での誤差拡散処理を切り換えることにより、特にエッジ
のシャープな高画質の記録を実現することができる。
By selecting such a diffusion matrix, no error is diffused in the normal direction of the edge, and the edge can be reproduced sharply. That is, as in the present embodiment, the direction and the intensity of the continuous edge are detected by the image area identification unit 32, and the binarization processing unit 33 is accordingly detected.
By switching the error diffusion processing in the above, it is possible to realize high-quality recording with particularly sharp edges.

【0055】なお、本実施例では拡散マトリクスとして
図12に示す例を用いたが、これに限るものでなく、こ
れよりサイズの大きいマトリクスを用いてもよい。ま
た、本実施例では画像記録部34に二値の電子写真方式
を用いているが、熱転写方式など他の記録方式でもよ
い。さらに、1画素当たり例えば4値の濃度をとるよう
な記録方式を用いてもよい。この場合、二値化処理部3
3に代えて多値化処理を行うように拡張する必要がある
が、この場合の多値化方法としては誤差拡散方式の拡張
である多値誤差拡散方式を用いればよい。
In this embodiment, the example shown in FIG. 12 is used as the diffusion matrix. However, the present invention is not limited to this, and a matrix having a larger size may be used. Further, in this embodiment, a binary electrophotographic system is used for the image recording unit 34, but another recording system such as a thermal transfer system may be used. Further, a recording method that takes, for example, four levels of density per pixel may be used. In this case, the binarization processing unit 3
Although it is necessary to extend the multi-level processing to perform the multi-level processing instead of 3, the multi-level processing in this case may be a multi-level error diffusion method which is an extension of the error diffusion method.

【0056】[0056]

【発明の効果】以上説明したように、本発明によれば文
字・線画などの二値画像と階調画像の混在した画像につ
いて、文字領域や階調画のエッジ部分などのように高い
解像度が要求される部分と、滑らかな階調性が要求され
る領域とを精度よく識別することができる。特に、従来
方式では識別精度の低かった網点画や薄い文字、極めて
細い線なども高い精度で識別することができる。さら
に、高解像度が要求される部分について誤差拡散方法で
エッジでのシャープさが改善される。
As described above, according to the present invention, for an image in which a binary image such as a character or a line image and a gradation image are mixed, a high resolution such as a character region or an edge portion of a gradation image is obtained. A required portion and a region where smooth gradation is required can be accurately distinguished. In particular, halftone dots, thin characters, extremely thin lines, etc., which were low in identification accuracy in the conventional method, can be identified with high accuracy. Further, the sharpness at the edge is improved by the error diffusion method for the part where high resolution is required.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施例に係る画像複写装置の構成を示す
ブロック図
FIG. 1 is a block diagram illustrating a configuration of an image copying apparatus according to a first embodiment.

【図2】図1における像域識別部で用いる勾配フィルタ
のカーネルを示す図
FIG. 2 is a diagram illustrating a kernel of a gradient filter used in an image area identification unit in FIG. 1;

【図3】図2における像域識別部の構成を示すブロック
FIG. 3 is a block diagram showing a configuration of an image area identification unit in FIG. 2;

【図4】像域識別部への入力画像の例を示す図FIG. 4 is a diagram illustrating an example of an image input to an image area identification unit.

【図5】図4の入力画像の勾配ベクトルを示す図FIG. 5 is a diagram showing a gradient vector of the input image of FIG. 4;

【図6】図4の入力画像の勾配ベクトルを偏角2倍化し
たベクトルを示す図
FIG. 6 is a diagram showing a vector obtained by doubling the declination of the gradient vector of the input image of FIG. 4;

【図7】図6のベクトルを平均化した結果を示す図FIG. 7 is a diagram showing a result of averaging the vectors of FIG. 6;

【図8】画像の交差点および端点を示す図FIG. 8 is a diagram showing intersections and end points of an image;

【図9】図1における適応処理部の構成を示すブロック
FIG. 9 is a block diagram showing a configuration of an adaptive processing unit in FIG. 1;

【図10】図9の適応処理部における高域抽出フィルタ
のカーネルを示す図
FIG. 10 is a diagram illustrating a kernel of a high-pass extraction filter in the adaptive processing unit in FIG. 9;

【図11】第2の実施例に係るディジタル複写機の構成
を示すブロック図
FIG. 11 is a block diagram showing a configuration of a digital copying machine according to a second embodiment.

【図12】典型的な誤差拡散マトリクスの例を示す図FIG. 12 is a diagram showing an example of a typical error diffusion matrix.

【図13】図11における像域識別部の構成を示すブロ
ック図
FIG. 13 is a block diagram showing a configuration of an image area identification unit in FIG. 11;

【図14】エッジ強度信号と方向信号および拡散マトリ
クスの関係を示す図
FIG. 14 is a diagram showing a relationship between an edge strength signal, a direction signal, and a spreading matrix.

【符号の説明】[Explanation of symbols]

1…画像入力部 2…像域識別部 3…適応処理部 4…二値化処理部 5…画像記録部 11,12…勾配フ
ィルタ 13…ルックアップテーブル 14,15…平均化
回路 16…ルックアップテーブル 17…平均化回路 18…ルックアップテーブル 21…高域抽出フィ
ルタ 22…変調回路 23…加算器 31…画像入力部 32…像域識別部 33…二値化処理部 34…画像記録部
DESCRIPTION OF SYMBOLS 1 ... Image input part 2 ... Image area discriminating part 3 ... Adaptive processing part 4 ... Binarization processing part 5 ... Image recording part 11, 12 ... Gradient filter 13 ... Look-up table 14, 15 ... Averaging circuit 16 ... Look-up Table 17 ... Averaging circuit 18 ... Lookup table 21 ... High-frequency extraction filter 22 ... Modulation circuit 23 ... Adder 31 ... Image input unit 32 ... Image area identification unit 33 ... Binarization processing unit 34 ... Image recording unit

───────────────────────────────────────────────────── フロントページの続き 審査官 松永 稔 (56)参考文献 特開 昭50−40039(JP,A) 特開 平1−271887(JP,A) 特開 平4−576(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 1/40 - 1/409 G06T 7/60 ────────────────────────────────────────────────── ─── Continued from the front page Examiner Minoru Matsunaga (56) References JP-A-50-40039 (JP, A) JP-A 1-271887 (JP, A) JP-A 4-576 (JP, A) ( 58) Surveyed field (Int.Cl. 7 , DB name) H04N 1/40-1/409 G06T 7/60

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】入力画像の勾配ベクトルを計算する勾配ベ
クトル計算手段と、 この勾配ベクトル計算手段により計算された勾配ベクト
ルの偏角を2倍にする偏角2倍化手段と、 この偏角2倍化手段により得られた勾配ベクトルを前記
入力画像の微小領域毎に平均化する平均化手段と、 この平均化手段により平均化された勾配ベクトルから前
記入力画像についての像域識別信号を生成する像域識別
信号生成手段とを備えることを特徴とする像域識別装
置。
A gradient vector calculating means for calculating a gradient vector of an input image; a declination doubling means for doubling a declination of a gradient vector calculated by the gradient vector calculating means; Averaging means for averaging the gradient vector obtained by the doubling means for each minute area of the input image; and generating an image area identification signal for the input image from the gradient vector averaged by the averaging means. An image area identification device, comprising: an image area identification signal generation unit.
【請求項2】前記像域識別信号生成手段は、前記平均化
手段により平均化された勾配ベクトルの絶対値を計算
し、さらに該絶対値を前記微小領域より大きな領域内で
平均化して前記像域識別信号を生成するものであること
を特徴とする請求項1記載の像域識別装置。
2. The image area identification signal generating means calculates an absolute value of a gradient vector averaged by the averaging means, and further averages the absolute value in an area larger than the minute area to obtain the image. The image area identification apparatus according to claim 1, wherein the apparatus generates an area identification signal.
【請求項3】入力画像の勾配ベクトルを計算する勾配ベ
クトル計算手段と、 この勾配ベクトル計算手段により計算された勾配ベクト
ルの偏角を2倍にする偏角2倍化手段と、 この偏角2倍化手段により得られた勾配ベクトルを前記
入力画像の微小領域毎に平均化する平均化手段と、 この平均化手段により平均化された勾配ベクトルの強度
および方向を前記入力画像についての像域識別信号とし
て生成する像域識別信号生成手段と、 前記入力画像に所定の誤差拡散係数に従って誤差拡散処
理を施す誤差拡散処理手段と、 前記像域識別信号生成手段により生成された像域識別信
号に従って前記誤差拡散係数を誤差拡散の係数を切り換
える切り換え手段とを備えることを特徴とする画像処理
装置。
3. A gradient vector calculating means for calculating a gradient vector of an input image; a declination doubling means for doubling the declination of the gradient vector calculated by the gradient vector calculating means; Averaging means for averaging the gradient vector obtained by the doubling means for each minute area of the input image, and identifying the intensity and direction of the gradient vector averaged by the averaging means for an image area of the input image. An image area identification signal generating means for generating a signal, an error diffusion processing means for performing error diffusion processing on the input image according to a predetermined error diffusion coefficient, and an image area identification signal generated by the image area identification signal generating means. An image processing apparatus comprising: a switching unit that switches an error diffusion coefficient to an error diffusion coefficient.
JP24529692A 1992-09-14 1992-09-14 Image area identification device Expired - Fee Related JP3222570B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24529692A JP3222570B2 (en) 1992-09-14 1992-09-14 Image area identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24529692A JP3222570B2 (en) 1992-09-14 1992-09-14 Image area identification device

Publications (2)

Publication Number Publication Date
JPH0698163A JPH0698163A (en) 1994-04-08
JP3222570B2 true JP3222570B2 (en) 2001-10-29

Family

ID=17131562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24529692A Expired - Fee Related JP3222570B2 (en) 1992-09-14 1992-09-14 Image area identification device

Country Status (1)

Country Link
JP (1) JP3222570B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102025865A (en) * 2009-09-09 2011-04-20 村田机械株式会社 Image discrimination device and image attribute discrimination method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5501108B2 (en) * 2009-10-21 2014-05-21 京セラドキュメントソリューションズ株式会社 Electronic device and image processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102025865A (en) * 2009-09-09 2011-04-20 村田机械株式会社 Image discrimination device and image attribute discrimination method
CN102025865B (en) * 2009-09-09 2014-11-12 村田机械株式会社 Image discrimination device and image attribute discrimination method

Also Published As

Publication number Publication date
JPH0698163A (en) 1994-04-08

Similar Documents

Publication Publication Date Title
JP2871127B2 (en) Image processing apparatus and method
EP1505821B1 (en) Image processing apparatus, an image forming apparatus and an image processing method
US6101285A (en) Filter for producing continuous tone images from halftone digital images data
JPH0766977A (en) Picture processing unit
EP0402162B1 (en) Image processing with noise enhancing operators for moiré reduction and/or random dot generation
EP0500174A1 (en) Image processing method and scan/print system for performing the method
JP2007065916A (en) Image processing method, image processor, image forming apparatus, computer program and recording medium
US6438270B1 (en) Methods and systems for image sharpening
JP3568732B2 (en) Image processing device
US20020041397A1 (en) Method of processing pixels with binary or multibit error diffusion
JP3222570B2 (en) Image area identification device
JP4570534B2 (en) Image processing apparatus, image forming apparatus, image processing method, and computer program
JP3275746B2 (en) Image processing device
JP3137702B2 (en) Image processing device
JP3361355B2 (en) Image processing device
JP3216963B2 (en) Halftone area determination device
JPH01133470A (en) Digital picture processing method
JP2777476B2 (en) Image processing device
JP2746772B2 (en) Image signal processing method and apparatus
JP2507927B2 (en) Image processing device
JP3476649B2 (en) Image processing method and apparatus
JP3032238B2 (en) Image processing device
JPH02186876A (en) Picture processor
JP3183788B2 (en) Halftone area determination device
JPH10271340A (en) Image-processing method and device therefor

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees