JPH0638055A - Image processor - Google Patents

Image processor

Info

Publication number
JPH0638055A
JPH0638055A JP4209837A JP20983792A JPH0638055A JP H0638055 A JPH0638055 A JP H0638055A JP 4209837 A JP4209837 A JP 4209837A JP 20983792 A JP20983792 A JP 20983792A JP H0638055 A JPH0638055 A JP H0638055A
Authority
JP
Japan
Prior art keywords
pixel
data
edge
black
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4209837A
Other languages
Japanese (ja)
Inventor
Katsumi Nagata
勝己 永田
Hidechika Kumamoto
秀近 熊本
Ryoji Kubo
亮二 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Mita Industrial Co Ltd
Original Assignee
Mita Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mita Industrial Co Ltd filed Critical Mita Industrial Co Ltd
Priority to JP4209837A priority Critical patent/JPH0638055A/en
Publication of JPH0638055A publication Critical patent/JPH0638055A/en
Pending legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PURPOSE:To satisfactorily reproduce black characters by emphasizing a black color for the constitutive picture elements of the edge part and fine line part of the black character, strongly emphasizing the fine line part and smoothly emphasizing the edge part excepting for the fine line part. CONSTITUTION:An edge/fine line detection part 4 detects the edge part of an image and the fine line part within prescribed width (such as three picture elements, for example.) A black picture element detection part 7 defines an uncolored high-density picture element as a black picture element candidate. When the picture element of the black picture element candidate is the constitutive picture element of the edge part or the fine line part at the same time, correction data from a color adjustment part 11 are selected. The color adjustment part 11 performs processing to emphasize the black color to Y, M, C and BK data. A correction coefficient Lt is impressed to the color adjustment part 11 for strongly emphasizing the black color for the picture element of the fine line part, and a correction coefficient Le is impressed for weakly emphasizing the black color for the picture element excepting for the fine line part.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、カラー複写機などの画
像処理装置に関し、詳しくは黒色文字の再生が良好に行
えるようにした画像処理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus such as a color copying machine, and more particularly to an image processing apparatus capable of reproducing black characters well.

【0002】[0002]

【従来の技術】従来から、カラー原稿をCCD(電荷結
合素子)などで構成したスキャナにより光学的に読み取
って赤(R)、緑(G)、青(B)の加色法の3原色の
電気信号に変換し、この信号に基づいてカラー画像を形
成するようにしたカラー複写機が用いられている。スキ
ャナの出力であるR,G,Bの3原色信号は、これらの
補色であるシアン(C)、マゼンタ(M)、イエロー
(Y)の減色法の3原色データに変換される。このC,
M,Yの3原色データには適当な補正が施され、さら
に、補正後の3原色データに基づいて黒(BK)データ
が生成される。
2. Description of the Related Art Conventionally, a color original is optically read by a scanner composed of a CCD (charge coupled device) or the like and three primary colors of additive colors of red (R), green (G) and blue (B) are added. A color copying machine is used which is converted into an electric signal and a color image is formed based on the signal. The R, G, and B primary color signals output from the scanner are converted into complementary color data of cyan (C), magenta (M), and yellow (Y) subtractive primary color data. This C,
Appropriate correction is applied to the three primary color data of M and Y, and black (BK) data is generated based on the corrected three primary color data.

【0003】たとえば、C信号に基づく変調を施したレ
ーザビームにより感光体表面が走査れ、この感光体表面
にシアンに対応した静電潜像が形成される。この静電潜
像は、シアンのトナーを用いてトナー像に顕像化された
後、複写用紙に転写される。同様にしてM信号、Y信
号、BK信号に対応して、マゼンタ、イエロー、黒の各
トナー像が複写用紙に重ねて転写され、最後にトナーが
加熱定着されて、カラーコピーが達成される。C、M、
Yの3原色のトナーだけでもカラー画像の再生が可能で
あるが、黒のトナーを用いれば、高濃度の部分を黒のト
ナーを用いて良好に表現することができるので、カラー
トナーを節約できる。
For example, the surface of the photoconductor is scanned by a laser beam modulated based on the C signal, and an electrostatic latent image corresponding to cyan is formed on the surface of the photoconductor. This electrostatic latent image is visualized as a toner image using cyan toner and then transferred to a copy sheet. Similarly, in response to the M signal, the Y signal, and the BK signal, magenta, yellow, and black toner images are transferred onto the copy sheet in an overlapping manner, and finally the toner is heat-fixed to achieve a color copy. C, M,
A color image can be reproduced with only the toners of the three primary colors of Y, but if black toner is used, a high density portion can be satisfactorily expressed using black toner, so that color toner can be saved. .

【0004】[0004]

【発明が解決しようとする課題】上記のようなカラー複
写機では、黒色の文字を含む原稿を複写した場合には、
黒色文字のエッジ部が見にくくなるという問題がある。
すなわち、シアン、マゼンタ、イエロー、黒の4色のト
ナーで画像が表現されるために、文字のエッジ部には必
然的に有彩色成分による滲みが生じ、文字部分と地肌部
分との境界を明確にすることができない。このため、鮮
明な文字画像を得ることができないという問題がある。
しかも、カラー複写機では一般に、中間階調を表現する
ために、C,M,Y,BKデータにそれぞれいわゆるデ
ィザ処理が施されるので、上記の傾向が助長されること
になる。
In the color copying machine as described above, when a manuscript containing black characters is copied,
There is a problem that the edges of black characters are hard to see.
That is, since the image is expressed by the toners of four colors of cyan, magenta, yellow, and black, bleeding due to the chromatic color component inevitably occurs at the edge portion of the character, and the boundary between the character portion and the background portion is clearly defined. I can't. Therefore, there is a problem that a clear character image cannot be obtained.
Moreover, in a color copying machine, generally, so-called dither processing is applied to each of C, M, Y, and BK data in order to express an intermediate gradation, so that the above tendency is promoted.

【0005】そこで、本発明の目的は、上述の技術的課
題を解決し、黒色文字の再生が格段に良好に行われるよ
うにした画像処理装置を提供することである。
SUMMARY OF THE INVENTION An object of the present invention is to solve the above technical problems and to provide an image processing apparatus which can reproduce black characters remarkably well.

【0006】[0006]

【課題を解決するための手段および作用】上記の目的を
達成するための請求項1記載の画像処理装置は、カラー
画像を光学的に読み取って3原色のそれぞれの濃度に対
応する3原色データに変換し、さらに3原色データに基
づいて黒色の濃度に対応した黒データを作成する変換手
段と、上記画像データに基づいて、注目画素が無彩色の
画素であってしかも濃度が所定値以上であるときにこの
注目画素を黒画素候補とする黒画素検出手段と、注目画
素の画像データと注目画素に隣接する画素の画像データ
とに基づいて当該注目画素の近傍の濃度勾配を検出し、
この濃度勾配が所定値以上であるときに、この注目画素
をエッジ部の画素と判定するエッジ検出手段と、注目画
素が所定幅以下の画像部分である細線部を構成する画素
であるか否かを判定する細線検出手段と、注目画素がエ
ッジ部の画素と判定され、かつ、黒画素候補とされたと
きに、当該画素を黒色文字のエッジ部を構成する画素と
判定する第1の判定手段と、注目画素が細線部を構成す
る画素と判定され、かつ、黒画素候補とされたときに、
当該画素を黒色文字の細線部を構成する画素と判定する
第2の判定手段と、上記第1の判定手段により黒色文字
のエッジ部の画素と判定された画素に関して、3原色の
濃度を減少させるとともに黒色の濃度を増大させるよう
に、上記3原色データおよび黒データに補正を施す第1
のデータ補正手段と、上記第2の判定手段により黒色文
字の細線部の構成画素と判定された画素に関して、3原
色の濃度を減少させるとともに黒色の濃度を増大させる
ように、上記3原色データおよび黒データに上記第1の
データ補正手段による補正よりも強い補正を施す第2の
データ補正手段とを含むことを特徴とする。
In order to achieve the above object, the image processing apparatus according to claim 1 optically reads a color image and converts it into three primary color data corresponding to respective densities of the three primary colors. Conversion means for converting and further creating black data corresponding to black density based on the three primary color data, and based on the image data, the target pixel is an achromatic pixel and the density is equal to or higher than a predetermined value. Occasionally, the density gradient in the vicinity of the target pixel is detected based on the black pixel detection unit that sets the target pixel as a black pixel candidate, and the image data of the target pixel and the image data of the pixel adjacent to the target pixel,
When the density gradient is equal to or greater than a predetermined value, the edge detection unit that determines the pixel of interest as a pixel of an edge portion, and whether or not the pixel of interest is a pixel forming a thin line portion that is an image portion having a width equal to or less than a predetermined width. Thin line detecting means for determining, and a first determining means for determining the pixel as a pixel forming an edge portion of a black character when the pixel of interest is determined to be a pixel of an edge portion and is a black pixel candidate. Then, when the pixel of interest is determined to be a pixel forming the thin line portion and the pixel is a black pixel candidate,
The density of the three primary colors is reduced with respect to the second determination unit that determines the pixel as a pixel forming the thin line portion of the black character and the pixel determined to be the pixel of the edge portion of the black character by the first determination unit. The first primary color data and the black data are corrected so as to increase the black density.
And the data determined by the second determination means as the constituent pixels of the thin line portion of the black character so as to decrease the density of the three primary colors and increase the density of black. A second data correction means for performing a stronger correction on the black data than the correction by the first data correction means.

【0007】上記の構成によれば、変換手段で作成され
る3原色の各濃度に対応した画像データに基づいて、無
彩色の画素でしかも濃度の高い画素が黒画素候補とされ
る。また、注目画素の近傍の濃度勾配が所定値以上のと
きに、このような画素は何らかの画像のエッジ部を構成
するものと判定される。そして、このエッジ部を構成す
ると判定された画素が、同時に黒画素検出手段で黒画素
候補とされたときには、当該画素が黒色文字のエッジ部
を構成する画素と判定されることになる。
According to the above arrangement, the achromatic pixels and the high density pixels are selected as the black pixel candidates based on the image data corresponding to the respective densities of the three primary colors created by the converting means. Further, when the density gradient in the vicinity of the pixel of interest is equal to or greater than a predetermined value, it is determined that such a pixel constitutes an edge portion of some image. Then, when the pixels determined to form the edge portion are simultaneously selected as the black pixel candidates by the black pixel detecting unit, the pixel is determined to be the pixel forming the edge portion of the black character.

【0008】このようにして、濃度勾配に基づくエッジ
部の検出と、黒画素の識別とを併用して、黒色文字のエ
ッジ部が検出される。黒色文字のエッジ部の画素に対し
ては、第1のデータ補正手段により、黒色の濃度が増大
された黒データおよび3原色データが生成される。これ
により、黒色文字のエッジ部に関しては黒色が強調され
るから、黒色文字の境界部を明確に表現した画像データ
が得られる。
In this way, the edge portion of the black character is detected by using the detection of the edge portion based on the density gradient and the identification of the black pixel together. For the pixels at the edge portion of the black character, the first data correction unit generates black data with increased black density and three primary color data. As a result, black is emphasized in the edge portion of the black character, so that image data clearly expressing the boundary portion of the black character can be obtained.

【0009】一方、所定幅以下の画像部分である細線部
を構成する画素に対しては、この細線部の構成画素が同
時に黒画素候補であるときに、黒色文字の細線部を構成
する画素であるものと判定される。このように判定され
た画素に対しては、第2のデータ補正手段によるデータ
の補正が施される。この第2のデータ補正手段によるデ
ータの補正は、黒色を強調する点において第1のデータ
補正手段における補正と同様であるが、第1のデータ補
正手段における補正よりも一層強い補正が行われて、黒
色が強く強調される点で異なっている。
On the other hand, with respect to pixels forming a thin line portion which is an image portion having a predetermined width or less, when the constituent pixels of the thin line portion are black pixel candidates at the same time, the pixels forming the thin line portion of the black character are selected. It is determined that there is. The pixels determined in this way are subjected to data correction by the second data correction means. The correction of the data by the second data correction means is similar to the correction by the first data correction means in that black is emphasized, but a stronger correction is performed than the correction by the first data correction means. The difference is that black is strongly emphasized.

【0010】このようにして、黒色文字の画像におい
て、細線部の構成画素は黒色が充分に強調される。その
一方で、細線部以外のエッジ部の画素は比較的弱く黒色
が強調される。このため、比較的面積の広い黒色部分に
ついては、縁取りが形成されてしまうなどという不具合
を防止できる。このようにして、カラー画像中に含まれ
ている文字を良好に再生できる。
In this way, in the image of black characters, black is sufficiently emphasized in the constituent pixels of the thin line portion. On the other hand, the pixels in the edge portion other than the thin line portion are relatively weak and black is emphasized. For this reason, it is possible to prevent a problem that a border is formed in the black portion having a relatively large area. In this way, the characters contained in the color image can be reproduced well.

【0011】請求項2記載の画像処理装置は、上記第1
のデータ補正手段および第2のデータ補正手段に代え
て、上記第1の判定手段により黒色文字のエッジ部の画
素と判定され、かつ、上記第2の判定手段により黒色文
字の細線部の構成画素と判定されなかった画素に関し
て、3原色の濃度を減少させるとともに黒色の濃度を増
大させるように、上記3原色データおよび黒データに補
正を施す第3のデータ補正手段と、上記第1の判定手段
により黒色文字のエッジ部の画素と判定されず、かつ、
上記第2の判定手段により黒色文字の細線部の構成画素
と判定された画素に関して、3原色の濃度を減少させる
とともに黒色の濃度を増大させるように、上記3原色デ
ータおよび黒データに上記第3のデータ補正手段による
補正よりも強い補正を施す第4のデータ補正手段と、上
記第1の判定手段により黒色文字のエッジ部の画素と判
定され、かつ、上記第2の判定手段により黒色文字の細
線部の構成画素と判定された画素に関して、3原色の濃
度を減少させるとともに黒色の濃度を増大させるよう
に、上記3原色データおよび黒データに上記第4のデー
タ補正手段による補正よりも強い補正を施す第5のデー
タ補正手段とを備えたことを特徴とする。
According to a second aspect of the present invention, there is provided the image processing apparatus according to the first aspect.
In place of the data correction means and the second data correction means, the first determination means determines that the pixel is an edge portion pixel of a black character, and the second determination means configures a pixel of a thin line portion of a black character. Third data correction means for correcting the three primary color data and black data so as to decrease the density of the three primary colors and increase the density of black with respect to the pixels that are not determined to be the above, and the first determination means. Is not determined to be a pixel at the edge of a black character, and
Regarding the pixels determined to be the constituent pixels of the thin line portion of the black character by the second determination means, the third primary color data and the black data are modified to reduce the density of the three primary colors and increase the density of black. Fourth data correction means for making stronger correction than the correction by the data correction means, and the first determination means determine the pixel at the edge portion of the black character, and the second determination means determines the black character For the pixels determined to be the constituent pixels of the thin line portion, the three primary color data and the black data are corrected more strongly than the correction by the fourth data correction means so that the density of the three primary colors is reduced and the density of black is increased. And a fifth data correction means for performing.

【0012】この構成によれば、黒色文字のエッジ部お
よび細線部に対する黒色の強調は、3段階に変化する。
すなわち、黒色文字において、細線部以外のエッジ部は
穏やかに強調され、エッジ部以外の細線部はやや強く強
調され、細線部のエッジ部は強く強調される。これによ
り、黒色文字を一層良好に再生できる。請求項3記載の
画像処理装置は、上記細線検出手段は、注目画素を通る
所定の検出線上を一方向に辿ったときに濃度が急増する
立上りエッジの画素を検出する立上りエッジ検出手段
と、上記検出線上を上記一方向に辿ったときに濃度が急
減する立下りエッジの画素を検出する立下りエッジ検出
手段と、上記立上りエッジの画素と立下りエッジの画素
との間の画素数が所定の閾値以下であるときに、上記立
上りエッジの画素と立下りエッジの画素との間の画像部
分を細線部と判定する手段と、注目画素が上記細線部内
に位置しているときに、当該注目画素を細線部の構成画
素と判定する手段とを含むことを特徴とする。
According to this structure, the emphasis of black on the edge portion and the thin line portion of the black character changes in three steps.
That is, in black characters, the edge portions other than the thin line portions are gently emphasized, the thin line portions other than the edge portions are slightly strongly emphasized, and the edge portions of the thin line portions are strongly emphasized. This makes it possible to reproduce the black character better. The image processing apparatus according to claim 3, wherein the thin line detection means detects a rising edge pixel whose density sharply increases when a predetermined detection line passing through the target pixel is traced in one direction, and the rising edge detection means. A predetermined number of pixels are provided between the falling edge detection means for detecting the falling edge pixels whose density is sharply reduced when tracing the detection line in the one direction and the rising edge pixels and the falling edge pixels. Means for determining an image portion between the pixel of the rising edge and the pixel of the falling edge as a thin line portion when the threshold value is equal to or less than the threshold value, and the target pixel when the target pixel is located in the thin line portion. Is included in the thin line portion as a constituent pixel.

【0013】この構成では、注目画素を通る所定の検出
線上において濃度の立上りエッジと立下りエッジとが検
出される。そして、立上りエッジと立下りエッジとの間
の画素数が所定の閾値と比較され、この比較結果に基づ
いて線部が検出される。この細線部内に注目画素が位置
しているときには、この注目画素は細線部の構成画素と
判定される。
With this configuration, the rising edge and the falling edge of the density are detected on the predetermined detection line passing through the pixel of interest. Then, the number of pixels between the rising edge and the falling edge is compared with a predetermined threshold value, and the line portion is detected based on the comparison result. When the pixel of interest is located in this thin line portion, this pixel of interest is determined as a constituent pixel of the thin line portion.

【0014】請求項4記載の画像処理装置は、上記エッ
ジ検出手段は、上記3原色データのうちのいずれか1つ
の特定色のデータに基づいて、注目画素がエッジ部の画
素であるか否かを判定するものであり、上記細線検出手
段は、上記特定色のデータに基づいて、注目画素が細線
部の構成画素であるか否かを判定するものであることを
特徴とする。
According to another aspect of the image processing device of the present invention, the edge detecting means determines whether or not the pixel of interest is an edge pixel based on the data of one specific color among the three primary color data. The thin line detection means determines whether or not the pixel of interest is a constituent pixel of the thin line portion based on the data of the specific color.

【0015】これにより、エッジ検出手段および細線検
出手段の構成を簡素化することができる。上記特定色に
は、たとえば3原色データがイエロー、マゼンタおよび
シアンに対応するものであるときには、マゼンタが適用
されることが好ましい。これは、カラー画像中のマゼン
タ成分が、人間の視覚特性に最も近似しているからであ
る。
As a result, the structures of the edge detecting means and the thin line detecting means can be simplified. Magenta is preferably applied to the specific color when, for example, the three primary color data correspond to yellow, magenta, and cyan. This is because the magenta component in the color image is the closest to the human visual characteristics.

【0016】請求項5記載の画像処理装置は、注目画素
と注目画素に隣接する画素との画像データに基づいて当
該注目画素の近傍の濃度勾配を平滑化したデータを作成
する平滑化手段をさらに含み、上記エッジ検出手段は、
上記平滑化手段で平滑化された後の画像データに基づい
て、注目画素がエッジ部の画素であるか否かを判定する
ものであり、上記細線検出手段は、上記平滑化手段で平
滑化された後の画像データに基づいて、注目画素が細線
部の構成画素であるか否かを判定するものであることを
特徴とする。
An image processing apparatus according to a fifth aspect of the present invention further comprises smoothing means for creating data in which density gradients in the vicinity of the target pixel are smoothed based on image data of the target pixel and pixels adjacent to the target pixel. Including, the edge detection means,
Based on the image data that has been smoothed by the smoothing means, it is determined whether or not the pixel of interest is an edge pixel, and the thin line detecting means is smoothed by the smoothing means. It is characterized in that whether or not the pixel of interest is a constituent pixel of the thin line portion is determined based on the image data after being processed.

【0017】この構成によれば、平滑化手段で濃度勾配
が平滑化された後に、エッジ検出部での濃度勾配に基づ
くエッジ検出処理が行われるから、濃度勾配が比較的ゆ
るやかな領域の画素がエッジ部の画素として検出される
ことが防がれるので、画像のエッジ部を確実に検出させ
ることができる。すなわち、カラー画像中のノイズの影
響などを確実に防止できる。
According to this structure, after the density gradient is smoothed by the smoothing means, the edge detection processing based on the density gradient is performed by the edge detection unit, so that the pixels in the area where the density gradient is relatively gentle are detected. Since it is prevented from being detected as a pixel of the edge portion, the edge portion of the image can be surely detected. That is, the influence of noise in the color image can be reliably prevented.

【0018】細線検出手段での処理についても同様であ
り、カラー画像中のノイズなどが細線部と誤認されるこ
とを防止できる。請求項6記載の画像処理装置は、上記
平滑化手段は、注目画素に隣接する画素における上記3
原色データのうちのいずれか1つの特定色のデータに基
づいて当該注目画素の近傍の濃度勾配を平滑化したデー
タを作成するものであり、上記エッジ検出手段は、上記
平滑化手段で平滑化された後の特定色のデータに基づい
て、注目画素がエッジ部の画素であるか否かを判定する
ものであり、上記細線検出手段は、上記平滑化手段で平
滑化された後の特定色のデータに基づいて、注目画素が
エッジ部の画素であるか否かを判定するものであること
を特徴とする。
The same applies to the processing by the fine line detecting means, and it is possible to prevent noise or the like in the color image from being mistakenly recognized as the fine line portion. The image processing apparatus according to claim 6, wherein the smoothing unit is configured to perform the above-mentioned 3 in pixels adjacent to a pixel of interest.
Data for smoothing a density gradient in the vicinity of the pixel of interest is created based on data of any one specific color of the primary color data, and the edge detecting means is smoothed by the smoothing means. It is to determine whether the pixel of interest is the pixel of the edge portion based on the data of the specific color after the correction, and the thin line detecting unit detects the specific color after the smoothing by the smoothing unit. It is characterized by determining whether or not the pixel of interest is a pixel at the edge portion based on the data.

【0019】この構成によれば、平滑化処理、エッジ検
出処理および細線部検出処理が特定の1色のデータに基
づいて行われるので、平滑化手段、エッジ検出手段およ
び細線検出手段の構成を簡素化することができる。しか
も、平滑化処理後のデータに基づいてエッジ検出処理お
よび細線部検出処理が行われるから、画像のエッジ部お
よび細線部を確実に検出することができる。
According to this configuration, the smoothing process, the edge detecting process, and the fine line portion detecting process are performed based on the data of one specific color. Therefore, the configurations of the smoothing unit, the edge detecting unit, and the fine line detecting unit are simple. Can be converted. Moreover, since the edge detection processing and the thin line portion detection processing are performed based on the data after the smoothing processing, the edge portion and the thin line portion of the image can be reliably detected.

【0020】[0020]

【実施例】以下では、本発明の実施例を、添付図面を参
照して詳細に説明する。図1は本発明の一実施例の画像
処理装置であるカラー複写機の要部の電気的構成を示す
ブロック図である。この画像処理装置は、イエロー
(Y)、マゼンタ(M)、シアン(C)の3原色データ
と、この3原色データから作成された黒(BK)データ
とに基づいて、スキャナなどにより読み取られた読取画
像中に存在する黒色文字のエッジ部を構成する画素を抽
出し、黒色文字の部分と地肌部分との境界を明確にして
黒色文字を鮮明に再生しようとするものである。
Embodiments of the present invention will be described in detail below with reference to the accompanying drawings. FIG. 1 is a block diagram showing an electrical configuration of a main part of a color copying machine which is an image processing apparatus according to an embodiment of the present invention. This image processing apparatus is read by a scanner or the like on the basis of three primary color data of yellow (Y), magenta (M), and cyan (C) and black (BK) data created from these three primary color data. Pixels constituting the edge portion of a black character existing in a read image are extracted, and the boundary between the black character portion and the background portion is made clear to reproduce the black character clearly.

【0021】複写すべきカラー原稿は、CCD(電荷結
合素子)などで構成した図外のスキャナにより光学的に
読み取られ、赤(R)、緑(G)、青(B)の加色法に
よる3原色信号に光電変換される。この加色法による3
原色信号は、それぞれの補色であるイエロー(Y)、マ
ゼンタ(M)、シアン(C)の減色法による3原色信号
に変換され、さらにこの信号に原画に忠実な色再現のた
めの補正が施されてY,M,Cの3原色画像データが作
成される。さらに、このY,M,Cの3原色データに基
づいてBKデータが作成される。このBKデータは、高
濃度部における濃度不足を黒色トナーで補うためのデー
タであり、たとえばY,M,Cの3原色データの最小値
に所定の補正係数α(たとえば0.5〜1)を乗じた値
を各3原色データから除去し、この除去した値をBKデ
ータとするようにして作成される。本実施例では、上記
のスキャナやY,M,C,BKデータを作成する構成部
分を含んで変換手段が構成されている。
A color original to be copied is optically read by a scanner (not shown) composed of a CCD (charge coupled device) or the like, and is subjected to the red (R), green (G), and blue (B) addition methods. It is photoelectrically converted into three primary color signals. 3 by this addition method
The primary color signals are converted into three primary color signals by the subtractive color method of yellow (Y), magenta (M), and cyan (C), which are complementary colors, and the signals are subjected to correction for color reproduction faithful to the original image. Then, Y, M, and C primary color image data is created. Further, BK data is created based on the three primary color data of Y, M and C. This BK data is data for compensating for the insufficient density in the high density portion with black toner, and for example, a predetermined correction coefficient α (for example, 0.5 to 1) is added to the minimum value of the three primary color data of Y, M, and C. It is created by removing the multiplied value from each of the three primary color data and using the removed value as the BK data. In the present embodiment, the conversion means is configured to include the above-mentioned scanner and the components for creating the Y, M, C and BK data.

【0022】Y,M,Cの3原色データのうち、マゼン
タに対応したMデータは、タイミング調整部1Mを経
て、濃度勾配を平滑化させるための平滑化部2Mに与え
られる。この平滑化部2Mで平滑化されたデータは、タ
イミング調整部3Mを経て、文字などの画像のエッジ部
などを検出するためのエッジ・細線検出部4Mに与えら
れる。エッジ・細線検出部4Mは、注目画素とその近傍
の画素との間の濃度勾配を検出することによって各画素
がエッジ部の画素であるかどうかを検出し、エッジ部の
画素に対しては、エッジ検出信号EDGEを論理「1」
とする。すなわち、エッジ検出信号EDGEが論理
「1」となった画素は、何らかの画像のエッジ部の画素
である。
Of the three primary color data of Y, M and C, M data corresponding to magenta is supplied to the smoothing unit 2M for smoothing the density gradient through the timing adjusting unit 1M. The data smoothed by the smoothing unit 2M is given to an edge / fine line detecting unit 4M for detecting an edge portion of an image such as a character through a timing adjusting unit 3M. The edge / thin line detection unit 4M detects whether or not each pixel is an edge pixel by detecting a density gradient between the pixel of interest and a pixel in the vicinity thereof, and for the pixel of the edge portion, Logic "1" for edge detection signal EDGE
And That is, a pixel for which the edge detection signal EDGE has a logic "1" is a pixel at the edge portion of any image.

【0023】エッジ・細線検出部4Mはまた、画像中の
細線部を検出して、この細線部に対しては細線検出信号
THINを論理「1」とする。細線部とは、本実施例で
はイメージスキャナによる読取画像における主走査方向
または副走査方向の幅が3画素以内であるような画像部
分である。このような細線部の定義は、必要に応じて任
意に選択されればよく、たとえば主走査方向と副走査方
向との中間的な方向である斜め方向に関する画像幅が3
画素以内の画像部分を細線部と定義してもよい。また、
細線部か否かを判断するための画像幅の画素数も3画素
以外の任意の画素数に選択してもよい。
The edge / fine line detector 4M also detects a fine line portion in the image and sets the fine line detection signal THIN to logic "1" for this fine line portion. In the present embodiment, the thin line portion is an image portion in which the width of the image read by the image scanner in the main scanning direction or the sub scanning direction is within 3 pixels. The definition of such a thin line portion may be arbitrarily selected as necessary, and for example, the image width in the diagonal direction which is an intermediate direction between the main scanning direction and the sub scanning direction is 3
An image portion within pixels may be defined as a thin line portion. Also,
The number of pixels of the image width for determining whether or not it is a thin line portion may be selected to any number of pixels other than 3 pixels.

【0024】なお、上記のようにエッジ・細線検出部4
Mにおける処理をマゼンタに対応したMデータに基づい
て行わせるのは、カラー画像を構成するマゼンタ成分が
人間の視覚特性に最も近似しているからである。一方、
Y,M,Cの3原色データはまた、タイミング調整部6
Y,6M,6Cを経て黒画素検出部7にも与えられてい
る。この黒画素検出部7は、Y,M,Cの3原色データ
の相互の差分に基づいて無彩色の画素を検出し、この無
彩色の画素の濃度が所定値以上であるときに、当該画素
を黒画素候補とする。黒画素候補に対しては黒画素検出
信号BLACKが論理「1」とされ、この信号が論理積
回路8の一方の入力端子に入力される。
As described above, the edge / fine line detection unit 4
The reason why the process in M is performed based on the M data corresponding to magenta is that the magenta component forming the color image is the closest to the human visual characteristics. on the other hand,
The three primary color data of Y, M and C are also stored in the timing adjustment unit 6
It is also given to the black pixel detecting portion 7 via Y, 6M and 6C. The black pixel detection unit 7 detects an achromatic pixel based on the mutual difference of the three primary color data of Y, M, and C, and when the density of the achromatic pixel is equal to or more than a predetermined value, the pixel concerned. Are black pixel candidates. The black pixel detection signal BLACK is set to logic “1” for the black pixel candidate, and this signal is input to one input terminal of the AND circuit 8.

【0025】論理積回路8の他方の入力端子には、上記
エッジ・細線検出部4Mの出力信号EDGEおよびTH
INが与えられている。したがって、論理積回路8の出
力は、エッジ・細線検出部4Mにおいてエッジ部の画素
または細線部の構成画素である判定され、かつ、黒画素
検出部7により黒画素候補とされた画素に対してのみ論
理「1」となる。この場合には、当該画素は、黒色文字
のエッジ部を構成する画素であるか、または黒色文字の
細線部を構成する画素であると言える。
At the other input terminal of the AND circuit 8, the output signals EDGE and TH of the edge / fine wire detecting section 4M are inputted.
IN is given. Therefore, the output of the logical product circuit 8 is output to the pixels determined by the edge / thin line detection unit 4M to be the pixels at the edge portion or the constituent pixels of the thin line portion, and the black pixel candidate determined by the black pixel detection unit 7. Only logical "1" is obtained. In this case, it can be said that the pixel is a pixel forming an edge portion of a black character or a pixel forming a thin line portion of a black character.

【0026】論理積回路8の出力信号はライン9から後
述するセレクタ10に選択制御信号として与えられてい
る。タイミング調整部6Y,6M,6Cを経たY,M,
Cの3原色データは、カラー調整部11にも与えられて
いる。このカラー調整部11にはさらにタイミング調整
部6BKでタイミング調整されたBKデータも入力され
ている。カラー調整部11は、BKデータを強調して、
いわば黒色による二値画像に近い画像に対応した信号を
生成するものである。このカラー調整部11の出力は、
上記のセレクタ10に入力される。
The output signal of the AND circuit 8 is given from the line 9 to the selector 10 described later as a selection control signal. Y, M, which have passed through the timing adjustment units 6Y, 6M, 6C
The C three primary color data is also given to the color adjusting unit 11. The BK data whose timing is adjusted by the timing adjusting unit 6BK is also input to the color adjusting unit 11. The color adjustment unit 11 emphasizes the BK data,
In other words, it generates a signal corresponding to a black-colored binary image. The output of this color adjustment unit 11 is
It is input to the selector 10.

【0027】セレクタ10にはまた、カラー調整部11
を側路したタイミング調整部6Y,6M,6C,6BK
からのY,M,Cの3原色データおよびBKデータがラ
イン12を介し、さらにタイミング調整部13を通って
与えられている。このセレクタ10は、ライン9からの
選択制御信号に応答して、カラー調整部11からのY,
M,C,BKデータとタイミング調整部13からのY,
M,C,BKデータとのうち、いずれか一方のY,M,
C,BKデータを選択することになる。
The selector 10 also includes a color adjusting section 11
Timing adjustment section 6Y, 6M, 6C, 6BK
The three primary color data of Y, M, and C and BK data are given through the line 12 and further through the timing adjusting unit 13. The selector 10 responds to the selection control signal from the line 9 with Y,
M, C, BK data and Y from the timing adjustment unit 13,
One of Y, M, and M, C, and BK data
C and BK data will be selected.

【0028】すなわち、黒色文字のエッジ部を構成する
画素および黒色文字の細線部を構成する画素に対して
は、カラー調整部11からのデータを選択し、残余の画
素に対してはタイミング調整部13からのデータを選択
することになる。このセレクタ10から出力されるYou
t,Mout,Cout の3原色データおよび黒に対応するBK
out データに基づいて、各色の画像に対応した静電潜像
を感光体上に形成させるレーザビームに変調が施される
ことになる。
That is, the data from the color adjusting unit 11 is selected for the pixels forming the edge portion of the black character and the pixels forming the thin line portion of the black character, and the timing adjusting unit is selected for the remaining pixels. The data from 13 will be selected. Youu output from this selector 10
BK corresponding to the three primary color data of t, Mout, Cout and black
Based on the out data, the laser beam that forms an electrostatic latent image corresponding to each color image on the photoconductor is modulated.

【0029】カラー調整部11における画像の強調の程
度は、セレクタ14から選択的に導出される補正係数L
t,Le(総称するときには「補正係数L」という。な
お、Lt<Leである。)に基づき2種類に変化する。
補正係数Ltは細線部の画素を強調するための細線画素
用補正係数であり、補正係数Leは細線部以外の通常の
エッジ画素を強調するための通常エッジ画素用補正係数
である。カラー調整部11は細線画素用補正係数Ltが
与えられたときにはBKデータを強く強調し、通常エッ
ジ画素用補正係数Leが与えられたときにはBKデータ
を比較的弱く強調する。
The degree of image enhancement in the color adjusting section 11 is determined by the correction coefficient L selectively derived from the selector 14.
Based on t and Le (collectively referred to as “correction coefficient L”, Lt <Le), there are two types.
The correction coefficient Lt is a correction coefficient for thin line pixels for emphasizing pixels in the thin line portion, and the correction coefficient Le is a correction coefficient for normal edge pixels for emphasizing normal edge pixels other than the thin line portion. The color adjustment unit 11 strongly emphasizes the BK data when the correction coefficient Lt for thin line pixels is given, and relatively weakly emphasizes the BK data when the correction coefficient Le for normal edge pixels is given.

【0030】セレクタ14には、エッジ・細線検出部4
Mからの細線検出信号THINが選択制御信号として与
えられている。そして、細線検出信号THINが注目画
素が細線部の画素であることを表す論理「1」であると
きには細線画素用補正係数Ltが選択されて出力され
る。また、細線検出信号THINが細線部の画素でない
ことを表す論理「0」であるときには通常エッジ画素用
補正係数Leが選択されてカラー調整部11に与えられ
る。
The selector 14 includes an edge / fine line detecting section 4
The thin line detection signal THIN from M is given as a selection control signal. Then, when the thin line detection signal THIN is the logic "1" indicating that the pixel of interest is the pixel of the thin line portion, the thin line pixel correction coefficient Lt is selected and output. Further, when the thin line detection signal THIN is a logic “0” indicating that it is not a pixel in the thin line portion, the normal edge pixel correction coefficient Le is selected and given to the color adjusting unit 11.

【0031】このようにして、本実施例では、上記論理
積回路8、カラー調整部11、セレクタ10およびセレ
クタ14などを含んで第1のデータ補正手段および第2
のデータ補正手段が構成されている。図2はタイミング
調整部1M,3Mの構成例を示すブロック図である。レ
ーザビームが感光体を走査するときの走査順に従って入
力されるMデータは、先ずD(Delayed)型フリップフロ
ップ(DFF)15を介してデータD2として平滑化部
2Mに入力される。さらにデータD2は先入れ先出し型
メモリ(以下「FIFO」という)16で1ライン分遅
延され、フリップフロップ17を介してデータD1とし
て平滑化部2Mに入力される。このデータD1はFIF
O18で1ライン分遅延された後にフリップフロップ1
9を介し、データD0として平滑化部2Mに入力され
る。これによって、平滑化部2Mに並列に与えられるデ
ータD0,D1,D2は、レーザビームが感光体を走査
するときの副走査方向に隣接する画素に対応したデータ
であることになる。
As described above, in this embodiment, the first data correction means and the second data correction means including the AND circuit 8, the color adjusting section 11, the selector 10 and the selector 14 are included.
The data correction means is constructed. FIG. 2 is a block diagram showing a configuration example of the timing adjusting units 1M and 3M. The M data input according to the scanning order when the laser beam scans the photoconductor is first input to the smoothing unit 2M as the data D2 via the D (Delayed) type flip-flop (DFF) 15. Further, the data D2 is delayed by one line in a first-in first-out memory (hereinafter referred to as "FIFO") 16 and input to the smoothing unit 2M as data D1 via the flip-flop 17. This data D1 is FIF
Flip-flop 1 after being delayed by one line at O18
The data D0 is input to the smoothing unit 2M via 9. As a result, the data D0, D1, and D2 provided in parallel to the smoothing unit 2M are data corresponding to pixels that are adjacent in the sub-scanning direction when the laser beam scans the photoconductor.

【0032】タイミング調整部3Mは、データを1ライ
ン分ずつ遅延させる5個のFIFO111,112,1
13,114および115と、各FIFOからのデータ
をラッチするD型フリップフロップ116,117,1
18,119および120とを交互に接続して構成され
ている。そして、各D型フリップフロップ116〜12
0の出力データDL5,DL4,DL3,DL2,DL
1およびDL0がエッジ・細線検出部4Mに入力されて
いる。この構成により、エッジ・細線検出部4Mには、
レーザビームが感光体を走査する際の副走査方向に並ぶ
5画素分のデータが並列に入力されることになる。
The timing adjusting section 3M includes five FIFOs 111, 112, 1 for delaying the data by one line.
13, 114 and 115 and D-type flip-flops 116, 117, 1 for latching data from each FIFO.
18, 119 and 120 are alternately connected. Then, each D-type flip-flop 116-12
0 output data DL5, DL4, DL3, DL2, DL
1 and DL0 are input to the edge / fine line detection unit 4M. With this configuration, the edge / fine line detection unit 4M has
Data for 5 pixels arranged in the sub-scanning direction when the laser beam scans the photoconductor is input in parallel.

【0033】図3は平滑化部2Mでの平滑化処理を説明
するための図である。平滑化処理とは濃度勾配を平滑化
する処理である。注目画素S0についての平滑化処理
は、この画素の濃度Q0と、副走査方向27に隣接する
画素S1,S4の各濃度Q1,Q4と、主走査方向28
に隣接する画素S2,S3の各濃度Q2,Q3とに基づ
いて行われる。すなわち、各画素S0〜S4の重み係数
をC0,C1,C2,C3,C4(ただし、C0+C1
+C2+C3+C4=1)とし、 C1=C2=C3=C4=C(定数) ・・・・ (1) とすると、平滑化処理後の画素S0の濃度Qsは、
FIG. 3 is a diagram for explaining the smoothing processing in the smoothing section 2M. The smoothing process is a process of smoothing the concentration gradient. The smoothing process for the target pixel S0 is performed by the density Q0 of this pixel, the densities Q1 and Q4 of the pixels S1 and S4 adjacent in the sub-scanning direction 27, and the main scanning direction 28.
Is performed on the basis of the densities Q2 and Q3 of the pixels S2 and S3 adjacent to each other. That is, the weighting factors of the pixels S0 to S4 are C0, C1, C2, C3, C4 (where C0 + C1
+ C2 + C3 + C4 = 1) and C1 = C2 = C3 = C4 = C (constant) (1), the density Qs of the pixel S0 after the smoothing process is

【0034】[0034]

【数1】 [Equation 1]

【0035】として求められる。ここで、 C=1/K ・・・・ (3) (ただし、Kは整数であり、K≧5である。)とし、さ
らに、 Q1+Q2+Q3+Q4=Qn ・・・・ (4) とおくと、 Qs=(1−4/K)Q0+(Q1+Q2+Q3+Q4)/K =Q0−4Q0/K+Qn/K ・・・・ (5) を得る。
Is calculated as Here, C = 1 / K (3) (where K is an integer and K ≧ 5), and Q1 + Q2 + Q3 + Q4 = Qn (4) = (1-4 / K) Q0 + (Q1 + Q2 + Q3 + Q4) / K = Q0-4Q0 / K + Qn / K ... (5) is obtained.

【0036】このような平滑化処理を実現するための平
滑化部2Mの具体的な構成は図4に示されている。タイ
ミング調整部1MからのデータD1(図2参照。)は、
D型フリップフロップ31,32,33により3クロッ
ク(クロック信号をCLKで示す。)だけ遅延されて加
算器34に入力される。またフリップフロップ31で1
クロック分遅延されたデータも加算器34に与えられ
る。フリップフロップ32の出力データが注目画素S0
に対応する濃度Q0を表すものとすると、フリップフロ
ップ31,33の出力はそれぞれ画素S3,S2に対応
する濃度Q3,Q2を表すこととなる。
A concrete structure of the smoothing unit 2M for realizing such smoothing processing is shown in FIG. The data D1 (see FIG. 2) from the timing adjustment unit 1M is
The D-type flip-flops 31, 32, and 33 delay the signal by 3 clocks (clock signal is represented by CLK) and input to the adder 34. In addition, 1 in the flip-flop 31
The data delayed by the clock is also given to the adder 34. The output data of the flip-flop 32 is the target pixel S0.
Suppose that the density Q0 corresponding to the above is represented, the outputs of the flip-flops 31 and 33 represent the density Q3 and Q2 corresponding to the pixels S3 and S2, respectively.

【0037】一方、タイミング調整部1Mからのデータ
D0は、フリップフロップ35,36により2クロック
分遅延されて加算器34に与えられる。フリップフロッ
プ36の出力データは、画素S1の濃度Q1を表すこと
になる。さらに、データD2は、フリップフロップ3
7,38により2クロック分遅延され、画素Q4の濃度
Q4を表すデータとして加算器34に入力される。加算
器34では入力データの加算が行われ、上記の値Qnに
対応したデータが作成される。
On the other hand, the data D0 from the timing adjusting section 1M is delayed by 2 clocks by the flip-flops 35 and 36 and given to the adder 34. The output data of the flip-flop 36 represents the density Q1 of the pixel S1. Further, the data D2 is the flip-flop 3
The data is delayed by 2 clocks by 7, 38 and input to the adder 34 as data representing the density Q4 of the pixel Q4. Input data is added in the adder 34, and data corresponding to the above value Qn is created.

【0038】濃度Q0を表すフリップフロップ32の出
力データは、積算器39で4倍されて4Q0が作成され
る。さらに入力データを定数Kで除する除算器40で
は、4Q0/Kが作成され、このデータが減算器41に
与えられる。この減算器41にはまた、ライン42から
濃度Q0を表すデータが入力され、その減算の結果であ
る(Q0−4Q0/K)がライン43から加算器44に
与えられる。
The output data of the flip-flop 32 representing the density Q0 is multiplied by 4 by the integrator 39 to generate 4Q0. Further, in the divider 40 that divides the input data by the constant K, 4Q0 / K is created, and this data is given to the subtractor 41. Data representing the density Q0 is also input to the subtractor 41 from the line 42, and the result (Q0-4Q0 / K) of the subtraction is given to the adder 44 from the line 43.

【0039】加算器44にはまた、加算器34の出力Q
nを除算器45において定数Kで除した値Qn/Kが入
力されており、この加算器44での加算結果は、上記第
(5)式で示される平滑化処理後の濃度Qsとなる。この
濃度Qsに対応したデータが、タイミング調整部3M
(図2参照。)に与えられることになる。図5はエッジ
・細線検出部4Mでの処理を説明するための図である。
このエッジ・細線検出部4Mでは、エッジ検出処理と細
線部検出処理とが行われる。エッジ検出処理とは、濃度
勾配の急な部分の画素を画像のエッジとして検出する処
理であり、細線部検出処理とは画像幅が3画素以下であ
るような細線部の構成画素を検出する処理である。
The adder 44 also outputs the output Q of the adder 34.
A value Qn / K obtained by dividing n by a constant K in the divider 45 is input, and the addition result of the adder 44 is
The density Qs after the smoothing process shown by the equation (5) is obtained. The data corresponding to this density Qs is the timing adjustment unit 3M.
(See FIG. 2). FIG. 5 is a diagram for explaining the processing in the edge / fine line detection unit 4M.
The edge / thin line detection unit 4M performs edge detection processing and thin line portion detection processing. The edge detection process is a process of detecting a pixel in a portion having a steep density gradient as an edge of an image, and the fine line part detection process is a process of detecting a constituent pixel of a fine line part having an image width of 3 pixels or less. Is.

【0040】このような処理は、注目画素s11を含む
5×5個のマトリクス配列された画素s00〜04,s
10〜s14,s20〜s24,s30〜s34,s4
0〜s44の各濃度q00〜q04,q10〜q14,
q20〜24,q30〜q34,q40〜q44に基づ
いて行われる。エッジ検出処理では、注目画素s11が
立上りエッジの画素であるのかまたは立下りエッジの画
素であるのかが区別して検出される。このエッジ検出処
理は、主走査方向RMと副走査方向RSとに関して行わ
れる。
Such processing is performed by the pixels s00 to 04, s of 5 × 5 arranged in matrix including the target pixel s11.
10 to s14, s20 to s24, s30 to s34, s4
Each concentration of 0 to s44 q00 to q04, q10 to q14,
It is performed based on q20 to 24, q30 to q34, q40 to q44. In the edge detection process, it is detected whether the pixel of interest s11 is a rising edge pixel or a falling edge pixel. This edge detection processing is performed in the main scanning direction RM and the sub scanning direction RS.

【0041】具体的には、主走査方向RMについてのエ
ッジの検出のために、 q11−q10>t ・・・・ (6) q11−q12>t ・・・・ (7) が成立するか否かがそれぞれ調べられる。tは予め定め
た閾値である。第(6) 式が成立するときには、主走査方
向RMに沿って画素濃度を調べたときに、注目画素s1
1に向かって濃度が急激に増大する場合である。このた
め、注目画素s11は立上りエッジの画素であるものと
判別されることになる。
Specifically, in order to detect the edge in the main scanning direction RM, q11-q10> t (6) q11-q12> t (7) is established. Can be checked respectively. t is a predetermined threshold value. When the expression (6) is satisfied, when the pixel density is checked along the main scanning direction RM, the target pixel s1
This is the case where the concentration rapidly increases toward 1. Therefore, the target pixel s11 is determined to be a pixel having a rising edge.

【0042】また、第(7) 式が成立するときには、注目
画素s11から主走査方向RMの下流側の画素s12に
向かって急激に濃度が減少する場合である。したがっ
て、このときには、注目画素s11は立下りエッジの画
素であると判別される。副走査方向RSに関しても同様
に、 q11−q01>t ・・・・ (8) q11−q21>t ・・・・ (9) が成立するかどうかがそれぞれ調べられる。第(8) 式が
成立するのは、副走査方向RSに沿って画素濃度を調べ
たときに、注目画素s11に向かって画素濃度が急激に
増大する場合である。このため、注目画素s11が立上
りエッジの画素と判別される。逆に第(9) 式が成立すれ
ば、注目画素s11は立下りエッジの画素と判別される
ことになる。
When the expression (7) is satisfied, the density is sharply reduced from the target pixel s11 to the pixel s12 on the downstream side in the main scanning direction RM. Therefore, at this time, the target pixel s11 is determined to be the pixel of the falling edge. Similarly, with respect to the sub-scanning direction RS, whether or not q11-q01> t ... (8) q11-q21> t. The expression (8) is established when the pixel density is rapidly increased toward the target pixel s11 when the pixel density is examined along the sub-scanning direction RS. Therefore, the pixel of interest s11 is determined to be the pixel of the rising edge. On the contrary, if the expression (9) is satisfied, the pixel of interest s11 is determined to be the pixel of the falling edge.

【0043】次に、細線部検出処理について説明する。
細線部検出処理では、主走査方向RMまたは副走査方向
RMに関して、立上りエッジの画素から3画素の範囲内
に立下りエッジの画素が存在しているか否かが調べら
れ、これに基づいて各画素が細線部の構成画素であるか
否かが判別される。具体的には、主走査方向RMに関す
る判別のために、注目画素s11が立上りエッジの画素
であるときに、 q11−q12>t ・・・・ (10) q12−q13>t ・・・・ (11) q13−q14>t ・・・・ (12) が同時に成立するかどうかが判断される。すなわち、こ
れらのうちのいずれかが成立すれば、注目画素s11ま
たは注目画素s11に対して主走査方向RMの下流側に
位置している画素s12もしくはs13のいずれかが立
下りエッジの画素であることになる。
Next, the thin line portion detection processing will be described.
In the thin line portion detection process, it is checked whether or not there is a falling edge pixel within the range of 3 pixels from the rising edge pixel in the main scanning direction RM or the sub scanning direction RM, and based on this, each pixel is detected. Is determined to be a constituent pixel of the thin line portion. Specifically, in order to determine the main scanning direction RM, when the target pixel s11 is a pixel having a rising edge, q11-q12> t ... (10) q12-q13> t. 11) q13-q14> t ················································································. That is, if any of these is satisfied, the pixel of interest s11 or the pixel s12 or s13 located downstream of the pixel of interest s11 in the main scanning direction RM is the pixel of the falling edge. It will be.

【0044】すなわち、もしも第(10)式が成立するな
ら、注目画素s11は主走査方向RM沿う幅が1画素の
画像を構成する画素であることになる。また、第(11)式
が成立すれば、画素s11,s12は、主走査方向RM
に沿う幅が2画素の画像を構成する画素である。さら
に、第(12)式が成立すれば、画素s11,s12,s1
3は、主走査方向RMに沿う幅が3画素の画像を構成す
る画素である。
That is, if the expression (10) is satisfied, the target pixel s11 is a pixel forming an image having a width of 1 pixel in the main scanning direction RM. If the equation (11) is satisfied, the pixels s11 and s12 are determined to be the main scanning direction RM
Is a pixel forming an image having a width of 2 pixels. Further, if the expression (12) is established, the pixels s11, s12, s1
Reference numeral 3 is a pixel forming an image having a width of 3 pixels along the main scanning direction RM.

【0045】副走査方向RSに関しても同様であり、注
目画素s11が立上りエッジの画素であるときに、同時
に下記第(13)式、第(14)式または第(15)式が成立するか
どうかに基づき、細線部の構成画素が検出される。 q11−q21>t ・・・・ (13) q21−q31>t ・・・・ (14) q31−q41>t ・・・・ (15) 図6はエッジ・細線検出部4Mの具体的な構成例を示す
ブロック図である。タイミング調整部3Mから与えられ
る平滑化処理を経た5ライン分のデータDL0,DL
1,DL2,DL3,DL4は、それぞれD型フリップ
フロップF04,F14,F24,F34,F44に入
力される。
The same applies to the sub-scanning direction RS. Whether the following formula (13), formula (14) or formula (15) is satisfied at the same time when the target pixel s11 is a pixel having a rising edge. Based on the above, the constituent pixels of the thin line portion are detected. q11-q21> t ··· (13) q21-q31> t ··· (14) q31-q41> t ··· (15) FIG. 6 shows a specific configuration of the edge / fine line detection unit 4M. It is a block diagram which shows an example. Data DL0, DL for five lines that have been subjected to the smoothing process given from the timing adjustment unit 3M
1, DL2, DL3 and DL4 are input to D-type flip-flops F04, F14, F24, F34 and F44, respectively.

【0046】データDL1は、フリップフロップF0
4,F03,F02,F01,F00で1クロック分ず
つ遅延され、各フリップフロップF00〜F04の出力
データが図5の画素s00〜s04の濃度データq00
〜q04としてエッジ・細線判定処理部160に入力さ
れる。同様に、データDL2は、フリップフロップF1
4〜F10でそれぞれ1クロック分ずつ遅延され、各フ
リップフロップF10〜F14の出力が画素s10〜s
14の濃度データq10〜q14としてエッジ・細線判
定処理部160に与えられる。以下同様に、データDL
2,DL3,DL4は、それぞれフリップフロップF2
4〜F20,F34〜F30,F44〜F40を経て、
画素s20〜s24,s30〜s34,s40〜s44
の各濃度データq20〜q24,q30〜q34,q4
0〜q44としてエッジ・細線判定処理部160に与え
られる。
The data DL1 is the flip-flop F0.
4, F03, F02, F01, and F00 are delayed by one clock, and the output data of each flip-flop F00 to F04 is the density data q00 of the pixels s00 to s04 in FIG.
Is input to the edge / fine line determination processing unit 160 as q04. Similarly, the data DL2 is the flip-flop F1.
The output of each flip-flop F10-F14 is delayed by one clock in each of pixels 4-10.
The density data q10 to q14 of 14 are given to the edge / fine line determination processing unit 160. Similarly, data DL
2, DL3 and DL4 are flip-flops F2
4 to F20, F34 to F30, F44 to F40,
Pixels s20 to s24, s30 to s34, s40 to s44
Concentration data q20 to q24, q30 to q34, q4
It is given to the edge / thin line determination processing unit 160 as 0 to q44.

【0047】このようにして、図5に示された5×5個
のマトリスク配列された画素の濃度データが並列にエッ
ジ・細線判定処理部160に入力されることになる。エ
ッジ・細線判定処理部160は、主走査方向RMに関す
る処理を行うエッジ・細線判定処理回路160Mと、副
走査方向RSに関する処理を行うエッジ・細線判定処理
回路160Sと、これらの処理回路160M,160S
からの信号から出力信号EDGE,THINを作成する
出力回路210とを有している。
In this way, the density data of the 5 × 5 Matrices-arranged pixels shown in FIG. 5 are input in parallel to the edge / fine line determination processing unit 160. The edge / thin line determination processing unit 160 includes an edge / thin line determination processing circuit 160M that performs processing in the main scanning direction RM, an edge / thin line determination processing circuit 160S that performs processing in the sub-scanning direction RS, and these processing circuits 160M and 160S.
And an output circuit 210 for producing output signals EDGE and THIN from the signal from.

【0048】図7は、主走査方向RMに関する処理を行
うエッジ・細線判定処理回路160Mの構成を示すブロ
ック図である。エッジ・細線判定処理回路160Mは、
注目画素s11が立上りエッジの画素かどうかを判定す
る立上りエッジ検出部161Mと、注目画素s11の直
前の画素s10、注目画素s11、注目画素s11に引
き続く画素s12,s13,s14がそれぞれ立下りエ
ッジの画素であるか否かを検出する立下りエッジ検出部
162Mと、注目画素s11が細線部を構成する画素で
あるか否かを判定するための細線検出部163Mとを有
している。
FIG. 7 is a block diagram showing the arrangement of an edge / fine line determination processing circuit 160M which performs processing in the main scanning direction RM. The edge / fine line determination processing circuit 160M is
A rising edge detection unit 161M that determines whether the target pixel s11 is a rising edge pixel, and a pixel s10 immediately before the target pixel s11, a target pixel s11, and pixels s12, s13, and s14 that follow the target pixel s11 have a falling edge, respectively. It has a falling edge detection unit 162M that detects whether or not it is a pixel, and a thin line detection unit 163M that determines whether or not the pixel of interest s11 is a pixel forming a thin line portion.

【0049】立上りエッジ検出部161Mは、注目画素
s11の濃度データq11から、注目画素s11に対し
て主走査方向RMの上流側に隣接する画素s10の濃度
データを減じ、濃度の差分(q11−q10)を演算す
る差分演算器170Mを有している。この差分演算器1
70Mで演算された濃度の差分(q11−q10)は、
比較器180Mにおいて上述の閾値tと比較される。
The rising edge detector 161M subtracts the density data of the pixel s10 adjacent to the target pixel s11 on the upstream side in the main scanning direction RM from the density data q11 of the target pixel s11 to obtain a difference in density (q11-q10). ) Has a difference calculator 170M. This difference calculator 1
The difference (q11-q10) between the concentrations calculated at 70M is
It is compared with the above-mentioned threshold value t in the comparator 180M.

【0050】比較器180Mは、差分(q11−q1
0)が閾値tよりも大きいときに論理「1」の信号を出
力し、さもなければ論理「0」の信号を出力する。すな
わち、比較器180Mが論理「1」の信号を出力すれ
ば、注目画素s11は立上りエッジの画素である。立下
りエッジ検出部162Mは、注目画素s11よりも主走
査方向RMの上流側に位置する画素s10の濃度データ
q10と注目画素s11の濃度データq11との差分
(q10−q11)を演算する差分演算器171Mを備
えている。さらに、注目画素s11の濃度データq11
から、注目画素s11に対して主走査方向RMの下流側
に隣接する画素s12の濃度データq12との差分(q
11−q12)を演算する差分演算器172M、濃度デ
ータq12から画素s13の濃度データq13を減ずる
差分演算器173M、および濃度データq13から画素
s14の濃度データq14を減ずる差分演算器174M
を有している。
The comparator 180M has a difference (q11-q1).
When 0) is larger than the threshold value t, a logic "1" signal is output, and otherwise a logic "0" signal is output. That is, if the comparator 180M outputs a signal of logic "1", the target pixel s11 is a pixel at the rising edge. The falling edge detection unit 162M calculates a difference (q10-q11) between the density data q10 of the pixel s10 located upstream of the pixel of interest s11 in the main scanning direction RM and the density data q11 of the pixel of interest s11. 171M. Furthermore, the density data q11 of the target pixel s11
From the density data q12 of the pixel s12 adjacent to the target pixel s11 on the downstream side in the main scanning direction RM (q
11-q12), a difference calculator 172M that subtracts the density data q12 of the pixel s13 from the density data q12, and a difference calculator 174M that subtracts the density data q14 of the pixel s14 from the density data q13.
have.

【0051】各差分演算器171M〜174Mの出力
は、それぞれ比較器181M〜184Mで閾値tと比較
される。この比較器181Mは、各差分演算器171M
〜174Mで演算された差分が閾値tよりも大きいとき
には論理「1」の信号を出力する。いずれかの比較器1
81M〜184Mから論理「1」の信号が出力されれ
ば、この論理「1」の信号を出力した比較器に対応する
画素s10,s11,s12またはs13は、立下りエ
ッジの画素であることになる。
The outputs of the difference calculators 171M to 174M are compared with the threshold value t by comparators 181M to 184M, respectively. This comparator 181M is used for each difference calculator 171M.
When the difference calculated at ˜174 M is larger than the threshold value t, a signal of logic “1” is output. Either comparator 1
If a signal of logic "1" is output from 81M to 184M, the pixel s10, s11, s12, or s13 corresponding to the comparator that has output the signal of logic "1" is a pixel of the falling edge. Become.

【0052】細線検出部163Mは、立上りエッジ検出
部161Mの比較器180Mの出力信号がデータ入力端
子に与えられているD型フリップフロップ191Mを有
している。また、立下りエッジ検出部162Mの比較器
182M,183Mおよび184Mの出力信号が論理和
回路192Mに与えられている。この論理和回路192
Mの出力信号が論理積回路193Mの一方の入力端子に
与えられており、この論理積回路193Mの他方の入力
端子には、上記の立上りエッジ検出部161Mの比較器
180Mの出力が与えられている。
The fine line detector 163M has a D-type flip-flop 191M to which the output signal of the comparator 180M of the rising edge detector 161M is applied to the data input terminal. Further, the output signals of the comparators 182M, 183M and 184M of the falling edge detector 162M are given to the logical sum circuit 192M. This OR circuit 192
The output signal of M is given to one input terminal of the AND circuit 193M, and the output of the comparator 180M of the rising edge detecting section 161M is given to the other input terminal of the AND circuit 193M. There is.

【0053】論理積回路193Mの出力は、フリップフ
ロップ191Mのクロック入力端子に入力されている。
さらに、フリップフロップ191Mのクリア入力端子に
は、比較器180Mの出力を反転器194Mで反転した
信号が与えられている。一方、立上りエッジ検出部16
1Mの比較器180Mの出力と、立下りエッジ検出部の
比較器182Mの出力とは、エッジ検出処理部164M
に与えられている。エッジ検出処理部164Mは論理和
回路169Mで構成されており、比較器180Mおよび
182Mの少なくともいずれか一方から論理「1」の信
号が与えられたときに、その出力信号MEDGEを論理
「1」とする。
The output of the AND circuit 193M is input to the clock input terminal of the flip-flop 191M.
Furthermore, a signal obtained by inverting the output of the comparator 180M by the inverter 194M is applied to the clear input terminal of the flip-flop 191M. On the other hand, the rising edge detector 16
The output of the comparator 180M of 1M and the output of the comparator 182M of the falling edge detection unit are the edge detection processing unit 164M.
Is given to. The edge detection processing unit 164M is composed of a logical sum circuit 169M, and when a signal of logic "1" is given from at least one of the comparators 180M and 182M, its output signal MEDGE is set to logic "1". To do.

【0054】この論理「1」の信号は、注目画素s11
が主走査方向RMに関する立上りエッジまたは立下りエ
ッジの画素であることを表す。また、フリップフロップ
191Mの出力信号MTHINが論理「1」であるとき
には、注目画素s11が主走査方向RMに沿う幅が3画
素以下であるような細線部を構成する画素であることに
なる。詳細については後述する。
The signal of this logic "1" is the target pixel s11.
Indicates that the pixel is a rising edge or falling edge pixel in the main scanning direction RM. When the output signal MTHIN of the flip-flop 191M is logic "1", the target pixel s11 is a pixel forming a thin line portion having a width of 3 pixels or less along the main scanning direction RM. Details will be described later.

【0055】図8は、副走査方向RSについての処理を
行うエッジ・細線判定処理回路160Sの構成を示すブ
ロック図である。なお、この図8において、主走査方向
RMについての処理を行うエッジ・細線判定処理回路1
60Mの各部に対応する部分には、図7に示された参照
符号の数字部分と同一の数字に添字Sを付して示す。副
走査方向RSについてのエッジ・細線検出処理は、主走
査方向RMに関するエッジ検出処理よりも1ライン先に
行われている。すなわち、たとえば主走査方向RSにつ
いてのエッジ・細線検出処理が注目画素s11に対して
行われているときに、副走査方向RSでの処理は、画素
s12に注目して行われている。そして、その検出結果
である信号SEDGE,STHINが、FIFO24
1,242で1ライン分遅延され、主走査方向RMに関
するエッジ・細線検出処理に同期するように出力され
る。
FIG. 8 is a block diagram showing the arrangement of an edge / fine line determination processing circuit 160S which performs processing in the sub-scanning direction RS. In FIG. 8, the edge / fine line determination processing circuit 1 that performs processing in the main scanning direction RM
For the parts corresponding to the respective parts of 60M, the same numerals as the numeral parts of the reference numerals shown in FIG. The edge / fine line detection processing in the sub-scanning direction RS is performed one line ahead of the edge detection processing in the main scanning direction RM. That is, for example, when the edge / thin line detection process in the main scanning direction RS is performed on the pixel of interest s11, the process in the sub-scanning direction RS is performed by focusing on the pixel s12. The signals SEDGE and STHIN, which are the detection results, are transferred to the FIFO 24.
The lines 1 and 2 are delayed by one line and output in synchronization with the edge / fine line detection processing in the main scanning direction RM.

【0056】立上りエッジ検出部161Sでは、差分
(q11−q01)が演算され、この差分(q11−q
01)が上述の閾値tを超えたときに、比較器180S
から、注目画素s11が立上りエッジの画素であること
を表す論理「1」の信号が導出される。一方、立下りエ
ッジ検出部162Sでは、差分(q01−q11),
(q11−q21),(q21−q31),(q31−
q41)が演算され、各差分が閾値tを超えていると、
それぞれ画素s01,s11,s21,s31が立下り
エッジの画素であることを表す論理「1」の信号が比較
器181S〜1814Sから出力される。
The rising edge detector 161S calculates the difference (q11-q01), and the difference (q11-q01) is calculated.
01) exceeds the above threshold t, the comparator 180S
From this, a signal of logic "1" indicating that the pixel of interest s11 is a pixel with a rising edge is derived. On the other hand, in the falling edge detection unit 162S, the difference (q01-q11),
(Q11-q21), (q21-q31), (q31-
q41) is calculated, and each difference exceeds the threshold value t,
The signals of logic "1" indicating that the pixels s01, s11, s21, and s31 are falling edge pixels are output from the comparators 181S to 1814S, respectively.

【0057】細線検出部163Sでは、立上りエッジ検
出部161Sの比較器180Sの出力信号と、論理和回
路192Sの出力信号とが論理積回路193Sに与えら
れている。この論理積回路193Sの出力信号は、OR
ゲート195を介してFIFO242に入力されてい
る。ORゲート195にはまた、FIFO242の出力
信号がフリップフロップ243を介して入力されてい
る。
In the thin line detector 163S, the output signal of the comparator 180S of the rising edge detector 161S and the output signal of the logical sum circuit 192S are given to the logical product circuit 193S. The output signal of the AND circuit 193S is OR
It is input to the FIFO 242 via the gate 195. The output signal of the FIFO 242 is also input to the OR gate 195 via the flip-flop 243.

【0058】FIFO241では、クロック信号CLK
の立上りエッジでデータが出力され、クロック信号の立
下りエッジでデータの書込が行われる。したがって、フ
リップフロップ243にデータが与えられた後に、OR
ゲート195からの信号が読み込まれる。フリップフロ
ップ243のクリア入力端子には、比較器181Sの出
力信号が反転器194Sを通って与えられている。
In the FIFO 241, the clock signal CLK
The data is output at the rising edge of and the data is written at the falling edge of the clock signal. Therefore, after the data is given to the flip-flop 243, the OR
The signal from gate 195 is read. The output signal of the comparator 181S is applied to the clear input terminal of the flip-flop 243 through the inverter 194S.

【0059】比較器182Sの出力信号と、立上りエッ
ジ検出部161Sの比較器180Sの出力信号とは、エ
ッジ検出処理部164Sを構成する論理和回路169S
に入力されている。この論理和回路169Sの出力信号
SEDGEが論理「1」となるときには、注目画素s1
1が副走査方向RSに関する立上りエッジまたは立下り
エッジの画素であることになる。
The output signal of the comparator 182S and the output signal of the comparator 180S of the rising edge detecting section 161S constitute an OR circuit 169S constituting the edge detection processing section 164S.
Has been entered in. When the output signal SEDGE of the logical sum circuit 169S has the logic "1", the target pixel s1
1 is a pixel at the rising edge or the falling edge in the sub-scanning direction RS.

【0060】一方、注目画素s11が立上りエッジの画
素であり、同時に画素s11,s21またはs31が立
下りエッジの画素であるときには、論理積回路193S
の出力が「1」となる。この信号がORゲート195か
らFIFO242に書き込まれる。FIFO242で1
ライン分遅延された信号は再びORゲート195を介し
てFIFO242に書き込まれるから、結局、画素s1
1,s12,s13に対して信号STHINは「1」に
なる。
On the other hand, when the target pixel s11 is a pixel having a rising edge and at the same time the pixel s11, s21 or s31 is a pixel having a falling edge, the AND circuit 193S.
Output becomes "1". This signal is written from the OR gate 195 to the FIFO 242. 1 in FIFO242
The signal delayed by the line is again written into the FIFO 242 via the OR gate 195, so that in the end, the pixel s1
The signal STHIN becomes "1" for 1, s12, s13.

【0061】一方、比較器181Sの出力信号が「1」
となり、注目画素s11に対して副走査方向RSの上流
側の画素s01が立下りエッジの画素であるときには、
フリップフロップ243がクリアされることになる。こ
のため、1ライン前の画素に対して信号STHINが
「1」であったときでも、フリップフロップ243の出
力は「0」となる。
On the other hand, the output signal of the comparator 181S is "1".
Therefore, when the pixel s01 on the upstream side in the sub-scanning direction RS with respect to the pixel of interest s11 is a falling edge pixel,
The flip-flop 243 will be cleared. Therefore, the output of the flip-flop 243 is "0" even when the signal STHIN for the pixel one line before is "1".

【0062】したがって、たとえば画素s11,s2
1,s31が細線部を構成する画素であるなら、これら
に対応して出力される信号STHINは論理「1」とな
り、画素s41に対しては論理「0」の信号が出力され
る。このように、FIFO242の出力信号STHIN
が論理「1」であるときには、主走査方向RSに関する
処理において注目されている画素(副走査方向RSにお
いて注目されている画素よりも1ライン前の画素であ
る。)は、副走査方向RSに沿う幅が3画素以下である
ような細線部の構成画素であることになる。
Therefore, for example, the pixels s11 and s2
If 1 and s31 are pixels forming the thin line portion, the signal STHIN output corresponding to them is logic "1", and the signal of logic "0" is output to the pixel s41. In this way, the output signal STHIN of the FIFO 242 is
Is a logic "1", the pixel of interest in the process related to the main scanning direction RS (the pixel one line before the pixel of interest in the sub scanning direction RS) is in the sub scanning direction RS. It is a constituent pixel of the thin line portion having a width of 3 pixels or less.

【0063】図9は出力回路210の構成を示すブロッ
ク図である。この出力回路210では、論理和回路21
1により信号MEDGEおよびSEDGEの論理和がと
られ、この論理和回路211の出力信号がエッジ検出信
号EDGEとされる。さらに、論理和回路212で信号
MTHINおよびSTHINの論理和がとられて細線検
出信号THINとされる。そして、エッジ検出信号ED
GEおよび細線検出信号THINが論理和回路213か
ら、図1の論理積回路8に入力される。また、細線検出
信号THINは、セレクタ14に選択制御信号として与
えられることになる。
FIG. 9 is a block diagram showing the structure of the output circuit 210. In this output circuit 210, the OR circuit 21
The logical sum of the signals MEDGE and SEDGE is obtained by 1, and the output signal of the logical sum circuit 211 is used as the edge detection signal EDGE. Further, the logical sum circuit 212 logically sums the signals MTHIN and STHIN to obtain a thin line detection signal THIN. Then, the edge detection signal ED
The GE and the thin line detection signal THIN are input from the logical sum circuit 213 to the logical product circuit 8 in FIG. Further, the thin line detection signal THIN is given to the selector 14 as a selection control signal.

【0064】図10は、図7および図8に示された各エ
ッジ・細線判定処理回路160M,160Sの動作を説
明するための図である。この図10には、平滑化処理後
の画像データの一例と、注目画素の変化に伴うエッジ検
出処理部164M,164Sの出力信号MEDGE,S
EDGEおよび細線検出部163M,163Sの出力信
号MTHIN,STHINの変化が示されている。な
お、図10において、黒画素の部分には、斜線を付して
示す。
FIG. 10 is a diagram for explaining the operation of each of the edge / fine line determination processing circuits 160M and 160S shown in FIGS. 7 and 8. In FIG. 10, an example of the image data after the smoothing process and the output signals MEDGE, S of the edge detection processing units 164M, 164S accompanying the change of the target pixel are shown.
Changes in the output signals MTHIN and STHIN of the EDGE and the thin line detection units 163M and 163S are shown. Note that, in FIG. 10, the black pixel portion is shown by hatching.

【0065】たとえば主走査方向RMに沿って、ライン
L1を注目画素s11が移動していく場合について説明
する。注目画素s11がラインL1上の画素P1のとき
には、差分(q11−q10)が大きくなるから、比較
器180Mの出力は論理「1」となる。このため、エッ
ジ検出処理部164Mの出力信号MEDGEは、参照符
号200で示すように論理「1」となる。一方、注目画
素s11が画素P1のときには、ラインL1上の画素P
3が図5における画素s13に相当する。このため、差
分演算器174Mで演算される差分(q13−q14)
は大きな値となり、比較器184Mの出力は論理「1」
となる。
For example, a case where the pixel of interest s11 moves along the line L1 along the main scanning direction RM will be described. When the pixel of interest s11 is the pixel P1 on the line L1, the difference (q11-q10) becomes large, and therefore the output of the comparator 180M becomes logic "1". Therefore, the output signal MEDGE of the edge detection processing unit 164M has the logic “1” as indicated by the reference numeral 200. On the other hand, when the target pixel s11 is the pixel P1, the pixel P on the line L1
3 corresponds to the pixel s13 in FIG. Therefore, the difference calculated by the difference calculator 174M (q13-q14)
Becomes a large value, and the output of the comparator 184M is logic "1".
Becomes

【0066】この結果、論理積回路193Mの出力が論
理「1」となるから、フリップフロップ191のデータ
入力端子に比較器180Mから与えられている論理
「1」の信号がラッチされ、信号MTHINは参照符号
201で示すように論理「1」となる。注目画素s11
がラインL1上の画素P2であるときには、この画素P
2は黒画素であり、この画素P2に対して主走査方向R
Mの上流側に位置する画素P1も黒画素であるから、立
上りエッジ検出部161Mの出力は論理「0」となる。
また、注目画素s11である画素P2に対して主走査方
向RMの下流側の画素P3も黒画素であるから、立下り
エッジ検出部162Mにおける比較器182Mの出力も
論理「0」となる。このため、信号MEDGEは論理
「0」となる。
As a result, the output of the AND circuit 193M becomes logic "1", so that the signal of logic "1" given from the comparator 180M is latched to the data input terminal of the flip-flop 191 and the signal MTHIN becomes As indicated by reference numeral 201, the logical value is “1”. Pixel of interest s11
Is a pixel P2 on the line L1, this pixel P2
2 is a black pixel, and the main scanning direction R with respect to this pixel P2
Since the pixel P1 located on the upstream side of M is also a black pixel, the output of the rising edge detection unit 161M is logical "0".
Further, since the pixel P3 on the downstream side in the main scanning direction RM with respect to the pixel P2 which is the target pixel s11 is also a black pixel, the output of the comparator 182M in the falling edge detection unit 162M also becomes a logic “0”. Therefore, the signal MEDGE becomes logic "0".

【0067】一方、画素s12に対応する画素P3は黒
画素であり、画素s13に相当する画素P4は白画素で
あるから、比較器183Mの出力は論理「1」となる。
しかし、比較器180Mの出力が論理「0」であるため
論理積回路193の出力は論理「0」となる。このた
め、フリップフロップ191の出力信号MTHINは、
論理「1」に保たれる。
On the other hand, since the pixel P3 corresponding to the pixel s12 is a black pixel and the pixel P4 corresponding to the pixel s13 is a white pixel, the output of the comparator 183M is logic "1".
However, since the output of the comparator 180M is logic "0", the output of the AND circuit 193 is logic "0". Therefore, the output signal MTHIN of the flip-flop 191 is
It is kept at logic "1".

【0068】注目画素s11が画素P3に移動すると、
比較器182Mの出力が論理「1」となる。このため、
エッジ検出処理部164Mの出力信号MEDGEは論理
「1」となる。しかし、この場合にも、比較器180M
の出力信号は論理「0」に保たれるから、信号MTHI
Nは論理「1」に保持される。注目画素s11が画素P
4となると、注目画素s11に対して主走査方向RMの
上流側に位置する画素s10に相当する画素P3が立下
りエッジの画素であるので、比較器181Mの出力信号
が論理「1」となる。このため、フリップフロップ19
1Mがクリアされ、参照符号202で示すように信号M
THINが立ち下がることになる。
When the pixel of interest s11 moves to the pixel P3,
The output of the comparator 182M becomes logic "1". For this reason,
The output signal MEDGE of the edge detection processing unit 164M has a logic "1". However, even in this case, the comparator 180M
The output signal of MHI is kept at logic "0", so the signal MTHI
N is held at logic "1". The pixel of interest s11 is the pixel P
When the value becomes 4, the pixel P3 corresponding to the pixel s10 located on the upstream side in the main scanning direction RM with respect to the target pixel s11 is the pixel having the falling edge, and therefore the output signal of the comparator 181M becomes the logic “1”. . Therefore, the flip-flop 19
1M is cleared and the signal M as indicated by reference numeral 202
THIN will fall.

【0069】このようにして、信号MEDGEに基づい
て画素P1,P3はエッジ部の画素と判定される。ま
た、信号MTHINに基づいて、画素P1,P2,P3
は、細線部を構成する画素と判定される。同様にして、
画素P5,P6が注目画素s11になると、信号MED
GEが論理「1」となり、これらの画素はエッジ部の画
素と判定される。しかし、注目画素s11が立上りエッ
ジの画素P5に位置したとき、この画素P5を含めた3
画素以内に立下りエッジの画素は存在していない。この
ため、比較器182M,183Mおよび184Mの出力
はいずれも論理「1」になることはなく、フリップフロ
ップ191に論理「1」の信号がラッチされることはな
い。
In this way, the pixels P1 and P3 are determined to be the pixels of the edge portion based on the signal MEDGE. The pixels P1, P2, P3 are also based on the signal MTHIN.
Are determined to be pixels forming the thin line portion. Similarly,
When the pixels P5 and P6 become the target pixel s11, the signal MED
GE becomes a logic "1", and these pixels are determined to be edge pixels. However, when the target pixel s11 is located at the pixel P5 at the rising edge, 3 including this pixel P5
There are no falling edge pixels within the pixel. Therefore, the outputs of the comparators 182M, 183M and 184M are never logic "1", and the flip-flop 191 does not latch the signal of logic "1".

【0070】この結果、信号MTHINは注目画素s1
1が画素P5から画素P6に至る過程では論理「0」に
保たれる。よって、位置P5〜P6の画素が細線部を構
成する画素であると判別されることはない。一方、注目
画素s11をラインL2に沿って副走査方向RSに移動
させる場合を想定する。このとき、図8の構成の副走査
方向RSに対応するエッジ・細線判定処理回路160S
は、主走査方向RMに対応するエッジ・細線判定処理回
路160Mとほぼ同様に動作して、図10中に示された
波形の信号SEDGEおよびSTHINを出力する。
As a result, the signal MTHIN is the target pixel s1.
In the process in which 1 goes from the pixel P5 to the pixel P6, it is kept at the logic "0". Therefore, the pixels at positions P5 to P6 are not discriminated as the pixels forming the thin line portion. On the other hand, assume that the pixel of interest s11 is moved in the sub-scanning direction RS along the line L2. At this time, the edge / fine line determination processing circuit 160S corresponding to the sub-scanning direction RS having the configuration of FIG.
Operates almost similarly to the edge / thin line determination processing circuit 160M corresponding to the main scanning direction RM and outputs the signals SEDGE and STHIN having the waveforms shown in FIG.

【0071】ただし、上述のように副走査方向RSに対
するエッジ・細線検出処理は主走査方向RMよりも1ラ
イン先に行われるのであり、図10中に示された波形の
信号SEDGE,STHINはFIFO241,242
で1ライン分遅延された後の信号波形である。また、各
画素に対する処理は、実際には、主走査方向RMに沿っ
て連続する画素の順に行われるから、図8中の信号SE
DGEおよびSTHINは時間的に連続した信号波形で
はない。
However, as described above, the edge / fine line detection processing in the sub-scanning direction RS is performed one line ahead of the main scanning direction RM, and the signals SEDGE and STHIN having the waveforms shown in FIG. , 242
This is a signal waveform after being delayed by one line at. In addition, since the processing for each pixel is actually performed in the order of consecutive pixels along the main scanning direction RM, the signal SE in FIG.
DGE and STHIN are not continuous signal waveforms in time.

【0072】主走査方向RMに対応したエッジ・細線判
定処理回路160Mにおける細線部検出処理は、注目画
素を通る主走査方向RMに沿った検出線を想定し、この
検出線上を主走査方向RMに沿って辿ったときに濃度が
急増する箇所の画素を立上りエッジの画素として検出
し、この立上りエッジの画素から3画素以内の範囲に主
走査方向RMに沿って濃度が急減する立下りエッジの画
素が存在するか否かを判定する処理であると言える。そ
して、立上りエッジから3画素以内の範囲に立下りエッ
ジが存在しているときには、当該立上りエッジから立下
りエッジまでの範囲に注目画素が位置している場合に、
信号STHINが論理「1」とされる。
In the fine line portion detection processing in the edge / fine line determination processing circuit 160M corresponding to the main scanning direction RM, a detection line along the main scanning direction RM passing through the pixel of interest is assumed, and this detection line is set in the main scanning direction RM. Pixels at locations where the density increases sharply when traced along are detected as pixels at the rising edge, and pixels at the falling edge where the density sharply decreases along the main scanning direction RM within a range of 3 pixels from the pixel at the rising edge. Can be said to be a process for determining whether or not exists. When the falling edge exists within the range of 3 pixels from the rising edge, and when the pixel of interest is located in the range from the rising edge to the falling edge,
The signal STHIN is set to logic "1".

【0073】副走査方向RSに対応したエッジ・細線判
定処理回路160Sに関しても同様である。本実施例で
は、注目画素が立上りエッジの画素であるかどうかは図
7の立上りエッジ検出部161Mおよび図8の立上りエ
ッジ検出部161Sで検出される。また、注目画素が立
下りエッジの画素であるかどうかは図7の立下りエッジ
検出部162M内の差分演算器172Mおよび比較器1
82Mならびに図8の立下りエッジ検出部162S内の
差分演算器172Sおよび比較器182Sにより検出さ
れる。したがって、これらの各構成部分および論理和回
路169M,169Sならびに図9の論理和回路211
などにより、エッジ検出手段が構成されていると言え
る。
The same applies to the edge / fine line determination processing circuit 160S corresponding to the sub-scanning direction RS. In the present embodiment, whether or not the pixel of interest is a rising edge pixel is detected by the rising edge detection unit 161M of FIG. 7 and the rising edge detection unit 161S of FIG. Further, whether the pixel of interest is a falling edge pixel or not is determined by the difference calculator 172M and the comparator 1 in the falling edge detector 162M in FIG.
82M and the difference calculator 172S and the comparator 182S in the falling edge detector 162S of FIG. Therefore, each of these components and the OR circuits 169M and 169S and the OR circuit 211 of FIG.
It can be said that the edge detecting means is configured by the above.

【0074】一方、細線検出手段は、立上りエッジ検出
部161M,161S、立下りエッジ検出部162M,
162Sおよび細線検出部163M,163Sならびに
図9の論理和回路212などにより構成されている。図
11はタイミング調整部6Yの構成を示すブロック図で
ある。このタイミング調整部6Yは、3個のFIFO6
1,62,63と、4個のフリップフロップ64,6
5,66,67とを交互に接続したもので、タイミング
調整部1M,3Mでのデータの遅延時間を考慮して、エ
ッジ検出部4Mから導出されるエッジ検出信号に同期す
るように、Yデータを黒画素検出部7およびカラー調整
部11などに与えるためのものである。他のタイミング
調整部6M,6C,6BKの構成も同様である。
On the other hand, the thin line detecting means includes rising edge detecting sections 161M and 161S, falling edge detecting sections 162M and 162M,
162S, the thin line detection units 163M and 163S, the logical sum circuit 212 of FIG. 9, and the like. FIG. 11 is a block diagram showing the configuration of the timing adjusting unit 6Y. The timing adjusting unit 6Y includes three FIFOs 6
1, 62, 63 and four flip-flops 64, 6
5, 66, 67 are alternately connected, and the Y data is synchronized with the edge detection signal derived from the edge detection unit 4M in consideration of the data delay time in the timing adjustment units 1M, 3M. Is given to the black pixel detecting section 7, the color adjusting section 11 and the like. The same applies to the configurations of the other timing adjusting units 6M, 6C, and 6BK.

【0075】図12は黒画素検出部7の基本的な構成を
示すブロック図である。この黒画素検出部は、無彩色の
画素であってしかも濃度の高い画素を黒画素候補と判定
し、黒画素候補に対しては黒画素検出信号BLACKを
論理「1」とするものである。タイミング調整部6Y,
6M,6CからのY,M,Cの3原色データは減算器7
0に与えられ、各データ間の差(Y−M),(M−
C),(C−Y)が作成される。この各データ間の差
(Y−M),(M−C),(C−Y)は絶対値演算部7
1に与えられてそれぞれの絶対値|Y−M|,|M−C
|,|C−Y|が作成され、この絶対値は比較器72に
与えられる。比較器72では各絶対値|Y−M|,|M
−C|,|C−Y|と閾値T1とが比較され、すべての
絶対値|Y−M|,|M−C|,|C−Y|が閾値T1
以下であるときには、当該注目画素が無彩色の画素であ
るグレー画素と判定されてライン73に論理「1」の信
号が導出される。絶対値|Y−M|,|M−C|,|C
−Y|のいずれか1つが閾値T1を超えているときに
は、当該画素はカラー画素であると判定される。
FIG. 12 is a block diagram showing the basic structure of the black pixel detecting section 7. The black pixel detection unit determines an achromatic pixel having a high density as a black pixel candidate, and sets the black pixel detection signal BLACK to logic "1" for the black pixel candidate. Timing adjustment unit 6Y,
Subtractor 7 for Y, M, C three primary color data from 6M, 6C
0, and the difference between each data (Y−M), (M−
C) and (C-Y) are created. The differences (Y-M), (M-C), and (C-Y) between the data are calculated by the absolute value calculation unit 7.
1 is given to each absolute value | Y−M |, | M−C
|, | C−Y | is created, and the absolute value is given to the comparator 72. In the comparator 72, each absolute value | Y−M |, | M
−C |, | C−Y | and the threshold value T1 are compared, and all absolute values | Y−M |, | MC−, | C−Y |
In the following cases, the pixel of interest is determined to be a gray pixel which is an achromatic pixel, and a signal of logic “1” is derived on the line 73. Absolute values | Y-M |, | MC-, | C
When any one of -Y | exceeds the threshold value T1, it is determined that the pixel is a color pixel.

【0076】すなわち、無彩色の画素ではY,M,Cの
3原色データ間の差は基本的には零であり、種々の補正
を施した後でも大きな差は生じない。したがって、 B=Max{|Y−M|,|M−C|,|C−Y|} ・・・・ (16) で与えられる3原色データ間の差の最大値Bが、予め定
める所定値T1に対して、 B≦T1 ・・・・ (17) なる関係にあるときには、当該画素は無彩色の画素であ
るグレー画素と判定でき、 B>T1 ・・・・ (18) なる関係にあるときには、当該画素はカラー画素と判定
できる。
That is, in an achromatic pixel, the difference between the three primary color data of Y, M, and C is basically zero, and a large difference does not occur even after various corrections. Therefore, B = Max {| Y−M |, | M−C |, | C−Y |} ... The maximum value B of the difference between the three primary color data given by (16) is a predetermined value. When there is a relationship of B ≦ T1 ... (17) with respect to T1, it can be determined that the pixel is a gray pixel which is an achromatic pixel, and there is a relationship of B> T1 ... (18). At times, the pixel can be determined to be a color pixel.

【0077】このような処理は、3原色データ間の差|
Y−M|,|M−C|,|C−Y|のいずれかが所定値
T1を超える否かを判定するようにした上記の処理に置
き換えることができ、このようにすることにより回路構
成を簡素化することができる。一方、タイミング調整部
6Y,6M,6CからのY,M,Cの3原色データは、
比較器74にも与えられている。この比較器74は各デ
ータにより表される注目画素のイエローの濃度レベルY
d、マゼンタの濃度レベルMdおよびシアンの濃度レベ
ルCdの全てが予め定める閾値T2以上であるときに、
ライン75に高濃度画素検出信号として論理「1」の信
号を導出する。いずれかの濃度レベルが閾値T2未満で
あるときには、低濃度画素検出信号として論理「0」の
信号がライン75に導出されることになる。
Such processing is performed by the difference between the three primary color data |
It is possible to replace with the above-described processing for determining whether or not any of Y-M |, | MC |, | C-Y | exceeds the predetermined value T1. Can be simplified. On the other hand, the three primary color data of Y, M, C from the timing adjustment units 6Y, 6M, 6C are
It is also provided to the comparator 74. The comparator 74 determines the yellow density level Y of the pixel of interest represented by each data.
d, the density level Md of magenta and the density level Cd of cyan are all equal to or greater than a predetermined threshold value T2,
A signal of logic "1" is derived from the line 75 as a high density pixel detection signal. When any of the density levels is lower than the threshold value T2, a signal of logic "0" is derived on the line 75 as the low density pixel detection signal.

【0078】ライン73,75からの信号は、論理積回
路76に入力される。この論理積回路76は結局、比較
器72が注目画素をグレー画素と判定し、かつ比較器7
4が注目画素を高濃度画素と判定したときにのみ論理
「1」の信号を導出することになる。この論理「1」の
信号は、注目画素が黒画素候補であることを示す。図1
3はカラー調整部11の基本的な構成を示すブロック図
である。このカラー調整部11では、入力されるY,
M,Cの3原色データおよびBKデータが下記第(19)式
〜第(22)式で示すデータY′,M′,C′,BK′の各
データに補正される。
The signals from the lines 73 and 75 are input to the AND circuit 76. In the logical product circuit 76, after all, the comparator 72 determines that the pixel of interest is a gray pixel, and the comparator 7
The signal of logic "1" is derived only when the pixel 4 determines that the pixel of interest is a high density pixel. This signal of logic “1” indicates that the pixel of interest is a black pixel candidate. Figure 1
3 is a block diagram showing a basic configuration of the color adjusting unit 11. In the color adjustment unit 11, the input Y,
The three primary color data of M and C and the BK data are corrected to the data of Y ', M', C ', and BK' shown in the equations (19) to (22) below.

【0079】 Y′=Y −BK/L ・・・・ (19) M′=M −BK/L ・・・・ (20) C′=C −BK/L ・・・・ (21) BK′=BK+BK/L ・・・・ (22) ただし、上記第(19)式〜第(22)式において、Lは図1の
セレクタ14から与えられる補正係数であり、 L=Lt または L=Le である。上述のようにLt<Leであるから、細線画素
用補正係数Ltを採用するとBKデータが強く強調さ
れ、通常エッジ画素用補正係数Leを採用するとBKデ
ータは比較的弱く強調される。
Y '= Y-BK / L (19) M' = M-BK / L (20) C '= C-BK / L (21) BK' = BK + BK / L (22) However, in the above equations (19) to (22), L is a correction coefficient given from the selector 14 of FIG. 1, and L = Lt or L = Le is there. Since Lt <Le as described above, the BK data is strongly emphasized when the thin line pixel correction coefficient Lt is adopted, and the BK data is relatively weakly emphasized when the normal edge pixel correction coefficient Le is adopted.

【0080】この補正係数Lは、BKデータの生成時の
補正係数をαとしたときに、 1/L≦1/α−1 ・・・・ (23) を満たしていることが好ましい。上記のBKデータ生成
時の補正係数αとは、Y,M,Cの3原色データのうち
の最小データをBKデータに置き換える場合の割合であ
る。
It is preferable that this correction coefficient L satisfies 1 / L≤1 / α-1 (23) when the correction coefficient at the time of generating the BK data is α. The correction coefficient α at the time of generating the BK data is a ratio when the minimum data of the three primary color data of Y, M, and C is replaced with the BK data.

【0081】上記の補正によってBKデータが強調され
た補正データのセットY′,M′,C′,BK′を得る
ことができる。タイミング調整部6BKからのBKデー
タは、入力データを上記の補正係数Lで除する除算器8
1に入力される。この除算器81の出力はBK/Lとな
り、このデータが加算器82でBKに加算されてBK′
=BK+BK/Lが生成される。この補正データBK′
はセレクタ10に与えられる。
By the above correction, a set of correction data Y ', M', C ', BK' in which the BK data is emphasized can be obtained. The BK data from the timing adjustment unit 6BK is the divider 8 that divides the input data by the above correction coefficient L.
Input to 1. The output of the divider 81 becomes BK / L, and this data is added to BK by the adder 82 to produce BK '.
= BK + BK / L is generated. This correction data BK '
Are provided to the selector 10.

【0082】除算器81の出力はまた、減算器83にも
与えられている。この減算器83では、タイミング調整
部6Y,6M,6CからのY,M,Cの3原色データと
除算器83からのデータBK/Kとの減算が行われ、補
正データY′=Y−BK/L,M′=M−BK/L,
C′=C−BK/Lが生成される。この補正データ
Y′,M′,C′はセレクタ10に入力される。
The output of the divider 81 is also given to the subtractor 83. In this subtractor 83, the three primary color data of Y, M, C from the timing adjustment units 6Y, 6M, 6C and the data BK / K from the divider 83 are subtracted, and the correction data Y '= Y-BK. / L, M '= M-BK / L,
C '= C-BK / L is generated. The correction data Y ′, M ′, C ′ are input to the selector 10.

【0083】セレクタ10には上記のようにタイミング
調整部13からのY,M,Cの3原色データおよびBK
データが入力されており、ライン9からの選択制御信号
に基づいて、Y,M,C,BKのデータセットまたは
Y′,M′,C′,BK′のデータセットのいずれかの
データが画素毎に選択されて出力データYout,Mout,C
out,BKout とされる。
In the selector 10, as described above, the three primary color data of Y, M, C from the timing adjusting unit 13 and BK
Data has been input, and based on the selection control signal from the line 9, either the data set of Y, M, C, BK or the data set of Y ', M', C ', BK' is set to the pixel. Output data Yout, Mout, C selected for each
out, BKout.

【0084】論理積回路8からライン9に導出される選
択制御信号は、エッジ検出回路4Mにおいてエッジ画素
または細線部の構成画素が検出されて出力信号EDGE
またはTHINが論理「1」となり、さらに黒画素検出
部7の出力信号BLACKが注目画素を黒画素候補とし
たことを示す論理「1」となったときにのみ論理「1」
となる。このときセレクタ10はY′,M′,C′,B
K′のデータセットを選択して出力する。このようにし
て、セレクタ10は黒色文字のエッジ部の構成画素と黒
色文字の細線部を構成する画素とに対してのみ、BKデ
ータが強調されたY′,M′,C′,BK′のデータセ
ットを選択することになる。
The selection control signal derived from the AND circuit 8 to the line 9 is the output signal EDGE when the edge detection circuit 4M detects an edge pixel or a pixel constituting the thin line portion.
Alternatively, the logic "1" is obtained only when THIN becomes the logic "1" and the output signal BLACK of the black pixel detection unit 7 becomes the logic "1" indicating that the target pixel is the black pixel candidate.
Becomes At this time, the selector 10 has Y ', M', C ', B
The data set of K'is selected and output. In this way, the selector 10 outputs Y ', M', C ', and BK' in which the BK data is emphasized only for the pixels constituting the edge portion of the black character and the pixels constituting the thin line portion of the black character. You will be selecting a dataset.

【0085】このようにして、セレクタ10から出力さ
れるデータYout,Mout,Cout,BKout では、黒色文字
のエッジ部の構成画素と黒色文字の細線部を構成する画
素とについてのみBKデータが強調されている。したが
って、セレクタ10からの信号に基づいて形成されるイ
エロー、マゼンタ、シアン、および黒の各単一色の画像
では、黒色文字のエッジ部および細線部の構成画素に対
しては、イエロー、マゼンタおよびシアンはその濃度が
低くされ、黒はその濃度が高められる。この結果、黒色
文字のエッジ部および細線部はほぼ黒色のみによる二値
画像が形成されることとなる。これにより、文字部分と
地肌部分との境界および細線部が明瞭に再現された画像
を複写用紙上に形成させることができるようになる。こ
のようにして、鮮明な黒色文字の再生が可能となる。
In this way, in the data Yout, Mout, Cout, BKout output from the selector 10, the BK data is emphasized only for the constituent pixels of the edge part of the black character and the pixels composing the thin line part of the black character. ing. Therefore, in the images of single colors of yellow, magenta, cyan, and black which are formed based on the signal from the selector 10, yellow, magenta, and cyan are added to the constituent pixels of the edge portion and the thin line portion of the black character. Has a lower density and black has a higher density. As a result, a binary image in which the edge portion and the thin line portion of the black character are almost black is formed. As a result, it is possible to form an image on the copy paper in which the boundary between the character portion and the background portion and the fine line portion are clearly reproduced. In this way, clear black characters can be reproduced.

【0086】しかも、図1のセレクタ14に働きによ
り、カラー調整部11における補正係数Lは、細線部の
構成画素に対しては細線画素用補正係数Ltとなり、細
線部以外のエッジ画素に対しては通常エッジ画素用補正
係数Leとなる。この結果、細線部の構成画素に対して
はエッジ画素である否かに係わらずにBKデータが強く
強調され、細線部の構成画素以外のエッジ画素に対して
は、BKデータには比較的穏やかな強調処理が施され
る。
Further, by the function of the selector 14 of FIG. 1, the correction coefficient L in the color adjusting unit 11 becomes the correction coefficient Lt for thin line pixels for the constituent pixels of the thin line portion, and for the edge pixels other than the thin line portion. Is a normal edge pixel correction coefficient Le. As a result, the BK data is strongly emphasized regardless of whether it is an edge pixel or not for the constituent pixels of the thin line portion, and the edge pixels other than the constituent pixels of the thin line portion are relatively gentle to the BK data. Is emphasized.

【0087】このため、たとえば図14に示すような黒
画素で構成された黒色文字に対しては、右上がりの斜線
を付して示す領域SE内の画素については通常エッジ画
素用補正係数Leが適用される。また、左上がりの斜線
を付して示す領域ST内の画素については細線画素用補
正係数Ltが適用される。このようにして細線部分のB
Kデータが充分に強調されるから、細線部分が良好に再
現される。また、比較的太い線の部分については、エッ
ジ部のBKデータの強調は穏やかになされるから、エッ
ジ部の画素の濃度と文字の内部の領域SI内の画素の濃
度とに大きな差が生じることを防止できる。このため、
エッジ部に明瞭な縁取りが形成されてしまうなどという
不具合が生じることはない。また、幅の太い黒色画像に
ついてはエッジ部の強調は穏やかに行われるから、比較
的広い面積に渡って黒画素が存在するようないわば黒ベ
タの画像についても、明瞭な縁取りが形成されることを
防止して、良好な再生画像を得ることができる。
Therefore, for a black character composed of black pixels as shown in FIG. 14, for example, the correction coefficient Le for the normal edge pixels is set for the pixels in the area SE indicated by the diagonal line rising to the right. Applied. Further, the thin-line pixel correction coefficient Lt is applied to the pixels in the region ST indicated by the diagonal lines rising to the left. In this way, the thin line part B
Since the K data is emphasized sufficiently, the thin line portion is reproduced well. Further, for the relatively thick line portion, the BK data of the edge portion is gently emphasized, so that a large difference occurs between the pixel density of the edge portion and the pixel density of the area SI inside the character. Can be prevented. For this reason,
The problem that a clear border is formed at the edge portion does not occur. In addition, since the edge portion is gently emphasized in a wide black image, a clear border is formed even in a so-called black solid image in which black pixels do not exist over a relatively wide area. Can be prevented and a good reproduced image can be obtained.

【0088】図15は本発明の第2の実施例の一部の構
成を示すブロック図である。本実施例の説明において上
述の図1および図6などを再び参照する。図15に示さ
れた構成は、エッジ・最先検出部4Mが有するエッジ・
細線判定処理部160内の出力回路210およびセレク
タ14に代えて用いられる。図15では、図9に示され
た出力回路210との対比のために、図9に示された各
部に対応する部分には同一の参照符号が付されている。
FIG. 15 is a block diagram showing a part of the configuration of the second embodiment of the present invention. In the description of this embodiment, FIG. 1 and FIG. 6 described above will be referred to again. In the configuration shown in FIG. 15, the edge
It is used in place of the output circuit 210 and the selector 14 in the thin line determination processing unit 160. In FIG. 15, for comparison with the output circuit 210 shown in FIG. 9, portions corresponding to the respective portions shown in FIG. 9 are designated by the same reference numerals.

【0089】本実施例では、カラー調整部11に与える
べき補正係数Lは、細線画素用補正係数Lt、通常エッ
ジ画素用補正係数Leおよび細線エッジ画素用補正係数
Lteの3種類のなかから選択される。ただし、補正係
数Le,Ltは上述の第1の実施例において用いられた
補正係数Le,Ltと必ずしも等しい値ではない。細線
エッジ画素用補正係数Lteは、細線部のエッジ部を構
成する画素に対して適用される。また、細線画素用補正
係数Ltは、細線部を構成するエッジ部以外の画素に対
して適用される。さらに、通常エッジ画素用補正係数L
eは、細線部以外のエッジ部の画素に対して適用され
る。これら3種類の補正係数Le,Lt,Lteの間に
は、下記のような大小関係がある。
In the present embodiment, the correction coefficient L to be given to the color adjusting section 11 is selected from among three types of correction coefficient Lt for fine line pixels, correction coefficient Le for normal edge pixels and correction coefficient Lte for fine line edge pixels. It However, the correction coefficients Le and Lt are not necessarily equal to the correction coefficients Le and Lt used in the above-described first embodiment. The correction coefficient Lte for thin line edge pixels is applied to the pixels forming the edge portion of the thin line portion. Further, the correction coefficient Lt for thin line pixels is applied to the pixels other than the edge portion forming the thin line portion. Further, the correction coefficient L for the normal edge pixel
e is applied to pixels in the edge portion other than the thin line portion. There is the following magnitude relationship between these three types of correction coefficients Le, Lt, and LTE.

【0090】 Le>Lt>Lte ・・・・ (24) したがって、カラー調整部11では、通常エッジ画素用
補正係数Leが与えられたときには、BKデータに対し
て穏やかな強調処理が施され、細線画素用補正係数Lt
が与えられたときにはやや強い強調がBKデータに施さ
れ、細線エッジ画素用補正係数Lteが与えられたとき
にはBKデータに強い強調が施される。
Le>Lt> Lte (24) Therefore, in the color adjusting unit 11, when the normal edge pixel correction coefficient Le is given, the BK data is subjected to a gentle emphasis process and a thin line. Pixel correction coefficient Lt
Is given to the BK data, and when the fine line edge pixel correction coefficient Lte is given, the BK data is strongly emphasized.

【0091】この3種類の補正係数Le,LtおよびL
teは、図1のセレクタ14に代えて用いられるセレク
タ14Aに与えられている。このセレクタ14Aには、
3種類の補正係数Lから選択した1つの補正係数を出力
するために、2ビットの選択制御信号が入力されてい
る。すなわち、論理和回路212の出力信号THIN
と、論理積回路221の出力信号との2ビットの信号が
選択制御信号となる。
These three types of correction coefficients Le, Lt and L
te is given to the selector 14A used in place of the selector 14 of FIG. This selector 14A has
A 2-bit selection control signal is input in order to output one correction coefficient selected from the three types of correction coefficients L. That is, the output signal THIN of the OR circuit 212
And the output signal of the AND circuit 221 becomes a selection control signal.

【0092】論理積回路221には、論理和回路212
の出力信号THINと、論理和回路211の出力信号E
DGEとが与えられている。すなわち、論理積回路22
1の出力信号は、細線部のエッジ画素に対して論理
「1」となる。論理和回路212からの信号THINが
論理「0」であるときには、注目画素は細線部の構成画
素ではない。このため、セレクタ14Aは、通常エッジ
画素用補正係数Leを選択して出力する。
The logical product circuit 221 includes a logical sum circuit 212.
Output signal THIN and the output signal E of the OR circuit 211
DGE is given. That is, the AND circuit 22
The output signal of 1 becomes a logic "1" for the edge pixel in the thin line portion. When the signal THIN from the logical sum circuit 212 has a logic "0", the pixel of interest is not a constituent pixel of the thin line portion. Therefore, the selector 14A selects and outputs the normal edge pixel correction coefficient Le.

【0093】また、論理和回路212の出力信号THI
Nが論理「1」であり、論理積回路221の出力信号が
論理「0」であるときには、注目画素は、細線部の構成
画素ではあるがエッジ部以外の画素である。このため、
セレクタ14Aは、細線画素用補正係数Ltを選択して
出力する。さらに、論理積回路221の出力信号が論理
「1」であるときには、注目画素は、細線部のエッジ画
素である。このときには、セレクタ14Aは、細線エッ
ジ画素用補正係数Lteを選択して出力する。
Also, the output signal THI of the OR circuit 212
When N is a logic “1” and the output signal of the AND circuit 221 is a logic “0”, the pixel of interest is a pixel other than the edge portion although it is a constituent pixel of the thin line portion. For this reason,
The selector 14A selects and outputs the correction coefficient Lt for thin line pixels. Further, when the output signal of the logical product circuit 221 is logical “1”, the pixel of interest is the edge pixel of the thin line portion. At this time, the selector 14A selects and outputs the thin line edge pixel correction coefficient Lte.

【0094】このようにして、3種類の補正係数Le,
Lt,Lteが、注目画素の特徴に応じて選択的にカラ
ー調整部11に与えられる結果、細線部以外のエッジ部
の画素についてはBKデータに穏やかな強調処理が施さ
れ、細線部のエッジ部以外の画素にはやや強い強調がB
Kデータに施され、細線部のエッジ画素には強い強調が
BKデータに施されることになる。
In this way, the three types of correction coefficients Le,
As a result of Lt and Lte being selectively given to the color adjusting unit 11 according to the feature of the pixel of interest, the pixels of the edge portion other than the thin line portion are subjected to the gentle enhancement processing on the BK data, and the edge portion of the thin line portion is processed. Pixels other than the above have slightly strong emphasis B
This is applied to the K data, and the edge pixels in the thin line portion are strongly emphasized to the BK data.

【0095】その結果、たとえば、図16のような黒色
文字に対しては、太線部のエッジ部の領域SE1(図1
6において右上がりの斜線を付して示す。)に関しては
補正係数Leに基づく穏やかな強調が施される。そし
て、細線部のエッジ部以外の領域ST1(図16におい
て左上がりの斜線を付して示す。)の画素には補正係数
Ltに対応したやや強い強調が施される。さらに、細線
部のエッジ部の領域STE(図16において二重斜線を
付して示す。)の画素には、補正係数Lteに基づく強
い強調が施されることになる。太線部のエッジ部以外の
領域SIに関しては、図1のセレクタ10がタイミング
調整部13からの画像データを選択するから、強調処理
は施されない。
As a result, for example, for a black character as shown in FIG. 16, a region SE1 (FIG.
6 is shown with a diagonal line rising to the right. ) Is gently emphasized based on the correction coefficient Le. Then, the pixels in the region ST1 (indicated by a diagonal line rising to the left in FIG. 16) other than the edge portion of the thin line portion are slightly emphasized corresponding to the correction coefficient Lt. Further, the pixels in the area STE (shown with double diagonal lines in FIG. 16) at the edge portion of the thin line portion are strongly emphasized based on the correction coefficient Lte. Since the selector 10 of FIG. 1 selects the image data from the timing adjustment unit 13, the emphasis processing is not performed on the area SI other than the edge portion of the thick line portion.

【0096】このようにして本実施例によれば、細線部
以外のエッジ画素、細線部のエッジ部以外の画素および
細線部のエッジ画素に対して異なる強調処理を施すこと
ができ、これにより黒色文字を一層良好に再生すること
ができる。上述のように、本実施例では、論理積回路2
21、論理積回路8、カラー調整部11、セレクタ10
およびセレクタ14Aなどを含んで第3のデータ補正手
段、第4のデータ補正手段および第5のデータ補正手段
が構成されている。
As described above, according to the present embodiment, different emphasis processing can be applied to edge pixels other than the thin line portion, pixels other than the edge portion of the thin line portion, and edge pixels of the thin line portion, whereby black color is obtained. Characters can be reproduced better. As described above, in the present embodiment, the AND circuit 2
21, AND circuit 8, color adjustment unit 11, selector 10
The third data correction means, the fourth data correction means, and the fifth data correction means are configured by including the selector 14A and the like.

【0097】なお、たとえば細線部のエッジ画素につい
てのみ強い強調処理を施し、細線部のエッジ部以外の画
素および細線部以外のエッジ画素に対しては穏やかな強
調処理を施す場合には、補正係数LeおよびLteを用
い、セレクタ14Aの選択制御信号として論理積回路2
21の出力信号のみを入力すればよい。すなわち、論理
積回路221の出力信号が論理「1」となるのは、細線
部のエッジ部の画素に対してのみであるから、この論理
積回路221の出力信号が論理「1」の場合にのみ細線
エッジ画素用補正係数Lteを選択させ、残余の場合に
は補正係数Leを選択させるようにすればよい。
Note that, for example, when the strong emphasis processing is performed only on the edge pixels of the thin line portion and the gentle emphasis processing is performed on the pixels other than the edge portion of the thin line portion and the edge pixels other than the thin line portion, the correction coefficient The logical product circuit 2 is used as a selection control signal of the selector 14A by using Le and Lte.
Only the output signal of 21 should be input. That is, the output signal of the logical product circuit 221 becomes the logic "1" only for the pixel at the edge portion of the thin line portion. Therefore, when the output signal of the logical product circuit 221 is the logic "1". Only the fine line edge pixel correction coefficient Lte may be selected, and the correction coefficient Le may be selected in the case of residual.

【0098】本発明の実施例の説明は上述のとおりであ
るが、本発明は上記の実施例に限定されるものではな
い。たとえば、上記の実施例では、エッジ検出画素の検
出と細線部の検出とをエッジ・細線検出部4Mで共通に
行うようにしているが、エッジ検出処理と細線部検出処
理とを個別に行うようにしてもよい。この場合に、エッ
ジ検出処理には、たとえば図17に示された構成を適用
することができる。
The embodiments of the present invention have been described above, but the present invention is not limited to the above embodiments. For example, in the above embodiment, the detection of the edge detection pixel and the detection of the thin line portion are commonly performed by the edge / thin line detection unit 4M, but the edge detection processing and the thin line portion detection processing may be performed separately. You may In this case, for example, the configuration shown in FIG. 17 can be applied to the edge detection processing.

【0099】図17の構成によるエッジ検出処理は、図
18に示すように3×3個のマトリクス配列された画素
の平滑化処理後の濃度データに基づいて行われる。すな
わち、注目画素s0の平滑化処理後の濃度データq0
と、その周囲の画素s1〜s8の各濃度データq1〜q
8とに基づいて画像のエッジ部が検出される。さらに詳
細に説明すると、平滑化処理後のデータをタイミング調
整して得られる3ライン分のデータDL0,DL1,D
L2は、それぞれD型フリップフロップ163,16
5,168に入力される。注目画素s0を含むラインの
データDL1は、フリップフロップ165,160,1
64でそれぞれ1クロック分ずつ遅延され、画素s4の
濃度データq4として減算器170に入力される。この
とき、フリップフロップ160の出力は、注目画素s0
の濃度データq0に相当し、フリップフロップ165の
出力は画素s5の濃度データq5に相当する。これらの
濃度データq0,q5も減算器170に入力される。
The edge detection processing with the configuration of FIG. 17 is performed based on the density data after the smoothing processing of the pixels in the matrix array of 3 × 3 as shown in FIG. That is, the density data q0 after the smoothing process of the target pixel s0
And the respective density data q1 to q of the pixels s1 to s8 around it.
8 and the edge portion of the image is detected. More specifically, three lines of data DL0, DL1, D obtained by adjusting the timing of the smoothed data are adjusted.
L2 is a D-type flip-flop 163, 16 respectively.
5, 168. The data DL1 of the line including the target pixel s0 is the flip-flops 165, 160, 1
After being delayed by one clock at 64, the density data q4 of the pixel s4 is input to the subtractor 170. At this time, the output of the flip-flop 160 is the target pixel s0.
Corresponding to the density data q0, and the output of the flip-flop 165 corresponds to the density data q5 of the pixel s5. These density data q0 and q5 are also input to the subtractor 170.

【0100】同様に、データDL0は、フリップフロッ
プ163,162,161で1クロック分ずつ順に遅延
させられる。そして、各フリップフロップ163,16
2,161の出力は、それぞれ画素s3,s2,s1の
濃度データq3,q2,q1として減算器170に与え
られる。データDL2に関しても同様に、直列に接続し
たフリップフロップ168,167,166で1クロッ
ク分ずつ遅延される。そして、各フリップフロップ16
8,167,166の出力が画素s8,s7,s6の濃
度データq8,q7,q6として減算器170に与えら
れる。
Similarly, the data DL0 is sequentially delayed by one clock by the flip-flops 163, 162 and 161. Then, each flip-flop 163, 16
The outputs of 2 and 161 are given to the subtractor 170 as density data q3, q2 and q1 of the pixels s3, s2 and s1, respectively. Similarly, the data DL2 is delayed by one clock by the flip-flops 168, 167, 166 connected in series. Then, each flip-flop 16
The outputs of 8, 167 and 166 are given to the subtractor 170 as density data q8, q7 and q6 of the pixels s8, s7 and s6.

【0101】減算器170では、注目画素s0の濃度デ
ータq0からその周囲の注目画素s1〜s8の濃度デー
タq1〜q8を減じた値である(q0−q1),(q0
−q2),(q0−q3),(q0−q4),(q0−
q5),(q0−q6),(q0−q7),(q0−q
8)が演算される。この演算結果は、絶対値演算部17
1に入力され、正の値|q0−q1|,|q0−q2
|,|q0−q3|,|q0−q4|,|q0−q5
|,|q0−q6|,|q0−q7|,|q0−q8|
に変換される。
The subtractor 170 has values (q0-q1), (q0) obtained by subtracting the density data q1 to q8 of the target pixels s1 to s8 from the density data q0 of the target pixel s0.
-Q2), (q0-q3), (q0-q4), (q0-
q5), (q0-q6), (q0-q7), (q0-q
8) is calculated. This calculation result is the absolute value calculation unit 17
1 is input and positive values | q0-q1 |, | q0-q2
|, | Q0-q3 |, | q0-q4 |, | q0-q5
|, | Q0-q6 |, | q0-q7 |, | q0-q8 |
Is converted to.

【0102】この演算結果は、比較器172に入力さ
れ、閾値tと比較される。そして、いずれかの演算結果
が閾値tを超えるときに、注目画素s0がエッジ部の画
素であることを表す論理「1」の信号が出力される。要
約すると、 |q0−q1|≧t ・・・・ (24) |q0−q2|≧t ・・・・ (25) |q0−q3|≧t ・・・・ (26) |q0−q4|≧t ・・・・ (27) |q0−q5|≧t ・・・・ (28) |q0−q6|≧t ・・・・ (29) |q0−q7|≧t ・・・・ (30) |q0−q8|≧t ・・・・ (31) のいずれかが成立すれば、注目画素s0がエッジ画素と
され、いずれもが成立しないときには注目画素s0はエ
ッジ画素でないものと判定される。このような処理によ
って、注目画素s0を中心としたいずれかの方向に関し
て濃度の急激な変化が生じているときには、注目画素s
0がエッジ画素として検出されることになる。
The calculation result is input to the comparator 172 and compared with the threshold value t. Then, when any of the calculation results exceeds the threshold value t, a signal of logic "1" indicating that the target pixel s0 is a pixel at the edge portion is output. In summary, | q0-q1 | ≧ t ... (24) | q0-q2 | ≧ t ... (25) | q0-q3 | ≧ t ... (26) | q0-q4 | ≧ t ··· (27) | q0-q5 | ≧ t ··· (28) | q0-q6 | ≧ t ··· (29) | q0-q7 | ≧ t ··· (30 ) | Q0-q8 | ≧ t (31) is satisfied, the target pixel s0 is determined to be an edge pixel, and when neither is satisfied, the target pixel s0 is determined not to be an edge pixel. . By such a process, when a sharp change in density occurs in any direction around the pixel of interest s0, the pixel of interest s
0 will be detected as an edge pixel.

【0103】さらに、上記の実施例は次のように変形す
ることもできる。すなわち、上記の実施例では、カラー
画像を構成するマゼンタ成分が人間の視覚特性に近似し
ていることを利用して、エッジ検出のためにマゼンタの
濃度データのみを用いているが、Y、MおよびCの全て
のデータを用いてもよい。この場合には、図19に示す
ように、YデータおよびCデータに対してMデータと同
様な処理を施し、エッジ・細線検出部4Y,4M,4C
の出力信号を論理積回路5に入力する。また、細線検出
信号THINについても、Y,C,Mの各データに関し
て検出された細線検出信号の論理積を論理積回路230
でとる。そして、論理積回路5,230の各出力信号を
論理和回路231の入力して、この論理和回路231の
出力信号EDGE,THINをセレクタ10(図1参
照。)に入力するようにすればよい。また、論理積回路
231の出力信号THINをセレクタ14に与えればよ
い。
Further, the above embodiment can be modified as follows. That is, in the above embodiment, only the magenta density data is used for edge detection by utilizing the fact that the magenta component forming the color image approximates the human visual characteristics, but Y, M All data for C and C may be used. In this case, as shown in FIG. 19, Y data and C data are processed in the same manner as M data, and the edge / fine line detection units 4Y, 4M, and 4C are processed.
The output signal of is input to the AND circuit 5. Also, for the thin line detection signal THIN, the logical product of the thin line detection signals detected for the respective data of Y, C, and M is calculated by the AND circuit 230.
Take it. Then, the respective output signals of the logical product circuits 5 and 230 are inputted to the logical sum circuit 231, and the output signals EDGE and THIN of the logical sum circuit 231 are inputted to the selector 10 (see FIG. 1). . Further, the output signal THIN of the AND circuit 231 may be given to the selector 14.

【0104】これにより3原色の全てに関して濃度が急
峻である場合に、注目画素がエッジ画素であるものと判
定されることになり、3原色の全てに関して細線部の画
素であると判定された場合に、セレクタ14において細
線画素用補正係数Ltが選択されることになる。なお、
図19において、Mデータを処理する回路と同様な処理
をYデータおよびCデータに施す各回路には、Mデータ
に対する回路に付した参照符号の数字部分と同一数字に
それぞれ記号Y,Cを付して示す。
As a result, when the densities of all the three primary colors are steep, it is determined that the pixel of interest is an edge pixel, and it is determined that all the three primary colors are pixels of the thin line portion. In addition, the thin-line pixel correction coefficient Lt is selected by the selector 14. In addition,
In FIG. 19, in each circuit that performs the same processing as the circuit for processing M data on Y data and C data, the symbols Y and C are attached to the same numerals as the reference numerals attached to the circuit for M data. And show it.

【0105】また、図19の構成においてエッジ・細線
検出部4Y,4M,4Cおよびセレクタ14に代えて、
上述の図15に示された構成を適用してもよい。この場
合には、論理積回路230の出力信号と、各色のエッジ
・細線検出部内の論理積回路221(図15参照。)の
出力信号の論理積をとった信号とを、選択制御信号とし
てセレクタ14Aに入力すればよい。
Further, in the configuration of FIG. 19, instead of the edge / fine line detecting units 4Y, 4M, 4C and the selector 14,
The configuration shown in FIG. 15 described above may be applied. In this case, the output signal of the AND circuit 230 and the signal obtained by ANDing the output signals of the AND circuits 221 (see FIG. 15) in the edge / thin line detection units of the respective colors are selected as selection control signals. Input to 14A.

【0106】さらに、上記の実施例ではカラー複写機を
例にとって説明したが、本発明は光学的に読み取ったカ
ラー画像をデータとして蓄積したり再生したりするよう
にしたカラーファクシミリその他のカラー画像処理装置
や、光学的に画像を読み取って色信号に変換する画像読
取装置などの種々の画像処理装置に対して容易に応用す
ることができるものである。
Further, although the above embodiment has been described by taking the color copying machine as an example, the present invention is a color facsimile or other color image processing in which an optically read color image is stored or reproduced as data. The present invention can be easily applied to various image processing devices such as an image reading device that optically reads an image and converts it into a color signal.

【0107】その他、本発明の要旨を変更しない範囲で
種々の設計変更を施すことが可能である。
In addition, various design changes can be made without changing the gist of the present invention.

【0108】[0108]

【発明の効果】以上のように本発明の画像処理装置によ
れば、画像のエッジ部を構成すると判定された画素が、
同時に黒画素候補とされた画素である場合には、当該画
素が黒色文字のエッジ部を構成する画素と判定される。
また、細線部を構成する画素であると判定された画素
が、同時に黒画素候補とされた画素であるときには、当
該画素は黒色文字の細線部を構成する画素と判定され
る。
As described above, according to the image processing apparatus of the present invention, the pixels determined to constitute the edge portion of the image are
At the same time, when the pixel is a black pixel candidate, the pixel is determined to be a pixel forming an edge portion of a black character.
Further, when the pixels that are determined to be the pixels that form the thin line portion are pixels that are also black pixel candidates at the same time, the pixel is determined to be a pixel that forms the thin line portion of the black character.

【0109】さらに、黒色文字のエッジ部および細線部
の各構成画素には、黒色を強調する補正が施される。こ
れにより、黒色文字と地肌部分との境界を明確に表現し
た画像データを得ることができる。しかも、黒色文字の
細線部は細線部以外のエッジ部よりも黒色が強く強調さ
れる。このため、細線部に対しては充分な強調が施さ
れ、細線部以外のエッジ部については穏やかな強調が施
される。これにより、細線部が明瞭に再生される一方
で、細線部以外ではエッジ部に明瞭な縁取りが形成され
てしまうという不具合を防止できる。このようにして、
高品位の黒色文字が再生される。
Further, each of the constituent pixels of the edge portion and the thin line portion of the black character is corrected so as to emphasize black. This makes it possible to obtain image data that clearly expresses the boundary between the black character and the background portion. Moreover, in the thin line portion of the black character, black is emphasized more strongly than in the edge portion other than the thin line portion. Therefore, the thin line portion is sufficiently emphasized, and the edge portions other than the thin line portion are gently emphasized. As a result, it is possible to prevent a problem that the fine line portion is clearly reproduced, but a clear border is formed on the edge portion other than the fine line portion. In this way
High quality black characters are reproduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像処理装置の第1の実施例であるカ
ラー複写機の要部の電気的構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing an electrical configuration of a main part of a color copying machine that is a first embodiment of an image processing apparatus of the present invention.

【図2】タイミング調整部1Y,3Yの構成を示すブロ
ック図である。
FIG. 2 is a block diagram showing a configuration of timing adjustment units 1Y and 3Y.

【図3】平滑化処理を説明するための図である。FIG. 3 is a diagram for explaining a smoothing process.

【図4】平滑化部2Mの構成を示すブロック図であるFIG. 4 is a block diagram showing a configuration of a smoothing unit 2M.

【図5】エッジ検出処理を説明するための図である。FIG. 5 is a diagram for explaining edge detection processing.

【図6】エッジ・細線検出部4Mの構成を示すブロック
図である。
FIG. 6 is a block diagram showing a configuration of an edge / fine line detection unit 4M.

【図7】主走査方向に対応したエッジ・細線判定処理回
路160Mの構成を示すブロック図である。
FIG. 7 is a block diagram showing a configuration of an edge / fine line determination processing circuit 160M corresponding to a main scanning direction.

【図8】副走査方向に対応したエッジ・細線判定処理回
路160Sの構成を示すブロック図である。
FIG. 8 is a block diagram showing a configuration of an edge / fine line determination processing circuit 160S corresponding to a sub-scanning direction.

【図9】出力回路210の構成を示すブロック図であ
る。
9 is a block diagram showing a configuration of an output circuit 210. FIG.

【図10】エッジ・細線判定処理回路160M・160
Sの動作を説明するための図である。
FIG. 10: Edge / fine line determination processing circuit 160M / 160
It is a figure for demonstrating operation | movement of S.

【図11】タイミング調整部6Yの構成を示すブロック
図である。
FIG. 11 is a block diagram showing a configuration of a timing adjusting unit 6Y.

【図12】黒画素検出部7の構成を示すブロック図であ
る。
FIG. 12 is a block diagram showing a configuration of a black pixel detection unit 7.

【図13】カラー調整部11の構成を示すブロック図で
ある。
FIG. 13 is a block diagram showing a configuration of a color adjusting unit 11.

【図14】黒色文字に対するエッジ部および細線部の強
調処理を説明するための図である。
FIG. 14 is a diagram for explaining emphasis processing of an edge portion and a thin line portion for a black character.

【図15】本発明の第2の実施例の一部の構成を示すブ
ロック図である。
FIG. 15 is a block diagram showing a partial configuration of a second embodiment of the present invention.

【図16】上記第2の実施例における黒色文字に対する
エッジ部および細線部の強調処理を説明するための図で
ある。
FIG. 16 is a diagram for explaining an emphasis process of an edge portion and a thin line portion for a black character in the second embodiment.

【図17】エッジ部の検出のための構成例を示すブロッ
ク図である。
FIG. 17 is a block diagram showing a configuration example for detecting an edge portion.

【図18】図17に示された構成におけるエッジ検出処
理を説明するための図である。
FIG. 18 is a diagram for explaining edge detection processing in the configuration shown in FIG. 17.

【図19】上記各実施例の変形例の構成を示すブロック
図である。
FIG. 19 is a block diagram showing a configuration of a modified example of each of the above embodiments.

【符号の説明】[Explanation of symbols]

2M 平滑化部 4M エッジ検出部 7 黒画素検出部 8 論理積回路 10 セレクタ 11 カラー調整部 14 セレクタ 161M 立上りエッジ検出部 162M 立下りエッジ検出部 163M 細線検出部 164M エッジ検出処理部 161S 立上りエッジ検出部 162S 立下りエッジ検出部 163S 細線検出部 164S エッジ検出処理部 14A セレクタ 2Y,2C 平滑化部 4Y,4C エッジ検出部 2M smoothing unit 4M edge detection unit 7 black pixel detection unit 8 AND circuit 10 selector 11 color adjustment unit 14 selector 161M rising edge detection unit 162M falling edge detection unit 163M thin line detection unit 164M edge detection processing unit 161S rising edge detection unit 162S Falling edge detection unit 163S Fine line detection unit 164S Edge detection processing unit 14A Selector 2Y, 2C Smoothing unit 4Y, 4C Edge detection unit

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】カラー画像を光学的に読み取って3原色の
それぞれの濃度に対応する3原色データに変換し、さら
に3原色データに基づいて黒色の濃度に対応した黒デー
タを作成する変換手段と、 上記画像データに基づいて、注目画素が無彩色の画素で
あってしかも濃度が所定値以上であるときにこの注目画
素を黒画素候補とする黒画素検出手段と、 注目画素の画像データと注目画素に隣接する画素の画像
データとに基づいて当該注目画素の近傍の濃度勾配を検
出し、この濃度勾配が所定値以上であるときに、この注
目画素をエッジ部の画素と判定するエッジ検出手段と、 注目画素が所定幅以下の画像部分である細線部を構成す
る画素であるか否かを判定する細線検出手段と、 注目画素がエッジ部の画素と判定され、かつ、黒画素候
補とされたときに、当該画素を黒色文字のエッジ部を構
成する画素と判定する第1の判定手段と、 注目画素が細線部を構成する画素と判定され、かつ、黒
画素候補とされたときに、当該画素を黒色文字の細線部
を構成する画素と判定する第2の判定手段と、 上記第1の判定手段により黒色文字のエッジ部の画素と
判定された画素に関して、3原色の濃度を減少させると
ともに黒色の濃度を増大させるように、上記3原色デー
タおよび黒データに補正を施す第1のデータ補正手段
と、 上記第2の判定手段により黒色文字の細線部の構成画素
と判定された画素に関して、3原色の濃度を減少させる
とともに黒色の濃度を増大させるように、上記3原色デ
ータおよび黒データに上記第1のデータ補正手段による
補正よりも強い補正を施す第2のデータ補正手段とを含
むことを特徴とする画像処理装置。
1. A conversion means for optically reading a color image, converting it into three primary color data corresponding to respective densities of three primary colors, and creating black data corresponding to black density based on the three primary color data. , Based on the image data, when the pixel of interest is an achromatic pixel and the density is equal to or more than a predetermined value, a black pixel detecting unit that makes this pixel of interest a black pixel candidate; An edge detecting unit that detects a density gradient in the vicinity of the pixel of interest based on image data of a pixel adjacent to the pixel and determines that the pixel of interest is a pixel of an edge portion when the density gradient is equal to or more than a predetermined value. A thin line detecting means for determining whether or not the pixel of interest is a pixel forming a thin line portion which is an image portion having a width equal to or less than a predetermined width; and the pixel of interest is determined to be a pixel of an edge portion and is also a black pixel candidate. When it is determined that the pixel is a pixel forming an edge portion of a black character, the target pixel is determined to be a pixel forming a thin line portion, and is a black pixel candidate, The density of the three primary colors is reduced with respect to the second determination unit that determines the pixel as a pixel forming the thin line portion of the black character and the pixel determined as the pixel of the edge portion of the black character by the first determination unit. With respect to the first data correction unit that corrects the three primary color data and the black data so as to increase the black density, and the pixels that are determined to be the constituent pixels of the thin line portion of the black character by the second determination unit. Second data correction for making stronger correction than the correction by the first data correction means to the three primary color data and the black data so as to decrease the density of the three primary colors and increase the density of black. The image processing apparatus characterized by comprising a stage.
【請求項2】上記第1のデータ補正手段および第2のデ
ータ補正手段に代えて、 上記第1の判定手段により黒色文字のエッジ部の画素と
判定され、かつ、上記第2の判定手段により黒色文字の
細線部の構成画素と判定されなかった画素に関して、3
原色の濃度を減少させるとともに黒色の濃度を増大させ
るように、上記3原色データおよび黒データに補正を施
す第3のデータ補正手段と、 上記第1の判定手段により黒色文字のエッジ部の画素と
判定されず、かつ、上記第2の判定手段により黒色文字
の細線部の構成画素と判定された画素に関して、3原色
の濃度を減少させるとともに黒色の濃度を増大させるよ
うに、上記3原色データおよび黒データに上記第3のデ
ータ補正手段による補正よりも強い補正を施す第4のデ
ータ補正手段と、 上記第1の判定手段により黒色文字のエッジ部の画素と
判定され、かつ、上記第2の判定手段により黒色文字の
細線部の構成画素と判定された画素に関して、3原色の
濃度を減少させるとともに黒色の濃度を増大させるよう
に、上記3原色データおよび黒データに上記第4のデー
タ補正手段による補正よりも強い補正を施す第5のデー
タ補正手段とを備えたことを特徴とする請求項1記載の
画像処理装置。
2. In place of the first data correction means and the second data correction means, the first determination means determines that the pixel is an edge portion of a black character, and the second determination means determines. 3 for the pixels that are not determined to be the constituent pixels of the thin line part of the black character
Third data correction means for correcting the three primary color data and the black data so as to decrease the density of the primary color and increase the density of black, and the pixel of the edge portion of the black character by the first determination means. For the pixels which are not judged and which are judged by the second judging means to be the constituent pixels of the thin line portion of the black character, the three primary color data and the three primary color data are set so as to decrease the density of the three primary colors and increase the density of black. Fourth data correction means for performing a stronger correction on the black data than the correction by the third data correction means, and the first determination means are determined to be pixels at the edge portion of the black character, and the second data correction means is used. Regarding the pixels which are determined by the determination means to be the constituent pixels of the thin line portion of the black character, the three primary color data are set so as to decrease the density of the three primary colors and increase the density of black. The image processing apparatus according to claim 1, characterized in that a fifth data correction means to the fine black data subjected to stronger correction than the correction of the fourth data correcting means.
【請求項3】上記細線検出手段は、 注目画素を通る所定の検出線上を一方向に辿ったときに
濃度が急増する立上りエッジの画素を検出する立上りエ
ッジ検出手段と、 上記検出線上を上記一方向に辿ったときに濃度が急減す
る立下りエッジの画素を検出する立下りエッジ検出手段
と、 上記立上りエッジの画素と立下りエッジの画素との間の
画素数が所定の閾値以下であるときに、上記立上りエッ
ジの画素と立下りエッジの画素との間の画像部分を細線
部と判定する手段と、 注目画素が上記細線部内に位置しているときに、当該注
目画素を細線部の構成画素と判定する手段とを含むこと
を特徴とする請求項1または2記載の画像処理装置。
3. The thin line detection means detects a rising edge pixel whose density increases sharply when a predetermined detection line passing through a pixel of interest is traced in one direction, and the rising edge detection means detects the rising edge pixel on the detection line. When the number of pixels between the falling edge pixels and the falling edge detecting means for detecting the falling edge pixels whose density sharply decreases when tracing in the direction, and the number of pixels between the rising edge pixels and the falling edge pixels is less than or equal to a predetermined threshold value. A means for determining the image portion between the pixel of the rising edge and the pixel of the falling edge as a thin line portion; and, when the pixel of interest is located in the thin line portion, the pixel of interest is configured as a thin line portion. The image processing apparatus according to claim 1, further comprising: a unit that determines a pixel.
【請求項4】上記エッジ検出手段は、上記3原色データ
のうちのいずれか1つの特定色のデータに基づいて、注
目画素がエッジ部の画素であるか否かを判定するもので
あり、 上記細線検出手段は、上記特定色のデータに基づいて、
注目画素が細線部の構成画素であるか否かを判定するも
のであることを特徴とする請求項1、2または3記載の
画像処理装置。
4. The edge detecting means determines whether or not the pixel of interest is a pixel of an edge portion based on data of any one specific color of the three primary color data, The thin line detecting means is based on the data of the specific color,
The image processing apparatus according to claim 1, wherein the pixel of interest is for determining whether or not the pixel of interest is a constituent pixel of the thin line portion.
【請求項5】注目画素と注目画素に隣接する画素との画
像データに基づいて当該注目画素の近傍の濃度勾配を平
滑化したデータを作成する平滑化手段をさらに含み、 上記エッジ検出手段は、上記平滑化手段で平滑化された
後の画像データに基づいて、注目画素がエッジ部の画素
であるか否かを判定するものであり、 上記細線検出手段は、上記平滑化手段で平滑化された後
の画像データに基づいて、注目画素が細線部の構成画素
であるか否かを判定するものであることを特徴とする請
求項1乃至4のいずれかに記載の画像処理装置。
5. The edge detecting means further includes smoothing means for creating data in which a density gradient in the vicinity of the target pixel is smoothed based on image data of the target pixel and a pixel adjacent to the target pixel. Based on the image data that has been smoothed by the smoothing means, it is determined whether or not the pixel of interest is an edge pixel, and the thin line detecting means is smoothed by the smoothing means. 5. The image processing apparatus according to claim 1, wherein it is determined whether or not the pixel of interest is a constituent pixel of the thin line portion based on the image data after the processing.
【請求項6】上記平滑化手段は、注目画素に隣接する画
素における上記3原色データのうちのいずれか1つの特
定色のデータに基づいて当該注目画素の近傍の濃度勾配
を平滑化したデータを作成するものであり、 上記エッジ検出手段は、上記平滑化手段で平滑化された
後の特定色のデータに基づいて、注目画素がエッジ部の
画素であるか否かを判定するものであり、 上記細線検出手段は、上記平滑化手段で平滑化された後
の特定色のデータに基づいて、注目画素がエッジ部の画
素であるか否かを判定するものであることを特徴とする
請求項5記載の画像処理装置。
6. The smoothing means smoothes a density gradient in the vicinity of the target pixel based on data of any one specific color of the three primary color data in pixels adjacent to the target pixel. It is to create, the edge detection means, based on the data of the specific color after being smoothed by the smoothing means, for determining whether the pixel of interest is a pixel of the edge portion, The thin line detection means determines whether or not the pixel of interest is a pixel of an edge portion based on the data of the specific color that has been smoothed by the smoothing means. 5. The image processing device according to item 5.
JP4209837A 1992-07-13 1992-07-13 Image processor Pending JPH0638055A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4209837A JPH0638055A (en) 1992-07-13 1992-07-13 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4209837A JPH0638055A (en) 1992-07-13 1992-07-13 Image processor

Publications (1)

Publication Number Publication Date
JPH0638055A true JPH0638055A (en) 1994-02-10

Family

ID=16579441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4209837A Pending JPH0638055A (en) 1992-07-13 1992-07-13 Image processor

Country Status (1)

Country Link
JP (1) JPH0638055A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010206623A (en) * 2009-03-04 2010-09-16 Fuji Xerox Co Ltd Apparatus and program for processing image
JP2011207136A (en) * 2010-03-30 2011-10-20 Brother Industries Ltd Image data processor, liquid ejection device and program
US10068312B2 (en) 2015-09-17 2018-09-04 Samsung Electronics Co., Ltd. Image processing apparatus, image processing method, and computer-readable recording medium
KR20190113509A (en) 2018-03-27 2019-10-08 자노메 미싱 고교가부시키가이샤 Electric press, a method to select a loadcell and a program thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010206623A (en) * 2009-03-04 2010-09-16 Fuji Xerox Co Ltd Apparatus and program for processing image
JP2011207136A (en) * 2010-03-30 2011-10-20 Brother Industries Ltd Image data processor, liquid ejection device and program
US10068312B2 (en) 2015-09-17 2018-09-04 Samsung Electronics Co., Ltd. Image processing apparatus, image processing method, and computer-readable recording medium
KR20190113509A (en) 2018-03-27 2019-10-08 자노메 미싱 고교가부시키가이샤 Electric press, a method to select a loadcell and a program thereof

Similar Documents

Publication Publication Date Title
JP2536094B2 (en) Color image processing device
US6424742B2 (en) Image processing apparatus for discriminating image field of original document plural times and method therefor
US5477335A (en) Method and apparatus of copying of black text on documents using a color scanner
US6041139A (en) Image processing apparatus
JPH0380767A (en) Gradation recorder for image
JP2006237856A (en) Image processing device, image processing method, program for executing the method on computer and record medium
JPH0410765A (en) Image processor
JPH03208467A (en) Picture area identification system for picture processing unit
US7365880B2 (en) Image processing apparatus and image processing method
US7324244B2 (en) Image forming apparatus and image forming method
US5805304A (en) Image processing apparatus
US6181819B1 (en) Image processing apparatus including means for judging a chromatic portion of an image
JPH0638055A (en) Image processor
JPH08149323A (en) Image processor
JP2002077647A (en) Image processor
JP2693870B2 (en) Image processing device
JPH0638054A (en) Image processor
JPH06113126A (en) Method and device for correcting color
JP4035696B2 (en) Line segment detection apparatus and image processing apparatus
JP2947823B2 (en) Image processing device
JP3245600B2 (en) Image processing device
JP2001333287A (en) Color image recorder
JPH0662230A (en) Image forming device
JPH0573316B2 (en)
JP3299397B2 (en) Image processing device