JPH09321989A - Edge area detector - Google Patents

Edge area detector

Info

Publication number
JPH09321989A
JPH09321989A JP8155011A JP15501196A JPH09321989A JP H09321989 A JPH09321989 A JP H09321989A JP 8155011 A JP8155011 A JP 8155011A JP 15501196 A JP15501196 A JP 15501196A JP H09321989 A JPH09321989 A JP H09321989A
Authority
JP
Japan
Prior art keywords
edge
white background
smoothing
area
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP8155011A
Other languages
Japanese (ja)
Inventor
Rie Ishii
理恵 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP8155011A priority Critical patent/JPH09321989A/en
Publication of JPH09321989A publication Critical patent/JPH09321989A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide the edge area detector at a low cost with a simple configuration by reducing a time required to detect an edge area of an image more than that by a conventional edge area detector having been used for an image area separator. SOLUTION: The edge area detector that detects an edge of an image expressed in image data based on received image data is provided with a smoothing means 44 applying smoothing processing to a noted picture element of received image data by using a smoothing matrix, a density difference detection means 46 detecting a density difference of two picture elements in existence at both sides of the noted picture element based on the received image data and a discrimination means 48 discriminating whether or not the noted picture element is a picture element of an edge area of an image based on the density of the noted picture element after the smoothing and the detection result by the density detection means and providing an output of a discrimination result.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、プリンタ、複写
機、ファクシミリ等の画像形成装置で使用されるエッジ
領域検出装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an edge area detecting device used in an image forming apparatus such as a printer, a copying machine and a facsimile.

【0002】[0002]

【従来の技術】デジタル複写機やファクシミリ装置等の
画像形成装置で文字及び絵柄が混在した画像を再生する
場合、文字領域については解像度を優先した画像処理を
行い、絵柄領域には階調性を優先した画像処理を行うこ
とにより、再生画像を良好なものとすることができる。
このためには、画像を文字領域と絵柄領域とに分離する
像域分離装置が必要となり、従来、いくつかの像域分離
装置が提案されてきた(特開昭63−142766号、
特開平1−132247号、特開平5−176167号
等)。
2. Description of the Related Art When reproducing an image in which characters and pictures are mixed in an image forming apparatus such as a digital copying machine or a facsimile machine, the character area is subjected to image processing in which resolution is prioritized and the picture area is provided with gradation. By performing the image processing with priority, the reproduced image can be improved.
For this purpose, an image area separation device for separating an image into a character area and a picture area is required, and several image area separation devices have been proposed in the past (Japanese Patent Laid-Open No. 63-142766,
(JP-A-1-132247, JP-A-5-176167, etc.).

【0003】これらの像域分離装置においては、絵柄領
域の網点の周期性を利用するもの等様々な方式が採用さ
れているが、特に、上記特開平5−176167号に記
載の従来技術においては、画像のエッジ領域の検出結果
と、画像の白地領域の検出結果との両者の検出結果に基
づき、文字領域と絵柄領域とを高精度に分離することを
可能としている。ここで、上記エッジ領域検出は、文字
が画像濃度が急激に変化するエッジを持つことを利用す
るものであり、従来は、上記特開平5−176167号
にも記載のとおり、注目画素を含む例えば3×3のマト
リクス等を使用し、パターンマッチングを行って、特定
のパターンに合致した場合に、注目画素をエッジ領域画
素として判定することによって行っていた。
In these image area separating apparatuses, various methods such as those utilizing the periodicity of halftone dots in the picture area are adopted. Particularly, in the prior art described in JP-A-5-176167. Makes it possible to separate the character region and the pattern region with high accuracy based on the detection results of both the detection result of the edge region of the image and the detection result of the white background region of the image. Here, the edge area detection utilizes the fact that a character has an edge where the image density changes abruptly. Conventionally, as described in JP-A-5-176167, for example, a target pixel including a target pixel is included. This is performed by performing pattern matching using a 3 × 3 matrix or the like and determining the pixel of interest as an edge area pixel when the pixel matches a specific pattern.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来の
エッジ領域検出装置においては、注目画素が画像のエッ
ジ領域の画素か否か判定するために、多数のマッチング
パターンとのパターンマッチングを逐次行う必要があ
り、判定に時間がかかるという問題があった。また、多
数のマッチングパターンを記憶するための記憶手段が必
要となるばかりでなく、パターンマッチングを行うため
に画像データを複数ラインにわたって所定時間記憶する
必要があるので、多数のラインメモリが必要となって、
装置の複雑化及び高コスト化を招いていた。
However, in the conventional edge area detecting apparatus, it is necessary to successively perform pattern matching with a large number of matching patterns in order to determine whether or not the pixel of interest is a pixel in the edge area of the image. There is a problem that it takes time to make a determination. Further, not only storage means for storing a large number of matching patterns is required, but also image data needs to be stored over a plurality of lines for a predetermined time in order to perform pattern matching, so a large number of line memories are required. hand,
This has caused the device to be complicated and costly.

【0005】本発明は以上の問題点に鑑みなされたもの
であり、その目的とするところは、従来技術に比較し、
画像のエッジ領域の検出に要する時間を短縮し、また、
構成が簡単で低コストのエッジ領域検出装置を提供する
ことである。
The present invention has been made in view of the above problems, and the purpose thereof is to compare with the prior art,
It reduces the time required to detect the edge area of the image,
An object of the present invention is to provide an edge area detection device having a simple structure and low cost.

【0006】[0006]

【課題を解決するための手段】上記問題点を解決するた
めに、請求項1のエッジ領域検出装置は、入力された画
像データに基づいて該画像データによって表現される画
像のエッジ領域を検出するエッジ領域検出装置におい
て、入力された画像データの注目画素に、平滑化マトリ
クスを使用して平滑化処理を行う平滑化手段と、入力さ
れた画像データに基づき注目画素の両側に存在する2つ
の画素の濃度差を検出する濃度差検出手段と、前記平滑
化後の注目画素の濃度と前記濃度検出手段による検出結
果とに基づいて、注目画素が画像のエッジ領域の画素か
否かを判定し判定結果を出力する判定手段とを設けたこ
とを特徴とするものである。
In order to solve the above problems, an edge area detecting device according to claim 1 detects an edge area of an image represented by the image data based on the input image data. In the edge area detection device, a smoothing unit that performs a smoothing process using a smoothing matrix on a target pixel of input image data, and two pixels existing on both sides of the target pixel based on the input image data. Based on the density of the target pixel after the smoothing and the detection result of the density detecting unit, it is determined whether or not the target pixel is a pixel in the edge region of the image. It is characterized in that a determination means for outputting a result is provided.

【0007】請求項1のエッジ領域検出装置において
は、平滑化マトリクスを使用した演算処理によって、注
目画素の平滑化処理後の濃度を求め、一方で、入力され
た画像データに基づいて注目画素の両側に存在する2つ
画素の濃度差を検出する。そして、上記注目画素の平滑
化処理後の濃度と、上記検出された濃度差とに基づき、
上記注目画素の濃度が所定の値よりも大きな濃度であっ
て、上記注目画素の両側に存在する2つの画素の濃度差
が所定の大きよりも大きな場合に、注目画素をエッジ領
域に属する画素と判定する。これによって、従来装置で
行っていたようなパターンマッチングの必要がなくな
る。
In the edge area detecting apparatus according to the first aspect, the density after the smoothing processing of the target pixel is obtained by the arithmetic processing using the smoothing matrix, and the density of the target pixel is calculated based on the input image data. The density difference between two pixels on both sides is detected. Then, based on the density of the pixel of interest after the smoothing process and the detected density difference,
When the density of the target pixel is higher than a predetermined value and the difference in density between two pixels on both sides of the target pixel is larger than the predetermined value, the target pixel is regarded as a pixel belonging to an edge region. judge. This eliminates the need for pattern matching, which has been performed in a conventional device.

【0008】請求項2のエッジ領域検出装置は、請求項
1のエッジ領域検出装置において、注目画素の周辺に存
在する白地領域を検出する白地領域検出手段と、該白地
領域検出手段の検出結果に対応した複数種類の平滑化マ
トリクスを使用して得られた判定結果を、前記白地領域
検出手段の検出結果に基づいて選択する選択手段とを設
けたことを特徴とするものである。
An edge area detecting device according to a second aspect is the edge area detecting device according to the first aspect, wherein a white background area detecting means for detecting a white background area existing around a target pixel and a detection result of the white background area detecting means are used. The present invention is characterized in that a selecting means for selecting a judgment result obtained by using a plurality of corresponding smoothing matrices based on the detection result of the white background area detecting means is provided.

【0009】請求項2のエッジ領域検出装置において
は、画像の白地領域を検出する白地領域検出手段の検出
結果に対応した複数種類の平滑化マトリクスを使用して
得られた判定結果を、前記白地領域検出手段の検出結果
に基づいて選択する。ここで、画像における文字領域の
画素の周囲には白地領域が存在する確率が大きいことが
経験的に知られており、また、絵柄領域に属する画素の
周囲には、白地領域が存在する確率が小さいことが、経
験的に知られている。従って、白地領域検出手段の検出
結果は、注目画素がおおよそ文字領域に属するか、絵柄
領域に属するか示すことになる。そしてこの白地領域検
出手段の検出結果によって、上記平滑化手段で使用され
る平滑化マトリクスを異にして得られたエッジ領域検出
装置の判定結果を選択すると、おおよその文字領域とお
およその絵柄領域とに応じて、それぞれエッジ領域検出
手段の判定結果を変化させることができる。具体的に
は、文字領域では注目画素をエッジ領域に属する画素と
して判定する確率を高くし、絵柄領域では、注目画素を
エッジの領域に属する画素として判定する確率を低くす
ることができる。
According to another aspect of the edge area detecting device of the present invention, the judgment result obtained by using a plurality of types of smoothing matrices corresponding to the detection result of the white background area detecting means for detecting the white background area of the image is used as the white background. The selection is made based on the detection result of the area detecting means. Here, it is empirically known that there is a high probability that a white background area exists around the pixels of the character area in the image, and that there is a high probability that a white background area exists around the pixels that belong to the pattern area. It is empirically known to be small. Therefore, the detection result of the white background area detecting means indicates whether the target pixel belongs to the character area or the picture area. Then, depending on the detection result of the white background area detecting means, when the determination result of the edge area detecting device obtained by differentiating the smoothing matrix used in the smoothing means is selected, an approximate character area and an approximate pattern area are selected. According to the above, the determination result of the edge area detecting means can be changed. Specifically, the probability of determining the target pixel as a pixel belonging to the edge region can be increased in the character region, and the probability of determining the target pixel as a pixel belonging to the edge region can be reduced in the picture region.

【0010】請求項3のエッジ領域検出装置は、請求項
2のエッジ領域検出装置において、前記白地領域検出手
段の検出結果に対応した複数種類の平滑化マトリクス
は、上記検出結果が白地領域ありの場合に対応したマト
リクスのサイズよりも白地領域なしに対応したマトリク
スサイズのほうが大きいことを特徴とするものである。
According to a third aspect of the present invention, in the edge region detecting apparatus according to the second aspect, the plurality of types of smoothing matrixes corresponding to the detection result of the white background area detecting means have the white background area as the detection result. It is characterized in that the matrix size corresponding to the absence of the white background area is larger than the matrix size corresponding to the case.

【0011】請求項3のエッジ領域検出装置において
は、白地領域の検出結果が白地領域なしに対応した平滑
化マトリクスのサイズを上記検出結果が白地領域ありに
対応した平滑化マトリクスのサイズよりも大きくする。
これによって、上記検出結果が白地領域なしの場合の平
滑化処理後の注目画素の平滑化の度合いを、上記検出結
果が白地領域ありの場合の平滑化の度合いに比べ、より
大きなものとする。上記判定手段の判定結果において
は、この注目画素の平滑化の度合いが大きいほど、即ち
注目画素と周辺画素との濃度差が小さいほど、エッジと
して判定される確率が低くなる。従って、請求項3のエ
ッジ領域検出装置においては、白地領域検出結果が白地
領域なしの場合に、白地領域ありの場合よりも、注目画
素がエッジ領域に属するとして判定される確率を低くす
ることができる。
According to another aspect of the edge area detecting apparatus of the present invention, the size of the smoothing matrix corresponding to the detection result of the white background area not including the white background area is larger than the size of the smoothing matrix corresponding to the detection result including the white background area. To do.
As a result, the degree of smoothing of the target pixel after the smoothing processing when the detection result is that there is no white background area is larger than the degree of smoothing when the detection result is that there is a white background area. In the determination result of the determination means, the greater the degree of smoothing of the target pixel, that is, the smaller the density difference between the target pixel and the peripheral pixels, the lower the probability of being determined as an edge. Therefore, in the edge area detection device according to claim 3, when the white background area detection result is that there is no white background area, the probability that the pixel of interest is determined to belong to the edge area can be made lower than when the white background area is present. it can.

【0012】請求項4のエッジ領域検出装置は、請求項
2のエッジ領域検出装置において、前記白地領域検出手
段の検出結果に対応した複数種類の平滑化マトリクス
は、サイズが同一であって、かつ、マトリクスの各係数
のうち上記注目画素に対応した係数を、上記検出結果が
白地領域なしの場合に対応した平滑化マトリクスより
も、白地領域ありに対応したマトリクスのほうで大きく
したことを特徴とするものである。
An edge area detecting device according to a fourth aspect is the edge area detecting device according to the second aspect, wherein the plurality of types of smoothing matrices corresponding to the detection result of the white background area detecting means have the same size, and Of the coefficients of the matrix, the coefficient corresponding to the pixel of interest is set larger in the matrix corresponding to the white background area than in the smoothing matrix corresponding to the case where the detection result is the white background area is not included. To do.

【0013】請求項4のエッジ領域検出装置において
は、前記複数種類の平滑化マトリクスのサイズを同一に
する。従って、上述の請求項3のエッジ領域検出装置に
おいては、平滑化処理のための回路素子を、最大サイズ
の平滑化マトリクスのサイズに合致させて準備する必要
があり、上記最大サイズのマトリクス以外のマトリクス
を用いて平滑化処理を行う場合に、回路素子の一部が無
駄になる不具合が生ずるが、請求項4のエッジ領域検出
装置においては、かかる不具合が生じない。また、マト
リクスの各係数のうち上記注目画素に対応した係数を、
上記検出結果が白地領域なしの場合に対応した平滑化マ
トリクスよりも、白地領域ありに対応したマトリクスの
ほうで大きくする。これによって、上記検出結果が白地
領域なしの場合の平滑化処理後の注目画素の平滑化の度
合いを、上記検出結果が白地領域ありの場合の平滑化の
度合いに比べ、より大きなものとする。上記判定手段の
判定結果においては、この注目画素の平滑化の度合いが
大きいほど、即ち注目画素と周辺画素との濃度差が小さ
いほど、エッジとして判定される確率が低くなる。従っ
て、請求項3のエッジ領域検出装置においては、白地領
域検出結果が白地領域なしの場合に、白地領域ありの場
合よりも、注目画素がエッジ領域に属するとして判定さ
れる確率を低くすることができる。
According to another aspect of the edge area detecting apparatus of the present invention, the plurality of types of smoothing matrices have the same size. Therefore, in the above-described edge region detecting apparatus according to claim 3, it is necessary to prepare the circuit element for the smoothing processing so as to match the size of the smoothing matrix of the maximum size. When the smoothing process is performed using the matrix, there occurs a problem that some of the circuit elements are wasted. However, in the edge area detection device according to claim 4, such a problem does not occur. Further, among the coefficients of the matrix, the coefficient corresponding to the pixel of interest is
The detection result is larger in the matrix corresponding to the white background area than in the smoothing matrix corresponding to the case where the white background area is not present. As a result, the degree of smoothing of the target pixel after the smoothing processing when the detection result is that there is no white background area is larger than the degree of smoothing when the detection result is that there is a white background area. In the determination result of the determination means, the greater the degree of smoothing of the target pixel, that is, the smaller the density difference between the target pixel and the peripheral pixels, the lower the probability of being determined as an edge. Therefore, in the edge area detection device according to claim 3, when the white background area detection result is that there is no white background area, the probability that the pixel of interest is determined to belong to the edge area can be made lower than when the white background area is present. it can.

【0014】[0014]

【発明の実施の形態】以下、本発明を画像形成装置とし
てのデジタル複写機(以下、単に「複写機」という。)
に適用した第1の実施形態について説明する。図1は、
本実施形態にかかる複写機の概略構成図である。本実施
形態における複写機1は、大きく、スキャナ2とプリン
タ3とからなる。上記スキャナ2は、原稿画像を光学的
に読み取るためのものであり、上記プリンタ3は、スキ
ャナ2で読み取った原稿画像を、記録媒体、例えば記録
紙上に画像形成するためのものである。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention is a digital copying machine as an image forming apparatus (hereinafter simply referred to as "copier").
The first embodiment applied to will be described. FIG.
1 is a schematic configuration diagram of a copying machine according to the present embodiment. The copying machine 1 according to the present embodiment is mainly composed of a scanner 2 and a printer 3. The scanner 2 is for optically reading a document image, and the printer 3 is for forming an image of the document image read by the scanner 2 on a recording medium, for example, recording paper.

【0015】上記スキャナ2は、原稿載置台であるコン
タクトガラス17上に画像面を図6中下向きにして載置
された原稿を露光ランプ19で照射し、その反射光を第
1ミラー13、第2ミラー14及び第3ミラー15によ
って、結像レンズ16に導く。該結像レンズ16は、上
記反射光をCCD(チャージ・カップルドゥ・デバイ
ス)16上に結像する。上記CCD16は、結像した反
射光を光電変換することにより、原稿画像に対応したア
ナログ電気信号を出力する。このアナログ信号はスキャ
ナ2内にある処理回路にてデジタル信号に変換されると
ともに、CCD16の各素子のばらつき等のシェーディ
ング補正処理等が行われ、画像データとなって画像処理
部5に入力される。そして、上記画像データは、上記画
像処理部5にて、さらに、種々の画像処理が施された
後、プリンタ3の書き込み手段である書き込みユニット
6に送られる。
The scanner 2 irradiates the original placed on the contact glass 17 which is the original placing table with the image surface facing downward in FIG. 6 with the exposure lamp 19, and reflects the reflected light from the first mirror 13 and the first mirror 13. It is guided to the imaging lens 16 by the second mirror 14 and the third mirror 15. The image forming lens 16 forms an image of the reflected light on a CCD (charge coupled device) 16. The CCD 16 photoelectrically converts the imaged reflected light to output an analog electric signal corresponding to the original image. The analog signal is converted into a digital signal by a processing circuit in the scanner 2, and shading correction processing such as variation of each element of the CCD 16 is performed to be image data and input to the image processing unit 5. . Then, the image data is further subjected to various kinds of image processing by the image processing section 5, and then sent to a writing unit 6 which is a writing means of the printer 3.

【0016】上記書き込みユニット6には、前記画像処
理部5から送られてきた画像処理後の画像データに基づ
いて光ビームを発生するレーザダイオード(図示せず)が
設けられている。このレーザダイオードが発した光ビー
ムは、ポリゴンミラー21によって偏向され、fθレン
ズ及びミラー(図示せず)等を介して、感光体7上に導
かれる。そして、帯電装置8によって一様に帯電された
感光体7の表面を光走査する。
The writing unit 6 is provided with a laser diode (not shown) which generates a light beam based on the image data after the image processing sent from the image processing section 5. The light beam emitted by the laser diode is deflected by the polygon mirror 21 and guided onto the photoconductor 7 via the fθ lens and the mirror (not shown). Then, the surface of the photoconductor 7 uniformly charged by the charging device 8 is optically scanned.

【0017】上記光ビームの光走査によって感光体7上
に形成されたこの潜像は、現像装置9によって顕像化さ
れ、トナー像となる。上記トナー像は、上記感光体7に
対向して設けられた転写装置10によって、給紙ユニッ
ト4から搬送されてきた記録紙上に転写される。トナー
像が転写された記録紙は、搬送ベルト12によって定着
装置13に搬送され、この定着装置13によって、定着
される。こうして、原稿画像の記録紙への画像形成が完
了する。一方、転写装置による転写終了後の感光体7表
面は、クリーニング装置11によって、残留トナーが回
収され、クリーニングされる。
The latent image formed on the photoconductor 7 by the optical scanning of the light beam is visualized by the developing device 9 and becomes a toner image. The toner image is transferred onto the recording paper conveyed from the paper supply unit 4 by a transfer device 10 provided opposite to the photoconductor 7. The recording paper on which the toner image is transferred is conveyed to the fixing device 13 by the conveying belt 12 and fixed by the fixing device 13. Thus, the image formation of the document image on the recording paper is completed. On the other hand, the cleaning device 11 collects and cleans the residual toner on the surface of the photoconductor 7 after the transfer by the transfer device is completed.

【0018】図2は、本実施形態にかかるデジタル複写
機の構成ブロック図である。複写機1のスキャナ2で読
み取られ、シェーディング補正等の完了した画像データ
が、画像処理部に入力されることは前述した。ここで、
本実施形態における画像処理部について、説明を加え
る。スキャナ2からの画像データは、二方向のデータの
流れとなる。即ち、その1つは、ガンマ補正回路20、
フィルタ回路21、変倍回路22、及び疑似中間調処理
回路23を経てプリンタ3に至る流れである。もう一つ
は、エッジ領域検出装置24に入力される流れである。
FIG. 2 is a block diagram showing the configuration of the digital copying machine according to this embodiment. As described above, the image data read by the scanner 2 of the copying machine 1 and completed with shading correction and the like is input to the image processing unit. here,
The image processing unit in the present embodiment will be further described. The image data from the scanner 2 has a two-way data flow. That is, one of them is the gamma correction circuit 20,
The flow reaches the printer 3 via the filter circuit 21, the magnification changing circuit 22, and the pseudo halftone processing circuit 23. The other is the flow input to the edge area detection device 24.

【0019】上記エッジ領域検出装置24は、入力され
る画像データから画像のエッジ領域を検出するための装
置であり、画像の各画素ごとに当該画素がエッジ領域に
属するか否かを検出して、その結果を出力する。このエ
ッジ領域検出装置24の検出結果は、図2に示したよう
に、ガンマ補正回路20、フィルタ回路21、変倍回路
22、及び疑似中間調処理回路23のそれぞれに入力さ
れる。上記ガンマ補正回路20等の各回路は、エッジ領
域検出装置24の出力信号に基づいて、画像のエッジ領
域、非エッジ領域に対応した処理を行う。例えば、エッ
ジ領域については、解像度を優先した処理を行い、非エ
ッジ領域については、階調性を優先した処理を行う。
The edge area detecting device 24 is a device for detecting the edge area of the image from the input image data, and detects whether or not the pixel belongs to the edge area for each pixel of the image. , Output the result. The detection result of the edge area detection device 24 is input to each of the gamma correction circuit 20, the filter circuit 21, the scaling circuit 22, and the pseudo halftone processing circuit 23, as shown in FIG. Each circuit such as the gamma correction circuit 20 performs processing corresponding to the edge area and the non-edge area of the image based on the output signal of the edge area detection device 24. For example, for edge areas, processing with priority on resolution is performed, and for non-edge areas, processing with priority on gradation is performed.

【0020】ここで、上記エッジ領域検出装置24につ
いて、その概略構成図である図3に基づいて説明する。
本実施形態にかかるエッジ領域検出装置24は、第1エ
ッジ判定部30、第2エッジ判定部31、白地領域検出
回路32、及びセレクタ33によって構成されている。
上記セレクタ33は、白地領域検出手段32の出力信号
に基づいて、第1エッジ判定部30の出力信号E1と、
第2エッジ判定部31の出力信号E2とを選択して、分
離データとして出力するためのものである。
The edge area detecting device 24 will be described below with reference to FIG. 3 which is a schematic block diagram thereof.
The edge area detection device 24 according to the present embodiment includes a first edge determination section 30, a second edge determination section 31, a white background area detection circuit 32, and a selector 33.
The selector 33 outputs the output signal E1 of the first edge determination unit 30 based on the output signal of the white background area detecting unit 32,
The output signal E2 of the second edge determination unit 31 is selected and output as separated data.

【0021】次に第1エッジ判定部30について図4に
基づいて説明する。図4は左エッジ判定部の概略回路構
成を説明する説明図である。スキャナ2からの画像デー
タは、本実施形態においては、1画素あたり8ビットの
いわゆる多値信号として与えられる。上記画像データ
は、第1〜第4までのDフリップフロップ40〜43で
構成されるシフトシフトレジスタに入力される。上記シ
フトレジスタを構成するそれぞれのDフリップフロップ
には、同一のクロック信号が入力されている。尚、図4
においては、理解の容易のため、Dフリップフロップを
一列のみ記載して概念的に示しているが、画像データが
8ビットであるので、実際の回路においては、8ビット
の各ビットに対応して、8列のDフリップフロップが存
在する。
Next, the first edge determining section 30 will be described with reference to FIG. FIG. 4 is an explanatory diagram illustrating a schematic circuit configuration of the left edge determination unit. In the present embodiment, the image data from the scanner 2 is given as a so-called multi-level signal of 8 bits per pixel. The image data is input to the shift shift register including the first to fourth D flip-flops 40 to 43. The same clock signal is input to each of the D flip-flops forming the shift register. FIG.
In FIG. 1, the D flip-flop is conceptually shown by describing only one column for easy understanding, but since the image data is 8 bits, in an actual circuit, each bit of 8 bits is , There are 8 rows of D flip-flops.

【0022】図4の例では、第2Dフリップフロップ4
1の出力Q2が、現在、画像のエッジ領域に属するか否
かの判定の対象となっている注目画素a(0)のデータ
を示している。図中a(1)は、注目素の隣の画素であ
って、上記注目画素の次にエッジ判定の対象となる画素
を示す。この画素のデータは、第1Dフリップフロップ
40の出力Q4として与えられる。図中a(−1)の画
素も注目画素の隣の画素であるが、これは、注目画素a
(0)の前に、すでにエッジ判定が終了している画素で
ある図中a(−2)は、上記a(−1)画素の隣の画素
である。上記a(−1)画素のデータは第3Dフリップ
フロップ42の出力Q3として与えられ、上記a(−
2)画素のデータは、第4Dフリップフロップ43の出
力Q4として与えられる。以上のようにDフリップフロ
ップと各画素を関係づけることによって、本実施形態に
おいては、画像の右側エッジを検出するようにしてい
る。
In the example of FIG. 4, the second D flip-flop 4
The output Q2 of 1 indicates the data of the target pixel a (0) that is currently the target of determination as to whether or not it belongs to the edge region of the image. In the figure, a (1) indicates a pixel next to the target pixel, which is a pixel to be subjected to edge determination next to the target pixel. The data of this pixel is provided as the output Q4 of the first D flip-flop 40. The pixel a (-1) in the figure is also the pixel next to the pixel of interest, but this is the pixel of interest a
The pixel a (-2) in the figure, which has already been subjected to the edge determination before (0), is the pixel next to the pixel a (-1). The data of the a (−1) pixel is given as the output Q3 of the third D flip-flop 42, and the data of the a (−)
2) The pixel data is provided as the output Q4 of the fourth D flip-flop 43. By associating the D flip-flop with each pixel as described above, the right edge of the image is detected in the present embodiment.

【0023】上記シフトレジスタに、注目画素a(0)
を含めたa(1)〜a(−2)の画素がセットされる
と、平滑化手段である第1演算器44により、平滑化マ
トリクスを用いて画像データの平滑化のための演算が行
われる。上記第1エッジ判定部30で使用されるマトリ
クスを図5に示す。今、上記a(−2)の画素のデータ
をaとし、画素a(−1)のデータをb、注目画素であ
る画素a(0)のデータをc、また、画素a(1)のデ
ータをdとすると、注目画素である画素a(0)を平滑
化処理した後のデータb(0)は、第1演算器44に
て、上記図5に示すマトリクスを用いて次式の演算を行
うことによって求められる。
A pixel of interest a (0) is added to the shift register.
When the pixels of a (1) to a (-2) including the above are set, the first calculator 44, which is a smoothing means, performs a calculation for smoothing the image data using the smoothing matrix. Be seen. The matrix used in the first edge determination unit 30 is shown in FIG. Now, let the data of the pixel of a (-2) be a, the data of pixel a (-1) be b, the data of pixel a (0) which is the target pixel be c, and the data of pixel a (1). Let d be the data b (0) after the pixel a (0), which is the pixel of interest, has been smoothed by the first computing unit 44 using the matrix shown in FIG. Required by doing.

【数1】b(0)=(a×k(-2)+b×k(-1)+c×k
(0)+d×k(1))/(k(-2)+k(-1)+k(0)+k(1))
[Formula 1] b (0) = (a × k (−2) + b × k (−1) + c × k
(0) + d × k (1)) / (k (-2) + k (-1) + k (0) + k (1))

【0024】こうして求められた平滑化処理後の注目画
素のデータは、第1比較器45に入力される。この第1
比較器45は、入力された平滑化処理後の注目画素デー
タ(注目画素の濃度)を予め定められた閾値と比較し
て、前記注目画素のデータが閾値よりも大きな場合は、
「1」を出力し、該閾値以下である場合は、「0」を出
力する。この閾値は、プリンタの特性等に鑑み、任意に
定めることができる。
The data of the target pixel after the smoothing process thus obtained is input to the first comparator 45. This first
The comparator 45 compares the input target pixel data after smoothing processing (density of the target pixel) with a predetermined threshold value, and when the data of the target pixel is larger than the threshold value,
"1" is output, and if it is less than or equal to the threshold, "0" is output. This threshold can be arbitrarily set in consideration of the characteristics of the printer.

【0025】一方で、注目画素の両隣の画素a(−1)
及びa(1)のデータは、濃度差検出手段としての第2
演算器46に入力される。そして、この第2演算器によ
って画素a(−1)と画素a(1)との濃度差が検出さ
れる。即ち、上記濃度差をnで表記すれば、第2演算器
46は、次式であらわされる演算を行って、濃度差nを
求める。
On the other hand, the pixel a (-1) on both sides of the target pixel
And a (1) data is the second data as the density difference detecting means.
It is input to the calculator 46. Then, the density difference between the pixel a (-1) and the pixel a (1) is detected by the second calculator. That is, if the density difference is represented by n, the second calculator 46 calculates the density difference n by performing the calculation represented by the following equation.

【数2】n=b−d こうして求められた注目画素の両隣にある画素の濃度差
nは、第2比較器47に入力される。この第2比較器4
7は、上記濃度差nを予め定められた閾値と比較して、
濃度差nが、上記閾値よりも大きな場合は、「1」を出
力し、濃度差nが上記閾値以下である場合には、「0」
を出力する。
## EQU00002 ## n = b-d The density difference n between the pixels on both sides of the target pixel thus obtained is input to the second comparator 47. This second comparator 4
7 compares the density difference n with a predetermined threshold value,
When the density difference n is larger than the above threshold value, "1" is output, and when the density difference n is less than or equal to the above threshold value, "0" is output.
Is output.

【0026】上記第1比較器45の出力と上記第2比較
器47の出力とは、判定手段としてのアンド回路48に
入力される。このアンド回路48は、上記第1比較回路
の出力と、上記第2比較回路の出力との論理積をとり、
その結果を出力するものである。即ち、第1比較器45
の出力が「1」であり、第2比較器47の出力が「1」
である場合のみ「1」を出力し、それ以外の場合は、
「0」を出力する。 (以下、余白)
The output of the first comparator 45 and the output of the second comparator 47 are input to an AND circuit 48 as a judging means. The AND circuit 48 takes the logical product of the output of the first comparison circuit and the output of the second comparison circuit,
The result is output. That is, the first comparator 45
Is 1 and the output of the second comparator 47 is 1
"1" is output only when is, otherwise,
Outputs "0". (Hereinafter, margin)

【0027】次に、第2エッジ判定部31について説明
する。本実施形態における第2エッジ判定部31は、第
1エッジ判定部30とほぼ同様の構成をしている 上記第2エッジ判定部が上記第1エッジ判定部30と相
違するのは、第2エッジ判定部31で使用される平滑化
マトリクスが第1エッジ判定部30で使用される平滑化
マトリクスと異なる点である。
Next, the second edge determining section 31 will be described. The second edge determination unit 31 in the present embodiment has substantially the same configuration as the first edge determination unit 30. The second edge determination unit differs from the first edge determination unit 30 in the second edge. The smoothing matrix used in the determining unit 31 is different from the smoothing matrix used in the first edge determining unit 30.

【0028】具体的には、第2エッジ判定部31で用い
る平滑化マトリクスの方が、第1エッジ判定部30で用
いる平滑化マトリクスよりも、注目画素の濃度をより平
滑化するようなマトリクス係数となっている。これは、
例えば、平滑化マトリクスにおける注目画素のデータに
乗算される部分の係数を、第1エッジ判定部30で使用
されるマトリクスよりも第2エッジ判定部31で使用さ
れるマトリクスの方が小さくなるようにすることにより
達成できる。
Specifically, the smoothing matrix used in the second edge determining section 31 is more efficient than the smoothing matrix used in the first edge determining section 30 in that the density of the pixel of interest is smoothed. Has become. this is,
For example, the coefficient of the portion of the smoothing matrix to be multiplied by the data of the pixel of interest may be smaller in the matrix used in the second edge determination unit 31 than in the matrix used in the first edge determination unit 30. Can be achieved by

【0029】こうして、第1エッジ判定部30と第2エ
ッジ判定部31とにおける平滑化マトリクスを異なるも
のとすることによって、同じ画像データが入力された場
合に第1エッジ判定部30の方が、第2エッジ判定部3
1よりも、注目画素をエッジとして判定する確率が大き
くなるようにしている。その結果、第1エッジ判定部3
0の出力信号E1と、第2エッジ判定部31の出力信号
E2は、同一の着目画素に対して、場合によって異なる
判定結果を出力することになる。
In this way, by making the smoothing matrixes of the first edge determining section 30 and the second edge determining section 31 different, the first edge determining section 30 is better than the first edge determining section 30 when the same image data is input. Second edge determination unit 3
The probability of determining the pixel of interest as an edge is higher than that of 1. As a result, the first edge determination unit 3
The output signal E1 of 0 and the output signal E2 of the second edge determination unit 31 output different determination results for the same pixel of interest depending on the case.

【0030】本実施形態にかかるエッジ検出回路24の
全体回路構成を図6に示す。図示の例では、Dフリップ
フロップで形成されるシフトレジスタを第1エッジ判定
部30と第2エッジ判定部31で共通のものとして、回
路素子の数を低減している。そして、上記シフトレジス
タを構成するDフリップフロップの各出力は、第1エッ
ジ判定部30及び第2エッジ判定部31に同様に入力さ
れている。図示のように、第1エッジ判定部30の出力
信号E1及び第2エッジ判定部31の出力信号E2は、
切り替え手段であるセレクタ33に入力される。
The entire circuit configuration of the edge detection circuit 24 according to this embodiment is shown in FIG. In the illustrated example, the number of circuit elements is reduced by making the shift register formed by the D flip-flops common to the first edge determination section 30 and the second edge determination section 31. The outputs of the D flip-flops that form the shift register are similarly input to the first edge determination unit 30 and the second edge determination unit 31. As shown, the output signal E1 of the first edge determination unit 30 and the output signal E2 of the second edge determination unit 31 are
It is input to the selector 33 which is a switching means.

【0031】上記セレクタ33は、上記第1エッジ判定
部30の出力信号E1と、第2エッジ判定部31の出力
信号E2とを、後述する白地領域検出装置の出力信号で
ある白地データによって、逐次切り替えるようにしてい
る。具体的には、注目画素の周囲に白地領域がある場合
には、第1エッジ判定部30の出力信号E1を選択して
エッジ領域検出装置の出力であるエッジ分離データと
し、注目画素の周囲に白地領域がない場合には、第2エ
ッジ判定部31の出力信号E2を選択してエッジ領域検
出装置の出力信号であるエッジ分離データとする。
The selector 33 successively outputs the output signal E1 of the first edge determining section 30 and the output signal E2 of the second edge determining section 31 by the white background data which is an output signal of a white background area detecting device described later. I'm trying to switch. Specifically, when there is a white background area around the target pixel, the output signal E1 of the first edge determination unit 30 is selected as the edge separation data output from the edge area detection device, and the output signal E1 is output around the target pixel. When there is no white background area, the output signal E2 of the second edge determination unit 31 is selected and used as the edge separation data which is the output signal of the edge area detection device.

【0032】上記白地領域検出手段32について説明す
る。この白地領域検出手段32は、エッジ領域検出手段
24に入力される画像データに基づいて、上記第1エッ
ジ判定部30及び上記第2エッジ判定部31における注
目画素についてのエッジ判定と同期して、上記注目画素
の周囲に白地の領域が存在するか否かを検出する。そし
て、注目画素の周囲に白地領域が存在する場合には、出
力信号である白地データとして、「1」を出力し、白地
領域が存在しない場合には、白地データとして、「0」
を出力する。
The white background area detecting means 32 will be described. The white background area detecting unit 32 synchronizes with the edge judgment of the target pixel in the first edge judging unit 30 and the second edge judging unit 31 based on the image data input to the edge region detecting unit 24, It is detected whether or not there is a white background area around the pixel of interest. Then, when there is a white background area around the pixel of interest, "1" is output as the white background data which is an output signal, and when there is no white background area, the white background data is "0".
Is output.

【0033】本実施形態における白地領域検出は、5×
5のマトリクスを使用して、図7(a)及び(b)に示
すようなパターンとのマッチング処理によって行う。図
7(a)及び(b)における「〇(白丸)」は、白画素
を示しており、図示のような1×5又は5×1の白画素
が連続していいる領域を白地領域とし、この白地領域が
存在するか否かを検出する。尚、この白地領域検出手段
については、先の従来技術の欄でも引用した本件出願人
がすでに提案している特開平5−176167号に記載
の白地領域検出手段を使用することが可能である。
In this embodiment, the white area detection is 5 ×
Using the matrix of No. 5, a matching process with a pattern as shown in FIGS. 7A and 7B is performed. In FIG. 7A and FIG. 7B, “◯ (white circle)” indicates a white pixel, and an area in which 1 × 5 or 5 × 1 white pixels are continuous as shown is a white background area, It is detected whether or not this white background area exists. As the white background area detecting means, it is possible to use the white background area detecting means described in Japanese Patent Application Laid-Open No. 5-176167 already proposed by the applicant of the present application and cited in the section of the prior art.

【0034】ここで、文字領域と絵柄領域を比較する
と、文字画像を構成する画素の周囲には白地領域が存在
する確率が高いことが経験的に知られており、一方、絵
柄画像を構成している画素の周囲には、白地領域が存在
する確率が低いことが経験的に知られている。従って、
上記のように、注目画素の周囲に白地領域が存在する場
合に、第1エッジ判定部30の出力信号E1を選択し、
注目画素の周囲に白地領域が存在しない場合に第2エッ
ジ判定部31の出力信号E2を選択することによって、
結果として、エッジ領域検出装置24のエッジ分離デー
タは、文字領域については、エッジ領域として判定され
る画素が増え、絵柄領域についてはエッジ領域として判
定される画素が減少することになる。
Here, when comparing the character area and the picture area, it is empirically known that there is a high probability that a white background area exists around the pixels forming the character image, while the picture image is formed. It is empirically known that there is a low probability that a white background area exists around a pixel that has a pixel. Therefore,
As described above, when the white background area exists around the target pixel, the output signal E1 of the first edge determination unit 30 is selected,
By selecting the output signal E2 of the second edge determination unit 31 when there is no white background area around the pixel of interest,
As a result, in the edge separation data of the edge area detection device 24, the number of pixels determined as the edge area increases for the character area and the number of pixels determined as the edge area decreases for the picture area.

【0035】そして、このようにして求められたエッジ
分離データに基づいて、前述した画像処理部5のγ補正
回路等の各回路において、エッジ領域として検出された
部分については、解像度を優先した処理を行い、それ以
外の部分については、階調性を優先した処理を行うこと
によって、画像の文字領域には解像度を優先した処理、
絵柄領域には、階調性を優先した処理を行うことが可能
となる。以上より、本実施形態における第1エッジ判定
部30は、原稿中の文字領域についてのエッジ領域検出
(エッジ分離)を行う部分と位置づけられ、第2エッジ
判定部31は、原稿中の絵柄領域、即ち、文字領域以外
の写真領域や網点領域についてのエッジ領域検出(エッ
ジ分離)を行う部分と位置づけられる。
Then, based on the edge separation data thus obtained, in each circuit such as the γ correction circuit of the image processing unit 5 described above, the portion detected as the edge region is processed with priority on the resolution. For other parts, by performing processing with priority on gradation, processing with priority on resolution is performed on the character area of the image,
It is possible to perform a process that prioritizes gradation in the picture area. As described above, the first edge determination unit 30 in the present embodiment is positioned as a portion that performs edge region detection (edge separation) for the character region in the document, and the second edge determination unit 31 determines the pattern region in the document. That is, it is positioned as a portion for performing edge area detection (edge separation) on a photograph area and a halftone dot area other than the character area.

【0036】上記セレクタ33の動作を図9のフローチ
ャートに示す。図示のように、セレクタ33に白地領域
検出手段からの白地データがセットされると(90
1)、セレクタ33は、白地データが1か否か判定し
(902)、白地データが1である場合には、文字原稿
用エッジ分離結果、即ち、第1エッジ判定部30の出力
信号E1を選択し(903)、白地データが0である場
合には、写真、網点原稿用エッジ分離結果、即ち第2エ
ッジ判定部31の出力信号E2を選択する(904)。
The operation of the selector 33 is shown in the flowchart of FIG. As shown, when the white background data from the white background area detecting means is set in the selector 33 (90
1), the selector 33 determines whether or not the white background data is 1 (902), and when the white background data is 1, the selector 33 determines the result of edge separation for the character original, that is, the output signal E1 of the first edge determination unit 30. If it is selected (903) and the white background data is 0, the result of edge separation for a photograph or halftone dot original, that is, the output signal E2 of the second edge determination unit 31 is selected (904).

【0037】次に、第2の実施形態にかかるエッジ領域
検出装置24につき、図9に基づいて説明する。図9は
第2の実施形態にかかるエッジ領域検出装置24の概略
回路構成を説明する説明図である。第2の実施形態にか
かるエッジ領域検出装置24は、前述の第1の実施形態
にかかるエッジ領域検出装置24とそのほとんどにおい
て同様である。
Next, the edge area detecting device 24 according to the second embodiment will be described with reference to FIG. FIG. 9 is an explanatory diagram illustrating a schematic circuit configuration of the edge area detection device 24 according to the second embodiment. The edge area detection device 24 according to the second embodiment is almost the same as the edge area detection device 24 according to the first embodiment described above.

【0038】第2の実施形態にかかるエッジ領域検出装
置24が第1の実施形態にかかるエッジ領域検出装置2
4と相違する点は、第1の実施形態にかかるエッジ領域
検出装置24では、その第1エッジ判定部30及び第2
エッジ判定部31で使用される平滑化マトリクスはその
係数が異なるのみで、マトリクスの大きさ(サイズ)は
同一であったのに対し、第2の実施形態にかかるエッジ
領域検出装置24では、第1エッジ判定部30で使用す
る平滑化マトリクスと第2エッジ判定部31で使用する
平滑化マトリクスの大きさが異なっている点である。ま
た、この相違点に伴い、Dフリップフロップにて構成さ
れるシフトレジスタの構成が相違している。
The edge area detecting device 24 according to the second embodiment is the edge area detecting device 2 according to the first embodiment.
4 is different from that of the first embodiment in the edge area detection device 24 according to the first embodiment.
The smoothing matrix used in the edge determination unit 31 is different only in its coefficient and the size (size) of the matrix is the same, but in the edge area detection device 24 according to the second embodiment, This is that the size of the smoothing matrix used by the 1-edge determining unit 30 and the size of the smoothing matrix used by the second edge determining unit 31 are different. Also, due to this difference, the configuration of the shift register configured by the D flip-flop is different.

【0039】上記のように、第1エッジ判定部30で使
用されるマトリクスと第2エッジ判定部31におけるマ
トリクスの大きさを異ならせる理由は、第1の実施形態
と同様、同一の画像データに対しての、第1エッジ判定
部30の判定結果と、第2エッジ判定部の判定結果を異
ならせるためである。即ち、第1の実施形態において、
平滑化マトリクスの係数を異ならせることによって達成
していたことを、第2の実施形態では、マトリクスの大
きさを異ならせることによって、達成しようとするもの
である。
As described above, the reason why the size of the matrix used in the first edge determination unit 30 and the size of the matrix in the second edge determination unit 31 are different is that the same image data is used, as in the first embodiment. This is to make the determination result of the first edge determination unit 30 and the determination result of the second edge determination unit different from each other. That is, in the first embodiment,
In the second embodiment, what is achieved by making the coefficients of the smoothing matrix different is intended to be made by making the size of the matrix different.

【0040】本実施形態においては、第1エッジ判定部
で使用される平滑化マトリクスは、1(ライン)×4
(画素)のマトリクスであるのに対して、第2エッジ判
定部31で使用する平滑化マトリクスは、2(ライン)
×3(画素)のマトリクスを使用している。このよう
に、第2エッジ判定部31のほうが、第1エッジ判定部
よりも大きな平滑化マトリクスを使用するのは、平滑化
マトリクスが大きい方が、注目画素をより平滑化するこ
とが可能だからである。
In the present embodiment, the smoothing matrix used in the first edge determination section is 1 (line) × 4.
In contrast to the (pixel) matrix, the smoothing matrix used in the second edge determination unit 31 is 2 (lines).
A matrix of × 3 (pixels) is used. In this way, the second edge determination unit 31 uses a larger smoothing matrix than the first edge determination unit because the larger the smoothing matrix, the smoother the target pixel can be. is there.

【0041】かかる平滑化マトリクスを画像データの平
滑化処理をするために、第2の実施形態のエッジ領域検
出装置においては、第1〜第4Dフリップフロップ40
〜43のみならず、第5〜第8Dフリップフロップ50
〜53を用いて、2ライン分のシフトレジスタを構成し
ている。上記シフトレジスタに入力される画像データ
は、そのまま第1フリップフロップ40の入力D1に入
力されるほか、FIFO(先入れ先出しメモリ)54を
介して、第5フリップフロップ50の入力D5にも入力
される。注目画素a(0)のデータは、第1の実施形態
同様、第2フリップフロップ41の出力Q2である。
In order to perform the image data smoothing processing on the smoothing matrix, the first to fourth D flip-flops 40 are used in the edge area detecting apparatus of the second embodiment.
~ 43 to the fifth to eighth D flip-flops 50
.About.53 are used to configure a shift register for two lines. The image data input to the shift register is input to the input D1 of the first flip-flop 40 as it is, and also to the input D5 of the fifth flip-flop 50 via the FIFO (first-in first-out memory) 54. The data of the target pixel a (0) is the output Q2 of the second flip-flop 41 as in the first embodiment.

【0042】そして、第1エッジ判定部の第1演算器4
4aには、第1〜第4フリップフロップ40〜43の出
力Q1〜Q4が入力され、上記1×4の平滑化マトリク
スを使用した平滑化処理が実行される。一方、第2エッ
ジ判定部31の第1演算器44bには、第1〜第3Dフ
リップフロップ40〜42の出力Q1〜Q3と、第5〜
第7フリップフロップ50〜52の出力Q5〜Q7が入
力され、上記2×3の平滑化マトリクスを使用した平滑
化処理が実行される。
Then, the first arithmetic unit 4 of the first edge determination unit
The outputs Q1 to Q4 of the first to fourth flip-flops 40 to 43 are input to 4a, and the smoothing process using the above 1 × 4 smoothing matrix is executed. On the other hand, the first arithmetic unit 44b of the second edge determination unit 31 has the outputs Q1 to Q3 of the first to third D flip-flops 40 to 42 and the fifth to fifth outputs.
The outputs Q5 to Q7 of the seventh flip-flops 50 to 52 are input, and the smoothing process using the 2 × 3 smoothing matrix is executed.

【0043】第1エッジ判定部30及び第2エッジ判定
部31の第2演算器46a及び46b、第1比較器45
a及び45b、第2比較器47a及び47b、アンド回
路48a及び48b、セクタ33、並びに白地領域検出
手段32の構成動作については、第1の実施形態と同様
であるので、その詳細説明は省略する。
The second computing units 46a and 46b of the first edge determining unit 30 and the second edge determining unit 31 and the first comparator 45.
Since the constituent operations of a and 45b, the second comparators 47a and 47b, the AND circuits 48a and 48b, the sector 33, and the white background area detecting means 32 are the same as those in the first embodiment, detailed description thereof will be omitted. .

【0044】以上説明してきた第1の実施形態及び第2
の実施形態においては、画像の右側のエッジのみを検出
するようにしていた。これを、右側エッジに加え、左側
エッジをも検出するようにすることも可能である。この
ためには、上述した第1の実施形態又は第2の実施形態
における第1エッジ判定部及び第2エッジ判定部の組に
加え、該組とほぼ同様な構成を有するもう1つの組を設
ける必要がある。
The first embodiment and the second embodiment described above
In the above embodiment, only the right edge of the image is detected. In addition to the right edge, it is also possible to detect the left edge. To this end, in addition to the set of the first edge determination unit and the second edge determination unit in the above-described first embodiment or second embodiment, another set having a configuration substantially similar to the set is provided. There is a need.

【0045】図10は、左右両側エッジを検出する場合
におけるエッジ検出装置の構成ブロック図である。第1
エッジ判定部30及び第2エッジ判定部31は、それぞ
れ左エッジ判定部34と右エッジ判定部とを有してい
る。そして、図10に示すように、第1および第2のエ
ッジ判定部ともに、左エッジ判定部の出力信号と右エッ
ジ判定部の出力信号の論理和をとって、それぞれの出力
信号E1又はE2として出力する。
FIG. 10 is a block diagram of a configuration of an edge detecting device for detecting both left and right edges. First
The edge determination unit 30 and the second edge determination unit 31 each have a left edge determination unit 34 and a right edge determination unit. Then, as shown in FIG. 10, in both the first and second edge determination sections, the logical sum of the output signal of the left edge determination section and the output signal of the right edge determination section is ORed to obtain the respective output signal E1 or E2. Output.

【0046】ここで、図10における第1エッジ判定部
30の右エッジ判定部35は、上述した第1の実施形態
又は第2の実施形態における第1エッジ判定部に相当す
る。また、図10における第2エッジ判定部31の右エ
ッジ判定部は、上述した第1の実施形態又は第2の実施
形態における第2のエッジ判定部に相当する。従って、
右エッジ判定部については、図4を用いて説明した判定
部をそのまま使用すれば良い。
Here, the right edge determining unit 35 of the first edge determining unit 30 in FIG. 10 corresponds to the first edge determining unit in the above-described first embodiment or second embodiment. The right edge determination unit of the second edge determination unit 31 in FIG. 10 corresponds to the second edge determination unit in the above-described first embodiment or second embodiment. Therefore,
As the right edge determination unit, the determination unit described with reference to FIG. 4 may be used as it is.

【0047】左エッジ判定部の構成例について、以下、
図11に基づいて説明する。図11は、左エッジ判定部
の概略回路構成を説明する説明図である。左エッジ判定
部34は、その構成のほとんどにおいて上述した右エッ
ジ判定部(第1の実施形態における第1エッジ判定部)
の構成と同様である。これに鑑み、図11においては、
図4で示した上記右エッジ判定部の回路構成素子と同一
の機能を有する素子について、同一の符号を付してい
る。左エッジ判定部34が、右エッジ判定部35と相違
するのは、上述したDフリップフロップによって構成さ
れるシフトレジスタにおける注目画素a(0)を含む4
つの画素のセットの仕方が異なる点と、これに対応し
て、第1演算器にて用いられる平滑化マトリクスが異な
る点である。
Regarding the configuration example of the left edge determination section,
A description will be given based on FIG. FIG. 11 is an explanatory diagram illustrating a schematic circuit configuration of the left edge determination unit. The left edge determination unit 34 has almost the same configuration as the right edge determination unit (first edge determination unit in the first embodiment) described above.
The configuration is the same as that described above. In view of this, in FIG.
Elements having the same functions as the circuit constituent elements of the right edge determination section shown in FIG. 4 are designated by the same reference numerals. The difference between the left edge determination unit 34 and the right edge determination unit 35 is that 4 including the target pixel a (0) in the shift register configured by the D flip-flop described above.
The difference is in the way the two pixels are set, and the smoothing matrix used in the first calculator is correspondingly different.

【0048】そして上記相違点より、左エッジ判定部3
4の第1演算器44は、右エッジ判定部35と異なり、
次式のごとき演算によって、注目画素a(0)の平滑化
処理後のデータb(0)を求める。次式の演算において
使用される平滑化マトリクスは、図12に示すものであ
る。
From the above differences, the left edge determination unit 3
The first arithmetic unit 44 of No. 4 is different from the right edge determination unit 35,
The data b (0) after the smoothing processing of the target pixel a (0) is obtained by an operation such as the following equation. The smoothing matrix used in the calculation of the following equation is shown in FIG.

【数3】b(0)=(a×k(-1)+b×k(0)+c×k
(1)+d×k(2))/(k(-1)+k(0)+k(1)+k(2)) ここで、aは、a(−1)画素のデータ、bは、a
(0)画素、注目画素のデータ、cはa(1)画素のデ
ータ、dは、a(2)画素のデータをそれぞれ表してい
る。
## EQU00003 ## b (0) = (a * k (-1) + b * k (0) + c * k
(1) + d × k (2)) / (k (-1) + k (0) + k (1) + k (2)) where a is a (-1) pixel data and b is a
(0) pixel and target pixel data, c represents a (1) pixel data, and d represents a (2) pixel data.

【0049】また、左エッジ判定部の第2演算器46に
おける濃度差nの検出は、次式の演算によって求められ
る。
Further, the detection of the density difference n in the second computing unit 46 of the left edge determination unit is obtained by the calculation of the following equation.

【数4】n=a−c こうして求められた平滑処理後の注目画素のデータ(b
(0))及び注目画素の両隣の濃度差(n)について、
第1比較器45、第2比較器47及びアンド回路48が
以降行う処理は、上記左エッジ判定部の処理と同様であ
るので、その詳細説明は省略する。
## EQU00004 ## n = a-c The data (b) of the target pixel after the smoothing process thus obtained
(0)) and the density difference (n) on both sides of the pixel of interest,
Since the processes performed by the first comparator 45, the second comparator 47, and the AND circuit 48 are the same as the processes of the left edge determination unit, detailed description thereof will be omitted.

【0050】[0050]

【発明の効果】請求項1乃至4のエッジ領域検出装置に
よれば、画像のエッジ領域を検出するためにパターンマ
ッチングを行わなくて済むので、多数のマッチングパタ
ーンを記憶するための記憶手段や、パターンマッチング
を行うために必要な多数のラインメモリを必要とせず、
エッジ領域検出装置の構成が従来装置と比較し簡単とな
り、低コストなエッジ領域検出装置を得ることが可能と
なるという優れた効果を有する。また、パターンマッチ
ングのための処理時間がなくなるので、画像のエッジ領
域検出のための処理速度を向上することが可能となると
いう優れた効果を有する。
According to the edge area detecting device of the first to fourth aspects, since it is not necessary to perform the pattern matching for detecting the edge area of the image, a storage means for storing a large number of matching patterns, Does not require a large number of line memories required for pattern matching,
The edge region detection device has a simple structure as compared with the conventional device, and it is possible to obtain a low cost edge region detection device. Further, since the processing time for pattern matching is eliminated, there is an excellent effect that the processing speed for detecting an edge region of an image can be improved.

【0051】特に、請求項2のエッジ領域検出装置によ
れば、文字領域では注目画素をエッジ領域に属する画素
として判定する確率を高くし、絵柄領域では、注目画素
をエッジの領域に属する画素として判定する確率を低く
することができるので、例えば、このエッジ領域検出装
置の出力結果を利用して、ガンマ補正等の画像処理を行
う場合に、エッジ領域と判定された部分については、解
像度を優先した処理を行い、エッジ領域と判定されなか
った部分については、階調性を優先した処理を行うこと
により、従来の像域分離装置よりも簡単な構成にて、結
果として、画像の文字領域に対しては解像度を優先した
処理が可能となり、画像の絵柄領域には、階調性を優先
した処理が可能となるという優れた効果を有する。
In particular, according to the edge area detecting device of the second aspect, the probability of determining the target pixel as a pixel belonging to the edge area is increased in the character area, and the target pixel is regarded as a pixel belonging to the edge area in the picture area. Since the determination probability can be lowered, for example, when image processing such as gamma correction is performed using the output result of this edge area detection device, the resolution is prioritized for the portion determined to be the edge area. For the part that is not determined to be an edge region, the process that prioritizes gradation is performed with a simpler configuration than the conventional image area separation device, and as a result, On the other hand, it is possible to perform the processing in which the resolution is prioritized, and it is possible to perform the processing in which the gradation is prioritized in the picture area of the image.

【0052】また、特に、請求項3のエッジ領域検出装
置によれば、白地領域検出結果が白地領域なしの場合
に、白地領域ありの場合よりも、注目画素がエッジ領域
に属するとして判定される確率を低くすることができる
ので、文字領域では注目画素をエッジ領域に属する画素
として判定する確率を高くし、絵柄領域では、注目画素
をエッジの領域に属する画素として判定する確率を低く
することができる。これによって、例えば、このエッジ
領域検出装置の出力結果を利用して、ガンマ補正等の画
像処理を行う場合に、エッジ領域と判定された部分につ
いては、解像度を優先した処理を行い、エッジ領域と判
定されなかった部分については、階調性を優先した処理
を行うことにより、従来の像域分離装置よりも簡単な構
成にて、画像の文字領域に対しては解像度を優先した処
理が可能となり、画像の絵柄領域には、階調性を優先し
た処理が可能となるという優れた効果を有する。
Further, according to the edge area detecting device of the third aspect, when the white background area detection result is that there is no white background area, it is determined that the pixel of interest belongs to the edge area rather than when there is a white background area. Since the probability can be lowered, it is possible to increase the probability of determining the pixel of interest as a pixel belonging to the edge region in the character region and decrease the probability of determining the pixel of interest as a pixel belonging to the edge region in the pattern region. it can. Thus, for example, when image processing such as gamma correction is performed by using the output result of the edge area detection device, the portion determined to be the edge area is processed with priority on the resolution and the edge area is detected. For the part that is not judged, the process that prioritizes the gradation property enables the process that prioritizes the resolution for the character area of the image with a simpler configuration than the conventional image area separation device. In the picture area of the image, it is possible to perform the processing in which the gradation is prioritized.

【0053】また、特に、請求項4のエッジ領域検出装
置によれば、白地領域の検出結果に対応した複数種類の
平滑化マトリクスのサイズを同一にするので、請求項3
のエッジ領域検出装置に比較し、回路素子の無駄を生じ
ないという優れた効果を有する。また、白地領域検出結
果が白地領域なしの場合に、白地領域ありの場合より
も、注目画素がエッジ領域に属するとして判定される確
率を低くすることができるので、文字領域では注目画素
をエッジ領域に属する画素として判定する確率を高く
し、絵柄領域では、注目画素をエッジの領域に属する画
素として判定する確率を低くすることができる。これに
よって、例えば、このエッジ領域検出装置の出力結果を
利用して、ガンマ補正等の画像処理を行う場合に、エッ
ジ領域と判定された部分については、解像度を優先した
処理を行い、エッジ領域と判定されなかった部分につい
ては、階調性を優先した処理を行うことにより、従来の
像域分離装置よりも簡単な構成にて、結果として、画像
の文字領域に対しては解像度を優先した処理が可能とな
り、画像の絵柄領域には、階調性を優先した処理が可能
となるという優れた効果を有する。
Further, in particular, according to the edge area detecting apparatus of the fourth aspect, the sizes of the plurality of types of smoothing matrices corresponding to the detection result of the white background area are made the same.
Compared with the edge area detection device of (1), it has an excellent effect of not wasting circuit elements. Further, when the white background area detection result is no white background area, the probability that the target pixel is determined to belong to the edge area can be made lower than when the white background area is present. It is possible to increase the probability that the pixel is determined to belong to the pixel, and decrease the probability that the pixel of interest is determined to belong to the edge region in the picture area. Thus, for example, when image processing such as gamma correction is performed by using the output result of the edge area detection device, the portion determined to be the edge area is processed with priority on the resolution and the edge area is detected. For the part that is not determined, the processing that prioritizes the gradation is performed, and thus the processing that prioritizes the resolution is performed for the character area of the image with a simpler configuration than the conventional image area separation device. This makes it possible to perform the processing in which the gradation is prioritized in the picture area of the image.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施形態にかかるデジタル複写機の概略構成
図。
FIG. 1 is a schematic configuration diagram of a digital copying machine according to an embodiment.

【図2】実施形態にかかるデジタル複写機の構成ブロッ
ク図。
FIG. 2 is a configuration block diagram of a digital copying machine according to an embodiment.

【図3】実施形態にかかるエッジ領域検出手段24の概
略構成を説明する説明図。
FIG. 3 is an explanatory diagram illustrating a schematic configuration of an edge area detecting unit 24 according to the embodiment.

【図4】第1の実施形態における第1エッジ判定部の概
略回路構成を説明する説明図。
FIG. 4 is an explanatory diagram illustrating a schematic circuit configuration of a first edge determination unit according to the first embodiment.

【図5】第1エッジ判定部で使用される平滑化マトリク
スを例示する図。
FIG. 5 is a diagram illustrating a smoothing matrix used in a first edge determination unit.

【図6】第1の実施例にかかるエッジ領域検出装置の概
略回路構成を説明する説明図。
FIG. 6 is an explanatory diagram illustrating a schematic circuit configuration of the edge area detection device according to the first embodiment.

【図7】(a)及び(b)は、白地領域検出手段で使用
されるマッチングパターンを説明する説明図。
7A and 7B are explanatory diagrams illustrating a matching pattern used in a white background area detecting unit.

【図8】セレクタ33の動作を説明するフローチャー
ト。
FIG. 8 is a flowchart illustrating the operation of the selector 33.

【図9】第2の実施形態にかかるエッジ領域検出装置2
4の概略回路構成を説明する説明図。
FIG. 9 is an edge area detection device 2 according to a second embodiment.
4 is an explanatory diagram illustrating a schematic circuit configuration of FIG.

【図10】第1エッジ判定部及び第2エッジ判定部のそ
れぞれに左エッジ判定部を追加した場合におけるエッジ
検出装置の構成ブロック図。
FIG. 10 is a configuration block diagram of an edge detection device in which a left edge determination unit is added to each of a first edge determination unit and a second edge determination unit.

【図11】左エッジ判定部の概略回路構成を説明する説
明図。
FIG. 11 is an explanatory diagram illustrating a schematic circuit configuration of a left edge determination unit.

【図12】左エッジ判定部で使用される平滑化マトリク
スを例示する説明図。
FIG. 12 is an explanatory diagram illustrating a smoothing matrix used in a left edge determination unit.

【符号の説明】 1 複写機 2 スキャナ 3 プリンタ 4 給紙ユニット 5 画像処理部 6 書き込みユニット 7 感光体 8 帯電装置 9 現像装置 10 転写装置 11 クリーニング装置 12 搬送ベルト 13 第1ミラー 14 第2ミラー 15 第3ミラー 16 CCD 17 コンタクトガラス 18 結象レンズ 19 露光ランプ 20 γ補正回路 21 フィルタ回路 22 変倍回路 23 疑似中間処理回路 24 エッジ領域検出装置 30 第1エッジ判定部 31 第2エッジ判定部 32 白地領域検出回路 33 セレクタ 34、36 左エッジ判定部 35、37 右エッジ判定部 38、39 OR回路 40 第1Dフリップフロップ 41 第2Dフリップフロップ 42 第3Dフリップフロップ 43 第4Dフリップフロップ 44a、44b 第1演算器 45a、45b 第1比較器 46a、46b 第2演算器 47a、47b 第2比較器 48a、48b アンド回路 50 第5Dフリップフロップ 51 第6Dフリップフロップ 52 第7Dフリップフロップ 53 第8Dフリップフロップ 54 FIFO[Explanation of Codes] 1 Copier 2 Scanner 3 Printer 4 Paper Feeding Unit 5 Image Processing Unit 6 Writing Unit 7 Photoconductor 8 Charging Device 9 Developing Device 10 Transfer Device 11 Cleaning Device 12 Conveyor Belt 13 First Mirror 14 Second Mirror 15 Third mirror 16 CCD 17 Contact glass 18 Exposure lens 19 Exposure lamp 20 γ correction circuit 21 Filter circuit 22 Magnification circuit 23 Pseudo intermediate processing circuit 24 Edge area detection device 30 First edge determination unit 31 Second edge determination unit 32 White background Region detection circuit 33 Selector 34, 36 Left edge determination unit 35, 37 Right edge determination unit 38, 39 OR circuit 40 First D flip-flop 41 Second D flip-flop 42 Third D flip-flop 43 Fourth D flip-flop 44a, 44b First operation Vessel 45a, 5b first comparator 46a, 46b second computing unit 47a, 47b second comparator 48a, 48b and circuit 50 first 5D flip-flop 51. 6D flip-flop 52. 7D flip-flop 53 first 8D flip-flop 54 FIFO

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】入力された画像データに基づいて該画像デ
ータによって表現される画像のエッジ領域を検出するエ
ッジ領域検出装置において、 入力された画像データの注目画素に、平滑化マトリクス
を使用して平滑化処理を行う平滑化手段と、 入力された画像データに基づき注目画素の両側に存在す
る2つの画素の濃度差を検出する濃度差検出手段と、 前記平滑化後の注目画素の濃度と前記濃度検出手段によ
る検出結果とに基づいて、注目画素が画像のエッジ領域
の画素か否かを判定し判定結果を出力する判定手段とを
設けたことを特徴とするエッジ領域検出装置。
1. An edge area detection device for detecting an edge area of an image represented by the image data based on the input image data, wherein a smoothing matrix is used for a target pixel of the input image data. Smoothing means for performing smoothing processing; density difference detecting means for detecting a density difference between two pixels existing on both sides of the target pixel based on the input image data; and the density of the target pixel after the smoothing and the density An edge area detection device, comprising: a determination means for determining whether or not a pixel of interest is a pixel in an edge area of an image based on the detection result of the density detection means and outputting the determination result.
【請求項2】請求項1のエッジ領域検出装置において、 注目画素の周辺に存在する白地領域を検出する白地領域
検出手段と、 該白地領域検出手段の検出結果に対応した複数種類の平
滑化マトリクスを使用して得られた判定結果を、前記白
地領域検出手段の検出結果に基づいて選択する選択手段
とを設けたことを特徴とするエッジ領域検出装置。
2. The edge area detecting device according to claim 1, wherein a white background area detecting means for detecting a white background area existing around a target pixel, and a plurality of types of smoothing matrices corresponding to the detection result of the white background area detecting means. An edge area detecting device, comprising: a selecting unit that selects a determination result obtained by using the above-mentioned item based on the detection result of the white background region detecting unit.
【請求項3】請求項2のエッジ領域検出装置において、 前記白地領域検出手段の検出結果に対応した複数種類の
平滑化マトリクスは、上記検出結果が白地領域ありの場
合に対応したマトリクスのサイズよりも白地領域なしに
対応したマトリクスサイズのほうが大きいことを特徴と
するエッジ領域検出装置。
3. The edge area detecting device according to claim 2, wherein the plurality of types of smoothing matrices corresponding to the detection result of the white background area detecting means are larger than the matrix size corresponding to the case where the detection result is a white background area. Also, the edge area detection device is characterized in that the matrix size corresponding to the absence of the white background area is larger.
【請求項4】請求項2のエッジ領域検出装置において、 前記白地領域検出手段の検出結果に対応した複数種類の
平滑化マトリクスは、サイズが同一であって、かつ、マ
トリクスの各係数のうち上記注目画素に対応した係数
を、上記検出結果が白地領域なしの場合に対応した平滑
化マトリクスよりも、白地領域ありに対応したマトリク
スのほうで大きくしたことを特徴とするエッジ領域検出
装置。
4. The edge area detecting device according to claim 2, wherein the plurality of types of smoothing matrices corresponding to the detection result of the white background area detecting means have the same size, and among the coefficients of the matrix, An edge area detecting device characterized in that a coefficient corresponding to a pixel of interest is made larger in a matrix corresponding to a white background area than to a smoothing matrix corresponding to a case where the above detection result indicates that there is no white background area.
JP8155011A 1996-05-27 1996-05-27 Edge area detector Withdrawn JPH09321989A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8155011A JPH09321989A (en) 1996-05-27 1996-05-27 Edge area detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8155011A JPH09321989A (en) 1996-05-27 1996-05-27 Edge area detector

Publications (1)

Publication Number Publication Date
JPH09321989A true JPH09321989A (en) 1997-12-12

Family

ID=15596740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8155011A Withdrawn JPH09321989A (en) 1996-05-27 1996-05-27 Edge area detector

Country Status (1)

Country Link
JP (1) JPH09321989A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013120345A (en) * 2011-12-08 2013-06-17 Oki Data Corp Image processing device
JP2015002443A (en) * 2013-06-14 2015-01-05 キヤノン株式会社 Image processing apparatus and image processing method
JP2015104834A (en) * 2013-11-29 2015-06-08 三菱電機株式会社 Thermal printer and image data processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013120345A (en) * 2011-12-08 2013-06-17 Oki Data Corp Image processing device
JP2015002443A (en) * 2013-06-14 2015-01-05 キヤノン株式会社 Image processing apparatus and image processing method
JP2015104834A (en) * 2013-11-29 2015-06-08 三菱電機株式会社 Thermal printer and image data processing method

Similar Documents

Publication Publication Date Title
US6625331B1 (en) Image forming apparatus
US6215512B1 (en) Image forming apparatus with image distortion correction system
US4786976A (en) Image processing apparatus
US6441915B1 (en) Image forming apparatus
JP2005094740A (en) Image processing apparatus, image forming apparatus and image processing method
JPH11341284A (en) Picture processor
JP2002077584A (en) System and method for processing image as well as storage medium
US6243500B1 (en) Image processing apparatus and method for erasing dirty spots in reproducing systems
JPH10285390A (en) Image processor
JP3777813B2 (en) Halftone image discrimination method and image processing apparatus
JP2958981B2 (en) Document detection device
JPH09321989A (en) Edge area detector
JPH1141473A (en) Image processor, image recording device, and image forming device
JP3997507B2 (en) Image processing apparatus, image processing method, and image forming apparatus
JPH08214161A (en) Image processing unit
JP3003133B2 (en) Image outline extraction device
JP3183787B2 (en) Halftone area determination device
JPH08149298A (en) Color dot area decision device
JPH10112800A (en) Image processor
JP3877416B2 (en) Image processing apparatus and image processing method
JPH0380771A (en) Image processor
JP2000015871A (en) Image-processing apparatus
JPH08163355A (en) Dot area discriminating device
JPH08149297A (en) Dot area retrieval device
JP2001057633A (en) Image data processing unit using image area separation processing

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20030805