JP3146518B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP3146518B2
JP3146518B2 JP13798591A JP13798591A JP3146518B2 JP 3146518 B2 JP3146518 B2 JP 3146518B2 JP 13798591 A JP13798591 A JP 13798591A JP 13798591 A JP13798591 A JP 13798591A JP 3146518 B2 JP3146518 B2 JP 3146518B2
Authority
JP
Japan
Prior art keywords
window
edge
data
image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP13798591A
Other languages
Japanese (ja)
Other versions
JPH04362871A (en
Inventor
茂信 福嶋
Original Assignee
ミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミノルタ株式会社 filed Critical ミノルタ株式会社
Priority to JP13798591A priority Critical patent/JP3146518B2/en
Priority to US07/895,806 priority patent/US6026184A/en
Publication of JPH04362871A publication Critical patent/JPH04362871A/en
Priority to US09/075,245 priority patent/US6167163A/en
Application granted granted Critical
Publication of JP3146518B2 publication Critical patent/JP3146518B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Exposure Or Original Feeding In Electrophotography (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Dot-Matrix Printers And Others (AREA)
  • Color, Gradation (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、擬似中間調の2値画像
データを多階調の画像データ(以下、多値画像データと
いう。)に復元する復元回路を備えた画像処理装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus provided with a restoration circuit for restoring pseudo halftone binary image data into multi-gradation image data (hereinafter referred to as multi-value image data).

【0002】[0002]

【従来の技術】一般には2値画像データを記録する2値
プリンタが多く使用されているが、昨今、多値画像デー
タを高速及び高解像度で記録するカラーレーザプリンタ
が実用化されている。写真のような中間調データは、本
来1画素あたり複数ビットの多値データで表される。し
かし、多値画像データを記憶装置に記憶する場合、大容
量の記憶装置が必要である。そこで、通信時(ファクシ
ミル通信など)や保存時(ファイリングなど)におい
て、その多値データをいったん疑似中間調2値化し、2
値データに変換することによって、データ量を削減して
記憶装置に格納し、画像処理時又は記録時には2値画像
データを記憶装置から読み出した後、多値画像データに
復元する方法が提案されている。
2. Description of the Related Art In general, binary printers for recording binary image data are widely used. Recently, color laser printers for recording multivalued image data at high speed and high resolution have been put to practical use. Halftone data such as a photograph is originally represented by multi-value data of a plurality of bits per pixel. However, when storing multi-valued image data in a storage device, a large-capacity storage device is required. Therefore, at the time of communication (such as facsimile communication) or at the time of storage (such as filing), the multi-value data is once converted into pseudo halftone binary data,
A method has been proposed in which the amount of data is reduced and stored in a storage device by converting the data into value data, and at the time of image processing or recording, the binary image data is read from the storage device and then restored to multi-valued image data. I have.

【0003】このような疑似中間調化された2値化デー
タを再び多値画像データに復元することにより、次のよ
うな利点がある。すなわち、疑似中間調2値化データを
多値出力系に出力する場合、多値画像データに復元する
ことによって、出力系の多階調出力を生かすことができ
る。出力系としては、プリンタ(記録)、ディスプレイ
(表示)などがある。
By restoring such pseudo-halftoned binarized data into multi-valued image data again, there are the following advantages. That is, when the pseudo halftone binary data is output to the multi-level output system, the multi-level output of the output system can be utilized by restoring it to multi-level image data. The output system includes a printer (recording) and a display (display).

【0004】また、第2の利点として、次のことがあげ
られる。すなわち、疑似中間調2値化データを異なった
画素密度で2値出力(記録、表示)する場合、単なる変
倍処理を行わず、一旦多値データに復元した後、変倍処
理を行なう。これにより、元の疑似中間調2値データの
周期性によるモアレの発生を防ぐことができる。復元さ
れた多値データは、疑似中間調2値化され、出力系に出
力される。このとき、出力系が元の画像データよりも高
密度であれば、出力系が高密度であることを生かすこと
ができる。さらに、2つの利点を組み合わせて変倍後に
多値出力することも考えられる。この種の方法及び装置
は、例えば特開昭62−114378号公報や特開昭6
2−107573号公報において開示されている。
[0004] The second advantage is as follows. In other words, when pseudo halftone binary data is binary-outputted (recorded and displayed) at different pixel densities, mere scaling processing is not performed, and once restored to multi-valued data, scaling processing is performed. Thus, it is possible to prevent the occurrence of moire due to the periodicity of the original pseudo halftone binary data. The restored multi-value data is converted into pseudo halftone binary data and output to an output system. At this time, if the output system has a higher density than the original image data, the fact that the output system has a higher density can be utilized. Further, it is conceivable to combine the two advantages and output multi-values after scaling. This type of method and apparatus are disclosed in, for example, JP-A-62-1114378 and JP-A-6-114378.
It is disclosed in JP-A-2-107573.

【0005】前者の第1の従来例の画像処理方法は、従
来の2値画像データを用いながらも多値プリンタを用い
てこれら装置の性能を十分に引き出すとともに、文字画
像については復元された文字品質向上させるため、2値
画像データから中間調画像を復元し、復元された中間調
画像に、拡大・縮小処理又は画像強調処理などの所定の
画像処理を行なうことを特徴としている。この第1の従
来例の方法では、2値画像データを多値画像データを復
元するために、復元処理したい画素(以下、注目画素と
いう。)の周辺に所定の大きさの正方形状のウィンドウ
を設けて、当該ウィンドウ内でスムージング処理を行っ
ていた。
In the former image processing method of the first conventional example, the performance of these devices can be sufficiently obtained by using a multi-value printer while using conventional binary image data, and the restored character image can be obtained. In order to improve the quality, a halftone image is restored from binary image data, and predetermined image processing such as enlargement / reduction processing or image enhancement processing is performed on the restored halftone image. In the method of the first conventional example, in order to restore binary image data to multivalued image data, a square window having a predetermined size is formed around a pixel to be restored (hereinafter referred to as a pixel of interest). And a smoothing process is performed within the window.

【0006】また、後者の第2の従来例の画像処理装置
は、ディザ法などの簡単な2値回路を用いた場合に画質
が劣化することを防止するとともに、簡単な回路で構成
することを目的とし、2値化画像情報を所定のブロック
毎に分割する手段と、当該ブロック毎に画調を識別する
識別手段と、当該識別手段の識別結果に応じて、前記ブ
ロック内の画像情報を各画素毎に多値レベルに変換する
変換手段とを備えたことを特徴としている。当該装置に
おいて、画像の伝送、蓄積処理時には2値画像データと
して扱うことにより画像の表示編集の効率化を図るとと
もに、画像の再生時にはアナログ画像に近い多値表現を
行っている。上記識別手段及び上記変換手段は、具体的
にはそれぞれ、ディザマトリックスのサイズに相当する
ブロック内でパターンマッチングにより画調の判定を行
なう画調判定用ROM、及び変換用ROMで構成されて
いる。
Further, the latter image processing apparatus of the second conventional example can prevent the image quality from deteriorating when a simple binary circuit such as a dither method is used, and can be constituted by a simple circuit. For the purpose, means for dividing the binarized image information into predetermined blocks, identification means for identifying the image tone for each block, and image information in the block according to the identification result of the identification means. And a conversion means for converting each pixel into a multi-valued level. In this device, the efficiency of display and editing of an image is improved by treating the image as binary image data at the time of image transmission and storage processing, and a multi-value expression similar to an analog image is performed at the time of image reproduction. Specifically, the identification means and the conversion means are each composed of an image tone determination ROM for performing image tone determination by pattern matching within a block corresponding to the size of the dither matrix, and a conversion ROM.

【0007】[0007]

【発明が解決しようとする課題】疑似中間調2値画像か
ら多値画像を復元するため、処理の対象である注目画素
の周辺の画像について平滑用のウインドウから得られる
平滑成分とエッジ強調用のウインドウから得られるエッ
ジ強調成分との混合を利用することが考えられる。中間
調画像は本来2画素分で1周期の画像よりも低周波な画
像であるが、疑似中間調2値化された画像の中には、元
が幅1画素分の直線であるものもある。それらは、エッ
ジ強調用のウインドウのエッジ強調方向の幅が1画素よ
り大きければ、幅1画素以上の破線となったり、また、
濃度が分散する結果となっていて、エッジ強調成分を求
めることが出来ず、元の多値画像に正確に復元出来なか
った。平滑成分とエッジ成分の混合を利用するとき、よ
り平滑な画像を得るためには、より幅が広いウインドウ
が好ましい。一方、エッジ強調成分は2つのウインドウ
の差より得られるが、より空間周波数の高い画像のエッ
ジ強調成分を求めるためには、エッジ方向に幅の狭いウ
インドウが必要になる。しかし、平滑成分検出用ウイン
ドウとエッジ成分検出用ウインドウの大きさが異なる
と、大きいほうの影響が大きくなってしまうという問題
がある。たとえば、あるエッジ強調方向に対しエッジ強
調量を求めるときには、処理画素から最大でN2画素分
離れた画素を用い、平滑量を求めるときには、処理画素
から最大でN1画素分離れた画素を用いるとする。もし
N1>N2ならば、処理画素からN2+1画素以上離れ
た画素による平滑成分が復元画像に余分な平滑をおこな
うことになり、もしN1<N2ならば、処理画素からN
1+1画素以上離れた画素によるエッジ強調成分が復元
画像に余分なエッジ強調をおこなうことになり、平滑処
理によって失われるエッジ成分の保存という意味はなく
なる。特に、平滑用ウインドウが大きくなると、余分な
平滑成分が得られ、復元画像がぼけてしまう傾向が強
い。したがって、元の多値画像に正確に復元出来ない。
In order to restore a multi-valued image from a pseudo-halftone binary image, a smooth component obtained from a smoothing window and an edge enhancement image for an image around a target pixel to be processed are obtained. It is conceivable to use a mixture with an edge enhancement component obtained from a window. Although a halftone image is originally an image of two pixels and a lower frequency than an image of one cycle, some pseudo halftone binarized images are originally straight lines with a width of one pixel. . If the width of the window for edge enhancement in the edge enhancement direction is larger than one pixel, they become a dashed line having a width of one pixel or more.
Since the density was dispersed, the edge emphasis component could not be obtained, and the original multi-valued image could not be accurately restored. When using a mixture of a smooth component and an edge component, a wider window is preferable in order to obtain a smoother image. On the other hand, the edge enhancement component is obtained from the difference between the two windows. However, in order to obtain the edge enhancement component of an image having a higher spatial frequency, a narrow window is required in the edge direction. However, when the size of the window for detecting a smooth component and the size of the window for detecting an edge component are different from each other, there is a problem that the influence of the larger window becomes larger. For example, when obtaining an edge enhancement amount in a certain edge enhancement direction, a pixel separated from the processing pixel by a maximum of N2 pixels is used, and when obtaining a smoothing amount, a pixel separated by a maximum of N1 pixels from the processing pixel is used. . If N1> N2, the smoothed component due to pixels distant from the processing pixel by N2 + 1 pixels or more will perform extra smoothing on the restored image.
The edge enhancement component of pixels separated by 1 + 1 pixel or more causes extra edge enhancement in the restored image, and there is no point in storing the edge component lost by the smoothing process. In particular, when the smoothing window is large, an extra smooth component is obtained, and the restored image tends to be blurred. Therefore, the original multi-valued image cannot be accurately restored.

【0008】本発明の第1の目的は、擬似中間調で2値
化された2値画像データと、所定のしきい値を用いて非
中間調で2値化された2値画像データとを含む入力され
た2値画像データを多階調の画像データに復元したとき
に、細線を復元することができる画像処理装置を提供す
ることにある。本発明の第2の目的は、擬似中間調で2
値化された2値画像データと、所定のしきい値を用いて
非中間調で2値化された2値画像データとを含む入力さ
れた2値画像データを多階調の画像データに復元したと
きに、余分な平滑の影響がない多階調の画像データに復
元することができる画像処理装置を提供することにあ
る。
A first object of the present invention is to convert binary image data binarized by pseudo halftone and binary image data binarized by non-halftone using a predetermined threshold value. An object of the present invention is to provide an image processing apparatus capable of restoring a fine line when restoring input binary image data including image data into multi-gradation image data. A second object of the present invention is to provide a pseudo-halftone with 2
Input binary image data including binary image data that has been binarized and binary image data that has been binarized in a non-halftone using a predetermined threshold value is restored to multi-gradation image data An object of the present invention is to provide an image processing apparatus which can restore multi-gradation image data without the influence of extra smoothing.

【0009】[0009]

【課題を解決するための手段】本発明に係る画像処理装
置は、疑似中間調2値化された2値画像データを多値デ
ータに復元する画像処理装置であって、前記2値画像デ
ータのうちの注目画素と注目画素の周辺の画素とからな
るウインドウ内の黒画素数を計数して平滑成分量を得る
第1演算手段と、前記2値画像データのうち注目画素を
含み第1の方向に連続する複数の画素からなる第1ウイ
ンドウと、第1の方向と直交する方向において該第1ウ
インドウに隣接し、該第1の方向に連続する複数の画素
からなる第2ウインドウと、該第1ウインドウに対し該
第2ウインドウと反対側に隣接し、該第1の方向に連続
する複数の画素からなる第3ウインドウとを備え、各ウ
インドウにおける黒画素数の計数値からエッジ成分量を
検出する第2演算手段と、前記第1演算手段により得ら
れた平滑成分量と第2演算手段により得られたエッジ成
分量を使って多値復元画像を得る復元手段とを備える。
前記第2演算手段は、前記隣接方向における各ウインド
ウの幅が1画素分の幅である。
An image processing apparatus according to the present invention is an image processing apparatus for restoring pseudo-halftone binarized binary image data into multi-valued data. A first operation unit that counts the number of black pixels in a window including the target pixel and pixels around the target pixel to obtain a smooth component amount; and a first direction including the target pixel in the binary image data, A first window consisting of a plurality of pixels continuous with the first window, a second window consisting of a plurality of pixels adjacent to the first window in a direction orthogonal to the first direction and continuous in the first direction, and A third window, which is adjacent to the one window on the opposite side of the second window and is composed of a plurality of pixels continuous in the first direction, wherein an edge component amount is detected from a count value of the number of black pixels in each window. Second operation Comprising stages and, and a restoring means for obtaining a multivalued restoration image using the obtained edge component amount by the first arithmetic smoothing component amount obtained by the means and the second computing means.
In the second arithmetic means, the width of each window in the adjacent direction is a width of one pixel.

【0010】好ましくは、第2演算手段は、第1ウイン
ドウにおける計数値に基づく値と、第2及び第3のウイ
ンドウにおける計数値との差からエッジ成分量を検出す
る。
[0010] Preferably, the second calculating means detects the edge component amount from a difference between a value based on the count value in the first window and the count values in the second and third windows.

【0011】[0011]

【作用】疑似中間調2値画像から多値画像を復元するた
め、処理の対象である注目画素の周辺の画像について平
滑用のウインドウから得られる平滑成分とエッジ強調用
のウインドウから得られるエッジ強調成分との混合を利
用する。ここで、元が(2×N)画素分が1周期である
画像のエッジ強調成分を得るためには、エッジ強調方向
に対しn画素以下の幅を持つウインドウ間の減算が必要
である。中間調画像は本来2画素分で1周期の画像より
も低周波な画像であるが、疑似中間調で2値化された画
像の中には、元が幅1画素分の直線であるものもある。
このような細線が1画素ごとに並んでいると、幅2画素
分を1周期とした高周波数の画像となる。そこで、この
ような直線を再現するため、エッジ強調方向に1画素分
の幅のウインドウを用いて、エッジ強調方向に1画素分
の幅のエッジ強調成分を抽出する。
In order to restore a multi-valued image from a pseudo halftone binary image, a smooth component obtained from a smoothing window and an edge enhancement obtained from an edge enhancing window are obtained for an image around a pixel of interest to be processed. Utilize mixing with ingredients. Here, subtraction between windows having a width of n pixels or less with respect to the edge enhancement direction is necessary in order to obtain an edge enhancement component of an image in which (2 × N) pixels have one cycle. A halftone image is originally an image of two pixels and a lower frequency than an image of one cycle, but some of the pseudo-halftone binarized images are originally straight lines of one pixel width. is there.
When such thin lines are arranged for each pixel, a high-frequency image having a width of two pixels as one cycle is obtained. Therefore, in order to reproduce such a straight line, an edge enhancement component having a width of one pixel in the edge enhancement direction is extracted using a window having a width of one pixel in the edge enhancement direction.

【0012】さらに、エッジ強調方向のウインドウに限
っては、エッジ強調方向(たとえば左右)内の2つの向
き(左、右)のウインドウをペアとして組み合わせ(実
施例では図23〜図26のウインドウ)、同一方向でし
かも逆向きのエッジ成分を得、同一方向の両エッジ成分
の和をその方向のエッジ強調量とする。これによって、
1画素分の幅の直線画像のエッジ強調の場合、単一のウ
インドウを2個(たとえば図27と図28のウインド
ウ)用いた場合に比べて空間周波数特性は変わらない
が、+方向のエッジ強調量の大きさは、−方向のエッジ
強調量の倍となるため、画像濃度が保存される。
Further, as for the window in the edge enhancement direction, windows in two directions (left and right) in the edge enhancement direction (for example, left and right) are combined as a pair (in the embodiment, the windows in FIGS. 23 to 26). An edge component in the same direction but in the opposite direction is obtained, and the sum of both edge components in the same direction is used as the edge enhancement amount in that direction. by this,
In the case of edge enhancement of a linear image having a width of one pixel, the spatial frequency characteristics do not change as compared with the case where two single windows are used (for example, the windows in FIGS. 27 and 28), but edge enhancement in the + direction is performed. Since the magnitude of the amount is twice the amount of edge enhancement in the negative direction, the image density is preserved.

【0013】[0013]

【実施例】以下、添付の図面を参照して、出力系として
多階調レーザビームプリンタを用いた本発明に係る実施
例のファクシミリ装置について以下の項目の順で説明す
る。このファクシミリ装置において、疑似中間調2値化
データから多値データへの復元が行われる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Referring to the accompanying drawings, a facsimile apparatus according to an embodiment of the present invention using a multi-tone laser beam printer as an output system will be described in the following order. In this facsimile apparatus, restoration from pseudo halftone binary data to multivalued data is performed.

【0014】 (1)本実施例の特徴 (2)ファクシミリ装置の構成及び動作 (3)画像復元処理部 (4)9×9マトリックスメモリ回路 (5)中間調データ復元部 (5−1)エッジ強調用ウインドウと平滑用ウインドウ (5−2)中間調データ復元部 (5−3)中間調データ復元部の各部の構成 (5−3−1)エッジ領域検出計算部 (5−3−2)エッジ成分1計算部 (5−3−3)エッジ成分2計算部 (5−3−4)論理回路B回路、論理回路C回路、論理
回路D回路、論理回路E回路 (5−3−5)3×3少数画素検出部 (5−3−6)7×7黒画素カウント部
(1) Features of this embodiment (2) Configuration and operation of facsimile apparatus (3) Image restoration processing unit (4) 9 × 9 matrix memory circuit (5) Halftone data restoration unit (5-1) Edge Enhancement window and smoothing window (5-2) Halftone data restoration unit (5-3) Configuration of each unit of halftone data restoration unit (5-3-1) Edge area detection calculation unit (5-3-2) Edge component 1 calculation unit (5-3-3) Edge component 2 calculation unit (5-3-4) Logic circuit B circuit, Logic circuit C circuit, Logic circuit D circuit, Logic circuit E circuit (5-3-5) 3 × 3 minority pixel detection unit (5-3-6) 7 × 7 black pixel counting unit

【0015】このファクシミリ装置は、図2に示すよう
に、受信された2値画像データを多値画像データに復元
を行なう画像復元処理部62を備えるとともに、各画素
を多階調で印字するいわゆる多値プリンタであるレーザ
プリンタ70を備える。なお、以下の実施例の記述にお
いて、「中間調画像」及び「中間調領域」とはそれぞ
れ、例えば写真などの中間調画像の多値画像データをデ
ィザ法などの擬似中間調の方法で2値化した擬似中間調
画像及びその画像の領域を意味し、一方、「非中間調画
像」及び「非中間調領域」とはそれぞれ、例えば文字な
どの非中間調画像及びその画像の領域をいう。
As shown in FIG. 2, the facsimile apparatus includes an image restoration processing section 62 for restoring received binary image data to multi-valued image data, and prints each pixel at multiple gradations. A laser printer 70, which is a multi-value printer, is provided. In the following description of the embodiment, the “halftone image” and “halftone region” are respectively defined by multi-valued image data of a halftone image such as a photograph by a binary halftone method such as a dither method. A non-halftone image and a non-halftone area mean a non-halftone image and a non-halftone image such as a character, for example.

【0016】(1)本実施例の特徴 このファクシミリ装置は、図3の画像復元処理部62の
ブロック図に示すように、擬似中間調で2値化された2
値画像データと、所定のしきい値を用いて非中間調で2
値化された2値画像データを含む受信された2値画像デ
ータに基づいて所定のエッジ強調量と平滑値を計算する
とともに、エッジ判別信号を発生することによって多値
の中間調データを復元する中間調データ復元部101
と、受信された2値画像データに基づいて注目画素を中
心とする所定の領域について各画素毎に、中間調領域で
あるか又は非中間調領域であるかを判別して像域判別信
号を出力する像域判別処理部102と、受信された2値
画像データに基づいてスムージング処理を行なうスムー
ジング処理部103とを備え、中間調領域と判別された
とき上記復元された中間調データをプリンタ制御部55
を介して多値のレーザプリンタ70に出力し、一方、非
中間調領域と判別されたとき上記処理部103から出力
される2値画像データを多値表現における白、黒のデー
タにあてはめてから同様にレーザプリンタ70に出力す
ることを特徴としている。
(1) Features of this embodiment As shown in the block diagram of the image restoration processing section 62 in FIG.
Value image data and 2 in non-halftone using predetermined threshold
A predetermined edge enhancement amount and a smoothed value are calculated based on the received binary image data including the binarized binary image data, and the multi-value halftone data is restored by generating an edge determination signal. Halftone data restoration unit 101
And determining, for each pixel, whether it is a halftone area or a non-halftone area, based on the received binary image data, for a predetermined area centering on the pixel of interest, and generating an image area determination signal. An image area discrimination processing section 102 for outputting, and a smoothing processing section 103 for performing a smoothing process based on the received binary image data. Part 55
To the multi-level laser printer 70, and when the binary image data output from the processing unit 103 is determined to be a non-halftone area, the binary image data is applied to the white and black data in the multi-level expression. Similarly, it is characterized by outputting to the laser printer 70.

【0017】ここで、特に、中間調データ復元部101
に特徴があり、中間調データ復元部101は、(a)入
力される画素データに基づいてエッジ判別の指標を示す
エッジ判別量の絶対値の最大値のデータを生成するとと
もに、所定の領域内でエッジ強調を行なうときに用いる
エッジ強調量のデータを生成するエッジ強調成分計算部
111と、(b)入力された画素データとエッジ判別信
号に基づいて所定の領域内の画素データに対して平滑化
して得られる平滑値を計算する平滑値計算部112と、
(c)上記のエッジ判別量の絶対値の最大値に基づいて
エッジ判別信号を生成するエッジ判別部113と、
(d)入力されるエッジ強調量と平滑量に基づいて多値
の中間調画像データを復元する復元データ計算部114
とを備える。
Here, in particular, the halftone data restoring unit 101
The halftone data restoration unit 101 generates (a) data of the maximum value of the absolute value of the edge discrimination amount indicating the edge discrimination index based on the input pixel data, And (b) smoothing pixel data in a predetermined region based on the input pixel data and the edge discrimination signal. A smoothing value calculating unit 112 for calculating a smoothing value obtained by
(C) an edge determination unit 113 that generates an edge determination signal based on the maximum value of the absolute value of the edge determination amount,
(D) A restored data calculation unit 114 for restoring multi-valued halftone image data based on the input edge enhancement amount and smoothing amount
And

【0018】(2)ファクシミリ装置の構成及び動作 図1は、本発明に係る実施例であるファクシミリ装置の
機構部の縦断面図である。図1に示すように、このファ
クシミリ装置は、プリンタ部1とその上方に設置された
画像読取部20とに大きく分けられ、プリンタ部1上に
操作パネル40が設けられ、また、プリンタ部1の側面
部に電話機42が設けられる。
(2) Configuration and Operation of Facsimile Machine FIG. 1 is a longitudinal sectional view of a mechanism of a facsimile machine according to an embodiment of the present invention. As shown in FIG. 1, the facsimile apparatus is roughly divided into a printer unit 1 and an image reading unit 20 installed above the printer unit 1. An operation panel 40 is provided on the printer unit 1, and A telephone 42 is provided on the side surface.

【0019】プリンタ部1は、従来の装置と同様の構成
を有する電子写真方式レーザビームプリンタであり、以
下に簡単にその動作を述べる。まず、回転駆動される感
光体ドラム2上の感光体が、帯電器3により一様に帯電
される。次に、光学系4により画像データに応じてレー
ザビームが照射されて感光体ドラム2上に静電潜像が形
成される。この静電潜像に現像器5のトナーが付着す
る。一方、給紙カセット11にはカット紙が置かれてお
り、ピックアップローラ12によりカット紙が一枚ずつ
ピックアップされた後、給紙ローラ13によって感光体
ドラム2の転写部の方へ送り込まれる。感光体ドラム2
に付着したトナーは、転写チャージャ6によりカット紙
に転写され、定着器12により定着される。上記定着工
程の後のカット紙が、排紙ローラ14,16によって排
紙通路15を介して排紙トレー13に排出される。な
お、カット紙に付着しなかったトナーはクリーナ8によ
り回収され、これで一回のプリントが終了する。
The printer section 1 is an electrophotographic laser beam printer having a configuration similar to that of a conventional apparatus, and its operation will be briefly described below. First, the photoconductor on the photoconductor drum 2 that is rotationally driven is uniformly charged by the charger 3. Next, the optical system 4 irradiates a laser beam according to the image data to form an electrostatic latent image on the photosensitive drum 2. The toner of the developing device 5 adheres to the electrostatic latent image. On the other hand, cut paper is placed in the paper feed cassette 11, and the cut paper is picked up one by one by the pickup roller 12, and then sent to the transfer portion of the photosensitive drum 2 by the paper feed roller 13. Photoconductor drum 2
Is transferred to the cut sheet by the transfer charger 6 and is fixed by the fixing device 12. The cut sheet after the fixing process is discharged to the discharge tray 13 through the discharge path 15 by the discharge rollers 14 and 16. The toner that has not adhered to the cut sheet is collected by the cleaner 8, and one printing operation is completed.

【0020】次に、画像読取部20の動作について説明
する。送信原稿の読取りは従来の装置と同様に行われ
る。すなわち、原稿トレー21上に置かれた原稿は、原
稿センサ22により検知され、当該原稿がローラ23に
よりセンサ25の位置まで1枚ずつ送り込まれる。次
に、モータ(図示せず。)によるローラ24の回転と密
着型リニアイメージセンサ26の読み取りに同期して原
稿が密着型リニアイメージセンサ26により読取られ、
原稿画像はデジタル画像データに変換された後、図2に
図示したバッファメモリ59に出力されるとともに、後
述する圧縮伸長部60によって圧縮画像データに変換さ
れて圧縮画像メモリ51に格納される。画像読み取り終
了後は、上記原稿は排出ローラ27により排紙トレー2
8に排出される。
Next, the operation of the image reading section 20 will be described. Reading of the transmission original is performed in the same manner as in the conventional apparatus. That is, the originals placed on the original tray 21 are detected by the original sensor 22, and the originals are fed one by one to the position of the sensor 25 by the rollers 23. Next, the original is read by the contact linear image sensor 26 in synchronization with the rotation of the roller 24 by the motor (not shown) and the reading of the contact linear image sensor 26,
After being converted into digital image data, the original image is output to the buffer memory 59 shown in FIG. After the image reading is completed, the original is discharged by the discharge roller 27 to the discharge tray 2.
It is discharged to 8.

【0021】図2は、図1に図示したファクシミリ装置
の信号処理部の構成を示すブロック図である。このファ
クシミリ装置においては、このファクシミリ装置の全体
の制御を行なうマイクロプロセッサ(MPU)50と、
それぞれファクシミリの信号処理及び通信処理などを行
なうHDLC解析部52、モデム53及びNCU54
と、それぞれファクシミリの画像信号を一時的に格納す
る画像圧縮用画像メモリ51、バッファメモリ59及び
ページメモリ61と、それぞれ所定の画像信号の処理を
行なう圧縮伸長部60及び画像復元処理部62とが備え
られ、各処理部20,51,52,53,54,59,
60,61がバス63を介してMPU50に接続され
る。また、操作パネル40が直接にMPU50に接続さ
れるとともに、プリンタ部1内のレーザプリンタ70を
制御するプリンタ制御部55がMPU50に接続され
る。
FIG. 2 is a block diagram showing the configuration of the signal processing section of the facsimile apparatus shown in FIG. In this facsimile apparatus, a microprocessor (MPU) 50 for controlling the whole of the facsimile apparatus;
HDLC analyzer 52, modem 53, and NCU 54, which perform facsimile signal processing and communication processing, respectively.
And an image compression image memory 51 for temporarily storing a facsimile image signal, a buffer memory 59 and a page memory 61, and a compression / decompression unit 60 and an image restoration processing unit 62 for processing predetermined image signals, respectively. Provided, and each of the processing units 20, 51, 52, 53, 54, 59,
60 and 61 are connected to the MPU 50 via the bus 63. Further, the operation panel 40 is directly connected to the MPU 50, and a printer control unit 55 for controlling the laser printer 70 in the printer unit 1 is connected to the MPU 50.

【0022】まず、ファクシミリ装置の受信動作につい
て述べる。相手先のファクシミリ装置から電話回線を介
して着呼があると、着呼信号がNCU54とモデム53
を介してMPU50に入力されて検出された後、所定の
ファクシミリの回線接続手順に従って、相手先のファク
シミリ装置との回線接続処理が実行される。当該回線接
続処理の後、相手先のファクシミリ装置から送信される
圧縮画像信号は、NCU54を介してモデム53に入力
されて復調され、復調後の圧縮画像データはHDLC解
析部52においてHDLCフレームから圧縮画像データ
のみを取り出す所定のHDLC逆加工処理が行われた
後、圧縮用画像メモリ51に格納される。すべてのペー
ジの圧縮画像信号を受信したとき、所定のファクシミリ
の回線切断手順に従って、相手先のファクシミリ装置と
の回線切断処理が実行される。
First, the receiving operation of the facsimile apparatus will be described. When there is an incoming call from the other party's facsimile machine via the telephone line, the incoming call signal is sent to the NCU 54 and the modem 53.
After the data is input to the MPU 50 and detected, a line connection process with the destination facsimile device is executed in accordance with a predetermined facsimile line connection procedure. After the line connection processing, the compressed image signal transmitted from the other party's facsimile apparatus is input to the modem 53 via the NCU 54 and demodulated, and the demodulated compressed image data is compressed from the HDLC frame by the HDLC analysis unit 52. After performing a predetermined HDLC reverse processing for extracting only image data, the image data is stored in the compression image memory 51. When the compressed image signals of all pages are received, a line disconnection process with the destination facsimile apparatus is executed in accordance with a predetermined facsimile line disconnection procedure.

【0023】圧縮用画像メモリ51に格納された画像デ
ータは、圧縮伸長部60によって1ページ毎に、ページ
メモリ61を用いて実際の画像データに伸長されて展開
される。ページメモリ61に展開された画像データは、
画像復元処理部62に入力される。MPU50は、状態
信号を画像復元処理部62に送る。画像データは、画像
復元処理部62において、後で詳細に説明される処理に
よって高密度の2値画像データに変換された後、プリン
タ制御部55に出力される。プリンタ制御部55への画
像データの転送に同期して、MPU50からプリンタ制
御部55に記録開始信号が出力されて、プリンタ制御部
55は、レーザプリンタ70に制御信号及び画像データ
を送信して画像データの記録を実行させる。
The image data stored in the compression image memory 51 is decompressed by the compression / decompression unit 60 into actual image data using the page memory 61 for each page and expanded. The image data developed in the page memory 61 is
It is input to the image restoration processing unit 62. The MPU 50 sends a state signal to the image restoration processing unit 62. The image data is converted into high-density binary image data by a process described in detail later in the image restoration processing unit 62, and then output to the printer control unit 55. In synchronization with the transfer of the image data to the printer control unit 55, a recording start signal is output from the MPU 50 to the printer control unit 55, and the printer control unit 55 transmits the control signal and the image data to the laser printer 70, and Execute data recording.

【0024】次いで、ファクシミリ装置の送信動作につ
いて説明する。上記画像読取部20による上述のすべて
の画像読み取り動作が終了すると、相手先のファクシミ
リ装置と回線接続処理が実行される。この回線接続処理
の完了後、圧縮用画像メモリ51に格納された圧縮画像
データは圧縮伸長部60によって一旦ページメモリ61
に伸長された後、相手先のファクシミリ装置の能力に応
じて再圧縮処理が実行されて圧縮用画像メモリ51に格
納される。格納された画像データは、HDLC解析部5
2によって所定のHDLCフレーム加工処理が実行され
た後、モデム53によって所定のファクシミリ信号に変
調される。画像データで変調されたファクシミリ信号は
NCU54と電話回線を介して相手先のファクシミリ装
置に送信される。画像データの送信が完了すると、所定
の回線切断手順に従って、相手先のファクシミリ装置と
の回線切断処理が実行され、送信動作が終了する。
Next, the transmission operation of the facsimile machine will be described. When all of the above image reading operations by the image reading unit 20 are completed, a line connection process with the facsimile machine of the other party is executed. After the completion of the line connection processing, the compressed image data stored in the compression image memory 51 is temporarily stored in the page memory 61 by the compression / expansion unit 60.
After that, recompression processing is executed in accordance with the capability of the facsimile machine of the other party, and is stored in the compression image memory 51. The stored image data is sent to the HDLC analysis unit 5
After a predetermined HDLC frame processing process is performed by the modem 2, the signal is modulated by the modem 53 into a predetermined facsimile signal. The facsimile signal modulated with the image data is transmitted to the destination facsimile apparatus via the NCU 54 and the telephone line. When the transmission of the image data is completed, a line disconnection process with the destination facsimile apparatus is executed according to a predetermined line disconnection procedure, and the transmission operation ends.

【0025】MPU50は、操作パネル40を用いて入
力される操作者の指令に基づいて所定の処理を行なうと
ともに、操作者への指示情報及び本ファクシミリ装置の
状態情報を操作パネル40に出力して表示する。
The MPU 50 performs predetermined processing based on an operator's command input using the operation panel 40, and outputs instruction information to the operator and status information of the facsimile apparatus to the operation panel 40. indicate.

【0026】(3)画像復元処理部 図3は、図2に図示した画像復元処理部62のブロック
図を示す。この画像復元処理部62は、受信された2値
画像データから多値の中間調データを復元する中間調デ
ータ復元部101を備える。この中間調画像の復元処理
においては、各画素を多階調で印字するいわゆる多値プ
リンタに出力する場合に、疑似中間調2値画像データか
ら復元した多値の中間調データを用いて記録することに
よって、多階調の画像を形成することができる。
(3) Image Restoration Processing Unit FIG. 3 is a block diagram of the image restoration processing unit 62 shown in FIG. The image restoration processing unit 62 includes a halftone data restoration unit 101 for restoring multi-value halftone data from the received binary image data. In this halftone image restoration process, when each pixel is output to a so-called multilevel printer that prints in multiple gradations, recording is performed using multilevel halftone data restored from pseudo halftone binary image data. Thereby, a multi-tone image can be formed.

【0027】ページメモリ61からシリアルに読み出さ
れる2値画像データは、9×9マトリックスメモリ回路
100に入力される。9×9マトリックスメモリ回路1
00は、注目画素を中心とする9×9のウインドウ内の
各画素のデータを生成して、中間調データ復元部101
と、像域判別部102と、スムージング処理部103に
出力する。9×9マトリックスメモリ回路100につい
ては、後でさらに詳しく説明する。
The binary image data read serially from the page memory 61 is input to a 9 × 9 matrix memory circuit 100. 9 × 9 matrix memory circuit 1
00 generates data of each pixel in a 9 × 9 window centering on the target pixel,
Is output to the image area determination unit 102 and the smoothing processing unit 103. The 9 × 9 matrix memory circuit 100 will be described later in more detail.

【0028】中間調データ復元部101は、エッジ強調
成分計算部111と、平滑値計算部112と、エッジ判
別部113と、復元データ計算部114とを備える。エ
ッジ強調成分計算部111は、9×9マトリックスメモ
リ回路100から入力される画素データに基づいて、エ
ッジ判別の指標を示すエッジ判別量の絶対値の最大値の
データを生成して、エッジ判別部113と復元データ計
算部114に出力するとともに、所定の領域内でエッジ
強調を行なうときに用いるエッジ強調量のデータを復元
データ計算部114に出力する。また、エッジ判別部1
13は、入力されるエッジ判別量の絶対値の最大値に基
づいてエッジ判別信号をエッジ強調成分計算部111と
平滑値計算部112に出力する。さらに、平滑値計算部
112は、入力された画素データとエッジ判別信号に基
づいて所定の領域内の画素データに対して平滑化して得
られる平滑値を計算して復元データ計算部114に出力
する。またさらに、復元データ計算部114は、入力さ
れるエッジ強調量と平滑量に基づいて多値の中間調画像
データを復元して、セレクタ106に出力する。中間調
データ復元部101については、後でさらに詳しく説明
する。
The halftone data restoration unit 101 includes an edge enhancement component calculation unit 111, a smooth value calculation unit 112, an edge discrimination unit 113, and a restoration data calculation unit 114. The edge emphasis component calculation unit 111 generates data of the maximum value of the absolute value of the edge discrimination amount indicating the index of the edge discrimination based on the pixel data input from the 9 × 9 matrix memory circuit 100, In addition to outputting the data to the restored data calculation unit 114 and the data of the amount of edge enhancement used when performing edge enhancement in a predetermined area, the data is output to the restored data calculation unit 114. Also, the edge discriminating unit 1
13 outputs an edge discrimination signal to the edge enhancement component calculation unit 111 and the smoothed value calculation unit 112 based on the maximum value of the input absolute value of the edge discrimination amount. Further, the smoothed value calculator 112 calculates a smoothed value obtained by smoothing pixel data in a predetermined area based on the input pixel data and the edge discrimination signal, and outputs the smoothed value to the restored data calculator 114. . Further, the restoration data calculation unit 114 restores the multi-value halftone image data based on the input edge enhancement amount and smoothing amount, and outputs the restored halftone image data to the selector 106. The halftone data restoration unit 101 will be described later in more detail.

【0029】像域判別部102は、隣接状態検出部12
1と、中間調判別部123とを備える。隣接状態検出部
121は、9×9マトリックスメモリ回路100から入
力される画素データに基づいて所定の領域内の同一種の
画素の、主副走査方向の4方向と上記斜め方向の4方向
についての隣接状態を示す隣接判別値を演算して、中間
調判別部123に出力する。さらに、中間調判別部12
3は、入力される隣接判別値に基づいて注目画素を中心
とする所定の領域について各画素毎に中間調領域である
か非中間調領域であるかを判別し、判別結果を示す像域
判別信号を生成して、セレクタ106に出力する。ここ
で、上記所定の領域が非中間調領域と判別されたとき、
Hレベルの像域判別信号が出力され、一方、中間調領域
と判別されたとき、Lレベルの像域判別信号が出力され
る。
The image area discriminating section 102 includes the adjacent state detecting section 12
1 and a halftone discriminating unit 123. The adjacent state detection unit 121 determines the same type of pixels in a predetermined area in four main and sub scanning directions and the four oblique directions based on the pixel data input from the 9 × 9 matrix memory circuit 100. An adjacent discrimination value indicating an adjacent state is calculated and output to the halftone discriminating unit 123. Further, the halftone discriminating unit 12
Reference numeral 3 designates, for each pixel, a predetermined area centered on the pixel of interest based on the input adjacent determination value, and determines whether the pixel is a halftone area or a non-halftone area, and indicates an image area determination result indicating the determination result. A signal is generated and output to the selector 106. Here, when the predetermined area is determined to be a non-halftone area,
An H level image area determination signal is output. On the other hand, when it is determined that the area is a halftone area, an L level image area determination signal is output.

【0030】スムージング処理部103は、上記破線検
出信号に基づいて所定のスムージング処理を行った後、
処理後の2値画像データをセレクタ106の入力端子A
に出力する。
The smoothing processing unit 103 performs a predetermined smoothing process based on the broken line detection signal,
The processed binary image data is input to input terminal A of selector 106.
Output to

【0031】セレクタ106は、上記像域判別信号がH
レベルであるとき、すなわち非中間調領域であるとき、
上記処理部103から出力される2値画像データを選択
して多値表現における白黒に単純にあてはめてからプリ
ンタ制御部55に出力し、一方、上記像域判別信号がH
レベルであるとき、すなわち中間調領域であるとき、中
間調データ復元部101から出力される中間調画像復元
データを選択してプリンタ制御部55に出力する。
The selector 106 determines that the image area determination signal is H
Level, that is, in the non-halftone region,
The binary image data output from the processing unit 103 is selected and simply applied to black and white in a multi-valued expression, and then output to the printer control unit 55. On the other hand, when the image area determination signal is H
When it is at the level, that is, in the halftone area, halftone image restoration data output from the halftone data restoration unit 101 is selected and output to the printer control unit 55.

【0032】(4)9×9マトリックスメモリ回路 9×9マトリックスメモリ回路100は、図4に示すよ
うに、注目画素P44を中心とする9×9のウィンドウ
W9内のマトリックスの各位置に位置する各画素データ
P00〜P88を生成して、中間調データ復元部101
と、像域判別部102とスムージング処理部103に出
力する。図4において、矢印MSは主走査方向を示し、
矢印SSは副走査方向を示す。また、iはウィンドウW
9内の主走査線の位置を示すパラメータであり、jはそ
の副走査線の位置を示すパラメータである。この9×9
マトリックスメモリ回路100は、処理画素P44を中
心として、その主、副走査方向に前後4画素づつの画素
データが参照できるように構成されているメモリであ
る。すなわち、処理画素P44を中心として、9×9の
マトリックスの画素Pij(i=0,1,…,8;j=
0,1,…、8)を参照して処理が行われる。ここに、
各画素Pijは0か1の画素データを表し、i,jは、そ
れぞれ、主走査方向と副走査方向を表す。
(4) 9 × 9 Matrix Memory Circuit As shown in FIG. 4, the 9 × 9 matrix memory circuit 100 is located at each position of the matrix in the 9 × 9 window W9 centered on the target pixel P44. The pixel data P00 to P88 are generated, and the halftone data restoring unit 101
Is output to the image area determination unit 102 and the smoothing processing unit 103. 4, the arrow MS indicates the main scanning direction,
Arrow SS indicates the sub-scanning direction. I is the window W
9 is a parameter indicating the position of the main scanning line, and j is a parameter indicating the position of the sub-scanning line. This 9x9
The matrix memory circuit 100 is a memory configured to refer to pixel data of four pixels before and after the processing pixel P44 in the main and sub-scanning directions. That is, the pixels P ij (i = 0, 1,..., 8; j =
0, 1,..., 8). here,
Each pixel P ij represents pixel data of 0 or 1, and i and j represent a main scanning direction and a sub scanning direction, respectively.

【0033】図5は、9×9マトリックスメモリ回路1
00の回路図である。このメモリ回路100は、それぞ
れページメモリ61から入力される2値画像データの転
送クロックの周期と同一の周期、すなわち画像データの
1ドットの周期を有するクロックCLK2に基づいて入
力される画像データを主走査方向の1回の走査時間であ
る1水平期間だけ遅延させる8個のFIFOメモリDM
1〜DM8と、それぞれ上記クロックCLK2に同期し
て入力される画像データをクロックCLK2の1周期期
間だけ遅延させて出力する72個(9列×8個)のD−
フリップフロップD01〜D08,D11〜D18,D
21〜D28,...,D81〜D88とを備える。こ
こで、各FIFOメモリとD−フリップフロップがそれ
ぞれ1つの画素データを蓄え、図4に示したような9×
9の画素データが記憶される。また、動作用クロックC
LK2は、復元前ビデオ画像データの転送用クロックと
同一周波数である。
FIG. 5 shows a 9 × 9 matrix memory circuit 1.
It is a circuit diagram of 00. This memory circuit 100 mainly stores image data input based on a clock CLK2 having the same cycle as the transfer clock cycle of the binary image data input from the page memory 61, that is, one cycle of the image data. Eight FIFO memories DM for delaying by one horizontal period which is one scanning time in the scanning direction
1 to DM8 and 72 (9 columns × 8) D-pixels which output image data input in synchronization with the clock CLK2 with a delay of one cycle period of the clock CLK2.
Flip-flops D01 to D08, D11 to D18, D
21 to D28,. . . , D81 to D88. Here, each FIFO memory and each D-flip-flop store one pixel data, and the 9 ×
Nine pixel data are stored. The operation clock C
LK2 has the same frequency as the transfer clock of the video image data before restoration.

【0034】ページメモリ61からシリアルで出力され
る2値画像データは、フリップフロップD01に入力さ
れた後、縦続接続された8個のフリップフロップD01
〜D08を介して出力されるとともに、FIFOメモリ
DM1に入力された後、縦続接続された8個のFIFO
メモリDM1〜DM8を介して出力される。FIFOメ
モリDM1から出力される画像データは、フリップフロ
ップD11に入力された後、縦続接続されたフリップフ
ロップD11〜D18を介して出力される。また、FI
FOメモリDM2から出力される画像データは、フリッ
プフロップD21に入力された後、縦続接続されたフリ
ップフロップD21〜D28を介して出力される。以
下、同様にして、各FIFOメモリDM3〜DM8から
出力される画像データはそれぞれ、フリップフロップD
31〜D81に入力された後、それぞれ縦続されたフリ
ップフロップD31〜D38,D41〜D4
8,...,D81〜D88を介して出力される。
After the binary image data serially output from the page memory 61 is input to the flip-flop D01, the eight flip-flops D01 connected in cascade are connected.
To D08 and input to the FIFO memory DM1, and then connected in cascade to the eight FIFOs.
It is output via memories DM1 to DM8. The image data output from the FIFO memory DM1 is input to the flip-flop D11 and then output via the cascade-connected flip-flops D11 to D18. Also, FI
The image data output from the FO memory DM2 is input to the flip-flop D21 and then output via the cascade-connected flip-flops D21 to D28. Hereinafter, similarly, the image data output from each of the FIFO memories DM3 to DM8 is
Flip-flops D31-D38, D41-D4 cascaded after being input to 31-D81, respectively.
8,. . . , D81 to D88.

【0035】以上のように構成された9×9マトリック
スメモリ回路100において、当該回路100に最初に
入力された1ドットの画素データがフリップフロップD
88から出力されたとき、そのときに入力された画像デ
ータが画素データP00として出力されるとともに、各
フリップフロップD01〜D08からそれぞれ9×9の
ウィンドウ内のi=0の主走査線上の各画素データP0
1〜P08が出力され、FIFOメモリDM1及び各フ
リップフロップD11〜D18からそれぞれ9×9のウ
ィンドウ内のi=1の主走査線上の各画素データP10
〜P18が出力され、FIFOメモリDM2及び各フリ
ップフロップD21〜D28からそれぞれ9×9のウィ
ンドウ内のi=2の主走査線上の各画素データP20乃
至P28が出力され、以下同様にして、処理され、最後
に各FIFOメモリDM3〜DM8及び各フリップフロ
ップD31〜D88からそれぞれ各画素データP30〜
P88が出力される。
In the 9 × 9 matrix memory circuit 100 configured as described above, the one-dot pixel data first input to the circuit
88, the image data input at that time is output as pixel data P00, and each pixel on the main scanning line of i = 0 in a 9 × 9 window from each of the flip-flops D01 to D08. Data P0
1 to P08 are output from the FIFO memory DM1 and the respective flip-flops D11 to D18, and each pixel data P10 on the main scanning line of i = 1 in a 9 × 9 window.
To P18, and the respective pixel data P20 to P28 on the i = 2 main scanning line in the 9 × 9 window are output from the FIFO memory DM2 and the flip-flops D21 to D28, respectively. , And finally, the respective pixel data P30 to D30 from the FIFO memories DM3 to DM8 and the flip-flops D31 to D88.
P88 is output.

【0036】(5)中間調データ復元部 (5−1)エッジ強調用ウインドウと平滑用ウインドウ 中間調データ復元部101においては、擬似中間調の2
値画像データから多値画像データを復元するために、注
目画素の周辺の画素データを加算して平滑化処理を行っ
て平滑値を計算し、この平滑値に基づいて多値画像デー
タを復元している。
(5) Halftone Data Restoring Unit (5-1) Window for Edge Enhancement and Smoothing Window
In order to restore the multi-valued image data from the value image data, pixel data around the pixel of interest is added and a smoothing process is performed to calculate a smoothed value, and the multi-valued image data is restored based on the smoothed value. ing.

【0037】擬似中間調データから多値データを復元す
るためには、処理画素周辺の画素データを加え合わせる
ことが考えられる。図6は、黒画素の面積が全体の面積
に対して7/16である均一画像を誤差拡散法を用いて
2値化したときに得られる2値画像の一例を示す図であ
り、図7は、上記均一画像をディザ法を用いて2値化し
たときに得られる2値画像の一例を示す図である。擬似
中間調の2値画像データから例えば白が0であって黒が
4である5階調の多値画像データへ復元する時に、例え
ば2×2のウィンドウを用いると、復元された多値画像
データは、図6の画像では0から3までの値でばらつ
き、一方、図7の画像では1から3までの値でばらつ
く。このことから、次の2つの問題点が明らかである。
In order to restore multi-value data from pseudo halftone data, it is conceivable to add pixel data around the processing pixel. FIG. 6 is a diagram illustrating an example of a binary image obtained when a uniform image in which the area of a black pixel is 7/16 of the entire area is binarized using an error diffusion method. FIG. 3 is a diagram showing an example of a binary image obtained when the uniform image is binarized using a dither method. When restoring from pseudo-halftone binary image data to, for example, 5-gradation multi-valued image data in which white is 0 and black is 4, using a 2 × 2 window, for example, The data varies with values of 0 to 3 in the image of FIG. 6, while it varies with values of 1 to 3 in the image of FIG. From this, the following two problems are apparent.

【0038】(A)例えばN階調以上の多値画像データ
に復元する場合、N画素以上の画素に基づいて多値画像
データを復元しなければならず、正方形のウィンドウ
(空間フィルタ、窓ともいう)を用いる場合、Nの平方
根以上の1辺の大きさのウィンドウを用いる必要があ
る。つまり、N≧3の場合は1辺が2ドット以上の大き
さのウィンドウを用いる必要がある。
(A) For example, when restoring to multi-valued image data of N or more gradations, the multi-valued image data must be restored based on N or more pixels, and a square window (both spatial filter and window) ), It is necessary to use a window having a size of one side equal to or larger than the square root of N. That is, in the case of N ≧ 3, it is necessary to use a window whose one side has a size of 2 dots or more.

【数1】 (Equation 1)

【0039】(B)元の擬似中間調の2値画像データの
周期の間隔以上の長さを1辺に持つウィンドウを用いて
復元処理をしなければ、復元後の画像に擬似中間調のテ
クスチャーの影響(モアレなど)が生じる場合がある。
例えば、図7の復元画像の例では、4ドット毎の周期性
があるため、1辺が4ドット以上のウィンドウを用いて
復元処理を行なう必要がある。しかしながら、ウィンド
ウのサイズを大きくした場合、復元後の画像に「ボケ」
が発生する場合がある。
(B) If the restoration process is not performed using a window having one side longer than the interval of the period of the original pseudo halftone binary image data, the restored halftone texture is applied to the restored image. (Moire, etc.) may occur.
For example, in the example of the restored image in FIG. 7, since there is a periodicity for every four dots, it is necessary to perform the restoration process using a window having one side of four dots or more. However, if the size of the window is increased, the image after restoration
May occur.

【0040】従って、復元処理時の平滑化処理において
以下の条件を満たしたウィンドウを用いる必要があり、
下記の3つをウィンドウのサイズの必要条件という。 (a)復元される画像の持つ階調数以上の大きさを有す
る。 (b)元の擬似中間調の2値画像データの周期の間隔よ
りも1辺が大きい。 (c)復元後の画像に「ボケ」が発生しないように1辺
の大きさが小さい。
Therefore, it is necessary to use a window satisfying the following conditions in the smoothing process at the time of the restoration process.
The following three are called window size requirements. (A) It has a size equal to or greater than the number of tones of the restored image. (B) One side is larger than the interval of the cycle of the original pseudo halftone binary image data. (C) The size of one side is small so that “blur” does not occur in the restored image.

【0041】次に、2値画像多値化に用いる空間フィル
タを図8〜図32に示す。
Next, FIGS. 8 to 32 show spatial filters used for multi-valued binary images.

【0042】(5−1−1)平滑用ウインドウ 本実施例において用いる空間フィルタ(ウィンドウ)の
サイズは、上記ウィンドウのサイズの必要条件を考慮
し、擬似中間調の2値画像データの擬似階調数よりも大
きな画素数を含み、また、レーザプリンタ70の階調数
(第2の実施例においては、擬似階調数)よりも大きな
画素数を含み、かつ復元された画像の「ボケ」を防止す
るためにウィンドウのサイズを必要以上に大きくしない
ようにする必要がある。さらに、この中間調データ復元
部101を適用するファクシミリ装置の技術分野では2
値画像データの擬似階調数は16,32又は64であ
り、64階調以上の擬似中間調の2値画像は、人間の目
では32階調のそれと比較しほとんど変化しないように
見える。
(5-1-1) Smoothing Window The size of the spatial filter (window) used in the present embodiment is determined in consideration of the requirements for the size of the window, and the pseudo gradation of the binary image data of pseudo halftone. The number of pixels is larger than the number of pixels, and the number of pixels is larger than the number of gradations of the laser printer 70 (in the second embodiment, the number of pseudo gradations). To prevent this, the size of the window must not be increased unnecessarily. Further, in the technical field of a facsimile apparatus to which the halftone data restoration unit 101 is applied,
The number of pseudo gradations of the value image data is 16, 32 or 64, and a pseudo halftone binary image of 64 gradations or more appears to be hardly changed by human eyes as compared with that of 32 gradations.

【0043】そこで、本実施例においては、エッジ領域
を除いて、図8に示す7×7のウィンドウW7を用いる
空間フィルタを用いて、50階調の画像データを復元で
きるように構成した。図8の空間フィルタは、注目画素
P44(*で示す)を中心とした7×7のウィンドウW
7内で平滑化処理を行なうフィルタである。後に説明す
るように、中間調データ復元部101の7×7黒画素カ
ウント部205(図39参照)では、このウインドウW
7を用いて平滑成分を出力する。なお、空間フィルタ内
の重み付けが均一なのは、擬似中間調2値化の方法が面
積階調であるからである。さらに、本実施例では、空間
フィルタの形状を正方形としたが、正六角形などの他の
形状でもよい。
Therefore, in the present embodiment, the image data of 50 tones can be restored by using a spatial filter using a 7 × 7 window W7 shown in FIG. 8 except for the edge region. The 7 × 7 window W centered on the pixel of interest P44 (indicated by *) is shown in FIG.
7 is a filter for performing a smoothing process. As will be described later, in the 7 × 7 black pixel counting unit 205 (see FIG. 39) of the halftone data restoration unit 101, the window W
7 to output a smooth component. The reason why the weighting in the spatial filter is uniform is that the pseudo halftone binarization method is the area gradation. Further, in this embodiment, the shape of the spatial filter is a square, but another shape such as a regular hexagon may be used.

【0044】(5−1−2)エッジ強調用ウインドウ ところで、画像は本来様々な空間周波数成分を含んでい
る。前述の平滑フィルタの使用目的は擬似中間調のテク
スチャーの持つ空間周波数成分を平滑処理によって除去
することにある。しかしながら、その副作用としてテク
スチャー以外の高周波成分の消失をもたらす。例えば図
8の7×7のウィンドウW7を用いることは、(7×
2)の画素を1周期とする空間周波数成分以上の高周波
成分の減衰をもたらす。従って、望ましい復元画像を得
るためには、何らかの高周波成分の保存手段が必要であ
る。従来より、大きなエッジ成分、すなわち高周波成分
を有する画像に対して平滑用窓を小さくすることについ
て提案されており、本実施例においても用いている。本
実施例においては、エッジ強調によって高周波成分の保
存を図ることを考え、以下そのための手法を従来例、比
較例も含め述べる。
(5-1-2) Window for Edge Enhancement By the way, an image originally contains various spatial frequency components. The purpose of using the above-mentioned smoothing filter is to remove a spatial frequency component of the pseudo halftone texture by a smoothing process. However, as a side effect thereof, high-frequency components other than texture are lost. For example, using the 7 × 7 window W7 in FIG.
2) Attenuation of high-frequency components equal to or higher than a spatial frequency component having one cycle of a pixel is provided. Therefore, in order to obtain a desired restored image, some means for storing high-frequency components is required. Conventionally, it has been proposed to reduce the smoothing window for an image having a large edge component, that is, a high-frequency component, and is also used in this embodiment. In the present embodiment, considering the preservation of high-frequency components by edge enhancement, a method for that purpose will be described below including a conventional example and a comparative example.

【0045】まず、7×7のウィンドウW7を用いてあ
る注目画素についての多値画像データを演算し、上記注
目画素を中心として主,副走査方向の4方向に隣接する
4つの隣接画素について多値画像データを演算した後、
これら演算された多値画像データに基づいてエッジ強調
量を求めることについて説明する。図9に、多値画像デ
ータに対してエッジ強調を行うときに用いられる従来の
ラプラシアンフィルタ(2次微分フィルタ)の一例を示
す。このラプラシアンフィルタを用いた演算では、図9
内の数値に示すように、注目画素P44の画素データを
4倍した値から、注目画素P44に主,副走査方向の4
方向に隣接した4個の隣接画素P34,P43,P4
5,P54の各画像データを減算して、エッジ強調量を
求めている。
First, multi-valued image data for a certain pixel of interest is calculated using a 7 × 7 window W7, and the multi-valued image data for four adjacent pixels adjacent to the pixel of interest in the four main and sub-scanning directions are calculated. After calculating the value image data,
A description will be given of obtaining the edge enhancement amount based on the calculated multi-valued image data. FIG. 9 shows an example of a conventional Laplacian filter (secondary differential filter) used when performing edge enhancement on multi-valued image data. In the calculation using this Laplacian filter, FIG.
As shown in the numerical values in the figure, the value obtained by quadrupling the pixel data of the target pixel P44 is changed to the target pixel P44 by four in the main and sub-scanning directions.
Four adjacent pixels P34, P43, P4 adjacent in the direction
5 and P54 are subtracted to determine the edge enhancement amount.

【0046】この従来例のラプラシアンフィルタと同様
に、図10に示すような注目画素P44を中心とした7
×7のウィンドウW7内の平滑値から、上記ウィンドウ
W7を副走査方向SSとは逆の方向SS’に1ドットだ
けずらした7×7のウィンドウW7aの平滑値を減算
し、以下同様にして、7×7のウィンドウW7内の平滑
値から、上記ウィンドウW7を副走査方向SS及び主走
査方向の2方向MS,MS’にそれぞれ1ドットだけず
らした7×7のウィンドウの各平滑値をそれぞれ減算し
た後、上記減算して得られた各値を加算してエッジ強調
量を求めることができる。このエッジ強調量を求める方
法を空間フィルタの図で示すと図11のようになる。
Similar to the Laplacian filter of the prior art, the center of the target pixel P44 as shown in FIG.
The smoothed value in the 7 × 7 window W7a obtained by shifting the window W7 by one dot in the direction SS ′ opposite to the sub-scanning direction SS is subtracted from the smoothed value in the × 7 window W7. From the smoothed value in the 7 × 7 window W7, each smoothed value of a 7 × 7 window obtained by shifting the window W7 by one dot in the two directions MS and MS ′ in the sub-scanning direction SS and the main scanning direction is subtracted. After that, the respective values obtained by the subtraction are added to obtain the edge enhancement amount. FIG. 11 shows a method of obtaining the edge enhancement amount in the form of a spatial filter.

【0047】しかしながら、この方法では、図11から
明らかなように、注目画素P44を含む中心部の5×5
のウィンドウ内が計算されない。また、画像データ中の
高周波成分の計算が行われていないので、7ドット分よ
り細かな画像に対して高周波成分のエッジ強調ができな
い。また、処理の対象となる画素が少ないことは、誤っ
たエッジ強調量を出力しやすい。
However, according to this method, as is apparent from FIG. 11, the central 5 × 5 pixels including the target pixel P44 are used.
Window is not calculated. Further, since the calculation of the high-frequency component in the image data is not performed, the edge of the high-frequency component cannot be emphasized for an image finer than seven dots. In addition, when the number of pixels to be processed is small, an erroneous edge enhancement amount is easily output.

【0048】次いで、図12及び図13に示すように、
注目画素*を中心とする3×3のウィンドウW3の領域
AW3内の平滑値から、注目画素*を中心とする5×5
のウィンドウW5の領域から上記領域AW3を除いた領
域AW35内の平滑値を減算して、エッジ強調量を求め
る場合について説明する。前述の図10と図11の方法
との差は、注目画素の周辺の画素値を演算の対象として
高周波成分のエッジ強調に努めている点である。
Next, as shown in FIG. 12 and FIG.
From the smoothed value in the area AW3 of the 3 × 3 window W3 centered on the target pixel *, 5 × 5 centered on the target pixel *
A case will be described in which the smoothed value in the area AW35 excluding the area AW3 is subtracted from the area of the window W5 to obtain the edge enhancement amount. The difference between the above-described methods of FIG. 10 and FIG. 11 is that the pixel values around the target pixel are subjected to the calculation to emphasize the edges of the high-frequency components.

【0049】いま、演算の対象となる画像が、図13に
示すように、左半分がすべて白画素の領域Awであっ
て、右半分がすべて黒画素である領域Abである画像に
おいて、上記白画素と黒画素の境界線上に注目画素*が
存在したとき、領域AW3内の黒画素数は6であり、領
域AW35内の黒画素数は9である。従って、エッジ強
調量は、画素数の比を考慮し、次式のようになる。
Now, as shown in FIG. 13, the image to be operated is an area Aw in which the left half is entirely white pixels and an area Ab in which the right half is all black pixels. When the target pixel * exists on the boundary between the pixel and the black pixel, the number of black pixels in the area AW3 is 6, and the number of black pixels in the area AW35 is 9. Therefore, the edge enhancement amount is given by the following equation in consideration of the ratio of the number of pixels.

【0050】[0050]

【数2】 (Equation 2)

【0051】しかしながら、この方向のエッジ強調量の
最大値が16であるので、上記演算によって得られるエ
ッジ強調量は過小であると考えられる。この比較例(図
12,図13)のエッジ強調用領域の問題点は、注目画
素が演算対象の領域の中心にあり、注目画素近傍にエッ
ジが存在したときに出力されるエッジ強調量が過小であ
る点である。これは、全方向のエッジ強調量を2つの領
域の黒画素数の差で求めようとしても無理なことを示し
ている。さらに、領域AW3の窓の幅が3画素分である
ので、画素数が高々3以上の細線しかエッジ強調できな
い。
However, since the maximum value of the edge enhancement amount in this direction is 16, the edge enhancement amount obtained by the above calculation is considered to be too small. The problem with the edge emphasizing area of this comparative example (FIGS. 12 and 13) is that the edge emphasis amount output when the pixel of interest is at the center of the calculation target area and an edge exists near the pixel of interest is too small. Is that This indicates that it is impossible to obtain the edge enhancement amount in all directions from the difference in the number of black pixels between the two regions. Further, since the width of the window of the area AW3 is three pixels, only a thin line having three or more pixels can be edge-emphasized.

【0052】そこで、エッジ強調量を演算するときに用
いる2つの領域の境界線上に注目画素*を配置すること
が考えられる。いま、図14の(b)に示すような、注
目画素(*で示す)が各領域Aw,Abの境界線上に位
置するような2つのウィンドウ(”1”で示す領域と”
−1”で示す領域)を用いてエッジ強調量を演算するエ
ッジ強調用空間フィルタを用いるとする。すなわち、”
1”で示す位置の画素の値を加算し、”−1”で示す位
置の画素の値を減算してエッジ強調量を求める。図14
の(a)に示すような、左半分がすべて白画素の領域A
wであって、右半分がすべて黒画素である領域Abであ
る画像に対して、エッジ強調量を演算すると、図14の
(c)に示すように、当該エッジ成分量の絶対値は、上
記2つの領域Aw,Abの境界線上で最大となる。
Therefore, it is conceivable to arrange the pixel of interest * on the boundary between two regions used when calculating the edge enhancement amount. Now, as shown in FIG. 14B, two windows (the area indicated by “1” and the area “1”) in which the target pixel (indicated by *) is located on the boundary between the areas Aw and Ab.
(A region indicated by -1 "), and a spatial filter for edge enhancement that calculates an edge enhancement amount is used.
The value of the pixel at the position indicated by "1" is added, and the value of the pixel at the position indicated by "-1" is subtracted to obtain the edge enhancement amount.
(A) as shown in FIG.
When the edge enhancement amount is calculated for an image in which the right half is an area Ab in which the right half is all black pixels, the absolute value of the edge component amount is calculated as shown in FIG. It becomes the maximum on the boundary between the two regions Aw and Ab.

【0053】しかしながら、この方法では、エッジ成分
量の符号がわからないために、そのままエッジ強調量と
して用いることは問題がある。そこで、注目画素を片方
の領域の中心に置くことによって、エッジの符号が正し
く定まると考えられる。
However, in this method, since the sign of the edge component amount is not known, there is a problem that the method is directly used as the edge enhancement amount. Therefore, it is considered that the sign of the edge is correctly determined by placing the target pixel at the center of one of the regions.

【0054】以上の考察から、エッジ強調量を演算する
ときに用いる2つの領域のうち一方の領域の中心に注目
画素*を配置するとして、次の改良が必要となる。(d
1)1つの方向毎にエッジ強調量を求める。具体的に
は、上下、左右、斜めの方向のエッジ強調量を求めるた
めには、たとえば、図15から図22に示すような8個
(4ペア)のウインドウが必要になる。そして、複数の
方向毎に、エッジ強調量を求める演算回路及び最大のエ
ッジ強調量であるエッジ成分を求める演算回路を備え
る。(d2)1つの方向(たとえば左右)に対し、2つ
の向き(たとえば左と右)のエッジ強調量を求める。
From the above considerations, the following improvement is required assuming that the pixel of interest * is located at the center of one of the two regions used for calculating the edge enhancement amount. (D
1) An edge enhancement amount is obtained for each direction. Specifically, to obtain the edge enhancement amounts in the up, down, left, right, and oblique directions, for example, eight (four pairs) windows as shown in FIGS. 15 to 22 are required. An arithmetic circuit for obtaining an edge enhancement amount and an arithmetic circuit for obtaining an edge component which is the maximum edge enhancement amount are provided for each of a plurality of directions. (D2) With respect to one direction (for example, left and right), edge enhancement amounts in two directions (for example, left and right) are obtained.

【0055】すでに説明したように、空間フィルタを2
つの領域の黒画素数の差から求めるものに限れば、一度
に複数の方向のエッジ強調量を求めることが難しいから
である。従って、複数の方向のエッジ成分を求め、それ
から最終的なエッジ強調量を求めなければならない。本
実施例では、その過程で最大の大きさを有するものを選
択した。本来エッジ強調の必要な向きに対しては、擬似
中間調のテクスチャの持つエッジ成分は無視し得るが、
それ以上の向きに対しては、その値が無視できない。複
数の向きのエッジ成分の単純な和であると、テクスチャ
の持つエッジ成分の和をエッジ強調量としてしまい、そ
の値が大きなものとなり得るからである。本発明はこれ
に限らず、複数の方向のエッジ成分の和を最終的なエッ
ジ強調量としてもよいし、もしくは各組が複数の方向の
エッジ成分からなり、各組で複数の方向のエッジ成分の
和を計算し、各組のエッジ成分の和の中で最大のものを
最終的なエッジ強調量としてもよい。
As described above, the spatial filter is set to 2
This is because it is difficult to obtain the edge enhancement amounts in a plurality of directions at once if only the difference is obtained from the difference in the number of black pixels in one area. Therefore, it is necessary to obtain edge components in a plurality of directions, and then to obtain a final edge enhancement amount. In this embodiment, the one having the largest size in the process was selected. For the direction that originally needs edge enhancement, the edge component of the pseudo-halftone texture can be ignored,
For higher orientations, the value cannot be ignored. If the sum of the edge components in a plurality of directions is a simple sum, the sum of the edge components of the texture is used as the edge enhancement amount, and the value can be large. The present invention is not limited to this, and the sum of the edge components in a plurality of directions may be used as the final edge enhancement amount, or each set may include an edge component in a plurality of directions, and each set may include an edge component in a plurality of directions. May be calculated, and the largest sum of the edge components of each set may be used as the final edge enhancement amount.

【0056】本実施例では、この(d1),(d2)の
処理は、エッジ成分1計算部202において行われる。
さらに、次のような改良が必要になる。(d3)強調し
たい空間周波数ごとにエッジ強調量を求める。エッジ強
調したい空間周波数は様々であり、それぞれの空間周波
数に適したウィンドウの大きさが存在する。このウィン
ドウの大きさは、詳細後述するように、エッジ強調の方
向のウィンドウの幅である。本来、窓の大きさが大きい
ほど擬似中間調のテキスチャーを強調する確率は低くな
るが、同時に高周波成分の強調ができなくなる。そこ
で、複数の大きさを有する窓を用意し、それぞれに適し
た空間周波数成分のエッジ強調量を求め、それらから最
終的なエッジ強調量を得る。
In this embodiment, the processing of (d1) and (d2) is performed by the edge component 1 calculation unit 202.
Further, the following improvements are required. (D3) An edge enhancement amount is obtained for each spatial frequency to be enhanced. There are various spatial frequencies for which edge enhancement is desired, and there is a window size suitable for each spatial frequency. The size of this window is the width of the window in the direction of edge enhancement, as described later in detail. Originally, the larger the window size, the lower the probability of emphasizing the pseudo-halftone texture, but at the same time, the higher frequency components cannot be emphasized. Therefore, windows having a plurality of sizes are prepared, edge enhancement amounts of spatial frequency components suitable for the respective windows are obtained, and a final edge enhancement amount is obtained therefrom.

【0057】本実施例では、図15〜図22に示した幅
3のウインドウの他に、図23〜図26に示すように、
エッジ方向に1画素分の幅しか持たない画像を強調する
ための4個の2次微分ウインドウが用いられる。すなわ
ち、これらのウインドウは、前述の図15〜図22に示
した1次微分ウインドウよりも高周波のエッジを強調す
るために用いられる。ここに、エッジ強調量は、図の中
で”2”で示した位置の黒画素数を2倍し、図の中で”
−1”で示した位置の黒画素数を差し引いて求められ
る。この処理は、本実施例では、エッジ成分2計算部2
03において行われる。なお、前述の図15〜図22に
示した1次微分フィルタは、図23〜図26と同様の形
状で幅3の2次微分フィルタとほぼ同一の空間周波数特
性を持つ。このような1次微分フィルタを用いたのは、
前述の擬似中間調のテクスチャの影響をなるべく小さく
するという理由による。更に、「窓の幅」は、減算を行
う2つの窓のエッジ強調方向の幅をここでは言ってお
り、例えば、図23では1であり、図24でも図27で
も1である。
In this embodiment, in addition to the window having a width of 3 shown in FIGS. 15 to 22, as shown in FIGS.
Four second derivative windows are used to emphasize an image having only one pixel width in the edge direction. That is, these windows are used to emphasize higher frequency edges than the first derivative windows shown in FIGS. 15 to 22 described above. Here, the edge enhancement amount is obtained by doubling the number of black pixels at the position indicated by “2” in the figure,
This processing is performed by subtracting the number of black pixels at the position indicated by -1 ″.
03. The first-order differential filters shown in FIGS. 15 to 22 have the same spatial frequency characteristics as those of the second-order differential filters having a width of 3 and a shape similar to that of FIGS. The reason for using such a primary differential filter is that
This is because the influence of the above-described pseudo halftone texture is minimized. Further, the “window width” refers to the width in the edge enhancement direction of the two windows to be subtracted, and is, for example, 1 in FIG. 23 and 1 in FIGS. 24 and 27.

【0058】しかし、図24に示したウインドウの代わ
りに、図27と図28に示す2つの1次微分ウインドウ
の組み合わせ(エッジ強調量の優るほうを選択する)を
用いることは良くない。図29の上側に示す画像を図2
4、図27、図28に示すウインドウを用いて走査方向
に走査し、エッジ成分を求めたときのエッジ強調量を図
29の下側に示す。もしも、図27と図28に示すウイ
ンドウの組み合わせを行おうとすると、主走査位置0で
エッジ強調量が7となり、その前後で−7となるので、
全体の濃度が保存されない。一方、図24に示すウイン
ドウを用いると、主走査位置0でエッジ強調量が14と
なり、その前後で−7となるので、全体の濃度の保存が
なされている。これが図23〜図26に示す2次微分ウ
インドウを用いる理由である。このように、図24に示
す2次微分フィルタは、濃度保存性について優れている
といえる。が、逆に擬似中間調のテクスチャの影響は受
け易いといえる。以上を総括すると、幅3のウインドウ
に関しては、不要な向きのエッジ量に含まれる擬似中間
調のテクスチャの影響を排除することを重視し、幅1の
ウインドウに関しては、濃度保有性を重視しているとい
える。これは、幅1のウインドウは本来細線画像といっ
た擬似中間調のテクスチャを含まない画像を対象とする
からである。(d4)これらの複数のエッジ強調量よ
り、求めるエッジ強調量を得る。
However, in place of the window shown in FIG. 24, it is not good to use a combination of the two primary differential windows shown in FIGS. 27 and 28 (to select the edge enhancement amount which is superior). The image shown in the upper part of FIG. 29 is shown in FIG.
4, the edge enhancement amount when scanning is performed in the scanning direction using the windows shown in FIGS. 27 and 28 and an edge component is obtained is shown in the lower part of FIG. If the combination of the windows shown in FIGS. 27 and 28 is to be performed, the edge enhancement amount becomes 7 at the main scanning position 0 and becomes -7 before and after that.
The whole concentration is not preserved. On the other hand, when the window shown in FIG. 24 is used, the edge enhancement amount becomes 14 at the main scanning position 0 and becomes -7 before and after that, so that the entire density is preserved. This is the reason for using the second derivative window shown in FIGS. Thus, it can be said that the secondary differential filter shown in FIG. 24 is excellent in density preservation. However, on the contrary, it can be said that it is easily affected by the texture of the pseudo halftone. To summarize the above, emphasis is placed on eliminating the influence of the pseudo-halftone texture included in the edge amount in the unnecessary direction for the window of width 3, and on the density retention of the window of width 1. It can be said that there is. This is because a window having a width of 1 is intended for an image that does not originally include a pseudo halftone texture such as a thin line image. (D4) A required edge enhancement amount is obtained from the plurality of edge enhancement amounts.

【0059】また、画像が正しく復元されるためには、
次の2つの条件が必要となる。(d5)平滑用ウインド
ウの出力する範囲とエッジ強調用ウインドウの参照する
範囲がほぼ同一である。もしエッジ強調の範囲が狭い
と、エッジ強調されない範囲において、不要の平滑成分
が残る。逆に、エッジ強調の範囲が広いと、平滑処理に
よって喪失されるエッジ成分の保存には、有効ではな
い。ただし、単なるエッジ強調という意味では有効であ
る。したがって、平滑用ウインドウとしてN1画素のも
のを用い、エッジ強調用ウインドウとしてN2画素のも
のを用いた場合、N1≧N2とする。(d6)複数の周波
数帯域のエッジ強調用ウインドウは、それぞれ、強調す
るべき周波数帯域の画像があるが、その帯域において
は、他の大きさの異なるウインドウのエッジ強調量より
も、大きさが大きくなければならない。すなわち、幅N
画素のウインドウによるエッジ量は、(2×N)画素分
を1周期とする画像に対し、他のどの大きさのウインド
ウのエッジ量よりも大きな値でなければならない。
In order to correctly restore an image,
The following two conditions are required. (D5) The output range of the smoothing window and the reference range of the edge enhancement window are substantially the same. If the range of the edge enhancement is narrow, an unnecessary smooth component remains in a range where the edge enhancement is not performed. Conversely, if the range of the edge enhancement is wide, it is not effective in preserving the edge component lost by the smoothing process. However, it is effective in terms of mere edge enhancement. Therefore, using those N 1 pixels as a smoothing window, when used as the N 2 pixels as edge emphasizing window, and N 1 ≧ N 2. (D6) Each of the edge emphasis windows of a plurality of frequency bands has an image of a frequency band to be emphasized, but in that band, the size is larger than the edge emphasis amounts of the windows having different sizes. There must be. That is, the width N
The edge amount by the window of the pixel must be larger than the edge amount of any other size window for an image having one cycle of (2 × N) pixels.

【0060】図30は、上側に示す細線画像を、7×7
のウインドウで平滑したときの平滑量と、図17、図1
8、図24に示すウインドウで処理したときのエッジ強
調量を示す。第d5の点に関して説明すると、平滑量
は、走査方向に−3〜3の範囲で出力され、エッジ強調
成分は、−4〜4の範囲で出力される。もしエッジ強調
の範囲が狭いと、エッジ強調されない範囲において、不
要の平滑成分が残り、逆に、エッジ強調の範囲が広い
と、余分な範囲にまでエッジ強調され、不要なエッジ強
調成分が残る。本実施例では、エッジ強調の範囲が1画
素分だけ広すぎるが、エッジ強調を行なうか否かの判別
手段が別に設けてあり、また、エッジ強調を行う範囲で
は、エッジ強調成分の方が重視されることから、許容範
囲であると言える。第d6の点に関して説明すると、図
30において、走査方向に−1〜1の範囲においては、
図24の幅1のウインドウの出力値が図17、図18の
幅3のウインドウの出力値よりも絶対値が大きくなるよ
うに換算する必要がある。単純な比較では、ウインドウ
の面積比の違いによって大きなウインドウを用いたとき
のエッジ量が選択されてしまう可能性がある。そこで、
本実施例では、乗算回路207により、エッジ成分2計
算部203の出力に定数K1を乗じている。ここで、定
数K1は、1よりも大きな値である必要があると言え
る。またウインドウが小さいほど、誤差も大きくなるた
め単純な面積比3よりは小さな値を選ぶべきであると言
える。エッジ強調方向に対し、幅N画素分のウインドウ
を用いて得られるエッジ強調量は、(2×N)画素分を
1周期とする画像よりも低周波の画像が検出可能であ
る。これより、(2×N)画像分を1周期とする画像に
対するエッジ強調量が幅N画素分のウインドウから得ら
れるようにすればよいと言える。前述の設定は、この条
件を満たしていると言える。
FIG. 30 shows that the thin line image shown on the upper side is 7 × 7
17 and FIG. 1 and FIG.
8, the edge enhancement amount when processing is performed in the window shown in FIG. Explaining the point d5, the smoothing amount is output in the range of -3 to 3 in the scanning direction, and the edge enhancement component is output in the range of -4 to 4. If the range of edge enhancement is narrow, unnecessary smooth components remain in a range where edge enhancement is not performed. Conversely, if the range of edge enhancement is wide, edge enhancement is performed to an extra range and unnecessary edge enhancement components remain. In the present embodiment, the range of the edge enhancement is too wide by one pixel, but a means for determining whether or not to perform edge enhancement is separately provided. In the range of performing edge enhancement, the edge enhancement component is more important. Therefore, it can be said that it is an allowable range. The d6th point will be described. In FIG. 30, in the range of -1 to 1 in the scanning direction,
It is necessary to convert the output value of the window of width 1 in FIG. 24 so that the absolute value is larger than the output value of the window of width 3 in FIGS. In a simple comparison, there is a possibility that the edge amount when a large window is used is selected depending on the difference in the area ratio of the windows. Therefore,
In this embodiment, the output of the edge component 2 calculation unit 203 is multiplied by a constant K1 by the multiplication circuit 207. Here, it can be said that the constant K1 needs to be a value larger than 1. Also, the smaller the window, the greater the error, so it can be said that a value smaller than the simple area ratio 3 should be selected. With respect to the edge enhancement direction, the edge enhancement amount obtained by using a window having a width of N pixels can detect an image of a lower frequency than an image having one cycle of (2 × N) pixels. From this, it can be said that the edge enhancement amount for an image having one cycle of the (2 × N) image should be obtained from a window having a width of N pixels. It can be said that the above setting satisfies this condition.

【0061】(5−1−3)エッジ領域検出用ウインド
ウ 一方で、エッジ強調すべき領域(エッジ領域)か否かの
判定には、前述のような処理画素をウインドウの中心に
置いたものは適さない。エッジ領域検出用のウインドウ
の大きさは、擬似中間調特有のパターンを包含する程度
の大きさが必要とされる。そのため、もし処理画素をウ
インドウの中心にとり、エッジ検出方向のウインドウの
両側に同じ大きさのウインドウを持つとすると、そのた
めに必要なメモリが多くなるからである。
(5-1-3) Window for Detecting Edge Area On the other hand, in order to determine whether or not the area is an area to be edge-emphasized (edge area), it is necessary to set the processing pixel at the center of the window as described above. Not suitable. The size of the window for detecting the edge region needs to be large enough to include a pattern peculiar to the pseudo halftone. Therefore, if the pixel to be processed is set at the center of the window, and the windows of the same size are provided on both sides of the window in the edge detection direction, the memory required for that purpose increases.

【0062】そこで、エッジ領域検出用ウインドウは、
図14の(b)に示すようなウインドウを用いる。エッ
ジ領域検出には、エッジ量の大きさのみが必要とされる
からである。また、エッジ強調量の場合と同様に、複数
の方向、複数の周波数帯域に対しウインドウが必要であ
り、複数のエッジ強調量から、もとめるエッジ強調量を
得る手段が必要である。
Therefore, an edge area detection window is
A window as shown in FIG. 14B is used. This is because the edge area detection requires only the size of the edge amount. As in the case of the edge enhancement amount, a window is required for a plurality of directions and a plurality of frequency bands, and a means for obtaining an edge enhancement amount to be obtained from the plurality of edge enhancement amounts is required.

【0063】図31〜図36に示す6個(3ペア)のウ
インドウは、本実施例に用いるエッジ領域検出用のウイ
ンドウのペアである。これらのウインドウは、それぞ
れ、上下、左右、左上がり斜め、右上がり斜め、上下、
左右の方向のエッジがあるか否かを検出する。また、図
35と図36のウインドウは、他の4つのウインドウよ
り高周波のエッジを検出している。この高周波エッジ検
出に斜め方向のウインドウがないのは、分散型ディザ、
誤差拡散による斜め方向のパターンを誤検出する恐れが
あるからである。
The six windows (3 pairs) shown in FIGS. 31 to 36 are pairs of windows for detecting an edge area used in this embodiment. These windows are up / down, left / right, left-up diagonal, right-up diagonal, up / down,
It detects whether there is an edge in the left or right direction. In the windows of FIGS. 35 and 36, higher-frequency edges are detected than the other four windows. The lack of diagonal windows in this high-frequency edge detection is due to the distributed dither,
This is because a pattern in an oblique direction may be erroneously detected due to error diffusion.

【0064】処理画素が、図32では左のウインドウに
含まれ、図36では右のウインドウに含まれているの
は、次の理由による。エッジ検出用ウインドウの場合、
処理画素を2つのウインドウの境界におくと、必ず、高
周波すなわちウインドウの走査方向の幅よりも短い周期
で白黒が切り替わる画像に対し、検出不能となる点が存
在する。たとえば図37において、上側に示す2画素幅
の細線画像に対し、図32、図36、図38にそれぞれ
示すウインドウを矢印の向きに走査したときのエッジ強
調量を下側にしめす。エッジ強調量が検出できない点が
存在することがわかる。そこで、ある方向のエッジを検
出するための2つのウインドウからなるペアを2ペア用
意し、1ペアの一方のウインドウの、他方のウインドウ
と接する部分に処理画素が配置されるようにし、1ペア
の一方の側のウインドウに処理画素があるとすれば、他
方のウインドウについては、異なる側に処理画素がある
ようにする。このように処理画素が互い違いになるよう
な2ペアのウインドウを用いればよい。本実施例では、
ウインドウの大きさが異なるものの同一の方向のエッジ
成分を検出するウインドウの組み合わせ(図31と図3
5、図32と図36)に対し、前記の処置を施す。たと
えば、図31の1ペアのウインドウでは、処理画素は下
側のウインドウにあり、図35の1ペアのウインドウで
は、処理画素は、上側のウインドウにある。また、先に
述べたように、別のペアにおいて、図32では、処理画
素が左のウインドウに含まれ、図36では、右のウイン
ドウに含まれている。さらに、図31のウインドウと図
35のウインドウのように、異なる大きさのウインドウ
を組み合わせて1ペアとしたのは、異なる空間周波数に
対しても誤検出をしないようにするためである。
The reason why the processing pixels are included in the left window in FIG. 32 and in the right window in FIG. 36 is as follows. In the case of an edge detection window,
If the processing pixel is located at the boundary between two windows, there is always a point at which the image cannot be detected for an image in which black and white are switched at a high frequency, that is, at a cycle shorter than the width of the window in the scanning direction. For example, in FIG. 37, the edge enhancement amount when the windows shown in FIGS. 32, 36, and 38 are scanned in the direction of the arrow with respect to the thin line image having a width of two pixels shown on the upper side is shown on the lower side. It can be seen that there is a point where the edge enhancement amount cannot be detected. Therefore, two pairs of two windows for detecting an edge in a certain direction are prepared, and a processing pixel is arranged at a portion of one of the windows that is in contact with the other window, so that one pair of the windows is arranged. Assuming that there is a processing pixel in one window, the other window has a processing pixel on a different side. Thus, two pairs of windows in which the processing pixels are alternated may be used. In this embodiment,
Combinations of windows that detect edge components in the same direction, albeit with different window sizes (FIGS. 31 and 3
5, FIG. 32 and FIG. 36) are subjected to the above-described treatment. For example, in the pair of windows in FIG. 31, the processing pixel is in the lower window, and in the pair of windows in FIG. 35, the processing pixel is in the upper window. Further, as described above, in another pair, the processing pixels are included in the left window in FIG. 32 and are included in the right window in FIG. Further, the reason why windows of different sizes are combined into one pair as in the window of FIG. 31 and the window of FIG. 35 is to prevent erroneous detection even for different spatial frequencies.

【0065】(5−2)中間調データ復元部の構成 次いで、図39に示す中間調データ復元部101の各部
の構成及び動作について説明する。なお、以下の図面に
おいて各データの数字はビット数を表し、“7(S
1)”は符号1ビットを含む7ビットのデータであるこ
とを示す。エッジ領域検出のため、図31〜図36に示
すウインドウから得られる大きさが最大であるエッジ領
域検出成分がエッジ領域検出計算部201において得ら
れ、比較器206に出力される。比較器206におい
て、(エッジ領域検出成分)<J1ならば、均一濃度画
像とみなして、エッジ強調処理をしないために、比較選
択器211の出力であるエッジ強調量をクリアする。し
かし、エッジ領域検出計算部201はまた、破線検出も
行い、破線が検出されたならば、前述のクリア信号は、
論理ゲート216によって、その実行がストップさせら
れる。
(5-2) Configuration of Halftone Data Restoring Unit Next, the configuration and operation of each unit of the halftone data restoring unit 101 shown in FIG. 39 will be described. In the following drawings, the number of each data indicates the number of bits, and is “7 (S
1) "indicates that the data is 7-bit data including 1 bit. For detecting the edge area, the edge area detection component having the largest size obtained from the windows shown in FIGS. It is obtained by the calculation unit 201 and output to the comparator 206. If (edge area detection component) <J1, the comparator 206 regards the image as a uniform density image and does not perform edge enhancement processing. However, the edge area detection calculation unit 201 also detects a broken line, and if a broken line is detected, the above-described clear signal becomes:
Its execution is stopped by the logic gate 216.

【0066】ここで、破線検出の必要性について説明す
る。細線画像または濃度の薄い直線画像を疑似中間調2
値化すると、それによって得られる画像は、図40のよ
うな破線状の画像となる。たとえば、図40のような破
線画像を、図32に示すウインドウを用いてエッジ強調
量を検出することを考える。この場合、破線を構成する
黒画素数が少ないため、ともすれば非エッジ領域に判定
されてしまう。もしも非エッジ領域と判定されてしまう
と、その復元画像はぼけたものになってしまう。
Here, the necessity of the broken line detection will be described. Pseudo halftone 2 for thin line image or straight line image with low density
When the value is converted, the image obtained thereby becomes a broken-line image as shown in FIG. For example, consider the detection of the amount of edge enhancement of a dashed image as shown in FIG. 40 using the window shown in FIG. In this case, since the number of black pixels constituting the broken line is small, it is likely that the pixel is determined as a non-edge area. If determined to be a non-edge area, the restored image will be blurred.

【0067】そこで、たとえエッジ領域検出成分がしき
い値J1に達していなくても、J1より小さなしきい値
J3以上であり、かつ、片方のウインドウの黒画素数が
0である場合は、破線ありと判定し、エッジ領域に含め
るようにした。なお、本実施例では、白地に黒の破線の
みを対象としたが、もちろん、黒字に白の破線も対象に
してもよい。
Therefore, even if the edge area detection component does not reach the threshold value J1, if it is equal to or greater than the threshold value J3 smaller than J1 and if the number of black pixels in one of the windows is 0, the broken line It was determined to be present and included in the edge area. In this embodiment, only the black dashed line is targeted on a white background, but, of course, a white dashed line may be targeted on a black character.

【0068】エッジ成分1計算部202では、図15〜
図22にしめすウインドウから得られる最大エッジ成分
が出力され、エッジ成分2計算部203では、図23〜
図28に示すウインドウから得られる最大エッジ成分が
出力される。なお、ここでの最大とは、大きさ(絶対
値)が最大であることをいう。この複数の空間周波数の
エッジ成分1とエッジ成分2は、比較選択器211でそ
の大きさが比較され、大きい方が最終的なエッジ強調量
として出力される。
In the edge component 1 calculation unit 202, FIG.
The maximum edge component obtained from the window shown in FIG. 22 is output.
The maximum edge component obtained from the window shown in FIG. 28 is output. The maximum here means that the size (absolute value) is the maximum. The magnitudes of the edge components 1 and 2 of the plurality of spatial frequencies are compared by the comparison selector 211, and the larger one is output as the final edge enhancement amount.

【0069】ただし、以下の条件では、エッジ成分2は
0とみなされる。 (e1) (エッジ成分2の大きさ)<J2。 (e2) 処理画素を中心とした3×3のウインドウ内
に少数画素がない。エッジ成分2は、使用するウインド
ウが小さいため、疑似中間調特有のパターンをエッジと
みなすなどの処理により、エッジの誤判定が生じやす
い。そこで、条件(e1)のように、その大きさがしき
い値J2より小さい場合、それを誤差とみなして0とす
る。また、条件(e2)は、ウインドウの幅が強調する
方向に1画素分の幅しかもたないため、その条件下での
強調が無意味であることを示している。
However, the edge component 2 is regarded as 0 under the following conditions. (E1) (the size of the edge component 2) <J2. (E2) There are no small number of pixels in a 3 × 3 window centered on the processing pixel. Since the edge component 2 uses a small window, erroneous determination of an edge is likely to occur by processing such as considering a pattern peculiar to the pseudo halftone as an edge. Therefore, when the magnitude is smaller than the threshold value J2 as in the condition (e1), it is regarded as an error and set to 0. The condition (e2) indicates that the width of the window has only a width of one pixel in the direction in which the window is emphasized, so that the emphasis under that condition is meaningless.

【0070】図41に示すような画像に対し、点線で示
す位置に、図24に示すウインドウを配置したとする
と、もし上記(e1)の制約が無ければ、左右方向にエ
ッジ強調がなされ、エッジ強調量は、+(黒)となる。
図41に示す画像は、図15と図16に示すウインドウ
により上下方向に強調され、その強調量は、−(白)と
なるべき画像である。そこで、上記(e2)の制約を設
け、図24に示すウインドウによる強調量を0とするわ
けである。
If the window shown in FIG. 24 is arranged at the position shown by the dotted line with respect to the image shown in FIG. The emphasis amount is + (black).
The image shown in FIG. 41 is vertically emphasized by the windows shown in FIGS. 15 and 16, and the amount of enhancement should be − (white). Therefore, the above-mentioned constraint (e2) is provided, and the emphasis amount by the window shown in FIG. 24 is set to 0.

【0071】図39に示す中間調データ復元部101に
おいて、比較器209では、絶対値回路208で生成さ
れたエッジ成分2の絶対値としきい値J2とが比較さ
れ、J2の方が大きければ、その出力信号は、OR回路
210をとおり、乗算回路207の出力をクリアする。
In the halftone data restoring unit 101 shown in FIG. 39, the comparator 209 compares the absolute value of the edge component 2 generated by the absolute value circuit 208 with the threshold value J2. The output signal passes through the OR circuit 210 and clears the output of the multiplication circuit 207.

【0072】3×3少数画素検出部204は、前記(e
2)の処理画素を中心とした3×3のウインドウの中に
少数画素があるか無いかを検出しており、もし無けれ
ば、その出力は、OR回路210をとおり、乗算回路2
07の出力をクリアする。
The 3 × 3 minority pixel detecting section 204 performs the above (e)
It is detected whether or not there is a small number of pixels in a 3 × 3 window centered on the processing pixel of 2).
07 output is cleared.

【0073】なお、本実施例では、前記(e1),(e
2)の条件をエッジ成分2に対してのみ実行したが、エ
ッジ成分1に対して行うことも考えられる。その場合
は、(e1)におけるJ1の値、(e2)におけるウイ
ンドウの大きさは、その大きさに見合ったものにする必
要がある。
In this embodiment, the above (e1), (e)
Although the condition 2) is executed only for the edge component 2, it may be executed for the edge component 1. In this case, the value of J1 in (e1) and the size of the window in (e2) need to be appropriate for the size.

【0074】もしも、前記(e1),(e2)の条件が
ともに満たされなければ、エッジ強調量2には、前記の
定数K1(エッジ強調量に対する換算用定数)が乗じら
れ、比較器211に入力される。なお、エッジ領域検出
計算部201では、破線の検出も同時に行っている。す
なわち、論理回路4から得られるウインドウ内の画素が
すべて白である信号を用いて、1組のウインドウのどち
らかが全白であり、かつ、エッジ量の大きさがJ3より
は大きいことを条件として、破線検出ありとする。
If the conditions (e1) and (e2) are not satisfied, the edge enhancement amount 2 is multiplied by the constant K1 (conversion constant for the edge enhancement amount). Is entered. The edge area detection calculation unit 201 also detects a broken line at the same time. That is, using a signal obtained from the logic circuit 4 in which all the pixels in the window are white, the condition is that one of the windows in the set is all white and the magnitude of the edge amount is larger than J3. It is assumed that a broken line is detected.

【0075】なお、後で説明するように、破線であると
判定されると、エッジ強調量は出力されない。なお、エ
ッジ成分2計算部203の出力するエッジ成分2には、
所定の換算値が乗じられて、2種のフィルタの調整を行
う。7×7黒画素数カウント部205は、処理画素を中
心とした7×7の平滑用ウインドウ内の黒画素数のカウ
ントによって、平滑成分が得られ、加算回路212に入
力される。また、その値は、比較器213で”24”と
比較することによって、白、黒のどちらが少数画素であ
るかが得られ、その情報が3×3少数画像検出部204
に送られる。なお、この平滑用ウインドウの大きさは、
エッジ領域か否かによって変化させてもよい。
As will be described later, if it is determined that the image is a broken line, no edge enhancement amount is output. The edge component 2 output from the edge component 2 calculator 203 includes:
The two types of filters are adjusted by multiplying them by a predetermined conversion value. The 7 × 7 black pixel number counting unit 205 obtains a smooth component by counting the number of black pixels in the 7 × 7 smoothing window centering on the processing pixel, and inputs the smoothed component to the addition circuit 212. The value is compared with “24” by the comparator 213 to determine which of white and black is the smaller number of pixels.
Sent to The size of this smoothing window is
It may be changed depending on whether it is an edge region or not.

【0076】最後に、加算回路212において、エッジ
強調用ウインドウから得られるエッジ強調量と平滑用ウ
インドウから得られる平滑量とが混合(加算)され、変
倍回路214で所望の階調数にまるめて、疑似中間調画
像多値データが2値データに復元される。
Finally, the addition circuit 212 mixes (adds) the edge enhancement amount obtained from the edge enhancement window and the smoothing amount obtained from the smoothing window, and rounds the desired gradation number by the scaling circuit 214. Thus, the pseudo halftone image multi-value data is restored to binary data.

【0077】(5−3)中間調データ復元部の各部の構
成 以下で、中間調データ復元部101の各部の構成を説明
する。エッジ領域検出計算部201(図42,図4
3)、エッジ成分1計算部202(図44、図45)お
よびエッジ成分2計算部203(図46)は、論理回路
B回路(図47)、論理回路C回路(図48)、論理回
路D回路(図49)または論理回路E回路(図50)を
用いて、ウインドウの片方の中の黒画素数を計数し、減
算器を用いてエッジ成分を得ている。
(5-3) Configuration of Each Unit of Halftone Data Restoring Unit The configuration of each unit of the halftone data restoring unit 101 will be described below. Edge area detection calculation section 201 (FIGS. 42 and 4)
3), the edge component 1 calculator 202 (FIGS. 44 and 45) and the edge component 2 calculator 203 (FIG. 46) include a logic circuit B circuit (FIG. 47), a logic circuit C circuit (FIG. 48), and a logic circuit D Using a circuit (FIG. 49) or a logic circuit E circuit (FIG. 50), the number of black pixels in one of the windows is counted, and an edge component is obtained using a subtractor.

【0078】すなわち、図31の第21の空間フィルタ
と図32の第22の空間フィルタはそれぞれ、副走査方
向及び主走査方向のエッジ検出用空間フィルタである。
第21の空間フィルタは、画素P54,P64間の境界
中心点を中心とする4×7のウィンドウW47の平滑値
から画素P14,P24間の境界中心点を中心とする4
×7のウインドウW47aの平滑値を減算することによ
ってフィルタリング処理を行なう空間フィルタであり、
第22の空間フィルタは、画素P42,P43間の境界
中心点を中心とする7×4のウィンドウW74内の平滑
値から画素P46,P47間の境界中心点を中心とする
7×4のウィンドウW74aの平滑値を減算することに
よってフィルタリング処理を行なう空間フィルタであ
る。すなわち、論理回路D回路LD1、LD2は、それ
ぞれ、ウインドウW47a、W47の中の黒画素数を計
算し、減算器は、2つのウインドウW47とW47aの
差を演算する。図32〜図34の空間フィルタについて
も同様に演算処理がなされる。そして、得られた各エッ
ジ量の最大値が比較器206でしきい値J1より小さい
と判定されると、エッジ強調量は出力されない。
That is, the 21st spatial filter in FIG. 31 and the 22nd spatial filter in FIG. 32 are edge detecting spatial filters in the sub-scanning direction and the main scanning direction, respectively.
The twenty-first spatial filter obtains a value of 4 from the smoothed value of the 4 × 7 window W47 centered on the boundary center point between the pixels P54 and P64, based on the boundary center point between the pixels P14 and P24.
A spatial filter for performing a filtering process by subtracting a smoothed value of a × 7 window W47a;
The 22nd spatial filter calculates the 7 × 4 window W74a centered on the boundary center point between the pixels P46 and P47 from the smoothed value in the 7 × 4 window W74 centered on the boundary center point between the pixels P42 and P43. Is a spatial filter that performs a filtering process by subtracting the smoothed value of. That is, the logic circuits D1 and LD2 calculate the number of black pixels in the windows W47a and W47, respectively, and the subtractor calculates the difference between the two windows W47 and W47a. Arithmetic processing is similarly performed on the spatial filters of FIGS. When the maximum value of the obtained edge amounts is determined by the comparator 206 to be smaller than the threshold value J1, the edge enhancement amount is not output.

【0079】(5−3−1)エッジ領域検出計算部 まず、図42と図43に示すエッジ領域検出計算部20
1について説明する。エッジ領域検出計算部201は、
エッジ領域検出のためエッジ成分量の最大値を計算する
回路であって、所定の論理演算(以下、論理回路D演算
という。)を行なう8個の論理回路D回路LD1〜LD
8と、4個の論理回路C回路LC1〜LC4と、6個の
減算器SU1〜SU6と、4個の比較回路C1〜C4
と、5個の比較選択器CS1〜CS5と、1個の絶対値
回路ABと、4入力OR回路OR5と、4個のOR回路
OR1〜OR4と、4個のANDゲートAND1〜AN
D4とを備える。また、すでに説明したように、図31
〜図36に、エッジ領域判別のためのエッジ量を演算す
るときに用いる第21〜第26の空間フィルタを示す。
この第21〜第26の空間フィルタにおける各注目画素
はいずれもP44であって、エッジ量を演算する9×9
の1つの領域の中心に位置する。
(5-3-1) Edge Area Detection and Calculation Unit First, the edge area detection and calculation unit 20 shown in FIG. 42 and FIG.
1 will be described. The edge region detection calculation unit 201
A circuit for calculating the maximum value of the amount of edge components for detecting an edge area, and includes eight logic circuit D circuits LD1 to LD for performing a predetermined logic operation (hereinafter, referred to as a logic circuit D operation).
8, four logic circuits C1 to LC4, six subtractors SU1 to SU6, and four comparison circuits C1 to C4
, Five comparison selectors CS1 to CS5, one absolute value circuit AB, four input OR circuit OR5, four OR circuits OR1 to OR4, and four AND gates AND1 to AN.
D4. Also, as already described, FIG.
36 to 21 show the 21st to 26th spatial filters used when calculating the edge amount for edge region discrimination.
Each of the pixels of interest in the 21st to 26th spatial filters is P44, and 9 × 9 for calculating the edge amount.
Is located at the center of one region.

【0080】ここで、2個の論理回路D回路LD1,L
D2と減算器SU1によって、図31に図示された第2
1の空間フィルタを構成し、2個の論理回路D回路LD
3,LD4と減算器SU2によって、図32に図示され
た第22の空間フィルタを構成している。また、2個の
論理回路D回路LD5,LD6と減算器SU3によっ
て、図33に図示された第23の空間フィルタを構成
し、2個の論理回路D回路LD7,LD8と減算器SU
4によって、図34に図示された第24の空間フィルタ
を構成している。さらに、2個の論理回路C回路LC
1,LC2と減算器SU5によって、図35に図示され
た第25の空間フィルタを構成し、2個の論理回路C回
路LC3,LC4と減算器SU6によって、図36に図
示された第26の空間フィルタを構成している。
Here, two logic circuits D circuits LD1, L
D2 and the subtractor SU1, the second signal shown in FIG.
One spatial filter and two logic circuits D circuit LD
3, the LD4 and the subtractor SU2 make up the 22nd spatial filter shown in FIG. The two logic circuit D circuits LD5 and LD6 and the subtractor SU3 form a twenty-third spatial filter shown in FIG. 33, and the two logic circuit D circuits LD7 and LD8 and the subtractor SU3.
4 constitutes the twenty-fourth spatial filter shown in FIG. Furthermore, two logic circuits C circuit LC
35, the 25th spatial filter shown in FIG. 35 is constituted by the LC1, LC2 and the subtractor SU5, and the 26th spatial filter shown in FIG. 36 is constituted by the two logic circuits C3, LC4 and the subtractor SU6. Make up the filter.

【0081】ここで、各論理回路D回路LD1〜LD8
はそれぞれ、入力される21ビットの画素データに対し
て上記論理回路D演算を行った後、演算結果の5ビット
のデータを出力する。また、各減算器SU1〜SU6
は、それぞれ、入力端子Bに入力される5ビットのデー
タから入力端子Aに入力される5ビットのデータを減算
した後、減算結果の符号1ビットを含む7ビットのデー
タを出力する。さらに、各比較選択器CS1〜CS5
は、それぞれ、入力される2つのデータのうち絶対値が
最大のデータを選択して、選択した符号1ビットを含む
7ビットのデータを出力する。
Here, each logic circuit D circuit LD1 to LD8
Performs the logic circuit D operation on the input 21-bit pixel data, and then outputs 5-bit data of the operation result. Further, each of the subtracters SU1 to SU6
Respectively subtracts 5-bit data input to the input terminal A from 5-bit data input to the input terminal B, and then outputs 7-bit data including a sign bit of the subtraction result. Further, each of the comparison selectors CS1 to CS5
Selects the data having the largest absolute value among the two pieces of input data, and outputs 7-bit data including the selected sign 1 bit.

【0082】さらに詳しく説明すると、図31のウィン
ドウW37a内の21ビットの画素データは論理回路D
回路LD1に入力された後、当該論理回路D回路LD1
から出力されるデータが減算器SU1の入力端子Aに入
力される。また、図31のウィンドウW37内の21ビ
ットの画素データは論理回路D回路LD2に入力された
後、当該論理回路D回路LD2から出力されるデータが
減算器SU1の入力端子Bに入力される。そして、減算
器SU1から出力されるデータは比較選択器CS1に入
力される。
More specifically, the 21-bit pixel data in the window W37a shown in FIG.
After being input to the circuit LD1, the logic circuit D circuit LD1
Is output to the input terminal A of the subtractor SU1. Also, after the 21-bit pixel data in the window W37 in FIG. 31 is input to the logic circuit D circuit LD2, the data output from the logic circuit D circuit LD2 is input to the input terminal B of the subtractor SU1. Then, the data output from the subtractor SU1 is input to the comparison selector CS1.

【0083】図32のウィンドウW37a内の21ビッ
トの画素データは論理回路D回路LD3に入力された
後、当該論理回路D回路LD3から出力されるデータが
減算器SU2の入力端子Aに入力される。また、図32
のウィンドウW37内の21ビットの画素データは論理
回路D回路LD4に入力された後、当該論理回路D回路
LD4から出力されるデータが減算器SU2の入力端子
Bに入力される。そして、減算器SU2から出力される
データは比較選択器CS1に入力される。さらに、当該
比較選択器CS2から出力されるデータはさらに比較選
択器CS3に入力される。
After the 21-bit pixel data in the window W37a in FIG. 32 is input to the logic circuit D circuit LD3, the data output from the logic circuit D circuit LD3 is input to the input terminal A of the subtractor SU2. . FIG. 32
After the 21-bit pixel data in the window W37 is input to the logic circuit D circuit LD4, the data output from the logic circuit D circuit LD4 is input to the input terminal B of the subtractor SU2. Then, the data output from the subtractor SU2 is input to the comparison selector CS1. Further, the data output from the comparison selector CS2 is further input to the comparison selector CS3.

【0084】図33のウィンドウW37a内の21ビッ
トの画素データは論理回路D回路LD5に入力された
後、当該論理回路D回路LD5から出力されるデータが
減算器SU3の入力端子Aに入力される。また、図33
のウィンドウW37内の21ビットの画素データは論理
回路D回路LD6に入力された後、当該論理回路D回路
LD6から出力されるデータが減算器SU3の入力端子
Bに入力される。そして、減算器SU3から出力される
データは比較選択器CS2に入力される。
After the 21-bit pixel data in the window W37a in FIG. 33 is input to the logic circuit D circuit LD5, the data output from the logic circuit D circuit LD5 is input to the input terminal A of the subtractor SU3. . FIG. 33
After the 21-bit pixel data in the window W37 is input to the logic circuit D circuit LD6, the data output from the logic circuit D circuit LD6 is input to the input terminal B of the subtractor SU3. Then, the data output from the subtractor SU3 is input to the comparison selector CS2.

【0085】図34のウィンドウW37a内の21ビッ
トの画素データは論理回路D回路LD7に入力された
後、当該論理回路D回路LD7から出力されるデータが
減算器SU4の入力端子Aに入力される。また、図34
のウィンドウW37内の21ビットの画素データは論理
回路D回路LD8に入力された後、当該論理回路D回路
LD8から出力されるデータが減算器SU4の入力端子
Bに入力される。そして、減算器SU4から出力される
データは比較選択器CS2に入力される。さらに、当該
比較選択器CS2から出力されるデータはさらに比較選
択器CS3に入力される。比較選択器CS3から出力さ
れるデータはさらに比較選択器CS5に入力される。
After the 21-bit pixel data in the window W37a in FIG. 34 is input to the logic circuit D circuit LD7, the data output from the logic circuit D circuit LD7 is input to the input terminal A of the subtractor SU4. . FIG.
Is input to the logic circuit D circuit LD8, and then the data output from the logic circuit D circuit LD8 is input to the input terminal B of the subtractor SU4. Then, the data output from the subtractor SU4 is input to the comparison selector CS2. Further, the data output from the comparison selector CS2 is further input to the comparison selector CS3. The data output from the comparison selector CS3 is further input to the comparison selector CS5.

【0086】図35のウィンドウW37a内の21ビッ
トの画素データは論理回路C回路LD1に入力された
後、当該論理回路C回路LC1から出力されるデータが
減算器SU5の入力端子Aに入力される。また、図35
のウィンドウW37内の21ビットの画素データは論理
回路C回路LC2に入力された後、当該論理回路C回路
LD2から出力されるデータが減算器SU5の入力端子
Bに入力される。そして、減算器SU5から出力される
データは比較選択器CS4に入力される。
After the 21-bit pixel data in the window W37a of FIG. 35 is input to the logic circuit C circuit LD1, the data output from the logic circuit C circuit LC1 is input to the input terminal A of the subtractor SU5. . FIG.
Is input to the logic circuit C circuit LC2, and then data output from the logic circuit C circuit LD2 is input to the input terminal B of the subtractor SU5. Then, the data output from the subtractor SU5 is input to the comparison selector CS4.

【0087】図36のウィンドウW37a内の21ビッ
トの画素データは論理回路C回路LC3に入力された
後、当該論理回路D回路LD7から出力されるデータが
減算器SU6の入力端子Aに入力される。また、図36
のウィンドウW37内の21ビットの画素データは論理
回路C回路LC4に入力された後、当該論理回路C回路
LC4から出力されるデータが減算器SU4の入力端子
Bに入力される。そして、減算器SU6から出力される
データは比較選択器CS4に入力される。さらに、当該
比較選択器CS4から出力されるデータはさらに比較選
択器CS5に入力される。
After the 21-bit pixel data in the window W37a in FIG. 36 is input to the logic circuit C circuit LC3, the data output from the logic circuit D circuit LD7 is input to the input terminal A of the subtractor SU6. . FIG.
Is input to the logic circuit C circuit LC4, and then the data output from the logic circuit C circuit LC4 is input to the input terminal B of the subtractor SU4. Then, the data output from the subtractor SU6 is input to the comparison selector CS4. Further, the data output from the comparison selector CS4 is further input to the comparison selector CS5.

【0088】すなわち、各減算器SU1〜SU6の出力
する各ウインドウのエッジ量は、比較選択器CS1〜C
S5により最大値が選択される。最大値は、さらに絶対
値回路AB1により絶対値に変換されて、エッジ領域検
出成分として出力される。
That is, the edge amount of each window output from each of the subtracters SU1 to SU6 is determined by the comparison selectors CS1 to CS
The maximum value is selected by S5. The maximum value is further converted into an absolute value by the absolute value circuit AB1, and output as an edge area detection component.

【0089】一方、エッジ領域検出計算部201は破線
も検出する。各論理回路D回路LD1〜LD8は、それ
ぞれ、ウインドウ内の画素がすべて白である信号をOR
回路OR1〜OR4を介してAND回路AND1〜AN
D4に出力する。一方、比較回路C1〜C4は、減算器
SU1〜SU4から出力されるエッジ量をしきい値J3
と比較する。AND回路AND1〜AND4は、1組の
ウインドウのどちらかが全白であり、かつ、エッジ量の
大きさがJ3より大きい場合、破線検出信号を4入力O
R回路OR5を介して出力する。
On the other hand, the edge area detection calculation unit 201 also detects a broken line. Each of the logic circuits D1 to LD8 ORs a signal in which all the pixels in the window are white.
AND circuits AND1 to AN via circuits OR1 to OR4
Output to D4. On the other hand, the comparison circuits C1 to C4 determine the edge amount output from the subtracters SU1 to SU4 as the threshold value J3.
Compare with The AND circuits AND1 to AND4 output the broken line detection signal to the four inputs O when one of the set of windows is all white and the magnitude of the edge amount is larger than J3.
Output through the R circuit OR5.

【0090】(5−3−2)エッジ成分1計算部 図44と図45に示すエッジ成分1計算部202は、図
15〜図22に示す幅3のウインドウを用いて最大のエ
ッジ判別量であるエッジ成分1を計算し、比較選択器2
11に出力する。エッジ成分1計算部202は、所定の
論理演算(以下、論理回路E演算という。)を行なう1
2個の論理回路E回路LE11〜LE112と、8個の
減算器SU11〜SU18と、7個の比較選択器CS1
1〜CS17とを備える。すでに説明したように、図1
5〜図22にエッジ成分1検出のためのウインドウを示
す。ここで、2個の論理回路E回路LE11,LE12
と減算器SU11によって、図15に図示された第1の
空間フィルタを構成し、2個の論理回路E回路LE1
2,LE13と減算器SU12によって、図16に図示
された第2の空間フィルタを構成している。また、2個
の論理回路D回路LE14,LE15と減算器SU13
によって、図17に図示された第3の空間フィルタを構
成し、2個の論理回路E回路LE15,LE16と減算
器SU14によって、図18に図示された第4の空間フ
ィルタを構成している。さらに、2個の論理回路E回路
LE17,LE18と減算器SU15によって、図19
に図示された第5の空間フィルタを構成し、2個の論理
回路E回路LE18,LE19と減算器SU16によっ
て、図20に図示された第6の空間フィルタを構成して
いる。さらに、2個の論理回路E回路LE20,LE2
1と減算器SU17によって、図21に図示された第7
の空間フィルタを構成し、2個の論理回路E回路LE2
1,LE22と減算器SU18によって、図22に図示
された第8の空間フィルタを構成している。
(5-3-2) Edge Component 1 Calculation Unit The edge component 1 calculation unit 202 shown in FIGS. 44 and 45 uses the window of width 3 shown in FIGS. An edge component 1 is calculated, and a comparison selector 2
11 is output. The edge component 1 calculation unit 202 performs a predetermined logical operation (hereinafter, referred to as a logical circuit E operation) 1.
Two logic circuit E circuits LE11 to LE112, eight subtractors SU11 to SU18, and seven comparison selectors CS1
1 to CS17. As already explained, FIG.
FIGS. 5 to 22 show windows for detecting edge component 1. FIG. Here, two logic circuit E circuits LE11 and LE12
And the subtractor SU11, the first spatial filter shown in FIG. 15 is formed, and two logic circuits E1
2, the LE 13 and the subtractor SU12 constitute the second spatial filter shown in FIG. Further, two logic circuits D14 and LE15 and a subtractor SU13
17 constitutes the third spatial filter shown in FIG. 17, and the two logic circuits E15 and LE16 and the subtractor SU14 constitute the fourth spatial filter shown in FIG. Further, the two logic circuits E17 and LE18 and the subtractor SU15 make the circuit shown in FIG.
20 constitutes the fifth spatial filter shown in FIG. 20 by the two logic circuit E circuits LE18 and LE19 and the subtractor SU16. Furthermore, two logic circuit E circuits LE20, LE2
1 and the subtractor SU17, the seventh signal shown in FIG.
And two logic circuits E2 and LE2
1, the LE22 and the subtractor SU18 constitute the eighth spatial filter shown in FIG.

【0091】図15の第1の空間フィルタと図16の第
2の空間フィルタは、平滑値を演算するための1つの3
×7のウィンドウW37を共有し互いに対となる副走査
方向のエッジ成分検出用空間フィルタであって、第1の
空間フィルタは、注目画素P44を中心とする3×7の
ウィンドウW37内の平滑値から画素P14を中心とす
る3×7のウィンドウW37aの平滑値を減算すること
によってフィルタリング処理を行なう空間フィルタであ
り、第2の空間フィルタは、上記ウィンドウW37内の
平滑値から画素P74を中心とする3×7のウィンドウ
W37bの平滑値を減算することによってフィルタリン
グ処理を行なう空間フィルタである。エッジ成分1演算
のため、論理回路E回路LE1、LE2,LE3は、そ
れぞれ、ウインドウW37a、W37,W37bの中の
黒画素数を計算し、減算器SU1、SU2は、2つのウ
インドウW37とW37aの差、W37bとW37の差
を演算する。図17〜図22の空間フィルタについても
同様に演算処理がなされる。
The first spatial filter shown in FIG. 15 and the second spatial filter shown in FIG.
A spatial filter for detecting edge components in the sub-scanning direction that shares the × 7 window W37 and forms a pair with each other. The first spatial filter is a smoothed value within the 3 × 7 window W37 centered on the pixel of interest P44. Is a spatial filter that performs a filtering process by subtracting the smoothed value of the 3 × 7 window W37a centered on the pixel P14 from the pixel P14. The second spatial filter is based on the smoothed value in the window W37 centered on the pixel P74. This is a spatial filter that performs a filtering process by subtracting the smoothed value of the 3 × 7 window W37b. To calculate the edge component 1, the logic circuit E circuits LE1, LE2, and LE3 calculate the number of black pixels in the windows W37a, W37, and W37b, respectively, and the subtracters SU1 and SU2 calculate the number of black pixels in the two windows W37 and W37a. The difference, the difference between W37b and W37, is calculated. Arithmetic processing is similarly performed for the spatial filters of FIGS.

【0092】減算器SU11、SU12の出力は、比較
選択器CS11に入力され、大きい方の値が出力され
る。また、減算器SU13、SU14の出力は、比較選
択器CS12に入力され、大きい方の値が出力される。
両比較選択器CS11,CS12の出力は、比較選択器
CS15に入力され、大きい方の値が出力される。さら
に、減算器SU15、SU16の出力は、比較選択器C
S13に入力され、大きい方の値が出力される。また、
減算器SU17、SU18の出力は、比較選択器CS1
4に入力され、大きい方の値が出力される。両比較選択
器CS13,CS14の出力は、比較選択器CS16に
入力され、大きい方の値が出力される。そして、比較選
択器CS15,CS16の出力は比較選択器CS17に
入力され、大きい方の値がエッジ成分1として出力され
る。こうして、各ウインドウで検出された最大のエッジ
成分が出力される。
The outputs of the subtracters SU11 and SU12 are input to the comparison selector CS11, and the larger value is output. The outputs of the subtracters SU13 and SU14 are input to the comparison selector CS12, and the larger value is output.
The outputs of the comparison selectors CS11 and CS12 are input to the comparison selector CS15, and the larger value is output. Further, the outputs of the subtracters SU15 and SU16 are output from the comparison selector C
It is input to S13, and the larger value is output. Also,
Outputs of the subtracters SU17 and SU18 are output from a comparison selector CS1.
4 and the larger value is output. The outputs of the comparison selectors CS13 and CS14 are input to the comparison selector CS16, and the larger value is output. The outputs of the comparison selectors CS15 and CS16 are input to the comparison selector CS17, and the larger value is output as the edge component 1. Thus, the maximum edge component detected in each window is output.

【0093】(5−3−3)エッジ成分2計算部 図46に示すエッジ成分2計算部203は、図23〜図
26に示す幅1のウインドウを用いてエッジ成分2を計
算し、演算されたエッジ成分量のうち絶対値が最大のも
のである、1ビットの符号ビットを含む7ビットのデー
タを変倍回路207を介して所定の定数K1を乗じて比
較選択器211に出力するとともに、絶対値回路208
を介して比較器209に出力する。エッジ成分2計算部
203は、所定の論理演算(以下、論理回路B演算とい
う。)を行なう4個の論理回路B回路LB21〜LB2
4と、4個の論理回路C回路LC21〜LC24と、4
個の2倍乗算回路M21〜M24と、4個の減算器SU
21〜SU24と、3個の比較選択器CS21〜CS2
4とを備える。すでに説明したように、図23〜図26
は、空間周波数のより高いエッジ成分2を演算するとき
に用いる第11〜第16の空間フィルタを示す。この第
11〜第16の空間フィルタにおける各注目画素はいず
れもP44であって、エッジ量を演算する9×9の1つ
の領域の中心に位置する。
(5-3-3) Edge Component 2 Calculator The edge component 2 calculator 203 shown in FIG. 46 calculates the edge component 2 using the window of width 1 shown in FIGS. The 7-bit data including the 1-bit sign bit whose absolute value is the largest of the edge component amounts is multiplied by a predetermined constant K1 via the scaling circuit 207 and output to the comparison selector 211. Absolute value circuit 208
Is output to the comparator 209 via the. The edge component 2 calculator 203 performs four logic circuit B circuits LB21 to LB2 for performing a predetermined logic operation (hereinafter, referred to as a logic circuit B operation).
4, four logic circuit C circuits LC21 to LC24,
Doubling circuits M21 to M24 and four subtracters SU
21 to SU24 and three comparison selectors CS21 to CS2
4 is provided. As already explained, FIGS.
Indicates the 11th to 16th spatial filters used when calculating the edge component 2 having a higher spatial frequency. Each of the pixels of interest in the 11th to 16th spatial filters is P44, and is located at the center of one 9 × 9 area for calculating the edge amount.

【0094】図23の第21の空間フィルタは、エッジ
方向に1画素分の幅しかもたない画像の強調に用いら
れ、図27と図28の2つの空間フィルタを組み合わせ
たものに相当する。この演算は、エッジ成分2計算部2
03において、論理回路B回路LB1と、2倍乗算回路
と、論理回路C回路LC1と、減算器SU1により行わ
れる。すなわち、論理回路B回路LB1は、ウインドウ
内の”2”で示す部分の黒画素数を計算しウインドウ内
の”2”で示す部分の黒画素数を計算し、2倍乗算回路
は、画素数の違いを調整するため論理回路B1回路LB
1の出力値を2倍する。一方、論理回路C回路LC1
は、ウインドウ内の”2”で示す部分の黒画素数を計算
する。減算器SU1は、両者の差を演算し、エッジ量と
して出力する。すなわち、論理回路B回路B21、論理
回路C回路LC21、2倍乗算回路M21、減算器SU
21によって、図23に図示された第21の空間フィル
タを構成する。ここに、論理回路B回路B21の出力は
2倍乗算回路M21により2倍されて減算器SU21に
入力される。同様に、論理回路B回路B22、論理回路
C回路LC22、2倍乗算回路M22、減算器SU22
によって、図24に図示された第22の空間フィルタを
構成している。また、論理回路B回路B23、論理回路
C回路LC23、2倍乗算回路M23,減算器SU23
によって、図25に図示された第23の空間フィルタを
構成し、論理回路B回路B24、論理回路C回路LC2
4、2倍乗算回路M24、減算器SU24によって、図
26に図示された第24の空間フィルタを構成してい
る。図24〜図26の空間フィルタについても同様に演
算処理がなされる。
The twenty-first spatial filter shown in FIG. 23 is used for enhancing an image having only one pixel width in the edge direction, and corresponds to a combination of the two spatial filters shown in FIGS. 27 and 28. This operation is performed by the edge component 2 calculation unit 2
At 03, the operation is performed by the logic circuit B circuit LB1, the doubling circuit, the logic circuit C circuit LC1, and the subtractor SU1. That is, the logic circuit B circuit LB1 calculates the number of black pixels in the portion indicated by "2" in the window and calculates the number of black pixels in the portion indicated by "2" in the window. Logic circuit B1 circuit LB to adjust the difference
The output value of 1 is doubled. On the other hand, the logic circuit C circuit LC1
Calculates the number of black pixels in the portion indicated by "2" in the window. The subtractor SU1 calculates the difference between the two and outputs the result as an edge amount. That is, the logic circuit B circuit B21, the logic circuit C circuit LC21, the double multiplication circuit M21, and the subtractor SU
21 constitutes the twenty-first spatial filter shown in FIG. Here, the output of the logic circuit B circuit B21 is doubled by the double multiplier M21 and input to the subtractor SU21. Similarly, a logic circuit B circuit B22, a logic circuit C circuit LC22, a double multiplier M22, and a subtractor SU22
These form the 22nd spatial filter shown in FIG. Further, a logic circuit B circuit B23, a logic circuit C circuit LC23, a double multiplier M23, a subtractor SU23
To form a twenty-third spatial filter shown in FIG. 25, and a logic circuit B circuit B24 and a logic circuit C circuit LC2
The twenty-fourth spatial filter shown in FIG. 26 is configured by the fourth and double multiplying circuits M24 and the subtractor SU24. Arithmetic processing is similarly performed on the spatial filters of FIGS.

【0095】減算器SU21、SU22の出力は、比較
選択器CS21に入力され、大きい方の値が出力され
る。また、減算器SU23、SU24の出力は、比較選
択器CS22に入力され、大きい方の値が出力される。
両比較選択器CS21,CS22の出力は、比較選択器
CS23に入力され、大きい方の値がエッジ成分2とし
て出力される。こうして、幅1の各ウインドウで検出さ
れた最大のエッジ成分が出力される。
The outputs of the subtractors SU21 and SU22 are input to a comparison selector CS21, and the larger value is output. The outputs of the subtracters SU23 and SU24 are input to the comparison selector CS22, and the larger value is output.
The outputs of both comparison selectors CS21 and CS22 are input to comparison selector CS23, and the larger value is output as edge component 2. Thus, the maximum edge component detected in each window having a width of 1 is output.

【0096】(5ー3−4)論理回路B回路、論理回路
C回路、論理回路D回路、論理回路E回路 図47は、図46に図示した論理回路B回路LBのブロ
ック図である。図47に示すように、論理回路B回路L
Bは、入力される7ビットのデータに対して所定の論理
回路B演算を行った後、上記入力された7ビットのデー
タの“1”(黒画素)のビット数を示す演算結果の3ビ
ットのデータQ1,Q2,Q3を出力する論理回路であ
って、それぞれ次の「数3」と「数4」で表される論理
演算(以下、論理A演算という。)を行なう2個の論理
回路A回路LA1,LA2と、1個の加算器AD1とを
備える。
(5-3-4) Logic Circuit B Circuit, Logic Circuit C Circuit, Logic Circuit D Circuit, Logic Circuit E Circuit FIG. 47 is a block diagram of the logic circuit B circuit LB shown in FIG. As shown in FIG. 47, the logic circuit B circuit L
B is a three-bit operation result indicating the number of "1" (black pixels) bits of the input 7-bit data after performing a predetermined logic circuit B operation on the input 7-bit data. Logic circuits outputting the data Q1, Q2, and Q3 of FIG. 3 and performing logic operations (hereinafter, referred to as logic A operations) represented by the following "Equation 3" and "Equation 4", respectively. It has A circuits LA1 and LA2 and one adder AD1.

【0097】[0097]

【数3】 (Equation 3)

【数4】 (Equation 4)

【0098】最下位3ビットのデータP1〜P3は論理
回路A回路LA31に入力され、上記データP1〜P3
のすぐ上位の3ビットのデータP4〜P6は論理回路A
回路LA32に入力され、最上位1ビットのデータP7
は加算器AD4のキャリーイン端子CIに入力され、各
論理回路A回路LA31,LA32は入力される3ビッ
トのデータに対して上記論理回路A演算を行った後、演
算結果の2ビットのデータを加算器AD31に出力す
る。加算器AD31は、入力された2つの各2ビットの
データを加算し、加算結果の3ビットのデータを出力す
る。
The least significant 3 bits of data P1 to P3 are input to the logic circuit A circuit LA31, and the data P1 to P3
3 bits of data P4 to P6 immediately higher than
The most significant 1-bit data P7 is input to the circuit LA32.
Is input to the carry-in terminal CI of the adder AD4. Each of the logic circuit A circuits LA31 and LA32 performs the above-described logic circuit A operation on the input 3-bit data, and then outputs the 2-bit data of the operation result. Output to the adder AD31. The adder AD31 adds the input two 2-bit data and outputs 3-bit data of the addition result.

【0099】図48は、図43に図示した論理回路C回
路LCのブロック図である。論理回路C回路LCは、入
力される14ビットのデータ内の“1”(黒画素)のビ
ット数を計数する論理回路であって、それぞれ図47で
示した構成を有する2個の論理回路B回路LB41、L
B42と、1個の加算器AD41とを備える。各7ビッ
トのデータがそれぞれ各論理回路B回路LB41、LB
42に入力され、論理回路B回路LB41,LB42の
出力する7ビットのデータの“1”(黒画素)のビット
数を示す演算結果の3ビットのデータを加算器AD41
で加算して、加算結果を4ビットのデータとして出力す
る。
FIG. 48 is a block diagram of the logic circuit C shown in FIG. 43. The logic circuit C is a logic circuit that counts the number of “1” (black pixels) bits in the input 14-bit data, and has two logic circuits B each having the configuration shown in FIG. Circuit LB41, L
B42 and one adder AD41. Each 7-bit data is stored in each logic circuit B circuit LB41, LB
The 3-bit data of the operation result indicating the number of bits of "1" (black pixel) of the 7-bit data output from the logic circuit B circuits LB41 and LB42 and input to the adder AD41
And outputs the addition result as 4-bit data.

【0100】図49は、図42に図示した論理回路D回
路LDのブロック図である。論理回路D回路LDは、入
力される21ビットのデータ内の“1”(黒画素)のビ
ット数を計数する論理回路であって、4個の図47に示
した論理回路B回路LB51〜LB54、3個の加算器
AD51〜AD53、1個の比較回路C51からなる。
すなわち、各7ビットのデータがそれぞれ各論理回路B
回路LB51〜LB54に入力され、各論理回路B回路
LB51〜LB54における7ビットのデータの“1”
(黒画素)のビット数を示す演算結果である3ビットの
データを加算器AD51〜AD53で加算して、加算結
果(計数値)を5ビットのバイナリデータとして出力す
るとともに、比較回路C51において”0”と比較し、
すべて白の場合にその比較結果を出力する。
FIG. 49 is a block diagram of logic circuit D circuit LD shown in FIG. The logic circuit D circuit LD counts the number of bits of “1” (black pixel) in the input 21-bit data, and includes four logic circuit B circuits LB51 to LB54 shown in FIG. And three adders AD51 to AD53 and one comparison circuit C51.
That is, each 7-bit data is stored in each logic circuit B.
"1" of the 7-bit data which is input to the circuits LB51 to LB54 and in each of the logic circuit B circuits LB51 to LB54.
Adders AD51 to AD53 add 3-bit data, which is the operation result indicating the number of bits of the (black pixel), and output the addition result (count value) as 5-bit binary data. 0 ”
When all are white, the comparison result is output.

【0101】図50は、図44と図45に図示した論理
回路E回路LEのブロック図である。論理回路E回路L
Eは、3個の図47に示した論理回路B回路LB61〜
LB63、2個の加算器AD61、AD62からなる。
すなわち、各7ビットのデータがそれぞれ各論理回路B
回路LB61〜LB64に入力され、各論理回路B回路
LB61〜LB63における7ビットのデータの“1”
(黒画素)のビット数を示す演算結果である3ビットの
データを加算器AD61、AD62で加算して、加算結
果(計数値)を5ビットのバイナリデータとして出力す
る。
FIG. 50 is a block diagram of the logic circuit E circuit LE shown in FIGS. 44 and 45. Logic circuit E circuit L
E represents three logic circuit B circuits LB61 to LB61 shown in FIG.
LB63 and two adders AD61 and AD62.
That is, each 7-bit data is stored in each logic circuit B.
"1" of the 7-bit data input to the circuits LB61 to LB64 in each of the logic circuit B circuits LB61 to LB63.
Adders AD61 and AD62 add 3-bit data, which is the calculation result indicating the number of bits of (black pixels), and output the addition result (count value) as 5-bit binary data.

【0102】(5−3−5)3×3少数画素検出部 図51は、3×3少数画素検出部204の回路図を示
す。3×3少数画検出部204は、3×3の9個の画素
からの出力を入力するAND回路AND71、NOR回
路NOR71、2入力AND回路AND72、AND7
3、インバータINV71,OR回路OR71とからな
る。AND回路AND71は、すべての画素が黒である
場合に信号をANDゲートAND72に送り、ANDゲ
ートAND72は、比較器213から黒画素が少数画素
であることを示す信号が送られると、OR回路OR71
をへて、3×3内に少数画素がないことを示す信号をO
R回路210をへて、変倍回路207に送る。同様に、
NOR回路NOR71は、すべての画素が白である場合
に信号をANDゲートAND73に送り、ANDゲート
AND73は、比較器213から白画素が少数画素であ
ることを示す信号が送られると、OR回路OR71をへ
て、3×3内に少数画素がないことを示す信号をOR回
路210をへて、変倍回路207に送る。
(5-3-5) 3 × 3 Minority Pixel Detector FIG. 51 is a circuit diagram of the 3 × 3 minority pixel detector 204. The 3 × 3 minority image detection unit 204 receives the outputs from the 9 pixels of 3 × 3, AND circuit NOR71, NOR circuit NOR71, 2-input AND circuit AND72, AND7
3. An inverter INV71 and an OR circuit OR71. When all the pixels are black, the AND circuit AND71 sends a signal to the AND gate AND72. When the signal indicating that the number of black pixels is a small number of pixels is sent from the comparator 213, the AND gate AND72 sends the signal to the OR gate OR71.
And a signal indicating that there are no few pixels in 3 × 3
The signal is sent to the scaling circuit 207 via the R circuit 210. Similarly,
When all the pixels are white, the NOR circuit NOR71 sends a signal to the AND gate AND73. When a signal indicating that the number of white pixels is a small number of pixels is sent from the comparator 213, the OR circuit OR71. Then, a signal indicating that there is no small number of pixels in 3 × 3 is sent to the scaling circuit 207 via the OR circuit 210.

【0103】(5−3−6)7×7黒画素計数回路 図52は、図6に図示した7×7黒画素計数回路205
のブロック図である。図52に示すように、9×9マト
リックスメモリ回路100から出力されるj=1の副走
査線上の7ビットの画素データP11〜P71は論理回
路B回路LB81に入力され、j=2の副走査線上の7
ビットの画素データP12〜P72は論理回路B回路L
B82に入力され、j=3の副走査線上の7ビットの画
素データP13〜P73は論理回路B回路LB83に入
力され、j=4の副走査線上の7ビットの画素データP
14〜P74は論理回路B回路LB84に入力され、各
論理回路B回路LB83〜LB84はそれぞれ、入力さ
れたデータに対して所定の論理回路B演算を行った後、
演算結果の3ビットのデータを加算器AD81,AD8
2に出力する。また、j=5の副走査線上の7ビットの
画素データP15〜P75は論理回路B回路LB85に
入力され、j=6の副走査線上の7ビットの画素データ
P16〜P76は論理回路B回路LB86に入力され、
j=7の副走査線上の7ビットの画素データP17〜P
77は論理回路B回路LB87に入力され、各論理回路
B回路LB−15〜LB−17はそれぞれ、入力された
データに対して所定の論理回路B演算を行った後、演算
結果の3ビットのデータを加算器AD83,AD85に
出力する。各論理回路B回路LB81〜LB87から出
力される各3ビットのデータは、加算器AD81〜AD
86によって加算され、加算結果の6ビットのデータ
が、平滑値としてセレクタ208に出力される。
(5-3-6) 7 × 7 Black Pixel Counting Circuit FIG. 52 shows the 7 × 7 black pixel counting circuit 205 shown in FIG.
It is a block diagram of. As shown in FIG. 52, 7-bit pixel data P11 to P71 on the j = 1 sub-scanning line output from the 9 × 9 matrix memory circuit 100 are input to the logic circuit B circuit LB81, and j = 2 sub-scanning. 7 on the line
The bit pixel data P12 to P72 is a logic circuit B circuit L
B82, the 7-bit pixel data P13 to P73 on the j = 3 sub-scanning line are input to the logic circuit B circuit LB83, and the 7-bit pixel data P on the j = 4 sub-scanning line
14 to P74 are input to the logic circuit B circuit LB84. Each of the logic circuit B circuits LB83 to LB84 performs a predetermined logic circuit B operation on the input data.
The 3-bit data of the operation result is added to adders AD81 and AD8.
Output to 2. The 7-bit pixel data P15 to P75 on the sub-scanning line with j = 5 are input to the logic circuit B circuit LB85, and the 7-bit pixel data P16 to P76 on the sub-scanning line with j = 6 are converted into the logic circuit B circuit LB86. Is entered into
7-bit pixel data P17 to P on the sub-scanning line of j = 7
77 is input to the logic circuit B circuit LB87, each of the logic circuit B circuits LB-15 to LB-17 performs a predetermined logic circuit B operation on the input data, and then outputs a 3-bit operation result. The data is output to adders AD83 and AD85. The 3-bit data output from each of the logic circuit B circuits LB81 to LB87 is added to adders AD81 to AD81.
86, and the resulting 6-bit data is output to the selector 208 as a smoothed value.

【0104】以上の実施例においては、ファクシミリ装
置について説明しているが、本発明はこれに限らず、フ
ァイリング装置、プリンタコントローラ、電子ソータな
どに適用することができる。ここで、電子ソータは複数
枚の画像データをメモリに蓄積しておいて、ソート機能
を持たせたものである。もし、本発明のような復元技術
を用いることによって、2値画像データの形式で蓄積
し、多値画像データで出力することが可能となる。ま
た、出力機器として高解像度のディスプレイもしくは多
階調のディスプレイなどを接続することができる。
In the above embodiments, the facsimile apparatus has been described, but the present invention is not limited to this, and can be applied to filing apparatuses, printer controllers, electronic sorters, and the like. Here, the electronic sorter stores a plurality of image data in a memory and has a sort function. If the restoration technique as in the present invention is used, it is possible to store in the form of binary image data and output it as multi-valued image data. A high-resolution display or a multi-gradation display can be connected as an output device.

【0105】さらに、本実施例においては、単色の画像
データについて説明しているが、本発明はこれに限ら
ず、複数色の画像データに適用することができる。例え
ば、R,G,Bの3色の2値画像データを又は一部の色
のみの画像データを復元することに適用可能である。
Further, in the present embodiment, a description has been given of monochromatic image data. However, the present invention is not limited to this, and can be applied to image data of a plurality of colors. For example, the present invention is applicable to restoring binary image data of three colors of R, G, and B, or image data of only some colors.

【0106】本実施例においては、2値画像データを多
値画像データに復元しているが、本発明はこれに限ら
ず、自然数N値画像データから自然数M値画像データに
(N<M)復元する場合に適用することができる。すな
わち、画像復元処理部62,62aについては、その処
理をそのまま応用できることは明らかであり、像域判別
部102についてもN値画像データを2値化後に同一の
処理を行なうように構成することができる。
In the present embodiment, the binary image data is restored to the multi-valued image data, but the present invention is not limited to this, and the natural number N-value image data is converted to the natural number M-value image data (N <M). This can be applied when restoring. That is, it is clear that the processing can be applied as it is to the image restoration processing units 62 and 62a, and the image area determination unit 102 can be configured to perform the same processing after binarizing the N-valued image data. it can.

【0107】[0107]

【発明の効果】疑似中間調2値化された2値画像データ
を多値データに復元する画像処理装置において、疑似中
間調2値画像から細線の多値画像を復元できる。疑似中
間調の2値画像から多値画像を復元するため、処理の対
象である注目画素の周辺の画像について平滑用のウイン
ドウから得られる平滑成分とエッジ強調用のウインドウ
から得られるエッジ強調成分との混合を利用する。ここ
で、2値画像データのうちの注目画素とその周辺の画素
に対して2個のウインドウの黒画素数の差からエッジ量
を検出する第2演算手段と、第1演算手段により得られ
た平滑成分と第2演算手段により得られたエッジ成分と
を混合して多値データに復元する復元手段とを備える。
2値画像データのうちの注目画素とその周辺の画素から
なる第1のウインドウ内の黒画素を計数することにより
平滑成分を得る第1演算手段が注目画素から最大でN1
画素分離れた画素を処理対象とし、2値画像データのう
ちの注目画素とその周辺の画素に対して2個のウインド
ウの黒画素数の差からエッジ量を検出する第2演算手段
が注目画素から最大でN2画素分離れた画素を処理対象
としたとき、元の多値画像の復元において、N1≦N2
としたことにより余分な平滑を避けることができる。
According to the image processing apparatus for restoring binary image data converted into pseudo halftone binary data into multivalued data, a thin line multivalued image can be restored from the pseudo halftone binary image. In order to restore a multi-valued image from a pseudo-halftone binary image, a smoothing component obtained from a smoothing window and an edge-enhancing component obtained from an edge-enhancing window for an image around a target pixel to be processed are used. Use a mixture of Here, the second arithmetic means for detecting the edge amount from the difference between the number of black pixels of the two windows with respect to the target pixel and the peripheral pixels of the binary image data, and the first arithmetic means are obtained. Restoring means for mixing the smooth component and the edge component obtained by the second calculating means to restore multi-value data;
The first arithmetic means for obtaining a smooth component by counting black pixels in a first window composed of a pixel of interest and its surrounding pixels in the binary image data provides a maximum of N1 pixels from the pixel of interest.
Second processing means for processing the pixel separated from the target pixel in the binary image data and detecting the edge amount from the difference between the number of black pixels of the two windows with respect to the target pixel and its surrounding pixels , N1 ≦ N2 in the restoration of the original multi-valued image when the pixels separated by N2 pixels from the
By doing so, extra smoothness can be avoided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明に係る実施例であるファクシミリ装置
の機構部の縦断面図である。
FIG. 1 is a longitudinal sectional view of a mechanism of a facsimile apparatus according to an embodiment of the present invention.

【図2】 図1に図示したファクシミリ装置の信号処理
部のブロック図である。
FIG. 2 is a block diagram of a signal processing unit of the facsimile apparatus shown in FIG.

【図3】 図2に図示した画像復元処理部のブロック図
である。
FIG. 3 is a block diagram of an image restoration processing unit illustrated in FIG. 2;

【図4】 9×9のマトリクス内の画素の配置の図であ
る。
FIG. 4 is a diagram of an arrangement of pixels in a 9 × 9 matrix.

【図5】 図3に図示した9×9マトリックスメモリ回
路のブロック図である。
FIG. 5 is a block diagram of the 9 × 9 matrix memory circuit shown in FIG. 3;

【図6】 黒画素の面積が全体の面積に対して7/16
である均一画像を誤差拡散法を用いて2値化したときに
得られる2値画像の一例を示す図である。
FIG. 6 shows that the area of a black pixel is 7/16 of the total area
FIG. 3 is a diagram illustrating an example of a binary image obtained when a uniform image is binarized using an error diffusion method.

【図7】 黒画素の面積が全体の面積に対して7/16
である均一画像をディザ法を用いて2値化したときに得
られる2値画像の一例を示す図である。
FIG. 7 shows that the area of a black pixel is 7/16 of the total area
FIG. 3 is a diagram illustrating an example of a binary image obtained when a uniform image is binarized using a dither method.

【図8】 7×7のウィンドウ及びそのウィンドウを有
する空間フィルタを示す図である。
FIG. 8 is a diagram showing a 7 × 7 window and a spatial filter having the window.

【図9】 エッジ強調を行なうためのラプラシアンフィ
ルタの一例を示す図である。
FIG. 9 is a diagram illustrating an example of a Laplacian filter for performing edge enhancement.

【図10】 エッジ強調を行うために用いる2つの7×
7のウィンドウの一例を示す図である。
FIG. 10 shows two 7 × used to perform edge enhancement.
7 is a diagram illustrating an example of a window 7; FIG.

【図11】 7×7のウィンドウを主副走査方向の4方
向にそれぞれ1ドットだけずらした4つのウィンドウを
用いてエッジ強調を行なう空間フィルタの一例を示す図
である。
FIG. 11 is a diagram illustrating an example of a spatial filter that performs edge enhancement using four windows in which a 7 × 7 window is shifted by one dot in each of the four main and sub scanning directions.

【図12】 図13のエッジ強調のときに用いる2つの
画像領域を示す図である。
FIG. 12 is a diagram illustrating two image areas used for edge enhancement in FIG. 13;

【図13】 エッジ強調を行なう画像の一例、並びある
エッジ強調のときに用いる2つの画像領域を示す図であ
る。
FIG. 13 is a diagram illustrating an example of an image on which edge enhancement is performed, showing two image areas used for aligned edge enhancement;

【図14】 ある画像にエッジ強調フィルタを用いてエ
ッジ強調したときに得られるエッジ成分量について、上
記画像、上記エッジ強調フィルタ、及びエッジ成分量を
示す図である。
FIG. 14 is a diagram illustrating the image, the edge enhancement filter, and the edge component amount with respect to an edge component amount obtained when edge enhancement is performed on an image using an edge enhancement filter.

【図15】 本実施例においてエッジ強調量を計算する
ときに用いる第1の空間フィルタを示す図である。
FIG. 15 is a diagram illustrating a first spatial filter used when calculating an edge enhancement amount in the present embodiment.

【図16】 本実施例においてエッジ強調量を計算する
ときに用いる第2の空間フィルタを示す図である。
FIG. 16 is a diagram illustrating a second spatial filter used when calculating an edge enhancement amount in the present embodiment.

【図17】 本実施例においてエッジ強調量を計算する
ときに用いる第3の空間フィルタを示す図である。
FIG. 17 is a diagram illustrating a third spatial filter used when calculating an edge enhancement amount in the present embodiment.

【図18】 本実施例においてエッジ強調量を計算する
ときに用いる第4の空間フィルタを示す図である。
FIG. 18 is a diagram illustrating a fourth spatial filter used when calculating an edge enhancement amount in the present embodiment.

【図19】 本実施例においてエッジ強調量を計算する
ときに用いる第5の空間フィルタを示す図である。
FIG. 19 is a diagram illustrating a fifth spatial filter used when calculating an edge enhancement amount in the present embodiment.

【図20】 本実施例においてエッジ強調量を計算する
ときに用いる第6の空間フィルタを示す図である。
FIG. 20 is a diagram illustrating a sixth spatial filter used when calculating an edge enhancement amount in the present embodiment.

【図21】 本実施例においてエッジ強調量を計算する
ときに用いる第7の空間フィルタを示す図である。
FIG. 21 is a diagram illustrating a seventh spatial filter used when calculating an edge enhancement amount in the present embodiment.

【図22】 本実施例においてエッジ強調量を計算する
ときに用いる第8の空間フィルタを示す図である。
FIG. 22 is a diagram illustrating an eighth spatial filter used when calculating an edge enhancement amount in the present embodiment.

【図23】 本実施例においてエッジ強調量を計算する
ときに用いる第11の空間フィルタを示す図である。
FIG. 23 is a diagram illustrating an eleventh spatial filter used when calculating an edge enhancement amount in the present embodiment.

【図24】 本実施例においてエッジ強調量を計算する
ときに用いる第12の空間フィルタを示す図である。
FIG. 24 is a diagram illustrating a twelfth spatial filter used when calculating an edge enhancement amount in the present embodiment.

【図25】 本実施例においてエッジ強調量を計算する
ときに用いる第13の空間フィルタを示す図である。
FIG. 25 is a diagram illustrating a thirteenth spatial filter used when calculating an edge enhancement amount in the present embodiment.

【図26】 本実施例においてエッジ強調量を計算する
ときに用いる第14の空間フィルタを示す図である。
FIG. 26 is a diagram illustrating a fourteenth spatial filter used when calculating an edge enhancement amount in the present embodiment.

【図27】 好ましくない空間フィルタを示す図であ
る。
FIG. 27 illustrates an undesired spatial filter.

【図28】 好ましくない空間フィルタを示す図であ
る。
FIG. 28 illustrates an undesired spatial filter.

【図29】 上側に示す画像を下側に示す3個の空間フ
ィルタで演算処理した場合の平滑量とエ強調量を示す図
である。
FIG. 29 is a diagram showing a smoothing amount and an emphasis amount when an image shown on the upper side is subjected to arithmetic processing by three spatial filters shown on the lower side.

【図30】 上側に示す画像を下側に示す3個の空間フ
ィルタで演算処理した場合の平滑量とエ強調量を示す図
である。
FIG. 30 is a diagram showing a smoothing amount and an emphasis amount when an image shown on the upper side is subjected to arithmetic processing by three spatial filters shown on the lower side.

【図31】 本実施例においてエッジ領域を判定すると
きに用いる第7の空間フィルタを示す図である。
FIG. 31 is a diagram illustrating a seventh spatial filter used when determining an edge region in the present embodiment.

【図32】 本実施例においてエッジ領域を判定すると
きに用いる第8の空間フィルタを示す図である。
FIG. 32 is a diagram illustrating an eighth spatial filter used when determining an edge region in the present embodiment.

【図33】 本実施例においてエッジ領域を判定すると
きに用いる第11の空間フィルタを示す図である。
FIG. 33 is a diagram illustrating an eleventh spatial filter used when determining an edge region in the present embodiment.

【図34】 本実施例においてエッジ領域を判定すると
きに用いる第12の空間フィルタを示す図である。
FIG. 34 is a diagram illustrating a twelfth spatial filter used when determining an edge region in the present embodiment.

【図35】 本実施例においてエッジ領域を判定すると
きに用いる第13の空間フィルタを示す図である。
FIG. 35 is a diagram illustrating a thirteenth spatial filter used for determining an edge region in the present embodiment.

【図36】 本実施例においてエッジ領域を判定すると
きに用いる第14の空間フィルタを示す図である。
FIG. 36 is a diagram illustrating a fourteenth spatial filter used when determining an edge region in the present embodiment.

【図37】 ある画像にエッジ強調フィルタを用いてエ
ッジ強調したときに得られるエッジ成分量について、上
記画像、上記エッジ強調フィルタ、及びエッジ成分量を
示す図である。
FIG. 37 is a diagram showing the image, the edge enhancement filter, and the edge component amount obtained for an edge component amount obtained when edge enhancement is performed on an image using an edge enhancement filter.

【図38】 エッジ領域判定用空間フィルタの1例の図
である。
FIG. 38 is a diagram of an example of a spatial filter for determining an edge region.

【図39】 中間調データ復元部のブロック図である。FIG. 39 is a block diagram of a halftone data restoration unit.

【図40】 破線画像とウインドウの関係を示す図であ
る。
FIG. 40 is a diagram showing a relationship between a broken line image and a window.

【図41】 画像とウインドウの関係を示す図である。FIG. 41 is a diagram showing a relationship between an image and a window.

【図42】 エッジ領域検出計算部の1部のブロック図
である。
FIG. 42 is a block diagram of a part of an edge area detection calculation unit.

【図43】 エッジ領域検出計算部の1部のブロック図
である。
FIG. 43 is a block diagram of a part of an edge area detection calculation unit.

【図44】 エッジ成分1計算部の1部のブロック図で
ある。
FIG. 44 is a block diagram of a part of an edge component 1 calculation unit.

【図45】 エッジ成分1計算部の1部のブロック図で
ある。
FIG. 45 is a block diagram of a part of an edge component 1 calculation unit.

【図46】 エッジ成分2計算部のブロック図である。FIG. 46 is a block diagram of an edge component 2 calculation unit.

【図47】 デコーダB回路のブロック図である。FIG. 47 is a block diagram of a decoder B circuit.

【図48】 デコーダC回路のブロック図である。FIG. 48 is a block diagram of a decoder C circuit.

【図49】 デコーダD回路のブロック図である。FIG. 49 is a block diagram of a decoder D circuit.

【図50】 デコーダE回路のブロック図である。FIG. 50 is a block diagram of a decoder E circuit.

【図51】 3×3少数画素検出部のブロック図であ
る。
FIG. 51 is a block diagram of a 3 × 3 minority pixel detection unit.

【図52】 7×7黒画素計数回路のブロック図であ
る。
FIG. 52 is a block diagram of a 7 × 7 black pixel counting circuit.

【符号の説明】[Explanation of symbols]

62…画像復元部、 201…中間調データ復元部、 202…像域判別部、 203…中間調データ補間部、 204…擬似中間調2値化部、 205…セレクタ。 Reference numeral 62 denotes an image restoration unit, 201 denotes a halftone data restoration unit, 202 denotes an image area determination unit, 203 denotes a halftone data interpolation unit, 204 denotes a pseudo halftone binarization unit, and 205 denotes a selector.

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) H04N 1/40 - 1/409 G06T 5/00 - 5/50 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int.Cl. 7 , DB name) H04N 1/40-1/409 G06T 5/00-5/50

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 疑似中間調2値化された2値画像データ
を多値データに復元する画像処理装置において、 前記2値画像データのうちの注目画素と注目画素の周辺
の画素とからなるウインドウ内の黒画素数を計数して平
滑成分量を得る第1演算手段と、 前記2値画像データのうち注目画素を含み第1の方向に
連続する複数の画素からなる第1ウインドウと、該第1
ウインドウに隣接し、該第1の方向に連続する複数の画
素からなる第2ウインドウと、該第1ウインドウに対し
該第2ウインドウと反対側に隣接し、該第1の方向に連
続する複数の画素からなる第3ウインドウとを備え、各
ウインドウにおける黒画素数の計数値からエッジ成分量
を検出する第2演算手段と、 前記第1演算手段により得られた平滑成分量と第2演算
手段により得られたエッジ成分量を使って多値復元画像
を得る復元手段とを備え、 前記第2演算手段は、前記隣接方向における各ウインド
ウの幅が1画素分の幅であることを特徴とする画像処理
装置。
1. An image processing apparatus for restoring binary image data converted into pseudo halftone binary data into multi-valued data, comprising: a window including a pixel of interest and pixels surrounding the pixel of interest in the binary image data. A first computing unit that counts the number of black pixels in the image data to obtain a smooth component amount; a first window including a plurality of pixels including a target pixel in the binary image data and continuing in a first direction; 1
A second window adjacent to the window and comprising a plurality of pixels continuous in the first direction; and a plurality of pixels adjacent to the first window on a side opposite to the second window and continuous in the first direction. A second operation means for detecting an edge component amount from a count value of the number of black pixels in each window; and a smooth component amount obtained by the first operation means and a second operation means. Restoring means for obtaining a multi-value restored image using the obtained edge component amount, wherein the second arithmetic means has a width of each window in the adjacent direction corresponding to one pixel. Processing equipment.
【請求項2】 前記第2演算手段は、第1ウインドウに
おける計数値に基づく値と、第2及び第3のウインドウ
における計数値との差からエッジ成分量を検出すること
を特徴とする請求項1記載の画像処理装置。
2. The apparatus according to claim 1, wherein the second calculating means detects an edge component amount from a difference between a value based on the count value in the first window and the count values in the second and third windows. 2. The image processing device according to 1.
JP13798591A 1991-06-10 1991-06-10 Image processing device Expired - Lifetime JP3146518B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP13798591A JP3146518B2 (en) 1991-06-10 1991-06-10 Image processing device
US07/895,806 US6026184A (en) 1991-06-10 1992-06-09 Image processor for restoring bi-level pixel data to multi-level pixel data
US09/075,245 US6167163A (en) 1991-06-10 1998-05-11 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13798591A JP3146518B2 (en) 1991-06-10 1991-06-10 Image processing device

Publications (2)

Publication Number Publication Date
JPH04362871A JPH04362871A (en) 1992-12-15
JP3146518B2 true JP3146518B2 (en) 2001-03-19

Family

ID=15211366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13798591A Expired - Lifetime JP3146518B2 (en) 1991-06-10 1991-06-10 Image processing device

Country Status (1)

Country Link
JP (1) JP3146518B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2854489B2 (en) * 1993-03-11 1999-02-03 大日本スクリーン製造株式会社 Image data conversion apparatus and image data conversion method

Also Published As

Publication number Publication date
JPH04362871A (en) 1992-12-15

Similar Documents

Publication Publication Date Title
US5459587A (en) Processing apparatus capable of discriminating between pseudo half-tone/non-half-tone image data based upon the number of adjacencies of similar type of pixels within a block
JP3585703B2 (en) Image processing device
US6026184A (en) Image processor for restoring bi-level pixel data to multi-level pixel data
EP0828375B1 (en) Image-region discriminating method and image-processing apparatus
EP0613290B1 (en) Method and apparatus for binary image data compression
JP3118868B2 (en) Image processing device
JP3146518B2 (en) Image processing device
JP2621879B2 (en) Image processing method
JPH04362874A (en) Image processor
JP2521745B2 (en) Image processing device
JPH04362872A (en) Image processor
JPH04362873A (en) Image processor
JP3093235B2 (en) Image processing method and apparatus
JP3118859B2 (en) Image processing device
JP3146510B2 (en) Image processing device
JP3158535B2 (en) Image processing device
JPH05292312A (en) Dot area separator
JP2702133B2 (en) Image processing method
JP2962742B2 (en) Image processing device
JP3146516B2 (en) Image processing device
JPS61157169A (en) Picture processing device
JP3136650B2 (en) Image processing device
JPH04330864A (en) Image processor
JPH02186876A (en) Picture processor
JPS63250274A (en) Picture signal processor

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090112

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090112

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100112

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110112

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110112

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120112

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120112

Year of fee payment: 11