JP3146517B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP3146517B2
JP3146517B2 JP13762091A JP13762091A JP3146517B2 JP 3146517 B2 JP3146517 B2 JP 3146517B2 JP 13762091 A JP13762091 A JP 13762091A JP 13762091 A JP13762091 A JP 13762091A JP 3146517 B2 JP3146517 B2 JP 3146517B2
Authority
JP
Japan
Prior art keywords
data
image
image data
halftone
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP13762091A
Other languages
Japanese (ja)
Other versions
JPH04361479A (en
Inventor
茂信 福嶋
Original Assignee
ミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミノルタ株式会社 filed Critical ミノルタ株式会社
Priority to JP13762091A priority Critical patent/JP3146517B2/en
Priority to US07/894,743 priority patent/US5384647A/en
Publication of JPH04361479A publication Critical patent/JPH04361479A/en
Application granted granted Critical
Publication of JP3146517B2 publication Critical patent/JP3146517B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、擬似中間調の2値画像
データを元の画像に対応する多値画像データに復元する
画像復元回路を備えた画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus having an image restoration circuit for restoring pseudo halftone binary image data into multivalued image data corresponding to an original image.

【0002】[0002]

【従来の技術】従来、ファクシミリ装置においては、画
像信号を公衆電話回線を介して伝送するため、写真など
の中間調画像については、送信側で上記中間調画像の多
値画像データをディザ法などにより2値化することによ
って擬似中間調の2値画像データに変換して受信側に伝
送し、一方、受信側では、受信された擬似中間調の2値
画像データを多値画像データに復元する方法が用いられ
ている。また、昨今、多値画像データを高速及び高解像
度で記録するカラーレーザプリンタが実用化されている
が、一般には2値画像データを記録する2値プリンタが
多く使用されている。多値画像データを記憶装置に記憶
する場合、大容量の記憶装置が必要であるが、この問題
点を解決するため、多値画像データを一旦2値画像デー
タに変換して記憶装置に格納し、画像処理又は記録時に
は上記2値画像データを上記記憶装置から読み出した後
多値画像データに復元する装置が提案されている。
2. Description of the Related Art Conventionally, in a facsimile apparatus, an image signal is transmitted via a public telephone line. Is converted into pseudo-halftone binary image data and transmitted to the receiving side, while the receiving side restores the received pseudo-halftone binary image data to multi-level image data. A method is used. In recent years, a color laser printer that records multi-valued image data at high speed and high resolution has been put into practical use. In general, a binary printer that records binary image data is often used. When storing multi-valued image data in a storage device, a large-capacity storage device is required. In addition, there has been proposed an apparatus for reading out the binary image data from the storage device and restoring the binary image data into multi-valued image data during image processing or recording.

【0003】この種の擬似中間調の2値画像データから
多値画像データへの変換を行う多値復元の画像処理装置
(以下、第1の従来例の装置をいう。)が、例えば特開
平2−165775号公報に開示されている。この第1
の従来例の装置は、擬似階調表現された入力画像を構成
する画素情報の分布から画素情報の周期性の有無とその
周期とを検出する画像識別手段と、上記画素情報の濃淡
の変化を検出する濃度変化検出手段と、この濃度変化検
出手段で検出された濃淡変化が緩やかな部分については
前記検出された周期に対応した開口サイズで平滑化処理
を行い、濃淡変化が激しい部分についてはこれよりも小
さい開口サイズで平滑化処理を行い、前記画像識別手段
で周期性が検出されなかった部分については最小開口サ
イズで平滑化処理を行なうことにより、前記入力画像に
対応した多値画像を推定し出力する平滑処理手段とを具
備したことを特徴としている。すなわち、この第1の従
来例の装置では、検出した画素情報の濃淡の変化並びに
検出した画素情報の周期性の有無に応じて平滑化処理に
用いるウィンドウの開口サイズを切り換えることによっ
て、擬似階調画像をより忠実に多値画像に復元してい
る。
A multi-value restoration image processing apparatus (hereinafter, referred to as a first conventional apparatus) for converting this type of pseudo halftone binary image data into multi-value image data is disclosed in, for example, Japanese Patent Application Laid-Open No. HEI 9 (1994) -259. It is disclosed in JP-A-2-165775. This first
The prior art apparatus includes an image identification unit that detects the presence / absence of the periodicity of the pixel information from the distribution of the pixel information that constitutes the input image represented by the pseudo-gradation, and a change in the density of the pixel information. Density change detecting means to be detected, and smoothing processing is performed on an opening size corresponding to the detected cycle for a portion where the gradation change is gradual detected by the density change detecting means, and for a portion where the gradation change is severe, A multi-valued image corresponding to the input image is estimated by performing a smoothing process with an aperture size smaller than that, and performing a smoothing process with a minimum aperture size on a portion where the periodicity is not detected by the image identification unit. And output smoothing processing means. That is, in the device of the first conventional example, the pseudo-gradation is performed by switching the opening size of the window used for the smoothing process according to the change in the density of the detected pixel information and the presence or absence of the periodicity of the detected pixel information. The image is more faithfully restored to a multi-valued image.

【0004】また、擬似中間調で2値化された2値画像
データであるか、非中間調で2値化された2値画像デー
タであるかを像域判別し、像域判別結果に応じて2種類
の画像復元処理を選択的に切り換えて多値画像データに
復元を行なう画像処理装置(以下、第2の従来例の装置
という。)が例えば特願平3−100961号の特許出
願において提案されている。この第2の従来例の装置
は、擬似中間調で2値化された2値画像データと、所定
のしきい値を用いて非中間調で2値化された2値画像デ
ータとを含む入力された2値画像データに基づいて、上
記入力された2値画像データの各画素毎に、擬似中間調
の2値画像データの領域であるか、又は非中間調の2値
画像データの領域であるかを判別する判別手段と、上記
判別手段によって擬似中間調の2値画像データの領域で
あると判別されたとき、上記入力された2値画像データ
を多階調の画像データに復元し、一方、上記判別手段に
よって非中間調の2値画像データの領域であると判別さ
れたとき、上記入力された2値画像データを復元するこ
となく出力する復元手段とを備えたことを特徴としてい
る。この第2の従来例の装置では、擬似中間調で2値化
された2値画像データと、所定のしきい値を用いて非中
間調で2値化された2値画像データとを含む入力された
2値画像データを多階調の画像データに復元したとき
に、非中間調領域でボケが生じず、より高品質な画像を
得ることができ、しかも擬似中間調の方法で2値化され
た2値画像データを多階調の画像データに復元すること
ができるという利点を有している。
Further, it is determined whether the image data is binary image data binarized in pseudo halftone or binary image data in non-halftone, and according to the image area discrimination result. An image processing apparatus (hereinafter referred to as a second conventional apparatus) for selectively switching between two types of image restoration processing to restore multi-valued image data is disclosed in, for example, Japanese Patent Application No. Hei 3-100961. Proposed. The second prior art apparatus includes an input device that includes binary image data binarized in pseudo halftone and binary image data binarized in non-halftone using a predetermined threshold value. Based on the obtained binary image data, for each pixel of the input binary image data, a region of pseudo halftone binary image data or a region of non-halftone binary image data is used. Discriminating means for discriminating whether or not the input binary image data is restored to multi-gradation image data when the discriminating means determines that the area is the area of pseudo-halftone binary image data; On the other hand, there is provided a restoring means for outputting the inputted binary image data without restoring it when the discriminating means discriminates the area as the non-halftone binary image data area. . In the device of the second conventional example, binary image data binarized in pseudo halftone and binary image data binarized in non-halftone using a predetermined threshold value are input. When restored binary image data is restored to multi-gradation image data, no blur occurs in the non-halftone area, a higher quality image can be obtained, and furthermore, binarization is performed by a pseudo halftone method. There is an advantage that the binary image data obtained can be restored to multi-gradation image data.

【0005】[0005]

【発明が解決しようとする課題】種々の画像処理におい
ては、実際上、種々のイメージリーダや種々の擬似中間
調2値化回路が存在する。しかしながら、上述の従来例
の装置では、検出された画素情報の濃淡の変化及び検出
した画素情報の周期性の有無に応じて(第1の従来例の
装置の場合)又は像域判別結果に応じて(第2の従来例
の場合)、多値の画像データに復元する復元処理を選択
的に切り換えて行っているので、種々のイメージリーダ
で読み取られた画像データ又は種々の擬似中間調2値化
回路によって擬似中間調で2値化された画像データに対
応することができず、上記検出結果又は上記像域判別結
果に誤りが生じる場合が多い。従って、所定のしきい値
を用いて非中間調で2値された画像データ、並びに擬似
中間調で2値化された画像データを、忠実に元の画像に
対応する多値の画像データに復元することができないと
いう問題点があった。本発明の目的は以上の問題点を解
決し、入力された種々の2値画像データに基づいて、従
来例に比較しより忠実に元の画像に対応する多値の画像
データに復元することができる画像処理装置を提供する
ことにある。
In various types of image processing, there are actually various image readers and various pseudo halftone binarization circuits. However, in the above-described apparatus of the related art, depending on the change in the density of the detected pixel information and the presence or absence of the periodicity of the detected pixel information (in the case of the first related art apparatus) or according to the image area determination result. (In the case of the second conventional example), since the restoration processing for restoring to multi-valued image data is selectively switched, image data read by various image readers or various pseudo halftone binary values are obtained. Image data binarized by pseudo-halftones by the conversion circuit, it is often the case that an error occurs in the detection result or the image area determination result. Therefore, the image data binarized in the non-halftone using the predetermined threshold value and the image data binarized in the pseudo halftone are faithfully restored to the multivalued image data corresponding to the original image. There was a problem that it was not possible. SUMMARY OF THE INVENTION An object of the present invention is to solve the above problems, and to more faithfully restore multi-valued image data corresponding to an original image based on various input binary image data as compared with the conventional example. It is an object of the present invention to provide an image processing apparatus capable of performing the above.

【0006】[0006]

【課題を解決するための手段】本願の第1の発明に係る
画像処理装置は、擬似中間調で2値化された2値画像デ
ータと、所定のしきい値を用いて非中間調で2値化され
た2値画像データとを含む入力された2値画像データの
うちの、注目画素とその周辺の複数の画素に対応する2
値画像データに基づいて、上記入力された2値画像デー
タの各画素毎に、第1の種類の擬似中間調の画像らしさ
及び上記第1の種類の擬似中間調と異なる第2の種類の
擬似中間調の画像らしさを判別し、これらの判別結果を
用いて擬似中間調の画像らしさ及び非中間調の画像らし
さを示す判別値を計算する判別手段と、上記入力された
2値画像データのうちの上記注目画素とその周辺の複数
の画素に対応する2値画像データに基づいて各画素毎
に、2値画像データが擬似中間調の画像データである場
合の復元処理によって多値画像データに復元する第1の
復元手段と、上記入力された2値画像データに基づいて
各画素毎に、2値画像データが上記非中間調の画像デー
タである場合の復元処理によって多値画像データに復元
する第2の復元手段と、上記第1の復元手段によって復
元された多値画像データと上記第2の復元手段によって
復元された多値画像データとを、上記判別手段によって
計算された判別値に応じた混合割合で混合して、上記混
合した多値画像データを出力する混合手段とを備えたこ
とを特徴とする。また、上記画像処理装置において、上
記判別手段は、好ましくは、注目画素を含む複数の画素
に対する、第1の種類の擬似中間調の画像らしさの判別
結果及び第2の種類の擬似中間調の画像らしさの判別結
果を用いて、注目画素に対する擬似中間調の画像らしさ
及び非中間調の画像らしさを示す判別値を計算する。こ
こで、上記第1の種類の擬似中間調の画像らしさは、好
ましくは、ドット集中型擬似中間調の画像らしさであ
る。
An image processing apparatus according to a first aspect of the present invention uses binary image data binarized in pseudo halftone and non-halftone binary image data using a predetermined threshold value. In the input binary image data including the binarized binary image data, two pixels corresponding to the pixel of interest and a plurality of pixels around the pixel of interest.
Based on the value image data, for each pixel of the input binary image data, a first type pseudo halftone image-likeness and a second type pseudo halftone different from the first type pseudo halftone Determining means for determining the likelihood of a halftone image and calculating a determination value indicating the likelihood of a pseudo-halftone image and the likelihood of a non-halftone image using the results of these determinations; Is restored to multi-valued image data by a restoration process in a case where the binary image data is pseudo halftone image data for each pixel based on the binary image data corresponding to the pixel of interest and a plurality of pixels surrounding the pixel of interest. And first restoration means for restoring the binary image data to multi-valued image data by a restoration process when the binary image data is the non-halftone image data for each pixel based on the input binary image data. Second restoration means Mixing the multi-valued image data restored by the first restoration means and the multi-valued image data restored by the second restoration means at a mixing ratio corresponding to the discrimination value calculated by the discrimination means. And mixing means for outputting the mixed multi-valued image data. In the image processing apparatus, the determination unit preferably determines a first-type pseudo-halftone image-likeness result and a second-type pseudo-halftone image for a plurality of pixels including a target pixel. Using the discrimination result of likelihood, a discrimination value indicating the likelihood of a pseudo halftone image and the likelihood of a non-halftone image for the pixel of interest is calculated. Here, the first type pseudo-halftone image likeness is preferably a dot concentration type pseudo halftone image-likeness.

【0007】本願の第2の発明に係る画像処理装置は、
擬似中間調で2値化された2値画像データと、所定のし
きい値を用いて非中間調で2値化された2値画像データ
とを含む入力された2値画像データのうちの、注目画素
とその周辺の複数の画素に対応する2値画像データに基
づいて、上記入力された2値画像データの各画素毎に、
擬似中間調の画像らしさ及び非中間調の画像らしさを示
す判別値を計算する判別手段と、上記入力された2値画
像データのうちの上記注目画素とその周辺の複数の画素
に対応する2値画像データに基づいて各画素毎に、2値
画像データが擬似中間調の画像データである場合の復元
処理によって多値画像データに復元する第1の復元手段
と、上記入力された2値画像データに基づいて各画素毎
に、2値画像データが上記非中間調の画像データである
場合の復元処理によって多値画像データに復元する第2
の復元手段と、上記第1の復元手段によって復元された
多値画像データと上記第2の復元手段によって復元され
た多値画像データとを、上記判別手段によって計算され
た判別値に応じた混合割合で混合して、上記混合した多
値画像データを出力する混合手段とを備え、上記判別手
段は、上記入力された2値画像データの各画素毎に、ド
ット分散型擬似中間調の画像らしさを示す判別値を計算
する第1の判別手段と、上記入力された2値画像データ
の各画素毎に、ドット集中型擬似中間調の画像らしさを
示す判別値を計算する第2の判別手段と、上記第1の判
別手段によって計算された判別値と上記第2の判別手段
によって計算された判別値とを比較してより大きな判別
値を選択し、上記選択した判別値を上記擬似中間調の画
像らしさ及び非中間調の画像らしさを示す判別値として
出力する比較選択手段とを備えたことを特徴とする。
[0007] An image processing apparatus according to a second invention of the present application comprises:
Of the input binary image data including the binary image data binarized by the pseudo halftone and the binary image data binarized by the non-halftone using a predetermined threshold value, Based on the binary image data corresponding to the target pixel and a plurality of pixels around the target pixel, for each pixel of the input binary image data,
Discriminating means for calculating a discriminant value indicating the likelihood of a pseudo halftone image and the likeness of a non-halftone image; and a binary corresponding to the pixel of interest and a plurality of pixels around the pixel of interest in the input binary image data First restoration means for restoring to multi-valued image data by restoration processing when the binary image data is pseudo halftone image data for each pixel based on the image data, and the inputted binary image data Is restored to multi-valued image data by a restoration process when the binary image data is the non-halftone image data for each pixel based on
Mixing the multi-valued image data restored by the first restoration unit and the multi-valued image data restored by the second restoration unit according to the discrimination value calculated by the discrimination unit. Mixing means for mixing the mixed multi-valued image data and outputting the mixed multi-valued image data, wherein the discriminating means determines, for each pixel of the input binary image data, the likelihood of a dot-dispersed pseudo-halftone image. A first discriminating means for calculating a discriminating value indicating the likeness, and a second discriminating means for calculating a discriminating value indicating the likelihood of a dot-concentrated pseudo halftone image for each pixel of the input binary image data. Comparing the discrimination value calculated by the first discrimination means with the discrimination value calculated by the second discrimination means to select a larger discrimination value, and setting the selected discrimination value to the pseudo halftone Image quality and non-medium Characterized by comprising a comparison and selection means for outputting a discrimination value indicating an image likeness of the tone.

【0008】[0008]

【作用】本願の第1の発明に係る画像処理装置において
は、上記判別手段は、擬似中間調で2値化された2値画
像データと、所定のしきい値を用いて非中間調で2値化
された2値画像データとを含む入力された2値画像デー
タのうちの、注目画素とその周辺の複数の画素に対応す
る2値画像データに基づいて、上記入力された2値画像
データの各画素毎に、第1の種類の擬似中間調の画像ら
しさ及び上記第1の種類の擬似中間調と異なる第2の種
類の擬似中間調の画像らしさを判別し、これらの判別結
果を用いて擬似中間調の画像らしさ及び非中間調の画像
らしさを示す判別値を計算する。次いで、上記第1の復
元手段は、上記入力された2値画像データのうちの上記
注目画素とその周辺の複数の画素に対応する2値画像デ
ータに基づいて各画素毎に、2値画像データが擬似中間
調の画像データである場合の復元処理によって多値画像
データに復元する一方、上記第2の復元手段は、上記入
力された2値画像データに基づいて各画素毎に、2値画
像データが上記非中間調の画像データである場合の復元
処理によって多値画像データに復元する。さらに、上記
混合手段は、上記第1の復元手段によって復元された多
値画像データと上記第2の復元手段によって復元された
多値画像データとを、上記判別手段によって計算された
判別値に応じた混合割合で混合して、上記混合した多値
画像データを出力する。すなわち、従来例のように多値
の画像データに復元する復元処理を選択的に切り換えて
行うことなく、所定の擬似中間調の画像らしさ及び非中
間調の画像らしさを示す判別値を計算して、上記計算さ
れた判別値に応じた混合割合で、2値画像データが上記
所定の擬似中間調の画像データである場合の復元処理に
よって復元された多値画像データと、2値画像データが
上記非中間調の画像データである場合の復元処理によっ
て復元された多値画像データとを混合して目的とする多
値画像データを得ているので、種々のイメージリーダや
種々の擬似中間調2値化回路に対応した上記判別値に応
じて多値画像データへの復元処理を行なうことができ
る。従って、所定のしきい値を用いて非中間調で2値さ
れた画像データ、並びに種々の擬似中間調で2値化され
た画像データを、従来例に比較しより忠実に元の画像に
対応する多値の画像データに復元することができる。
In the image processing apparatus according to the first aspect of the present invention, the discriminating means uses the binary image data binarized by the pseudo halftone and the non-halftone binary image data by using a predetermined threshold value. The input binary image data based on the binary image data corresponding to the target pixel and a plurality of pixels around the target pixel among the input binary image data including the binarized binary image data. For each pixel, the likelihood of a first type of pseudo-halftone image and the likeness of a second type of pseudo-halftone image different from the first type of pseudo-halftone are determined, and the results of these determinations are used. Then, a discrimination value indicating the likelihood of a pseudo halftone image and the likeness of a non-halftone image is calculated. Next, the first restoring means performs a binary image data conversion for each pixel based on the binary image data corresponding to the pixel of interest and a plurality of pixels around the pixel of interest in the input binary image data. Is restored to multi-valued image data by a restoration process when the image data is pseudo halftone image data. On the other hand, the second restoration means performs a binary image processing for each pixel based on the input binary image data. When the data is the non-halftone image data, the data is restored to multi-valued image data by the restoration process. Further, the mixing means may convert the multi-valued image data restored by the first restoration means and the multi-valued image data restored by the second restoration means in accordance with the discrimination value calculated by the discrimination means. And outputs the mixed multi-valued image data. That is, without selectively switching and performing the restoration process of restoring to multi-valued image data as in the conventional example, the discrimination value indicating the likelihood of a predetermined pseudo halftone image and the non-halftone image is calculated. The multi-valued image data restored by the restoration process when the binary image data is the predetermined pseudo halftone image data and the binary image data are mixed at the mixing ratio according to the calculated discrimination value. Since the target multi-valued image data is obtained by mixing the multi-valued image data restored by the restoration process in the case of non-halftone image data, various image readers and various pseudo half tone binary values are obtained. A restoration process to multi-valued image data can be performed according to the determination value corresponding to the conversion circuit. Therefore, image data binarized in a non-halftone using a predetermined threshold value and image data binarized in various pseudo-halftones correspond to the original image more faithfully as compared with the conventional example. Can be restored to multi-valued image data.

【0009】また、上記画像処理装置において、上記判
別手段は、好ましくは、注目画素を含む複数の画素に対
する、第1の種類の擬似中間調の画像らしさの判別結果
及び第2の種類の擬似中間調の画像らしさの判別結果を
用いて、注目画素に対する擬似中間調の画像らしさ及び
非中間調の画像らしさを示す判別値を計算する。ここ
で、上記第1の種類の擬似中間調の画像らしさは、好ま
しくは、ドット集中型擬似中間調の画像らしさである。
すなわち、注目画素を含む複数の画素に対する、第1の
種類の擬似中間調の画像らしさの判別結果及び第2の種
類の擬似中間調の画像らしさの判別結果を用いて、注目
画素に対する擬似中間調の画像らしさ及び上記非中間調
の画像らしさを示す判別値を計算しているので、当該判
別値の正確度をより向上させることができる。
In the above-mentioned image processing apparatus, preferably, the discriminating means includes a discriminating result of a first kind of pseudo-halftone image-likeness for a plurality of pixels including a pixel of interest and a second kind of pseudo-halftone. The discrimination value indicating the pseudo-halftone image-likeness and the non-halftone image-likeness for the pixel of interest is calculated using the tonal image-likeness discrimination result. Here, the first type pseudo-halftone image likeness is preferably a dot concentration type pseudo halftone image-likeness.
That is, the pseudo-halftone for the target pixel is determined using the determination result of the first-type pseudo-halftone image-likeness and the second-type pseudo-halftone image-ness determination result for a plurality of pixels including the target pixel. Since the discrimination value indicating the image likeness of the image and the non-halftone image likeness is calculated, the accuracy of the discrimination value can be further improved.

【0010】さらに、本願の第2の発明に係る画像処理
装置においては、上記判別手段は、擬似中間調で2値化
された2値画像データと、所定のしきい値を用いて非中
間調で2値化された2値画像データとを含む入力された
2値画像データのうちの、注目画素とその周辺の複数の
画素に対応する2値画像データに基づいて、上記入力さ
れた2値画像データの各画素毎に、擬似中間調の画像ら
しさ及び非中間調の画像らしさを示す判別値を計算す
る。次いで、上記第1の復元手段は、上記入力された2
値画像データのうちの上記注目画素とその周辺の複数の
画素に対応する2値画像データに基づいて各画素毎に、
2値画像データが擬似中間調の画像データである場合の
復元処理によって多値画像データに復元する一方、上記
第2の復元手段は、上記入力された2値画像データに基
づいて各画素毎に、2値画像データが上記非中間調の画
像データである場合の復元処理によって多値画像データ
に復元する。さらに、上記混合手段は、上記第1の復元
手段によって復元された多値画像データと上記第2の復
元手段によって復元された多値画像データとを、上記判
別手段によって計算された判別値に応じた混合割合で混
合して、上記混合した多値画像データを出力する。ここ
で、上記判別手段において、上記第1の判別手段は、上
記入力された2値画像データの各画素毎に、ドット分散
型擬似中間調の画像らしさを示す判別値を計算し、上記
第2の判別手段は、上記入力された2値画像データの各
画素毎に、ドット集中型擬似中間調の画像らしさを示す
判別値を計算し、上記比較選択手段は、上記第1の判別
手段によって計算された判別値と上記第2の判別手段に
よって計算された判別値とを比較してより大きな判別値
を選択し、上記選択した判別値を上記擬似中間調の画像
らしさ及び非中間調の画像らしさを示す判別値として出
力する。一般に、非中間調の画像は、ドット分散型擬似
中間調の画像でもなく、また、ドット集中型擬似中間調
の画像でもないので、上述のように判別値を選択するこ
とによって、上記所定の擬似中間調の画像及び上記非中
間調の画像の両方の画像を考慮した判別値を得ることが
できる。この得られた判別値を用いて上述のように、上
記各復元された多値画像データを混合することにより、
元の画像により忠実な多値画像データを復元することが
できる。
Further, in the image processing apparatus according to the second aspect of the present invention, the discriminating means uses the pseudo-halftone binary image data and the non-halftone using a predetermined threshold value. Based on the binary image data corresponding to the pixel of interest and a plurality of pixels surrounding the pixel of interest, of the input binary image data including the binary image data binarized by For each pixel of the image data, a discrimination value indicating the likelihood of a pseudo halftone image and the likeness of a non-halftone image is calculated. Next, the first restoring means outputs the input 2
For each pixel, based on binary image data corresponding to the pixel of interest and a plurality of pixels surrounding the pixel of interest in the value image data,
While the binary image data is restored to the multi-valued image data by the restoration process when the image data is the pseudo halftone image data, the second restoration unit performs the restoration for each pixel based on the input binary image data. And restores to multi-valued image data by a restoration process when the binary image data is the non-halftone image data. Further, the mixing means may convert the multi-valued image data restored by the first restoration means and the multi-valued image data restored by the second restoration means in accordance with the discrimination value calculated by the discrimination means. And outputs the mixed multi-valued image data. Here, in the determining means, the first determining means calculates, for each pixel of the input binary image data, a determining value indicating the likelihood of a dot dispersed pseudo halftone image, Determining means for each pixel of the input binary image data, calculates a determination value indicating the likelihood of a dot-concentrated pseudo halftone image, and comparing and selecting means calculates by the first determining means The selected discrimination value is compared with the discrimination value calculated by the second discriminating means to select a larger discrimination value, and the selected discrimination value is expressed by the pseudo-halftone image and the non-halftone image. Is output as a discrimination value indicative of. In general, a non-halftone image is neither a dot-dispersed pseudo-halftone image nor a dot-concentrated pseudo-halftone image. Therefore, by selecting a discrimination value as described above, the predetermined pseudo-halftone image can be obtained. It is possible to obtain a discrimination value in consideration of both the halftone image and the non-halftone image. By mixing the restored multi-valued image data as described above using the obtained discrimination value,
Multi-valued image data more faithful to the original image can be restored.

【0011】[0011]

【実施例】以下、図面を参照して本発明に係る一実施例
のファクシミリ装置について説明する。ここで、本実施
例のファクシミリ装置は、図2に示すように、受信され
た2値画像データを多値画像データに復元を行なう画像
復元処理部62を備えたことを特徴としている。なお、
以下の実施例の記述において、「中間調画像」及び「中
間調領域」とはそれぞれ、例えば写真などの中間調画像
の多値画像データをディザ法などの擬似中間調の方法で
2値化した擬似中間調画像及びその画像の領域を意味
し、一方、「非中間調画像」及び「非中間調領域」とは
それぞれ、例えば文字などの非中間調画像及びその画像
の領域をいう。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A facsimile apparatus according to an embodiment of the present invention will be described below with reference to the drawings. Here, the facsimile apparatus of the present embodiment is characterized in that it has an image restoration processing unit 62 for restoring received binary image data to multi-valued image data as shown in FIG. In addition,
In the following description of the embodiments, “halftone image” and “halftone region” are respectively obtained by binarizing multivalued image data of a halftone image such as a photograph by a pseudo halftone method such as a dither method. The term “pseudo-halftone image” and the area of the image mean the “non-halftone image” and the “non-halftone area” refer to the non-halftone image such as a character and the area of the image, respectively.

【0012】本発明に係る一実施例のファクシミリ装置
について以下の項目の順で説明する。 (1)本実施例の特徴 (2)ファクシミリ装置の構成及び動作 (3)画像復元処理部 (4)10×21マトリックスメモリ回路 (5)像域判別部 (5−1)各部の構成及び動作 (5−2)ディザ判定部 (5−3)隣接状態判定部、 (5−4)5×11マトリックスメモリ回路 (5−5)判定データ生成部 (5−6)判別データ信号生成部 (6)中間調画像復元部 (6−1)各部の構成及び動作 (6−2)窓内計数部 (6−3)平滑量計算部 (6−4)エッジ強調量計算部 (6−5)エッジ領域判別部 (6−6)復元データ計算部 (7)他の実施例
A facsimile apparatus according to an embodiment of the present invention will be described in the following order. (1) Features of the present embodiment (2) Configuration and operation of facsimile apparatus (3) Image restoration processing unit (4) 10 × 21 matrix memory circuit (5) Image area determination unit (5-1) Configuration and operation of each unit (5-2) dither determination unit (5-3) adjacent state determination unit, (5-4) 5 × 11 matrix memory circuit (5-5) determination data generation unit (5-6) determination data signal generation unit (6) ) Halftone image restoration unit (6-1) Configuration and operation of each unit (6-2) In-window counting unit (6-3) Smoothing amount calculation unit (6-4) Edge enhancement amount calculation unit (6-5) Edge Area discriminator (6-6) Restored data calculator (7) Another embodiment

【0013】(1)本実施例の特徴 この第1の実施例のファクシミリ装置は、図3に示すよ
うに、擬似中間調で2値化された2値画像データと、所
定のしきい値を用いて非中間調で2値化された2値画像
データを含む受信された2値画像データに基づいて所定
のエッジ強調量と所定の平滑値と所定のエッジ領域判別
量を計算するとともに、後述する判別データ信号生成部
114から入力されそれぞれ所定の集中型ディザ画像で
あることの判別結果を示す集中型第1ディザ画像判別信
号及び集中型第2ディザ画像判別信号と上記計算された
各量に基づいて入力された2値画像データを多値の中間
調データに復元する中間調画像復元部101と、受信さ
れた2値画像データに基づいて注目画素を中心とする所
定の領域について各画素毎に、所定の集中型ディザ画像
であることの判別結果を示す集中型第1ディザ画像判別
信号及び集中型第2ディザ画像判別信号を生成するとと
もに中間調領域であるか又は非中間調領域であるかを判
別した結果を示す像域判別データを出力する像域判別部
102と、所定のしきい値を用いて非中間調で2値化さ
れた2値画像データを白又は黒を示す多値の非中間調画
像データに単純に変換する単純多値化部103と、上記
像域判別データが示す混合割合に応じて中間調画像復元
部101から出力される多値の中間調画像データと単純
多値化部103から出力される多値の非中間調画像デー
タとを混合することによって多値画像データを生成して
プリンタ制御部55に出力するデータ混合部104とを
備えたことを特徴とする。
(1) Features of the present embodiment As shown in FIG. 3, the facsimile apparatus of the first embodiment uses binary image data binarized by pseudo halftone and a predetermined threshold value. A predetermined edge enhancement amount, a predetermined smoothed value, and a predetermined edge region discrimination amount are calculated based on received binary image data including binary image data binarized using non-halftones, and will be described later. The centralized-type first dither image determining signal and the centralized-type second dither image determining signal, which are input from the determining data signal generating unit 114 and indicate the determination results of the respective concentrated centralized dither images, and the respective calculated amounts A halftone image restoration unit 101 for restoring binary image data input based on the binary image data based on the received binary image data, and a predetermined area centered on a pixel of interest based on the received binary image data for each pixel. In the prescribed A centralized first dither image determination signal and a centralized second dither image determination signal indicating a determination result of a concentrated dither image are generated, and it is determined whether the image is a halftone area or a non-halftone area. An image area discriminating unit 102 that outputs image area discrimination data indicating a result; and a multi-valued non-halftone image that indicates white or black by converting non-halftoned binary image data using a predetermined threshold value A simple multi-value conversion unit 103 that simply converts the image data into image data; a multi-value half-tone image data output from the half-tone image restoration unit 101 according to the mixture ratio indicated by the image area determination data; And a data mixing unit 104 that generates multi-valued image data by mixing the multi-valued non-halftone image data output from the unit 103 and outputs the multi-valued image data to the printer control unit 55.

【0014】ここで、特に、中間調画像復元部101と
像域判別部102とに特徴があり、中間調画像復元部1
01は、(a)入力される画素データに基づいて、所定
の複数の窓内の黒画素数を計数してそれぞれ黒画素数デ
ータ(以下、データと略す。)を出力する窓内計数部1
13と、(b)窓内計数部113から出力されるデータ
に基づいてエッジ領域を判別するために用いるエッジ領
域判別量を計算して出力するエッジ領域判別部109
と、(c)窓内計数部113から出力されるデータに基
づいて中間調画像データの復元のための平滑量(7×7
黒画素数第2データと9×9黒画素数データ)を計算し
て出力する平滑量計算部110と、(d)窓内計数部1
13から出力されるデータに基づいてエッジ強調処理を
行うためのエッジ強調量第1データとエッジ強調量第2
データと計算して出力するエッジ強調量計算部111
と、(e)各部109乃至111から出力されるデータ
及び判別データ信号生成部114から出力される集中型
第1ディザ画像判別信号と集中型第2ディザ画像判別信
号に基づいて多値の中間調画像データを復元して出力す
る復元データ計算部112とを備える。
Here, in particular, the halftone image restoring unit 101 and the image area discriminating unit 102 are characterized by
Reference numeral 01 denotes (a) an in-window counting unit 1 that counts the number of black pixels in a plurality of predetermined windows based on input pixel data and outputs black pixel number data (hereinafter abbreviated as data).
13 and (b) an edge area discriminating unit 109 that calculates and outputs an edge area discriminating amount used for discriminating an edge area based on data output from the in-window counting unit 113.
And (c) a smoothing amount (7 × 7) for restoring halftone image data based on the data output from the intra-window counting unit 113.
A smoothing amount calculating unit 110 which calculates and outputs the second data of the number of black pixels and the 9 × 9 black pixel number data), and (d) an in-window counting unit 1
Edge enhancement amount first data and edge enhancement amount second data for performing an edge enhancement process based on the data output from
Edge enhancement amount calculator 111 that calculates and outputs data
And (e) multi-level halftone based on the data output from each of the units 109 to 111 and the concentrated first dither image determination signal and the concentrated second dither image determination signal output from the determination data signal generation unit 114. A restoration data calculation unit 112 for restoring and outputting image data.

【0015】また、像域判別部102は、(a)入力さ
れる画素データに基づいて所定の領域内で少数である方
の同一種の画素の、主副走査方向の4方向についての隣
接状態を示す主副走査方向隣接数を計算するとともに、
所定の3×3のウィンドウ内の黒画素数データを計算
し、上記計算された各データとディザ判定部106から
出力される所定の7×7のウィンドウ内の黒画素数デー
タに基づいて、上記7×7のウィンドウ内が全部白画像
であるか又は全部黒画像であるかを示す全白全黒画像検
出信号と、注目画素を中心とする所定の領域の画像が中
間調画像であることを示す中間調画像検出信号と、上記
所定の領域の画像が非中間調画像であることを示す非中
間調画像検出信号とを生成して出力する隣接状態判定部
105と、(b)入力される画素データに基づいて、各
画素毎に、スクリーン角が0度である集中型組織的ディ
ザ画像であるか否かを検出して検出結果を示す集中型第
1ディザ検出信号を出力するとともに、スクリーン角が
45度である集中型組織的ディザ画像であるか否かを検
出して検出結果を示す集中型第2ディザ検出信号を出力
するディザ判定部106と、(c)隣接状態判定部10
5とディザ判定部106から各画素毎にシリアルに出力
される5個の各検出信号(計5ビット)を、注目画素を
中心とする所定の5×11のウィンドウ内で同時に出力
する5×11マトリックスメモリ回路107と、(d)
マトリックスメモリ回路107から出力される各検出信
号に基づいて各検出信号毎に上記5×11のウィンドウ
内で上記各検出信号を加算して得られる各判定データを
生成して出力する判定データ生成部108と、(e)判
定データ生成部108から出力される各判定データに基
づいて、上記所定の5×11のウィンドウの領域の画像
がスクリーン角が0度である集中型組織的ディザ画像で
あるか否かを判別して判別結果を示す集中型第1ディザ
画像判別信号を生成して出力し、上記所定の5×11の
ウィンドウの領域の画像がスクリーン角が45度である
集中型組織的ディザ画像であるか否かを判別して判別結
果を示す集中型第2ディザ画像判別信号を生成して出力
するとともに、中間調領域であるか又は非中間調領域で
あるかを判別した結果を示す像域判別データを出力する
判別データ信号生成部114とを備える。
The image area discriminating section 102 (a) determines, based on the input pixel data, the adjacent state of the smaller number of the same kind of pixels in a predetermined area in four main and sub scanning directions. Calculate the number of neighbors in the main and sub scanning directions indicating
Black pixel number data in a predetermined 3 × 3 window is calculated, and based on the calculated data and the black pixel number data in a predetermined 7 × 7 window output from the dither determination unit 106, An all-white / all-black image detection signal indicating whether the inside of the 7 × 7 window is an all-white image or an all-black image, and that an image in a predetermined area centered on the pixel of interest is a halftone image. An adjacent state determination unit 105 for generating and outputting a halftone image detection signal indicating that the image in the predetermined area is a non-halftone image and a non-halftone image detection signal indicating that the image in the predetermined area is a non-halftone image; Based on the pixel data, for each pixel, it detects whether or not the image is a concentrated systematic dither image having a screen angle of 0 degrees, and outputs a concentrated first dither detection signal indicating a detection result. Centralized set with a 45 degree angle A dither determination unit 106 for outputting a centralized second dither detection signal indicating the detection result by detecting whether the dither image, (c) adjacent state determination section 10
5 and five detection signals (total 5 bits) serially output for each pixel from the dither determination unit 106 are simultaneously output within a predetermined 5 × 11 window centered on the pixel of interest. (D) a matrix memory circuit 107;
A determination data generation unit that generates and outputs determination data obtained by adding the detection signals within the 5 × 11 window for each detection signal based on each detection signal output from the matrix memory circuit 107 108, and (e) the image of the predetermined 5 × 11 window area is a centralized systematic dither image having a screen angle of 0 degrees based on each determination data output from the determination data generation unit 108. A centralized first dither image determination signal indicating the determination result is generated and output, and the image of the predetermined 5 × 11 window area is a centralized systematic image having a screen angle of 45 degrees. A centralized-type second dither image discrimination signal indicating the discrimination result is generated and output, and the result of the discrimination as to whether the image is a halftone area or a non-halftone area is determined. The and a discrimination data signal generating unit 114 for outputting the image area determination data shown.

【0016】 (2)ファクシミリ装置の構成及び動作 図1は、本発明に係る第1の実施例であるファクシミリ
装置の機構部の縦断面図であり、図2は、図1に図示し
たファクシミリ装置の信号処理部の構成を示すブロック
図である。図1に示すように、このファクシミリ装置
は、プリンタ部1とその上方に設置された画像読取部2
0とに大きく分けられ、プリンタ部1上に操作パネル4
0が設けられ、また、プリンタ部1の側面部に電話機4
2が設けられる。
(2) Configuration and Operation of Facsimile Apparatus FIG. 1 is a vertical sectional view of a mechanism of a facsimile apparatus according to a first embodiment of the present invention, and FIG. 2 is a facsimile apparatus shown in FIG. FIG. 3 is a block diagram illustrating a configuration of a signal processing unit. As shown in FIG. 1, the facsimile apparatus includes a printer unit 1 and an image reading unit 2 installed above the printer unit.
And an operation panel 4 on the printer unit 1.
0 is provided, and a telephone 4
2 are provided.

【0017】図1において、プリンタ部1は、従来の装
置と同様の構成を有する電子写真方式レーザビームプリ
ンタであり、以下に簡単にその動作を述べる。まず、回
転駆動される感光体ドラム2上の感光体が、帯電器3に
より一様に帯電される。次に、光学系4により画像デー
タに応じてレーザビームが照射されて感光体ドラム2上
に静電潜像が形成される。この静電潜像に現像器5のト
ナーが付着する。一方、給紙カセット11にはカット紙
が置かれており、ピックアップローラ12によりカット
紙が一枚ずつピックアップされた後、給紙ローラ13に
よって感光体ドラム2の転写部の方へ送り込まれる。感
光体ドラム2に付着したトナーは、転写チャージャ6に
よりカット紙に転写され、定着器12により定着され
る。上記定着工程の後のカット紙が、排紙ローラ14,
16によって排紙通路15を介して排紙トレー13に排
出される。なお、カット紙に付着しなかったトナーはク
リーナ8により回収され、これで一回のプリントが終了
する。
In FIG. 1, a printer unit 1 is an electrophotographic laser beam printer having a configuration similar to that of a conventional apparatus, and its operation will be briefly described below. First, the photoconductor on the photoconductor drum 2 that is rotationally driven is uniformly charged by the charger 3. Next, the optical system 4 irradiates a laser beam according to the image data to form an electrostatic latent image on the photosensitive drum 2. The toner of the developing device 5 adheres to the electrostatic latent image. On the other hand, cut paper is placed in the paper feed cassette 11, and the cut paper is picked up one by one by the pickup roller 12, and then sent to the transfer portion of the photosensitive drum 2 by the paper feed roller 13. The toner adhered to the photosensitive drum 2 is transferred to cut paper by the transfer charger 6 and fixed by the fixing device 12. The cut sheet after the fixing step is discharged to the discharge rollers 14,
The paper 16 is discharged to the paper discharge tray 13 via the paper discharge passage 15. The toner that has not adhered to the cut sheet is collected by the cleaner 8, and one printing operation is completed.

【0018】次に、画像読取部20の動作について説明
する。送信原稿の読取りは従来の装置と同様に行われ
る。すなわち、原稿トレー21上に置かれた原稿は、原
稿センサ22により検知され、当該原稿がローラ23に
よりセンサ25の位置まで1枚ずつ送り込まれる。次
に、モータ(図示せず。)によるローラ24の回転と密
着型リニアイメージセンサ26の読み取りに同期して原
稿が密着型リニアイメージセンサ26により読取られ、
原稿画像はデジタル画像データに変換された後、図2に
図示したバッファメモリ59に出力されるとともに、後
述する圧縮伸長部60によって圧縮画像データに変換さ
れて圧縮画像メモリ51に格納される。画像読み取り終
了後は、上記原稿は排出ローラ27により排紙トレー2
8に排出される。
Next, the operation of the image reading section 20 will be described. Reading of the transmission original is performed in the same manner as in the conventional apparatus. That is, the originals placed on the original tray 21 are detected by the original sensor 22, and the originals are fed one by one to the position of the sensor 25 by the rollers 23. Next, the original is read by the contact linear image sensor 26 in synchronization with the rotation of the roller 24 by the motor (not shown) and the reading of the contact linear image sensor 26,
After being converted into digital image data, the original image is output to the buffer memory 59 shown in FIG. After the image reading is completed, the original is discharged by the discharge roller 27 to the discharge tray 2.
It is discharged to 8.

【0019】図2に示すように、このファクシミリ装置
においては、このファクシミリ装置の全体の制御を行な
うMPU50と、それぞれファクシミリの信号処理及び
通信処理などを行なうHDLC解析部52、モデム53
及びNCU54と、それぞれファクシミリの画像信号を
一時的に格納する画像圧縮用画像メモリ51、バッファ
メモリ59及びページメモリ61と、それぞれ所定の画
像信号の処理を行なう圧縮伸長部60及び画像復元処理
部62とが備えられ、各処理部20,51,52,5
3,54,59,60,61がバス63を介してMPU
50に接続される。また、操作パネル40が直接にMP
U50に接続されるとともに、プリンタ部1内に設けら
れ多値の画像データに基づいて当該画像データの画像を
プリントする多値のレーザプリンタ70を制御するプリ
ンタ制御部55がMPU50に接続される。
As shown in FIG. 2, the facsimile apparatus includes an MPU 50 for controlling the entire facsimile apparatus, an HDLC analyzer 52 for performing a facsimile signal processing and a communication processing, and a modem 53, respectively.
, An NCU 54, an image compression image memory 51 for temporarily storing a facsimile image signal, a buffer memory 59 and a page memory 61, and a compression / decompression unit 60 and an image restoration processing unit 62 for processing predetermined image signals, respectively. And each of the processing units 20, 51, 52, 5
3, 54, 59, 60 and 61 are connected to the MPU via the bus 63.
50. Also, the operation panel 40 is directly
The MPU 50 is connected to the MPU 50 and connected to the U50. The printer control unit 55 is provided in the printer unit 1 and controls the multivalued laser printer 70 that prints an image of the image data based on the multivalued image data.

【0020】まず、ファクシミリ装置の受信動作につい
て述べる。相手先のファクシミリ装置から電話回線を介
して着呼があると、着呼信号がNCU54とモデム53
を介してMPU50に入力されて検出された後、所定の
ファクシミリの回線接続手順に従って、相手先のファク
シミリ装置との回線接続処理が実行される。当該回線接
続処理の後、相手先のファクシミリ装置から送信される
圧縮画像信号は、NCU54を介してモデム53に入力
されて復調され、復調後の圧縮画像データはHDLC解
析部52においてHDLCフレームから圧縮画像データ
のみを取り出す所定のHDLC逆加工処理が行われた
後、圧縮用画像メモリ51に格納される。すべてのペー
ジの圧縮画像信号を受信したとき、所定のファクシミリ
の回線切断手順に従って、相手先のファクシミリ装置と
の回線切断処理が実行される。圧縮用画像メモリ51に
格納された画像データは圧縮伸長部60によって1ペー
ジ毎、ページメモリ61を用いて実際の画像データに伸
長されて展開される。ページメモリ61に展開された画
像データは、画像復元処理部62に入力されて、詳細後
述される処理によって高密度の2値画像データに変換さ
れた後、プリンタ制御部55に出力される。プリンタ制
御部55への画像データの転送に同期して、MPU50
からプリンタ制御部55に記録開始信号が出力されて、
プリンタ制御部55は、レーザプリンタ70に制御信号
及び画像データを送信して画像データの記録を実行させ
る。
First, the receiving operation of the facsimile apparatus will be described. When there is an incoming call from the other party's facsimile machine via the telephone line, the incoming call signal is sent to the NCU 54 and the modem 53.
After the data is input to the MPU 50 and detected, a line connection process with the destination facsimile device is executed in accordance with a predetermined facsimile line connection procedure. After the line connection processing, the compressed image signal transmitted from the other party's facsimile apparatus is input to the modem 53 via the NCU 54 and demodulated, and the demodulated compressed image data is compressed from the HDLC frame by the HDLC analysis unit 52. After performing a predetermined HDLC reverse processing for extracting only image data, the image data is stored in the compression image memory 51. When the compressed image signals of all pages are received, a line disconnection process with the destination facsimile apparatus is executed in accordance with a predetermined facsimile line disconnection procedure. The image data stored in the compression image memory 51 is expanded by the compression and expansion unit 60 into actual image data for each page using the page memory 61 and expanded. The image data expanded in the page memory 61 is input to an image restoration processing unit 62, converted into high-density binary image data by processing described later in detail, and then output to a printer control unit 55. In synchronization with the transfer of the image data to the printer control unit 55, the MPU 50
Outputs a recording start signal to the printer control unit 55,
The printer control unit 55 transmits a control signal and image data to the laser printer 70 to execute recording of the image data.

【0021】次いで、ファクシミリ装置の送信動作につ
いて説明する。上記画像読取部20による上述のすべて
の画像読み取り動作が終了すると、相手先のファクシミ
リ装置と回線接続処理が実行される。この回線接続処理
の完了後、圧縮用画像メモリ51に格納された圧縮画像
データは圧縮伸長部60によって一旦ページメモリ61
に伸長された後、相手先のファクシミリ装置の能力に応
じて再圧縮処理が実行されて圧縮用画像メモリ51に格
納される。格納された画像データは、HDLC解析部5
2によって所定のHDLCフレーム加工処理が実行され
た後、モデム53によって所定のファクシミリ信号に変
調される。画像データで変調されたファクシミリ信号は
NCU54と電話回線を介して相手先のファクシミリ装
置に送信される。画像データの送信が完了すると、所定
の回線切断手順に従って、相手先のファクシミリ装置と
の回線切断処理が実行され、送信動作が終了する。
Next, the transmission operation of the facsimile machine will be described. When all of the above image reading operations by the image reading unit 20 are completed, a line connection process with the facsimile machine of the other party is executed. After the completion of the line connection processing, the compressed image data stored in the compression image memory 51 is temporarily stored in the page memory 61 by the compression / expansion unit 60.
After that, recompression processing is executed in accordance with the capability of the facsimile machine of the other party, and is stored in the compression image memory 51. The stored image data is sent to the HDLC analysis unit 5
After a predetermined HDLC frame processing process is performed by the modem 2, the signal is modulated by the modem 53 into a predetermined facsimile signal. The facsimile signal modulated with the image data is transmitted to the destination facsimile apparatus via the NCU 54 and the telephone line. When the transmission of the image data is completed, a line disconnection process with the destination facsimile apparatus is executed according to a predetermined line disconnection procedure, and the transmission operation ends.

【0022】MPU50は、操作パネル40を用いて入
力される操作者の指令に基づいて所定の処理を行なうと
ともに、操作者への指示情報及び本ファクシミリ装置の
状態情報を操作パネル40に出力して表示する。
The MPU 50 performs predetermined processing based on an operator's command input using the operation panel 40, and outputs instruction information to the operator and status information of the facsimile apparatus to the operation panel 40. indicate.

【0023】(3)画像復元処理部 この画像復元処理部62は、図3に示すように、受信さ
れた2値画像データから多値の中間調データを復元する
中間調画像復元部101を備えるが、この中間調画像の
復元処理は、以下のような効果を有する。すなわち、写
真画像のような中間調画像データは、一般に1画素当た
り複数ビットの多値画像データで表される。しかしなが
ら、ファクシミリ通信などの画像データの通信時又はフ
ァイリングなどの画像データの保存時において上記多値
画像データを擬似中間調で2値化して2値画像データに
変換することによって、通信すべき又は保存すべきデー
タ量を大幅に削減することが可能である。
(3) Image Restoration Processing Unit As shown in FIG. 3, the image restoration processing unit 62 includes a halftone image restoration unit 101 for restoring multi-value halftone data from the received binary image data. However, this halftone image restoration processing has the following effects. That is, halftone image data such as a photographic image is generally represented by multi-valued image data having a plurality of bits per pixel. However, during communication of image data such as facsimile communication or storage of image data such as filing, the multi-valued image data is binarized by pseudo-halftone and converted into binary image data, so that communication or storage is performed. It is possible to greatly reduce the amount of data to be performed.

【0024】この中間調画像の復元処理は、例えば、擬
似中間調で2値化した中間調データを異なった画素密度
で2値で記録又は表示する場合に有効である。すなわ
ち、単なる変倍処理を行わず、一旦多値画像データに復
元した後変倍処理を行なうことによって、元の擬似中間
調の2値画像データの周期性によるモアレの発生を防止
することができる。復元された多値画像データは擬似中
間調で2値化され、ディスプレイ又はプリンタなどの出
力系に出力される。このとき、出力系が入力されるデー
タを高密度で処理することができる装置であれば、その
装置の特性を十分に生かすことができる。また、例え
ば、中間調画像の復元処理は、擬似中間調で2値化され
た2値画像データを多値の画像データに復元して多値の
ディスプレイ又はプリンタなどの出力系に出力する場合
に有効である。
This halftone image restoration process is effective when, for example, halftone data binarized by pseudo halftone is recorded or displayed in binary at different pixel densities. In other words, the moiré due to the periodicity of the original pseudo halftone binary image data can be prevented by performing the scaling process after restoring the multi-valued image data once without performing the simple scaling process. . The restored multi-valued image data is binarized in pseudo halftone and output to an output system such as a display or a printer. At this time, if the output system can process input data at a high density, the characteristics of the device can be fully utilized. Further, for example, the halftone image restoration processing is performed when restoring binary image data binarized by pseudo halftone into multivalued image data and outputting it to an output system such as a multivalued display or a printer. It is valid.

【0025】図3は、図2に図示した画像復元処理部6
2のブロック図である。
FIG. 3 shows the image restoration processing unit 6 shown in FIG.
2 is a block diagram of FIG.

【0026】図3に示すように、ページメモリ61から
シリアルに読み出される2値画像データは、10×21
マトリックスメモリ回路100に入力される。10×2
1マトリックスメモリ回路100は、図30に示すよう
に、10×21のウィンドウW1021内のマトリック
スの各位置に位置する各画素データD000乃至D92
0を生成して、中間調画像復元部101内の窓内計数部
113と、像域判別部102内の隣接状態検出部105
とディザ判定部106と、単純多値化部103に出力す
る。図30において、矢印MSは主走査方向を示し、矢
印SSは副走査方向を示す。また、iはウィンドウW1
021内の主走査線の位置を示すパラメータであり、j
はその副走査線の位置を示すパラメータである。
As shown in FIG. 3, binary image data read serially from the page memory 61 is 10 × 21
It is input to the matrix memory circuit 100. 10x2
The one-matrix memory circuit 100 includes, as shown in FIG. 30, pixel data D000 to D92 located at respective positions of a matrix in a 10 × 21 window W1021.
0 in the halftone image restoration unit 101 and the adjacent state detection unit 105 in the image area determination unit 102.
And the dither determination unit 106 and the simple multi-value conversion unit 103. In FIG. 30, an arrow MS indicates a main scanning direction, and an arrow SS indicates a sub-scanning direction. I is the window W1
021 is a parameter indicating the position of the main scanning line, and j
Is a parameter indicating the position of the sub-scanning line.

【0027】中間調画像復元部101は、窓内計数部1
13と、エッジ領域判別部109と、平滑量計算部11
0と、エッジ強調量計算部111と、復元データ計算部
112とを備える。窓内計数部113は、所定の複数の
窓内の黒画素数を計数してそれぞれデータをエッジ領域
判別部109と平滑量計算部110とエッジ強調量計算
部111とに出力する。エッジ領域判別部109は、窓
内計数部113から出力されるデータに基づいてエッジ
領域を判別するために用いるエッジ領域判別量を計算し
て復元データ計算部112に出力する。平滑量計算部1
10は、窓内計数部113から出力されるデータに基づ
いて中間調画像データの復元のための平滑量(7×7黒
画素数第2データと9×9黒画素数データ)を計算して
復元データ計算部112に出力する。エッジ強調量計算
部111は、窓内計数部113から出力されるデータに
基づいてエッジ強調処理を行うためのエッジ強調量第1
データとエッジ強調量第2データと計算して復元データ
計算部112に出力する。さらに、復元データ計算部1
12は、各部109乃至111から出力されるデータ及
び判別データ信号生成部114から出力される集中型第
1ディザ画像判別信号と集中型第2ディザ画像判別信号
に基づいて多値の中間調画像データを復元してデータ混
合部104に出力する。
The halftone image restoring unit 101 includes a counting unit 1 in a window.
13, the edge area determining unit 109, and the smoothing amount calculating unit 11
0, an edge enhancement amount calculation unit 111, and a restored data calculation unit 112. The in-window counting unit 113 counts the number of black pixels in a plurality of predetermined windows and outputs data to the edge area determination unit 109, the smoothing amount calculation unit 110, and the edge enhancement amount calculation unit 111, respectively. The edge area determination unit 109 calculates an edge area determination amount used to determine an edge area based on the data output from the in-window counting unit 113 and outputs the calculated amount to the restored data calculation unit 112. Smoothing amount calculator 1
10 calculates a smoothing amount (7 × 7 black pixel number second data and 9 × 9 black pixel number data) for restoring halftone image data based on the data output from the intra-window counting section 113. Output to the restored data calculation unit 112. The edge enhancement amount calculator 111 performs an edge enhancement amount first to perform an edge enhancement process based on the data output from the in-window counting unit 113.
The data and the edge enhancement amount second data are calculated and output to the restored data calculation unit 112. Further, the restoration data calculation unit 1
Reference numeral 12 denotes multi-valued halftone image data based on the data output from the units 109 to 111 and the concentrated first dither image determination signal and the concentrated second dither image determination signal output from the determination data signal generation unit 114. Is restored and output to the data mixing unit 104.

【0028】像域判別部102は、隣接状態検出部10
5と、ディザ判定部106と、5×11マトリックスメ
モリ回路107と、判定データ生成部108と、判別デ
ータ信号生成部114とを備える。隣接状態判定部10
5は、入力される画素データに基づいて所定の領域内で
少数である方の同一種の画素の、主副走査方向の4方向
についての隣接状態を示す主副走査方向隣接数を計算す
るとともに、所定の3×3のウィンドウ内の黒画素数デ
ータを計算し、上記計算された各データとディザ判定部
106から出力される所定の7×7のウィンドウ内の黒
画素数データに基づいて、上記7×7のウィンドウ内が
全部白画像であるか又は全部黒画像であるかを示す全白
全黒画像検出信号と、注目画素を中心とする所定の領域
の画像が中間調画像であることを示す中間調画像検出信
号と、上記所定の領域の画像が非中間調画像であること
を示す非中間調画像検出信号とを生成して出力する。一
方、ディザ判定部106は、入力される画素データに基
づいて、各画素毎に、スクリーン角が0度である集中型
組織的ディザ画像であるか否かを検出して検出結果を示
す集中型第1ディザ検出信号を出力するとともに、スク
リーン角が45度である集中型組織的ディザ画像である
か否かを検出して検出結果を示す集中型第2ディザ検出
信号を出力する。
The image area discriminating section 102 includes the adjacent state detecting section 10
5, a dither determination unit 106, a 5 × 11 matrix memory circuit 107, a determination data generation unit 108, and a determination data signal generation unit 114. Adjacent state determination unit 10
5 calculates the number of adjacent pixels in the main / sub scanning direction indicating the adjacent state of the smaller number of the same kind of pixels in the predetermined area in four main / sub scanning directions based on the input pixel data. , And calculates black pixel number data in a predetermined 3 × 3 window. Based on the calculated data and the black pixel number data in a predetermined 7 × 7 window output from the dither determination unit 106, An all-white / all-black image detection signal indicating whether the inside of the 7 × 7 window is an all-white image or an all-black image, and an image in a predetermined area centered on the pixel of interest being a halftone image And a non-halftone image detection signal indicating that the image in the predetermined area is a non-halftone image. On the other hand, based on the input pixel data, the dither determination unit 106 detects whether or not each pixel is a centralized systematic dither image having a screen angle of 0 degrees and indicates the detection result. In addition to outputting the first dither detection signal, it detects whether or not the image is a concentrated systematic dither image having a screen angle of 45 degrees and outputs a concentrated second dither detection signal indicating the detection result.

【0029】さらに、5×11マトリックスメモリ回路
107は、隣接状態判定部105とディザ判定部106
から各画素毎にシリアルに出力される5個の各検出信号
(計5ビット)を、注目画素を中心とする所定の5×1
1のウィンドウ内で同時に判定データ生成部108に出
力する。判定データ生成部108は、マトリックスメモ
リ回路107から出力される各検出信号に基づいて各検
出信号毎に上記5×11のウィンドウ内で上記各検出信
号を加算して得られる各判定データを生成して判別デー
タ信号生成部114に出力する。最後に、判別データ信
号生成部114は、判定データ生成部108から出力さ
れる各判定データに基づいて、上記所定の5×11のウ
ィンドウの領域の画像がスクリーン角が0度である集中
型組織的ディザ画像であるか否かを判別して判別結果を
示す集中型第1ディザ画像判別信号を生成して出力し、
上記所定の5×11のウィンドウの領域の画像がスクリ
ーン角が45度である集中型組織的ディザ画像であるか
否かを判別して判別結果を示す集中型第2ディザ画像判
別信号を生成して出力するとともに、中間調領域である
か又は非中間調領域であるかを判別した結果を示す像域
判別データを出力する。ここで、像域判別データは、上
記領域内の画像が完全に中間調画像であるとき0とな
り、一方、非中間調画像となるとき1となる0から1ま
での値域を有する。
Further, the 5 × 11 matrix memory circuit 107 includes an adjacent state determination unit 105 and a dither determination unit 106
From the five detection signals (total 5 bits) serially output for each pixel from a predetermined 5 × 1
The data is simultaneously output to the determination data generation unit 108 within one window. The determination data generation unit 108 generates each determination data obtained by adding each detection signal within the 5 × 11 window for each detection signal based on each detection signal output from the matrix memory circuit 107. And outputs it to the discrimination data signal generator 114. Finally, the discrimination data signal generation unit 114 converts the image of the predetermined 5 × 11 window area into a centralized tissue having a screen angle of 0 degrees based on each judgment data output from the judgment data generation unit 108. Generating and outputting a centralized first dither image discrimination signal indicating a discrimination result by discriminating whether or not the image is a dynamic dither image;
It is determined whether or not the image of the predetermined 5 × 11 window area is a concentrated systematic dither image having a screen angle of 45 degrees, and a concentrated second dither image determination signal indicating a determination result is generated. And outputs image area discrimination data indicating the result of discriminating between a halftone area and a non-halftone area. Here, the image area determination data has a value range from 0 to 1, which is 0 when the image in the area is completely a halftone image, and is 1 when the image is a non-halftone image.

【0030】また、単純多値化部103は、マトリック
スメモリ回路100から出力される画素データに基づい
て、所定のしきい値を用いて非中間調で2値化された2
値画像データを白又は黒を示す多値の非中間調画像デー
タに単純に変換して非中間調データとしてデータ混合部
104に出力する。さらに、データ混合部104は、テ
ーブル用ROMで構成され、中間調画像復元部101か
ら出力される多値の中間調画像データと単純多値化部1
03から出力される多値の非中間調画像データと上記像
域判別データに基づいて次の「数1」の計算を行って、
すなわちこれらのデータを上記像域判別データが示す混
合割合に応じて混合することによって、6ビットの多値
画像データを生成してプリンタ制御部55に出力する。
Further, based on the pixel data output from the matrix memory circuit 100, the simple multi-level conversion unit 103 uses a predetermined threshold value to perform non-halftone binarization using a predetermined threshold value.
The value image data is simply converted to multi-valued non-halftone image data indicating white or black and output to the data mixing unit 104 as non-halftone data. Further, the data mixing unit 104 is configured by a table ROM, and stores the multi-value halftone image data output from the halftone image
Based on the multi-valued non-halftone image data output from No. 03 and the image area discrimination data, the following Expression 1 is calculated,
That is, these data are mixed in accordance with the mixing ratio indicated by the image area determination data, thereby generating 6-bit multi-valued image data and outputting it to the printer control unit 55.

【数1】 多値画像データ=(中間調画像データ)×{1−(像域判別データ)} +(非中間調画像データ)×(像域判別データ)## EQU1 ## Multi-valued image data = (halftone image data) × {1- (image area discrimination data)} + (non-halftone image data) × (image area discrimination data)

【0031】本実施例では、中間調とも非中間調ともと
れる領域での像域判別の誤判別を目立たなくするため、
上述のように、データ混合部104において中間調画像
らしさ及び非中間調画像らしさを示す像域判別データの
混合割合に応じて上記中間調画像データと上記非中間調
画像データとを混合して多値の画像データを復元してい
る。
In this embodiment, in order to make the erroneous determination of the image area distinction in a region where both halftones and non-halftones can be obtained inconspicuous,
As described above, the data mixing unit 104 mixes the halftone image data and the non-halftone image data according to the mixing ratio of the image area discrimination data indicating the halftone image likeness and the non-halftone image likeness. The value image data is restored.

【0032】 (4)10×21マトリックスメモリ回路 図4は、図3に図示した10×21マトリックスメモリ
回路100のブロック図である。図4に示すように、1
0×21マトリックスメモリ回路100は、それぞれペ
ージメモリ61から入力される2値画像データの転送ク
ロックの周期と同一の周期、すなわち画像データの1ド
ットの周期を有するクロックCLKに基づいて入力され
る画像データを主走査方向の1回の走査時間である1水
平期間だけ遅延させる9個のFIFOメモリDM1乃至
DM9と、それぞれ上記クロックCLKに同期して入力
される画像データをクロックCLKの1周期期間だけ遅
延させて出力する200個の遅延型フリップフロップD
F001乃至DF020,DF101乃至DF120,
DF201乃至DF220,...,DF901乃至D
F920とを備える。
(4) 10 × 21 Matrix Memory Circuit FIG. 4 is a block diagram of the 10 × 21 matrix memory circuit 100 shown in FIG. As shown in FIG.
The 0 × 21 matrix memory circuit 100 receives an image input based on a clock CLK having the same cycle as the transfer clock cycle of the binary image data input from the page memory 61, that is, one dot cycle of the image data. Nine FIFO memories DM1 to DM9 for delaying data by one horizontal period, which is one scanning time in the main scanning direction, and image data input in synchronization with the clock CLK for one cycle period of the clock CLK. 200 delayed flip-flops D that are delayed and output
F001 to DF020, DF101 to DF120,
DF201 to DF220,. . . , DF901 through D
F920.

【0033】ページメモリ61から各ページの画像の最
初の画素から最後の画素への方向でシリアルで出力され
る2値画像データは、フリップフロップDF001に入
力された後、縦続接続された20個のフリップフロップ
DF001乃至DF020を介して出力されるととも
に、FIFOメモリDM1に入力された後、縦続接続さ
れた9個のFIFOメモリDM1乃至DM9を介して出
力される。FIFOメモリDM1から出力される画像デ
ータは、フリップフロップDF101に入力された後、
縦続接続されたフリップフロップDF101乃至DF1
20を介して出力される。また、FIFOメモリDM2
から出力される画像データは、フリップフロップDF2
01に入力された後、縦続接続されたフリップフロップ
DF201乃至DF220を介して出力される。以下、
同様にして、各FIFOメモリDM3乃至DM9から出
力される画像データはそれぞれ、フリップフロップDF
301乃至DF901に入力された後、それぞれ縦続接
続されたフリップフロップDF301乃至DF320,
DF401乃至DF420,...,DF901乃至D
F920を介して出力される。
The binary image data serially output from the page memory 61 in the direction from the first pixel to the last pixel of the image of each page is input to the flip-flop DF001 and then cascade-connected. After being output through the flip-flops DF001 to DF020 and input to the FIFO memory DM1, the data is output through nine cascade-connected FIFO memories DM1 to DM9. After the image data output from the FIFO memory DM1 is input to the flip-flop DF101,
Cascaded flip-flops DF101 to DF1
20 is output. Also, the FIFO memory DM2
Is output from the flip-flop DF2
01, and then output through cascaded flip-flops DF201 to DF220. Less than,
Similarly, the image data output from each of the FIFO memories DM3 to DM9 is respectively
After being input to 301 to DF901, cascade-connected flip-flops DF301 to DF320,
DF401 to DF420,. . . , DF901 through D
Output via F920.

【0034】以上のように構成された10×21マトリ
ックスメモリ回路100において、当該回路100に最
初に入力された1ドットの画素データがフリップフロッ
プDF920から出力されたとき、そのときに入力され
た画像データが画素データD000として出力されると
ともに、各フリップフロップDF001乃至DF020
からそれぞれ10×21のウィンドウ内のi=0の主走
査線上の各画素データD001乃至D020が出力さ
れ、FIFOメモリDM1及び各フリップフロップDF
101乃至DF120からそれぞれ10×21のウィン
ドウ内のi=1の主走査線上の各画素データD100乃
至D120が出力され、FIFOメモリDM2及び各フ
リップフロップDF201乃至DF220からそれぞれ
10×21のウィンドウ内のi=2の主走査線上の各画
素データD200乃至D220が出力され、以下同様に
して、各FIFOメモリDM3乃至DM9及び各フリッ
プフロップDF301乃至DF920からそれぞれ、各
画素データD300乃至D920が出力される。
In the 10 × 21 matrix memory circuit 100 configured as described above, when 1-dot pixel data first input to the circuit 100 is output from the flip-flop DF920, the image input at that time is output. The data is output as pixel data D000, and each flip-flop DF001 to DF020 is output.
Outputs pixel data D001 to D020 on the main scanning line of i = 0 in a 10 × 21 window, respectively, and outputs the FIFO memory DM1 and each flip-flop DF.
Each of the pixel data D100 to D120 on the main scanning line of i = 1 in the 10 × 21 window is output from 101 to DF120, and each of the pixel data D100 to D120 in the 10 × 21 window is output from the FIFO memory DM2 and each of the flip-flops DF201 to DF220. The pixel data D200 to D220 on the main scanning line of = 2 are output. Similarly, the pixel data D300 to D920 are output from the FIFO memories DM3 to DM9 and the flip-flops DF301 to DF920, respectively.

【0035】なお、図31において、WPは隣接状態判
定部105及びディザ判定部106における判定時の各
画素の参照範囲であり、その判定時における注目画素
(i=3,j=10)を*で示している。また、W51
1は、判別データ信号生成部114における判定時の各
画素の参照範囲であり、その判定時における注目画素
(i=5,j=5)を◎で示している。ここで、参照範
囲W511は注目画素◎を中心とする5×11のウィン
ドウである。さらに、W9は中間調画像復元部101に
おける復元時の各画素の参照範囲であり、その復元処理
時における注目画素(i=5,j=5)を◎で示してい
る。ここで、参照範囲W9は注目画素◎を中心とする9
×9のウィンドウである。
In FIG. 31, WP is a reference range of each pixel at the time of judgment by the adjacent state judging unit 105 and the dither judging unit 106. Indicated by. Also, W51
Reference numeral 1 denotes a reference range of each pixel at the time of determination in the determination data signal generation unit 114, and a target pixel (i = 5, j = 5) at the time of the determination is indicated by ◎. Here, the reference range W511 is a 5 × 11 window centered on the target pixel ◎. Further, W9 is a reference range of each pixel at the time of restoration by the halftone image restoration unit 101, and the target pixel (i = 5, j = 5) at the time of the restoration processing is indicated by ◎. Here, the reference range W9 is 9 around the target pixel ◎.
This is a × 9 window.

【0036】(5)像域判別部 (5−1)各部の構成及び動作 図5乃至図19は、図3に図示した像域判別部102の
ブロック図であり、像域判別部102は、隣接状態判定
部105と、ディザ判定部106と、5×11マトリッ
クスメモリ回路107と、判定データ生成部108と、
判別データ信号生成部114とを備える。以下、像域判
別部102における処理の特徴について説明する。
(5) Image Area Determining Section (5-1) Configuration and Operation of Each Section FIGS. 5 to 19 are block diagrams of the image area determining section 102 shown in FIG. An adjacent state determination unit 105, a dither determination unit 106, a 5 × 11 matrix memory circuit 107, a determination data generation unit 108,
A determination data signal generation unit 114; Hereinafter, features of the processing in the image area determination unit 102 will be described.

【0037】図32に、文字画像を読み取った後、所定
のしきい値を用いて2値化したときに得られる非中間調
画像の一例を示し、図33に、均一濃度チャートを読み
取った後、誤差拡散法で2値化したときに得られる擬似
中間調2値化画像の一例を示す。また、図34に、写真
画像を読み取った後、スクリーン角が0度のドット集中
型組織的ディザ法で2値化したときに得られる擬似中間
調2値化画像の一例を示し、図35に、写真画像を読み
取った後、スクリーン角が45度のドット集中型組織的
ディザ法で2値化したときに得られる擬似中間調2値化
画像の一例を示す。以下においては、説明の便宜上、図
33に示す画像を分散型中間調画像といい、図34及び
図35に示す画像を集中型中間調画像という。また、図
34の画像を集中型第1ディザ画像といい、図35の画
像を集中型第2ディザ画像という。
FIG. 32 shows an example of a non-halftone image obtained when a character image is read and then binarized using a predetermined threshold value. FIG. An example of a pseudo halftone binarized image obtained when binarization is performed by an error diffusion method is shown. FIG. 34 shows an example of a pseudo halftone binarized image obtained when a photographic image is read and then binarized by a dot concentration type systematic dither method with a screen angle of 0 degrees. An example of a pseudo halftone binary image obtained when a photographic image is read and then binarized by a dot concentration type systematic dither method with a screen angle of 45 degrees. In the following, for convenience of explanation, the image shown in FIG. 33 is called a dispersed halftone image, and the images shown in FIGS. 34 and 35 are called a concentrated halftone image. The image in FIG. 34 is called a concentrated first dither image, and the image in FIG. 35 is called a concentrated second dither image.

【0038】本実施例においては、入力された画像デー
タの画像が分散型中間調画像であるか否かを判定するた
めの処理を隣接状態判定部105で行い、一方、入力さ
れた画像データの画像が集中型中間調画像であるか否か
を判定するための処理をディザ判定部106で行なう。
また、隣接状態判定部105は、図32の画像と図33
の画像との区別の判定を行っている。図32と図33に
おける各ウィンドウW7内においては、同一の画素数の
黒画素が存在しており、当該ウィンドウW7において各
画像の画像濃度は同一であるといえる。これらウィンド
ウW7内の各画像間の大きな相違点は、少数画素の主走
査方向及び副走査方向(以下、主副走査方向という。)
の隣接状態である。ここで、少数画素とは、所定のウィ
ンドウ内において、白画素と黒画素のうちで個数の少な
い方の画素をいい、図32及び図33の例では、少数画
素は黒画素である。
In this embodiment, a process for determining whether or not the image of the input image data is a distributed halftone image is performed by the adjacent state determination unit 105. Processing for determining whether or not the image is a concentrated halftone image is performed by the dither determination unit 106.
In addition, the adjacent state determination unit 105 compares the image of FIG.
Of the image is determined. In each window W7 in FIGS. 32 and 33, the same number of black pixels are present, and it can be said that the image density of each image in the window W7 is the same. The major difference between the images in the window W7 is the main scanning direction and the sub-scanning direction of a small number of pixels (hereinafter, referred to as the main-sub-scanning direction).
Are adjacent states. Here, the minority pixel refers to a pixel having a smaller number among white pixels and black pixels in a predetermined window. In the examples of FIGS. 32 and 33, the minority pixel is a black pixel.

【0039】また、少数画素から主副走査方向の4方向
のいずれかに、上記少数画素と同一種の画素で連結して
いる少数画素の総数を、以下、4方向の隣接数という。
一般に、7×7のウィンドウ内における黒画素数に対す
る主副走査方向の4方向の隣接数のグラフにおいて、中
間調画像領域と非中間調画像領域は、図36のように区
分されて示される。図36から明らかなように、所定の
ウィンドウ内において、黒画素数と白画素数が等しくな
るとき、各画像領域の境界線上のしきい値を示す4方向
の隣接数が大きくなり、当該しきい値よりも大きい4方
向の隣接数のときに非中間調画像が存在し、当該しきい
値よりも小さい4方向の隣接数のときに非中間調画像が
存在する。従って、本実施例においては、図16に示す
テーブル用ROM156に当該しきい値データを格納
し、比較器157によって4方向の隣接数、すなわち主
副走査方向の隣接数と上記テーブル用ROM156から
出力されるしきい値とを比較することによって上記各画
像領域の判別を行っている。
The total number of minority pixels connected by the same kind of pixels as the minority pixel in any of the four directions from the minority pixel to the main / sub scanning direction is hereinafter referred to as the number of adjacent pixels in the four directions.
In general, in a graph of the number of black pixels in a 7 × 7 window and the number of adjacent pixels in the four main and sub-scanning directions, the halftone image region and the non-halftone image region are divided and shown as in FIG. As is clear from FIG. 36, when the number of black pixels and the number of white pixels are equal within a predetermined window, the number of adjacent pixels in the four directions indicating the threshold on the boundary line of each image region increases, and the threshold value increases. A non-halftone image exists when the number of adjacencies in four directions is larger than the value, and a non-halftone image exists when the number of adjacencies in four directions is smaller than the threshold value. Therefore, in this embodiment, the threshold data is stored in the table ROM 156 shown in FIG. 16, and the number of neighbors in four directions, that is, the number of neighbors in the main / sub scanning direction, is output from the table ROM 156 by the comparator 157. Each of the image regions is determined by comparing the threshold value with the threshold value.

【0040】さらに、本実施例において、集中型中間調
画像の判別は、主走査方向又は副走査方向に対するその
画像濃度の変化の周期性、すなわち周辺分布特性を用い
て行なう。ドット集中型組織的ディザ法の種類は理論的
には無限であるが、現実には、画像読取装置の階調数
と、画像記録装置の解像度とから、限られた種類のディ
ザ法しか実用になっていない。従って、本実施例におい
ては、図34の集中型第1ディザ画像と図35の集中型
第2ディザ画像とを判別の対象とする。
Further, in this embodiment, the distinction of the intensive halftone image is performed using the periodicity of the change of the image density in the main scanning direction or the sub-scanning direction, that is, the peripheral distribution characteristic. The number of types of dot-intensive systematic dithering is theoretically infinite, but in reality, only a limited number of types of dithering are practical due to the number of gradations of the image reading device and the resolution of the image recording device. is not. Therefore, in the present embodiment, the centralized first dither image of FIG. 34 and the centralized second dither image of FIG. 35 are determined.

【0041】前者の集中型第1ディザ画像を判別するた
めに、図37と図38に示す8個ずつのウィンドウを用
いる。なお、図37及び図38並びに以下の図におい
て、*は注目画素を示している。図37に示すように、
副走査方向に連続する7個の各画素データD007乃至
D607内の黒画素数の計数値データをデータS10と
し、また、副走査方向に連続する7個の各画素データD
008乃至D608内の黒画素数の計数値データをデー
タS11とし、以下同様にして、データS12乃至S1
7を定義する。さらに、図38に示すように、主走査方
向に連続する7個の各画素データD007乃至D013
内の黒画素数の計数値データをデータS20とし、ま
た、主走査方向に連続する7個の各画素データD107
乃至D113内の黒画素数の計数値データをデータS2
1とし、以下同様にして、データS22乃至S27を定
義する。これらのデータの主走査方向又は副走査方向に
おける計数された黒画素数の周辺分布は、一般に図41
に示すようになる。なお、図41においてXは、1又は
2の数である。
In order to determine the former concentrated-type first dither image, eight windows shown in FIGS. 37 and 38 are used. In FIGS. 37 and 38 and the following figures, * indicates a target pixel. As shown in FIG.
The count value data of the number of black pixels in the seven pieces of pixel data D007 to D607 that are continuous in the sub-scanning direction is data S10, and the seven pieces of pixel data D that are continuous in the sub-scanning direction are data S10.
The count value data of the number of black pixels in 008 to D608 is referred to as data S11, and similarly, data S12 to S1
7 is defined. Further, as shown in FIG. 38, seven pieces of pixel data D007 to D013 continuous in the main scanning direction.
The count value data of the number of black pixels within the pixel data is referred to as data S20.
To D113, the count value data of the number of black pixels
1, data S22 to S27 are defined in the same manner. The peripheral distribution of the number of black pixels counted in the main scanning direction or the sub-scanning direction of these data is generally shown in FIG.
It becomes as shown in. In FIG. 41, X is a number of 1 or 2.

【0042】また、後者の集中型第2ディザ画像を判別
するために、図39と図40に示す8個ずつのウィンド
ウを用いる。図39に示すように、主走査方向及び副走
査方向の両方向に対して45度だけ斜めに傾斜した右上
から左下への斜め方向(以下、第1の斜め方向とい
う。)に連続する7個の各画素データD006乃至D6
00内の黒画素数の計数値データをデータS30とし、
また、第1の斜め方向に連続する7個の各画素データD
008乃至D602内の黒画素数の計数値データをデー
タS31とし、以下同様にして、データS32乃至S3
7を定義する。さらに、図40に示すように、主走査方
向及び副走査方向の両方向に対して45度だけ斜めに傾
斜した左上から右下への斜め方向(以下、第2の斜め方
向という。)に連続する7個の各画素データD000乃
至D606内の黒画素数の計数値データをデータS40
とし、また、第2の斜め方向に連続する7個の各画素デ
ータD002乃至D608内の黒画素数の計数値データ
をデータS41とし、以下同様にして、データS42乃
至S47を定義する。当該集中型第2ディザ画像の判別
についても、上述の集中型第1ディザ画像の判別と同様
に、周辺分布特性に基づいて行う。
In order to determine the latter concentrated type second dither image, eight windows shown in FIGS. 39 and 40 are used. As shown in FIG. 39, seven continuous oblique directions from the upper right to the lower left (hereinafter, referred to as a first oblique direction) that are inclined at an angle of 45 degrees with respect to both the main scanning direction and the sub scanning direction. Each pixel data D006 to D6
The count value data of the number of black pixels in 00 is data S30,
Also, seven pieces of pixel data D continuous in the first diagonal direction are provided.
The count value data of the number of black pixels in 008 to D602 is referred to as data S31, and similarly, data S32 to S3
7 is defined. Further, as shown in FIG. 40, the direction is continuous in an oblique direction from the upper left to the lower right (hereinafter, referred to as a second oblique direction) which is obliquely inclined by 45 degrees with respect to both the main scanning direction and the sub scanning direction. The count value data of the number of black pixels in each of the seven pieces of pixel data D000 to D606 is converted to data S40.
In addition, the count value data of the number of black pixels in each of the seven pieces of pixel data D002 to D608 that are continuous in the second oblique direction is defined as data S41, and data S42 to S47 are defined in the same manner. The determination of the concentrated second dither image is also performed based on the peripheral distribution characteristics, similarly to the above-described determination of the concentrated first dither image.

【0043】(5−2)ディザ判定部 図3に図示したディザ判定部106は、図5の第1計算
部106aと、図6の第2計算部106bと、図8の第
3計算部106cと、図9の第4計算部106dと、図
10の第5計算部106eと、図11の第6計算部10
6f、図12の第7計算部106gとを備える。なお、
図5以降の図面において、各データバスの記号に近接し
てビット数の表示を行い、また、ビット数の表示におい
て、例えば、7(S1)とあるのは、1ビットの符号ビ
ットを含む7ビットのデータバスであることを示す。
(5-2) Dither Determination Unit The dither determination unit 106 shown in FIG. 3 includes a first calculation unit 106a in FIG. 5, a second calculation unit 106b in FIG. 6, and a third calculation unit 106c in FIG. 9, the fourth calculating unit 106d in FIG. 9, the fifth calculating unit 106e in FIG. 10, and the sixth calculating unit 10 in FIG.
6f, and a seventh calculating unit 106g of FIG. In addition,
In the drawings after FIG. 5, the number of bits is displayed in the vicinity of the symbol of each data bus, and in the display of the number of bits, for example, 7 (S1) indicates that 7 (S1) includes one sign bit. Indicates a bit data bus.

【0044】図5はディザ判定部106の第1計算部1
06aのブロック図であり、図6はディザ判定部106
の第2計算部106bのブロック図である。これら第1
及び第2計算部106a,106bにおいて、7ビット
の画素データに基づいて当該画素データに含まれる黒画
素数を示す3ビットのデータを出力する32個の論理B
回路LB−10乃至LB−17,LB−20乃至LB−
27,LB−30乃至LB−37,LB−40乃至LB
−47を備えて、それぞれデータS10乃至S17,S
20乃至S27,S30乃至S37,S40乃至S47
を生成する。
FIG. 5 shows the first calculation unit 1 of the dither judgment unit 106.
FIG. 6 is a block diagram of the dither determination unit 106a.
FIG. 10 is a block diagram of a second calculation unit 106b. These first
And 32 logic Bs that output 3-bit data indicating the number of black pixels included in the pixel data based on the 7-bit pixel data in the second calculation units 106a and 106b.
Circuits LB-10 to LB-17, LB-20 to LB-
27, LB-30 to LB-37, LB-40 to LB
−47, data S10 to S17, S
20 to S27, S30 to S37, S40 to S47
Generate

【0045】図7は、図5及び図6に図示した論理B回
路LBのブロック図であり、以下の図18並びに図20
乃至図23に図示した論理B回路LBも同様の構成を有
する。
FIG. 7 is a block diagram of the logic B circuit LB shown in FIG. 5 and FIG.
The logic B circuit LB shown in FIGS.

【0046】図7に示すように、論理B回路LBは、入
力される7ビットのデータD1乃至D7に対して所定の
論理B演算を行った後、上記入力された7ビットのデー
タの“1”(黒画素)のビット数を示す演算結果の3ビ
ットのデータQ1,Q2,Q3を出力する論理回路であ
って、それぞれ次の「数2」と「数3」で表される論理
演算(以下、論理A演算という。)を行なう2個の論理
A回路LA−1,LA−2と、1個の加算器AD1とを
備える。
As shown in FIG. 7, the logic B circuit LB performs a predetermined logic B operation on the input 7-bit data D1 to D7, and then performs the logic "1" of the input 7-bit data. A logic circuit that outputs 3-bit data Q1, Q2, and Q3 of a calculation result indicating the number of bits of a "(black pixel). Hereafter, two logic A circuits LA-1 and LA-2 for performing a logic A operation) and one adder AD1 are provided.

【0047】[0047]

【数2】 (Equation 2)

【数3】 (Equation 3)

【0048】最下位3ビットのデータD1乃至D3は論
理A回路LA−1に入力され、上記データD1乃至D3
のすぐ上位の3ビットのデータD4乃至D6は論理A回
路LA−2に入力され、最上位1ビットのデータD7は
加算器AD1のキャリーイン端子CIに入力され、各論
理A回路LA−1,LA−2は入力される3ビットのデ
ータに対して上記論理A演算を行った後、演算結果の2
ビットのデータを加算器AD1に出力する。加算器AD
1は、入力された2つの各2ビットのデータを加算し、
加算結果の3ビットのデータQ1,Q2,Q3を出力す
る。
The data D1 to D3 of the least significant three bits are input to the logic A circuit LA-1, and the data D1 to D3
Are input to the logic A circuit LA-2, the most significant 1-bit data D7 is input to the carry-in terminal CI of the adder AD1, and each of the logic A circuits LA-1,. LA-2 performs the above-described logical A operation on the input 3-bit data, and then calculates 2
The bit data is output to the adder AD1. Adder AD
1 adds the input two 2-bit data,
It outputs 3-bit data Q1, Q2, Q3 of the addition result.

【0049】図8は、ディザ判定部106の第3計算部
106cのブロック図である。図8に示すように、デー
タS10乃至S16が加算器AD11乃至AD16によ
って加算され、加算結果である7×7黒画素数第1デー
タが加算器AD16から、比較器CM1の入力端子Aと
各加算器AD17,AD18の各入力端子Aと図16の
隣接状態判定部105の第3計算部105cに出力され
る。加算器AD17は上記7×7黒画素数第1データと
データS17とを加算し、加算結果のデータS1Aを図
11のディザ判定部106の第6計算部106fに出力
する。また、加算器AD18は上記7×7黒画素数第1
データとデータS20とを加算し、加算結果のデータS
2Aを図11のディザ判定部106の第6計算部106
fに出力する。さらに、比較器CM1は、上記計算され
た7×7黒画素数第1データと“24”のデータとを比
較し、7×7黒画素数第1データが“24”よりも大き
いとき少数画素が白画素であることを示すHレベルの白
黒選択信号SEL1を隣接状態判定部105の第1計算
部105aに出力し、一方、7×7黒画素数第1データ
が“24”に等しいか又は小さいとき少数画素が黒画素
であることを示すLレベルの白黒選択信号SEL1を同
様に出力する。
FIG. 8 is a block diagram of the third calculating section 106c of the dither determining section 106. As shown in FIG. 8, the data S10 to S16 are added by the adders AD11 to AD16, and the 7 × 7 black pixel number first data, which is the addition result, is sent from the adder AD16 to the input terminal A of the comparator CM1. The signals are output to the input terminals A of the devices AD17 and AD18 and to the third calculation unit 105c of the adjacent state determination unit 105 in FIG. The adder AD17 adds the 7 × 7 black pixel number first data and the data S17, and outputs the addition result data S1A to the sixth calculation unit 106f of the dither determination unit 106 in FIG. Further, the adder AD18 has the first 7 × 7 black pixel number.
The data and the data S20 are added, and the data S
2A is calculated by the sixth calculating unit 106 of the dither determining unit 106 in FIG.
Output to f. Further, the comparator CM1 compares the calculated 7 × 7 black pixel number first data with “24” data, and when the 7 × 7 black pixel number first data is larger than “24”, the minority pixel Is output to the first calculation unit 105a of the adjacent state determination unit 105, indicating that the pixel is a white pixel, while the 7 × 7 black pixel number first data is equal to “24” or When the value is small, a low-level black-and-white selection signal SEL1 indicating that a small number of pixels are black pixels is similarly output.

【0050】図9は、ディザ判定部106の第4計算部
106dのブロック図である。図9に示すように、デー
タS30乃至S37が加算器AD21乃至AD27によ
って加算され、加算結果のデータS3Aが加算器AD2
7からディザ判定部106の第7計算部106gに出力
される。
FIG. 9 is a block diagram of the fourth calculating unit 106 d of the dither determining unit 106. As shown in FIG. 9, the data S30 to S37 are added by the adders AD21 to AD27, and the addition result data S3A is added to the adder AD2.
7 to the seventh calculation unit 106 g of the dither determination unit 106.

【0051】図10は、ディザ判定部106の第5計算
部106eのブロック図である。図10に示すように、
データS40乃至S47が加算器AD31乃至AD37
によって加算され、加算結果のデータS4Aが加算器A
D37からディザ判定部106の第7計算部106gに
出力される。
FIG. 10 is a block diagram of the fifth calculating unit 106e of the dither determining unit 106. As shown in FIG.
Data S40 to S47 are the adders AD31 to AD37.
And the data S4A of the addition result is added to the adder A
D37 is output to the seventh calculation unit 106g of the dither determination unit 106.

【0052】図11は、ディザ判定部106の第6計算
部106fのブロック図である。
FIG. 11 is a block diagram of the sixth calculating unit 106f of the dither determining unit 106.

【0053】図11に示すように、データS10乃至S
17がそれぞれ乗算器MU10乃至MU17に入力さ
れ、各データが8倍された後、乗算結果の各データがそ
れぞれ比較器CM10乃至CM17の各入力端子Aに出
力される。一方、データS1Aが比較器CM10乃至C
M17の各入力端子Bに入力され、各比較器CM10乃
至CM17は、各入力端子A,Bに入力された各データ
を比較しA>BであるときHレベルの信号を、集中型第
1ディザ画像の判定を行うためのテーブル用ROMRT
1の各アドレス端子A7乃至A0に出力し、A≦Bであ
るときLレベルの信号を同様に出力する。ROMRT1
は、集中型第1ディザ画像であると判定するときHレベ
ルの信号をアンドゲートAND1の第1の入力端子に出
力し、一方、集中型第1ディザ画像でないと判定すると
きLレベルの信号を同様に出力する。
As shown in FIG. 11, data S10 to S10
17 are respectively input to the multipliers MU10 to MU17, and after each data is multiplied by eight, each data of the multiplication result is output to each input terminal A of each of the comparators CM10 to CM17. On the other hand, the data S1A is output from the comparators CM10 to C10.
Each of the comparators CM10 to CM17 compares the data input to each of the input terminals A and B. When A> B, the comparator CM10 to CM17 outputs an H level signal to the centralized first dither. ROMRT for table for determining images
1, and outputs an L-level signal when A ≦ B. ROMRT1
Outputs an H-level signal to the first input terminal of the AND gate AND1 when determining that the image is a concentrated first dither image, and outputs an L-level signal when determining that the image is not a concentrated first dither image. Output in the same way.

【0054】また、データS20乃至S27がそれぞれ
乗算器MU20乃至MU27に入力され、各データが8
倍された後、乗算結果の各データがそれぞれ比較器CM
20乃至CM27の各入力端子Aに出力される。一方、
データS2Aが比較器CM20乃至CM27の各入力端
子Bに入力され、各比較器CM20乃至CM27は、各
入力端子A,Bに入力された各データを比較しA>Bで
あるときHレベルの信号を、集中型第1ディザ画像の判
定を行うためのテーブル用ROMRT2の各アドレス端
子A7乃至A0に出力し、A≦BであるときLレベルの
信号を同様に出力する。ROMRT2は、集中型第1デ
ィザ画像であると判定するときHレベルの信号をアンド
ゲートAND1の第2の入力端子に出力し、一方、集中
型第1ディザ画像でないと判定するときLレベルの信号
を同様に出力する。
The data S20 to S27 are input to multipliers MU20 to MU27, respectively, and each data is
After the multiplication, each data of the multiplication result is output to the comparator CM, respectively.
The signals are output to the input terminals A of the CMs 20 to 27. on the other hand,
The data S2A is input to the input terminals B of the comparators CM20 to CM27, and the comparators CM20 to CM27 compare the data input to the input terminals A and B. When A> B, an H level signal is output. Is output to each of the address terminals A7 to A0 of the table ROM RT2 for determining the centralized first dither image. When A ≦ B, an L-level signal is similarly output. The ROMRT2 outputs an H-level signal to the second input terminal of the AND gate AND1 when determining that the image is the centralized first dither image, and outputs an L-level signal when determining that the image is not the centralized first dither image. Is similarly output.

【0055】さらに、アンドゲートAND1は入力され
る各信号の論理積の結果を示す集中型第1ディザ検出信
号を判定データの1つとして図17の5×11マトリッ
クスメモリ回路107に出力する。
Further, the AND gate AND1 outputs the centralized first dither detection signal indicating the result of the logical product of the input signals to the 5 × 11 matrix memory circuit 107 in FIG. 17 as one of the determination data.

【0056】当該第6計算部106fでは、図38と図
39に図示した各ウィンドウ内の黒画素数とそれらの平
均黒画素数との大小関係を比較器CM10乃至CM1
7,CM20乃至27で求め、図41の周辺分布特性を
参照して上述したように、そうして得られた大小関係を
示すデータをテーブル用ROMRT1,RT2で検索す
ることによって、主走査方向と副走査方向の両方向に対
して集中型第1ディザ画像であるか否かを判定してい
る。次いで、両方向に対して集中型第1ディザ画像であ
ると判定したのみHレベルの集中型第1データ検出信号
を出力する。
In the sixth calculating section 106f, the magnitude relation between the number of black pixels in each window shown in FIGS. 38 and 39 and their average number of black pixels is determined by comparators CM10 to CM1.
7. As described above with reference to the peripheral distribution characteristics shown in FIG. 41, the data indicating the magnitude relation is obtained from the table ROMs RT1 and RT2 to obtain the data in the main scanning direction. It is determined whether the image is a concentrated first dither image in both sub-scanning directions. Next, an H-level centralized first data detection signal is output only when it is determined that the image is a centralized first dither image in both directions.

【0057】図12は、ディザ判定部106の第7計算
部106gのブロック図である。
FIG. 12 is a block diagram of the seventh calculating unit 106g of the dither determining unit 106.

【0058】図12に示すように、データS30乃至S
37がそれぞれ乗算器MU30乃至MU37に入力さ
れ、各データが8倍された後、乗算結果の各データがそ
れぞれ比較器CM30乃至CM37の各入力端子Aに出
力される。一方、データS3Aが比較器CM30乃至C
M37の各入力端子Bに入力され、各比較器CM30乃
至CM37は、各入力端子A,Bに入力された各データ
を比較しA>BであるときHレベルの信号を、集中型第
2ディザ画像の判定を行うためのテーブル用ROMRT
3の各アドレス端子A7乃至A0に出力し、A≦Bであ
るときLレベルの信号を同様に出力する。ROMRT3
は、集中型第2ディザ画像であると判定するときHレベ
ルの信号をアンドゲートAND2の第1の入力端子に出
力し、一方、集中型第2ディザ画像でないと判定すると
きLレベルの信号を同様に出力する。
As shown in FIG. 12, data S30 through S30
37 are input to the multipliers MU30 to MU37, respectively, and after multiplying each data by 8, the respective data of the multiplication result are output to the input terminals A of the comparators CM30 to CM37, respectively. On the other hand, the data S3A indicates that the comparators CM30 to CM30C
Each of the comparators CM30 to CM37 compares the data input to each of the input terminals A and B, and outputs an H-level signal when A> B, and outputs the H-level signal to the centralized second dither. ROMRT for table for determining images
3 and outputs an L-level signal when A ≦ B. ROMRT3
Outputs an H level signal to the first input terminal of the AND gate AND2 when it is determined that the image is a concentrated second dither image, and outputs an L level signal when it is determined that the image is not a concentrated second dither image. Output in the same way.

【0059】また、データS40乃至S47がそれぞれ
乗算器MU40乃至MU47に入力され、各データが8
倍された後、乗算結果の各データがそれぞれ比較器CM
40乃至CM47の各入力端子Aに出力される。一方、
データS4Aが比較器CM40乃至CM47の各入力端
子Bに入力され、各比較器CM40乃至CM47は、各
入力端子A,Bに入力された各データを比較しA>Bで
あるときHレベルの信号を、集中型第2ディザ画像の判
定を行うためのテーブル用ROMRT4の各アドレス端
子A7乃至A0に出力し、A≦BであるときLレベルの
信号を同様に出力する。ROMRT4は、集中型第2デ
ィザ画像であると判定するときHレベルの信号をアンド
ゲートAND2の第2の入力端子に出力し、一方、集中
型第2ディザ画像でないと判定するときLレベルの信号
を同様に出力する。
The data S40 to S47 are input to the multipliers MU40 to MU47, respectively.
After the multiplication, each data of the multiplication result is output to the comparator CM, respectively.
The signals are output to the input terminals A of the CMs 40 to 47. on the other hand,
The data S4A is input to the input terminals B of the comparators CM40 to CM47. The comparators CM40 to CM47 compare the data input to the input terminals A and B. When A> B, an H level signal is output. Is output to each address terminal A7 to A0 of the table ROM RT4 for determining the concentrated second dither image, and when A ≦ B, an L level signal is similarly output. The ROMRT4 outputs an H-level signal to the second input terminal of the AND gate AND2 when determining that the image is the concentrated second dither image, and outputs an L-level signal when determining that the image is not the concentrated second dither image. Is similarly output.

【0060】さらに、アンドゲートAND2は入力され
る各信号の論理積の結果を示す集中型第2ディザ検出信
号を判定データの1つとして図17の5×11マトリッ
クスメモリ回路107に出力する。
Further, the AND gate AND2 outputs the centralized second dither detection signal indicating the result of the logical product of the input signals to the 5 × 11 matrix memory circuit 107 in FIG. 17 as one of the judgment data.

【0061】当該第7計算部106gでは、図40と図
41に図示した各ウィンドウ内の黒画素数とそれらの平
均黒画素数との大小関係を比較器CM30乃至CM3
7,CM40乃至47で求め、図41の周辺分布特性を
参照して上述したように、そうして得られた大小関係を
示すデータをテーブル用ROMRT3,RT4で検索す
ることによって、第1の斜め方向と第2の斜め方向の両
方向に対して集中型第2ディザ画像であるか否かを判定
している。次いで、両方向に対して集中型第2ディザ画
像であると判定したのみHレベルの集中型第2データ検
出信号を出力する。
The seventh calculating section 106g determines the magnitude relationship between the number of black pixels in each window shown in FIGS. 40 and 41 and the average number of black pixels by the comparators CM30 to CM3.
7, as described above with reference to the marginal distribution characteristics shown in FIG. 41 and by referring to the peripheral distribution characteristics shown in FIG. It is determined whether the image is a concentrated type second dither image in both the direction and the second oblique direction. Next, an H-level centralized second data detection signal is output only when it is determined that the image is a centralized second dither image in both directions.

【0062】(5−3)隣接状態判定部 図3に図示した隣接状態判定部105は、図13の第1
計算部105aと、図15の第2計算部105bと、図
16の第3計算部106cとを備える。
(5-3) Adjacent State Determination Unit The adjacent state determination unit 105 shown in FIG.
It includes a calculation unit 105a, a second calculation unit 105b in FIG. 15, and a third calculation unit 106c in FIG.

【0063】本実施例において、少数画素の主副走査方
向の4方向の隣接数は、図42及び図43に示す矢印が
示す各画素間の隣接箇所を計数することによって求め
る。ここで、主走査方向又は副走査方向の各1走査線上
の隣接数を計数するために、図14に示す主副走査方向
隣接数カウンタ(以下、隣接数カウンタという。)CA
を用いる。
In this embodiment, the number of adjacent small pixels in the four main scanning directions is determined by counting the number of adjacent pixels indicated by arrows in FIGS. 42 and 43. Here, in order to count the number of adjacencies on each scanning line in the main scanning direction or the sub-scanning direction, an adjacency number counter (hereinafter, referred to as an adjacency number counter) CA shown in FIG.
Is used.

【0064】図13は、図3に図示した隣接状態判定部
105の第1計算部105aのブロック図である。図1
3に示すように、各隣接数カウンタCA−1乃至CA−
7,CA−11乃至CA−17に白黒選択信号SEL1
が入力される。
FIG. 13 is a block diagram of the first calculation unit 105a of the adjacent state determination unit 105 shown in FIG. FIG.
As shown in FIG. 3, each of the adjacent number counters CA-1 to CA-
7. A black-and-white selection signal SEL1 is supplied to CA-11 to CA-17.
Is entered.

【0065】主走査方向に連続する7個の画素データD
007乃至D013が隣接数カウンタCA−1に入力さ
れて少数画素の隣接数が計数された後加算器AD41に
出力され、主走査方向に連続する7個の画素データD1
07乃至D113が隣接数カウンタCA−2に入力され
て少数画素の隣接数が計数された後加算器AD41に出
力され、主走査方向に連続する7個の画素データD20
7乃至D213が隣接数カウンタCA−3に入力されて
少数画素の隣接数が計数された後加算器AD42に出力
され、主走査方向に連続する7個の画素データD307
乃至D313が隣接数カウンタCA−4に入力されて少
数画素の隣接数が計数された後加算器AD42に出力さ
れる。また、主走査方向に連続する7個の画素データD
407乃至D413が隣接数カウンタCA−5に入力さ
れて少数画素の隣接数が計数された後加算器AD44に
出力され、主走査方向に連続する7個の画素データD5
07乃至D513が隣接数カウンタCA−6に入力され
て少数画素の隣接数が計数された後加算器AD44に出
力され、主走査方向に連続する7個の画素データD60
7乃至D613が隣接数カウンタCA−7に入力されて
少数画素の隣接数が計数された後加算器AD45に出力
される。
Seven pixel data D continuous in the main scanning direction
007 to D013 are input to the adjacent number counter CA-1, the adjacent number of the small number of pixels is counted, and then output to the adder AD41.
07 to D113 are input to the adjacent number counter CA-2, the number of adjacent small pixels is counted, and then output to the adder AD41.
7 to D213 are input to the adjacent number counter CA-3, and the number of adjacent small pixels is counted.
To D313 are input to the adjacent number counter CA-4, and the adjacent numbers of the small number of pixels are counted and then output to the adder AD42. Also, seven pixel data D continuous in the main scanning direction
407 to D413 are input to an adjacent number counter CA-5, the adjacent number of a small number of pixels is counted, and then output to an adder AD44.
07 to D513 are input to an adjacent number counter CA-6, and the number of adjacent small pixels is counted.
7 to D613 are input to the adjacent number counter CA-7, the number of adjacent small pixels is counted, and then output to the adder AD45.

【0066】また、副走査方向に連続する7個の画素デ
ータD007乃至D607が隣接数カウンタCA−11
に入力されて少数画素の隣接数が計数された後加算器A
D45に出力され、副走査方向に連続する7個の画素デ
ータD008乃至D608が隣接数カウンタCA−12
に入力されて少数画素の隣接数が計数された後加算器A
D51に出力され、副走査方向に連続する7個の画素デ
ータD009乃至D609が隣接数カウンタCA−13
に入力されて少数画素の隣接数が計数された後加算器A
D51に出力され、副走査方向に連続する7個の画素デ
ータD010乃至D610が隣接数カウンタCA−14
に入力されて少数画素の隣接数が計数された後加算器A
D52に出力される。さらに、副走査方向に連続する7
個の画素データD011乃至D611が隣接数カウンタ
CA−15に入力されて少数画素の隣接数が計数された
後加算器AD52に出力され、副走査方向に連続する7
個の画素データD012乃至D612が隣接数カウンタ
CA−16に入力されて少数画素の隣接数が計数された
後加算器AD54に出力され、副走査方向に連続する7
個の画素データD013乃至D613が隣接数カウンタ
CA−17に入力されて少数画素の隣接数が計数された
後加算器AD54に出力される。
The seven consecutive pixel data D007 to D607 in the sub-scanning direction are stored in the adjacent number counter CA-11.
Is added to the adder A after the number of adjacent pixels is counted.
D45, and the seven consecutive pixel data D008 to D608 in the sub-scanning direction are output to the adjacent number counter CA-12.
Is added to the adder A after the number of adjacent pixels is counted.
D51 and seven consecutive pixel data D009 to D609 in the sub-scanning direction are output to the adjacent number counter CA-13.
Is added to the adder A after the number of adjacent pixels is counted.
D51 and seven consecutive pixel data D010 to D610 in the sub-scanning direction are output to the adjacent number counter CA-14.
Is added to the adder A after the number of adjacent pixels is counted.
Output to D52. Furthermore, 7 continuous in the sub-scanning direction
The pixel data D011 to D611 are input to the adjacent number counter CA-15, the number of adjacent small pixels is counted, and then output to the adder AD52.
The pixel data D012 to D612 are input to the adjacent number counter CA-16, the adjacent number of the small number of pixels is counted, and then output to the adder AD54.
The pieces of pixel data D013 to D613 are input to an adjacent number counter CA-17, and the number of adjacent small pixels is counted, and then output to the adder AD54.

【0067】上記各隣接数カウンタCA−1乃至CA−
7乃至CA−11乃至CA−17によって計数された各
少数画素の隣接数は、加算器AD41乃至AD47,A
D51乃至AD56によって加算された後、加算結果の
主副走査方向隣接数が加算器AD56から図16の隣接
状態判定部105の第3計算部105cに出力される。
Each of the adjacent number counters CA-1 to CA-
The number of neighbors of each small pixel counted by 7 to CA-11 to CA-17 is calculated by adders AD41 to AD47, A
After the addition by D51 to AD56, the number of neighbors in the main and sub-scanning directions resulting from the addition is output from the adder AD56 to the third calculation unit 105c of the adjacent state determination unit 105 in FIG.

【0068】図14は、図13に図示した各隣接数カウ
ンタCAのブロック図である。
FIG. 14 is a block diagram of each adjacent number counter CA shown in FIG.

【0069】図14に示すように、入力される7ビット
のデータのうちの第1ビットのデータD1はアンドゲー
トAND11の第1の入力端子及びノアゲートNOR1
2の第1の反転入力端子に入力され、第2ビットのデー
タD2はアンドゲートAND11の第2の入力端子、ノ
アゲートNOR12の第2の反転入力端子、アンドゲー
トAND13の第1の入力端子、及びノアゲートNOR
14の第1の反転入力端子に入力される。また、第3ビ
ットのデータD3はアンドゲートAND13の第2の入
力端子、ノアゲートNOR14の第2の反転入力端子、
アンドゲートAND15の第1の入力端子、及びノアゲ
ートNOR16の第1の反転入力端子に入力され、第4
ビットのデータD4はアンドゲートAND15の第2の
入力端子、ノアゲートNOR16の第2の反転入力端
子、アンドゲートAND17の第1の入力端子、及びノ
アゲートNOR18の第1の反転入力端子に入力され
る。さらに、第5ビットのデータD5はアンドゲートA
ND17の第2の入力端子、ノアゲートNOR18の第
2の反転入力端子、アンドゲートAND9の第1の入力
端子、及びノアゲートNOR20の第1の反転入力端子
に入力され、第6ビットのデータD6はアンドゲートA
ND19の第2の入力端子、ノアゲートNOR20の第
2の反転入力端子、アンドゲートAND21の第1の入
力端子、及びノアゲートNOR22の第1の反転入力端
子に入力される。またさらに、第7ビットのデータD7
はアンドゲートAND21の第2の入力端子、及びノア
ゲートNOR22の第2の反転入力端子に入力される。
As shown in FIG. 14, the first bit data D1 of the input 7-bit data is supplied to the first input terminal of the AND gate AND11 and the NOR gate NOR1.
, And the second bit data D2 is input to the second input terminal of the AND gate AND11, the second inverted input terminal of the NOR gate NOR12, the first input terminal of the AND gate AND13, and NOR gate NOR
It is input to fourteen first inverting input terminals. Also, the third bit data D3 is a second input terminal of the AND gate AND13, a second inverting input terminal of the NOR gate NOR14,
The signal is input to the first input terminal of the AND gate AND15 and the first inverting input terminal of the NOR gate NOR16,
The bit data D4 is input to a second input terminal of the AND gate AND15, a second inverted input terminal of the NOR gate NOR16, a first input terminal of the AND gate AND17, and a first inverted input terminal of the NOR gate NOR18. Further, the fifth bit data D5 is provided by AND gate A
The second input terminal of the ND17, the second inverting input terminal of the NOR gate NOR18, the first input terminal of the AND gate AND9, and the first inverting input terminal of the NOR gate NOR20 are input to the sixth input terminal. Gate A
The signal is input to a second input terminal of the ND19, a second inverted input terminal of the NOR gate NOR20, a first input terminal of the AND gate AND21, and a first inverted input terminal of the NOR gate NOR22. Furthermore, the seventh bit data D7
Is input to the second input terminal of the AND gate AND21 and the second inverting input terminal of the NOR gate NOR22.

【0070】各論理ゲートAND11乃至AND21,
NOR12乃至NOR22から出力される信号はそれぞ
れ、セレクタSE11の各入力端子A1,B1,A2,
B2,A3,B3,A4,B4,A5,B5,A6,B
6に入力され、セレクタSE11は、Lレベルの白黒選
択信号SEL1が入力されるとき、少数画素である黒画
素の隣接数を計数するため、各入力端子A1乃至A6に
入力されるデータを選択してそれぞれ、各出力端子Y1
乃至Y3から論理A回路LA−11の各入力端子に出力
するとともに、各出力端子Y4乃至Y6から論理A回路
LA−12の各入力端子に出力し、一方、Hレベルの白
黒選択信号SEL1が入力されるとき、少数画素である
白画素の隣接数を計数するため、各入力端子B1乃至B
6に入力されるデータを選択してそれぞれ同様に出力す
る。各論理A回路LA−11,LA−12から出力され
る各2ビットのデータは加算器AD57に入力され、加
算器AD57によって加算された後、加算結果のデータ
が主副走査方向の隣接数計数値として出力される。
Each of the logic gates AND11 to AND21,
Signals output from NOR12 to NOR22 are input terminals A1, B1, A2,
B2, A3, B3, A4, B4, A5, B5, A6, B
6, the selector SE11 selects data input to each of the input terminals A1 to A6 in order to count the number of adjacent black pixels, which are a small number of pixels, when the L-level black-and-white selection signal SEL1 is input. Each output terminal Y1
To Y3 to the respective input terminals of the logic A circuit LA-11, and from the respective output terminals Y4 to Y6 to the respective input terminals of the logic A circuit LA-12. On the other hand, the H level monochrome selection signal SEL1 is input. In order to count the number of adjacent white pixels, which are a small number of pixels, the input terminals B1 to B1
6 are selected and output similarly. Each 2-bit data output from each of the logic A circuits LA-11 and LA-12 is input to the adder AD57, and after being added by the adder AD57, the data of the addition result is counted as the adjacent number in the main-sub scanning direction. Output as a number.

【0071】図15は、隣接状態判定部105の第2計
算部105bのブロック図であり、当該第2計算部10
5bは、画素データD310を中心とする3×3のウィ
ンドウ内の黒画素数を計数するための回路である。
FIG. 15 is a block diagram of the second calculating section 105b of the adjacent state judging section 105.
Reference numeral 5b denotes a circuit for counting the number of black pixels in a 3 × 3 window centered on the pixel data D310.

【0072】図15に示すように、主走査方向に連続す
る3個のデータD209乃至D211が論理A回路LA
−13に入力され、各データ内の黒画素数が計数された
後、その計数値のデータが加算器AD58に出力され
る。また、主走査方向に連続する3個のデータD309
乃至D311が論理A回路LA−14に入力され、各デ
ータ内の黒画素数が計数された後、その計数値のデータ
が加算器AD58に出力される。さらに、主走査方向に
連続する3個のデータD409乃至D411が論理A回
路LA−15に入力され、各データ内の黒画素数が計数
された後、その計数値のデータが加算器AD59に出力
される。各論理A回路LA−13乃至LA−15によっ
て計数された各データは加算器AD58,AD59によ
って加算され、加算結果のデータが加算器AD59から
図16の第3計算部105cに、3×3黒画素数データ
として出力される。
As shown in FIG. 15, three data D209 to D211 continuous in the main scanning direction are logical A circuit LA.
-13, the number of black pixels in each data is counted, and the data of the counted value is output to the adder AD58. Also, three data D309 continuous in the main scanning direction
To D311 are input to the logic A circuit LA-14, and after the number of black pixels in each data is counted, the data of the count value is output to the adder AD58. Further, three consecutive data D409 to D411 in the main scanning direction are input to the logic A circuit LA-15, and after the number of black pixels in each data is counted, the data of the counted value is output to the adder AD59. Is done. Each data counted by each of the logic A circuits LA-13 to LA-15 is added by the adders AD58 and AD59, and the data of the addition result is sent from the adder AD59 to the third calculation unit 105c in FIG. It is output as pixel number data.

【0073】図16は、隣接状態判定部105の第3計
算部105cのブロック図である。
FIG. 16 is a block diagram of the third calculation unit 105c of the adjacent state determination unit 105.

【0074】図16に示すように、3×3黒画素数デー
タが各比較器150,151の入力端子Bに入力され、
一方、“0”のデータが比較器150の入力端子Aに入
力され、“9”のデータが比較器151の入力端子Aに
入力される。比較器150はA=BのときにのみHレベ
ルの信号をアンドゲート158の第1の入力端子に出力
し、一方、それ以外のときLレベルの信号を同様に出力
する。また、比較器151はA=BのときにのみHレベ
ルの信号をアンドゲート159の第1の入力端子に出力
し、一方、それ以外のときLレベルの信号を同様に出力
する。
As shown in FIG. 16, 3 × 3 black pixel number data is input to input terminals B of comparators 150 and 151,
On the other hand, data “0” is input to the input terminal A of the comparator 150, and data “9” is input to the input terminal A of the comparator 151. Comparator 150 outputs an H-level signal to the first input terminal of AND gate 158 only when A = B, and similarly outputs an L-level signal otherwise. The comparator 151 outputs an H level signal to the first input terminal of the AND gate 159 only when A = B, and outputs an L level signal otherwise.

【0075】ディザ判定部106の第3計算部106c
から出力される7×7黒画素数第1データは各比較器1
52乃至155の各入力端子Bに入力されるとともに、
中間調画像領域か又は非中間調領域かを判別するための
しきい値テーブルが格納されたテーブル用ROM156
のアドレス端子に入力される。詳細後述されるしきい値
データTJ0が比較器152の入力端子Aに入力され、
“49−TJ0”のデータが比較器153の入力端子A
に入力される。比較器152はA>BのときHレベルの
信号をアンドゲート158の第2の入力端子に出力し、
一方、それ以外のときLレベルの信号を同様に出力す
る。また、比較器153はA<BのときHレベルの信号
をアンドゲート159の第2の入力端子に出力し、一
方、それ以外のときLレベルの信号を同様に出力する。
アンドゲート158,159からの各出力信号がノアゲ
ート160に入力され、当該ノアゲート160の出力信
号がアンドゲート162,163の各第1の入力端子に
入力される。
The third calculating section 106c of the dither determining section 106
Is output from each comparator 1
While being input to each of the input terminals B of 52 to 155,
Table ROM 156 storing a threshold value table for determining whether it is a halftone image area or a non-halftone area
Is input to the address terminal. Threshold data TJ0, which will be described in detail later, is input to the input terminal A of the comparator 152,
The data of “49-TJ0” is input terminal A of the comparator 153.
Is input to The comparator 152 outputs an H-level signal to the second input terminal of the AND gate 158 when A> B,
On the other hand, otherwise, an L-level signal is output similarly. The comparator 153 outputs an H-level signal to the second input terminal of the AND gate 159 when A <B, and similarly outputs an L-level signal otherwise.
Each output signal from the AND gates 158 and 159 is input to the NOR gate 160, and the output signal of the NOR gate 160 is input to each first input terminal of the AND gates 162 and 163.

【0076】また、“0”のデータが比較器154の入
力端子Aに入力され、“49”のデータが比較器155
の入力端子Aに入力される。比較器154はA=Bのと
き、Hレベルの信号をオアゲート161の第1の入力端
子に出力し、一方、それ以外のとき、Lレベルの信号を
同様に出力する。また、比較器155はA=Bのとき、
Hレベルの信号をオアゲート161の第2の入力端子に
出力し、一方、それ以外のとき、Lレベルの信号を同様
に出力する。オアゲート161は入力される各信号の論
理和の演算結果を示す信号を、7×7のウィンドウ内の
すべての画素が白画素又は黒画素であることを示す全白
全黒画像検出信号として5×11マトリックスメモリ回
路107に出力する。
The data “0” is input to the input terminal A of the comparator 154, and the data “49” is input to the comparator 155.
Is input to the input terminal A. The comparator 154 outputs an H-level signal to the first input terminal of the OR gate 161 when A = B, and outputs an L-level signal otherwise. Further, when A = B, the comparator 155
The H-level signal is output to the second input terminal of the OR gate 161, and otherwise, the L-level signal is output similarly. The OR gate 161 converts the signal indicating the result of the logical sum of the input signals into a 5 × 7 × 7 × 7 × 7 × 7 × 7 × 7 × 5 × 5 ×××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××× Output to the 11 matrix memory circuit 107.

【0077】テーブル用ROM156から出力されるし
きい値データは比較器157の入力端子Aに入力され、
一方、主副走査方向隣接数が比較器157の入力端子B
に入力される。図36を参照して上述したように7×7
のウィンドウ内の領域の画像が中間調画像であるか非中
間調画像であるかを判別するために設けられる比較器1
57は、A>BのときHレベルの信号をアンドゲート1
62の第2の入力端子に出力するとともに、A<Bのと
きHレベルの信号をアンドゲート163の第2の入力端
子に出力する。さらに、アンドゲート162から出力さ
れる信号は中間調画像検出信号として5×11マトリッ
クスメモリ回路107に出力され、また、アンドゲート
163から出力される信号は非中間調画像検出信号とし
て5×11マトリックスメモリ回路107に出力され
る。
The threshold data output from the table ROM 156 is input to the input terminal A of the comparator 157.
On the other hand, the number of adjacencies in the main and sub scanning directions is equal to the input terminal B of the comparator
Is input to As described above with reference to FIG.
A comparator 1 provided to determine whether the image of the area in the window is a halftone image or a non-halftone image
57 is an AND gate 1 which outputs a signal of H level when A> B.
62, and outputs an H-level signal to the second input terminal of the AND gate 163 when A <B. The signal output from the AND gate 162 is output to the 5 × 11 matrix memory circuit 107 as a halftone image detection signal, and the signal output from the AND gate 163 is output to the 5 × 11 matrix memory as a non-halftone image detection signal. Output to the memory circuit 107.

【0078】当該第3計算部105cにおいては、7×
7のウィンドウ内の黒画素数第1データに基づいてテー
ブルROM156から出力されるしきい値データと、計
数された主副走査方向隣接数とに基づいて当該ウィンド
ウ内の領域の画像が中間調画像であるか又は非中間調画
像であるかの判別を、比較器157によって行ってい
る。しかしながら、次の2つの場合においては、その判
別結果を「不明」とし、中間調画像でもなく、非中間調
画像でもないとしている。 (a)主副走査方向隣接数としきい値データが一致する
とき、すなわち、比較器157においてA=Bであると
き。 (b)7×7のウィンドウ内に少数画素が所定のしきい
値TJ0よりも小さく(比較器152の出力信号がHレ
ベルであるとき又は比較器153の出力信号がHレベル
であるとき)、かつ注目画素を中心とした3×3のウィ
ンドウ内に少数画素が存在しない(比較器150の出力
信号がHレベルであるとき又は比較器151の出力信号
がHレベルであるとき)とき。
In the third calculation unit 105c, 7 ×
7, based on the threshold data output from the table ROM 156 based on the first data of the number of black pixels in the window and the counted number of adjacent pixels in the main / sub scanning direction, the image of the area in the window is changed to a halftone image. Or a non-halftone image is determined by the comparator 157. However, in the following two cases, the determination result is “unknown”, and the image is neither a halftone image nor a non-halftone image. (A) When the number of neighbors in the main and sub scanning directions matches the threshold data, that is, when A = B in the comparator 157. (B) a small number of pixels are smaller than a predetermined threshold value TJ0 within the 7 × 7 window (when the output signal of the comparator 152 is at the H level or when the output signal of the comparator 153 is at the H level), Also, when a small number of pixels do not exist in the 3 × 3 window centered on the target pixel (when the output signal of the comparator 150 is at the H level or when the output signal of the comparator 151 is at the H level).

【0079】上記(a)の場合に「不明」とするため
に、比較器157からアンドゲート162,163にH
レベルの信号が入力されないように構成されている。ま
た、上記(b)の場合に「不明」とするために、ノアゲ
ート160から出力される、Lレベルでアクティブとな
る信号をアンドゲート162,163に入力している。
In order to determine “unknown” in the case of (a), the comparator 157 sends H to the AND gates 162 and 163.
It is configured so that a level signal is not input. In addition, in order to make “unknown” in the case of (b), a signal that becomes active at the L level and is output from the NOR gate 160 is input to the AND gates 162 and 163.

【0080】上記(b)の場合に「不明」とする理由に
ついて図45及び図46を用いて以下に説明する。図4
5及び図46は、線状の非中間調画像が7×7のウィン
ドウW7に近づく場合の一例を示す図である。図45の
状態では、線状の画像の端部しかウィンドウW7内に入
らないため、孤立点との区別を行なうことができず、中
間調画像/非中間調画像の判別を行なうと、誤って中間
調画像と判別される。そこで、図46に示すように、線
状の画像がある程度、注目画素*の周辺に近付くまで
は、その判別結果はむしろ「不明」としておいた方がよ
いので、この条件判断を3×3のウィンドウW3内に少
数画素が存在するか否かによって行なう。また、この場
合において、もちろん、少数画素は上記しきい値TJ0
よりは少ないはずであるから、その判断も同時に行って
いる。
The reason for "unknown" in the case of (b) will be described below with reference to FIGS. 45 and 46. FIG.
5 and 46 are diagrams illustrating an example of a case where a linear non-halftone image approaches a 7 × 7 window W7. In the state shown in FIG. 45, only the end of the linear image enters the window W7, so that it cannot be distinguished from an isolated point. The image is determined to be a halftone image. Therefore, as shown in FIG. 46, it is better to set the determination result to “unknown” until the linear image approaches the periphery of the target pixel to some extent. This is performed depending on whether or not a small number of pixels exist in the window W3. Also, in this case, of course, the small number of pixels are equal to the threshold TJ0.
It should be less than that, so we make that decision at the same time.

【0081】さらに、当該計算部105cにおいては、
7×7のウィンドウW7内のすべての画素が白画素であ
るか又は黒画素であるかを比較器154,155によっ
て行い、どちらかの場合は全白全黒検出信号をHレベル
としている。当該検出信号は判別データ信号生成部11
4における集中型ディザ画像の判別に用いる。
Further, in the calculation unit 105c,
Whether all the pixels in the 7 × 7 window W7 are white pixels or black pixels is determined by the comparators 154 and 155. In either case, the all-white / all-black detection signal is set to the H level. The detection signal is transmitted to the discrimination data signal generation unit 11
4 is used to determine the concentrated dither image.

【0082】さらに、当該計算部105cにおいてしき
い値TJ0を設けた理由について以下に説明する。例え
ば図44に示すように、注目画素*周辺に少数画素がな
いが、隣接判別用の7×7のウィンドウW7内に比較的
多数の少数画素が存在するときは、中間調画像/非中間
調画像の判別を行なうことができるといえる。図44の
場合では、隣接判別用の7×7のウィンドウW7内に7
画素の少数画素が存在するが、このとき当然非中間調画
像に判別される。従って、判別結果が「不明」の条件と
して、(7×7のウィンドウW7内の少数画素数<TJ
0)かつ(3×3のウィンドウW3内に少数画素が存在
しない)という条件を用いている。この条件式が成立す
る場合は、次の2つの場合である。 (a)少数画素が白画素であるときに、各比較器15
0,152の出力信号がHレベルであるとき。 (b)少数画素が黒画素であるときに、各比較器15
1,153の出力信号がHレベルであるとき。 なお、本実施例において、上記しきい値TJ0の好まし
い値は6である。
Further, the reason why the threshold value TJ0 is provided in the calculation unit 105c will be described below. For example, as shown in FIG. 44, when there are no small number of pixels around the target pixel *, but there are a relatively large number of small number of pixels in the 7 × 7 window W7 for adjacent determination, the halftone image / non-halftone It can be said that the image can be determined. In the case of FIG. 44, 7 × 7 windows 7
Although there are a small number of pixels, the image is naturally determined to be a non-halftone image. Therefore, as a condition that the determination result is “unknown”, (the number of small pixels in the 7 × 7 window W7 <TJ
0) and (there is no small number of pixels in the 3 × 3 window W3). The case where this conditional expression is satisfied is the following two cases. (A) When a small number of pixels are white pixels, each comparator 15
0, 152 when the output signal is at the H level. (B) When a small number of pixels are black pixels, each comparator 15
1,153 output signals are at H level. In this embodiment, a preferable value of the threshold value TJ0 is 6.

【0083】 (5−4)5×11マトリックスメモリ回路 図17は、図3に図示した5×11マトリックスメモリ
回路107のブロック図である。
(5-4) 5 × 11 Matrix Memory Circuit FIG. 17 is a block diagram of the 5 × 11 matrix memory circuit 107 shown in FIG.

【0084】図17に示すように、5×11マトリック
スメモリ回路107は、それぞれページメモリ61から
入力される2値画像データの転送クロックの周期と同一
の周期、すなわち画像データの1ドットの周期を有する
クロックCLKに同期して各画素毎に検出されて入力さ
れる下記の5つの検出信号からなる5ビットの判定デー
タを、主走査方向の1回の走査時間である1水平期間だ
け遅延させる4個のFIFOメモリDM11乃至DM1
4と、それぞれ上記クロックCLKに同期して入力され
る5ビットの判定データをクロックCLKの1周期期間
だけ遅延させて出力する50個の遅延型フリップフロッ
プDG301乃至DG310,DG401乃至DG41
0,DG501乃至DG510,...,DG701乃
至DG710とを備える。なお、当該マトリックスメモ
リ回路107の各回路においては、下記の5ビットの判
定データをパラレルで処理する。 (a)図11のディザ判定部106の第6計算部106
fから出力される集中型第1ディザ検出信号(以下、判
定データAという。)。 (b)図12のディザ判定部106の第6計算部106
gから出力される集中型第2ディザ検出信号(以下、判
定データBという。)。 (c)図16の隣接状態判定部105の第3計算部10
5cから出力される中間調画像検出信号(以下、判定デ
ータCという。)。 (d)図16の隣接状態判定部105の第3計算部10
5cから出力される非中間調画像検出信号(以下、判定
データDという。)。 (e)図16の隣接状態判定部105の第3計算部10
5cから出力される全白全黒画像検出信号(以下、判定
データEという。)。
As shown in FIG. 17, the 5 × 11 matrix memory circuit 107 sets the same cycle as the cycle of the transfer clock of the binary image data input from the page memory 61, that is, the cycle of one dot of the image data. The 5-bit determination data composed of the following five detection signals detected and input for each pixel in synchronization with the clock CLK having the same is delayed by one horizontal period, which is one scanning time in the main scanning direction. FIFO memories DM11 to DM1
And 50 delay flip-flops DG301 to DG310 and DG401 to DG41 for delaying and outputting the 5-bit decision data, which are respectively input in synchronization with the clock CLK, by one cycle period of the clock CLK.
0, DG501 to DG510,. . . , DG701 to DG710. The respective circuits of the matrix memory circuit 107 process the following 5-bit determination data in parallel. (A) Sixth calculation unit 106 of dither determination unit 106 in FIG.
Centralized first dither detection signal output from f (hereinafter referred to as determination data A). (B) The sixth calculation unit 106 of the dither determination unit 106 in FIG.
Centralized second dither detection signal output from g (hereinafter referred to as determination data B). (C) Third calculation unit 10 of adjacent state determination unit 105 in FIG.
5c is a halftone image detection signal (hereinafter, referred to as determination data C). (D) Third calculation unit 10 of adjacent state determination unit 105 in FIG.
Non-halftone image detection signal (hereinafter, referred to as determination data D) output from 5c. (E) Third calculation unit 10 of adjacent state determination unit 105 in FIG.
5c is an all-white / all-black image detection signal (hereinafter, referred to as determination data E).

【0085】上述の各計算回路から各ページの画像の最
初の画素から最後の画素への方向でシリアルで出力され
る5ビットの判定データは、フリップフロップDG30
1に入力された後、縦続接続された10個のフリップフ
ロップDG301乃至DG310を介して出力されると
ともに、FIFOメモリDM11に入力された後、縦続
接続された4個のFIFOメモリDM11乃至DM14
を介して出力される。FIFOメモリDM11から出力
される画像データは、フリップフロップDG401に入
力された後、縦続接続されたフリップフロップDG40
1乃至DG410を介して出力される。また、FIFO
メモリDM12から出力される画像データは、フリップ
フロップDG501に入力された後、縦続接続されたフ
リップフロップDG501乃至DG510を介して出力
される。以下、同様にして、各FIFOメモリDM13
乃至DM14から出力される判定データはそれぞれ、フ
リップフロップDG601乃至DG701に入力された
後、それぞれ縦続接続されたフリップフロップDG60
1乃至DG610,DG701乃至DG710を介して
出力される。
The 5-bit determination data serially output from the above-described calculation circuits in the direction from the first pixel to the last pixel of the image of each page is supplied to the flip-flop DG30.
1 and then output via ten cascaded flip-flops DG301 to DG310, and after being input to FIFO memory DM11, four cascaded FIFO memories DM11 to DM14.
Is output via. After the image data output from the FIFO memory DM11 is input to the flip-flop DG401, the cascade-connected flip-flop DG40
1 through DG410. Also, FIFO
The image data output from the memory DM12 is input to the flip-flop DG501 and then output via the cascade-connected flip-flops DG501 to DG510. Hereinafter, similarly, each FIFO memory DM13
After the determination data output from the DM14 to DM14 are input to the flip-flops DG601 to DG701, respectively, the flip-flops DG60 are connected in cascade.
1 through DG610 and DG701 through DG710.

【0086】以上のように構成された5×11マトリッ
クスメモリ回路107において、当該回路107に最初
に入力された、1ドットの画素データに対応する5ビッ
トの判定データがフリップフロップDG710から出力
されたとき、そのときに入力された判定データが判定デ
ータJ300として出力されるとともに、各フリップフ
ロップDG301乃至DG310からそれぞれ5×11
のウィンドウ内のi=3の主走査線上の各画素データに
対応する判定データJ300乃至J310が出力され、
FIFOメモリDM11及び各フリップフロップDG4
01乃至DG410からそれぞれ5×11のウィンドウ
内のi=4の主走査線上の各画素データJ400乃至J
410が出力され、FIFOメモリDM12及び各フリ
ップフロップDG501乃至DG510からそれぞれ5
×11のウィンドウ内のi=5の主走査線上の各画素デ
ータJ500乃至J510が出力され、以下同様にし
て、各FIFOメモリDM13,DM14及び各フリッ
プフロップDG601乃至DG710からそれぞれ、各
画素データJ600乃至J610,J700乃至J71
0が出力される。
In the 5 × 11 matrix memory circuit 107 configured as described above, the 5-bit decision data corresponding to the pixel data of one dot, which is input first to the circuit 107, is output from the flip-flop DG710. At this time, the judgment data input at that time is output as the judgment data J300, and 5 × 11
Judgment data J300 to J310 corresponding to each pixel data on the main scanning line of i = 3 in the window of
FIFO memory DM11 and each flip-flop DG4
01 to DG410, each pixel data J400 to J on the main scanning line of i = 4 in a 5 × 11 window
410 is output, and 5 are output from the FIFO memory DM12 and the flip-flops DG501 to DG510, respectively.
The respective pixel data J500 to J510 on the main scanning line of i = 5 in the window of × 11 are output. Similarly, the respective pixel data J600 to J600 are respectively output from the FIFO memories DM13 and DM14 and the flip-flops DG601 to DG710. J610, J700 to J71
0 is output.

【0087】従って、図47に示すように、5×11の
ウィンドウ内の各画素(i=3,4,…,7;j=0,
1,2,…,10)に対応する1画素当たり5ビットの
判定データA乃至Eが同時に当該マトリックスメモリ回
路107から図18の判定データ計数部108に出力さ
れる。
Therefore, as shown in FIG. 47, each pixel (i = 3, 4,..., 7; j = 0,
The determination data A to E of 5 bits per pixel corresponding to (1, 2,..., 10) are simultaneously output from the matrix memory circuit 107 to the determination data counting unit 108 in FIG.

【0088】(5−5)判定データ生成部 図18は、図3に図示した判定データ計数部108のブ
ロック図であり、本実施例では、図18に図示の回路が
5ビットの判定データA乃至Eに対応して5個設けられ
る。なお、図18において、Xは、上記判定データA乃
至EにおけるA乃至Eに対応しており、例えば5ビット
の判定データJ300を、J300−X(X=A,B,
C,D,E)で表している。
(5-5) Judgment Data Generation Unit FIG. 18 is a block diagram of the judgment data counting unit 108 shown in FIG. 3. In the present embodiment, the circuit shown in FIG. 5 to E are provided. In FIG. 18, X corresponds to A to E in the determination data A to E. For example, 5-bit determination data J300 is converted to J300-X (X = A, B,
C, D, E).

【0089】図18に示すように、上記マトリックスメ
モリ回路107から出力される判定データA乃至Eが各
判定データ毎に、8個の論理B回路LB−51乃至LB
−58に入力され、各回路LB−51乃至LB−58に
入力される各7ビットの判定データ毎にHレベル
(“1”)のデータの個数が計数された後、それらの計
数データが加算器AD60乃至AD66によって加算さ
れ、加算結果のデータが判定データ計数値JS−X(X
=A,B,C,D,E)として出力される。従って、上
記判定データA乃至Eが、各判定データ毎に図47に図
示したウィンドウ内で加算され、加算結果のデータが判
定データ計数値JS−Xとして出力される。ここで、判
定データ計数値JS−X(X=A,B,C,D,E)
は、上記判定データA乃至Eに対応する下記のデータを
意味し、これらの5個のデータが判別データ信号生成部
114に出力される。 (a)判定データAの図47のウィンドウ内の判定デー
タ計数値JS−A:集中型第1ディザ画像検出画素数。 (b)判定データBの図47のウィンドウ内の判定デー
タ計数値JS−B:集中型第2ディザ画像検出画素数。 (c)判定データCの図47のウィンドウ内の判定デー
タ計数値JS−C:中間調画像検出画素数。 (d)判定データDの図47のウィンドウ内の判定デー
タ計数値JS−D:非中間調画像検出画素数。 (e)判定データEの図47のウィンドウ内の判定デー
タ計数値JS−E:全白全黒画像検出画素数。
As shown in FIG. 18, judgment data A to E output from the matrix memory circuit 107 are divided into eight logic B circuits LB-51 to LB for each judgment data.
After the number of H-level (“1”) data is counted for each 7-bit determination data input to each of the circuits LB-51 to LB-58, the count data is added. Are added by the devices AD60 to AD66, and the data of the addition result is the determination data count value JS-X (X
= A, B, C, D, E). Therefore, the judgment data A to E are added for each judgment data in the window shown in FIG. 47, and the data of the addition result is output as the judgment data count value JS-X. Here, the judgment data count value JS-X (X = A, B, C, D, E)
Means the following data corresponding to the determination data A to E, and these five data are output to the determination data signal generation unit 114. (A) Judgment data count value JS-A of judgment data A in the window of FIG. 47: number of detected pixels of centralized first dither image. (B) The determination data count value JS-B of the determination data B in the window of FIG. 47: the number of pixels of the centralized second dither image. (C) Judgment data count value JS-C of the judgment data C in the window of FIG. 47: the number of halftone image detection pixels. (D) The judgment data count value JS-D of the judgment data D in the window of FIG. 47: the number of non-halftone image detection pixels. (E) Judgment data count value JS-E of judgment data E in the window of FIG. 47: the number of all white and all black image detection pixels.

【0090】(5−6)判別データ信号生成部 図19は、図3に図示した判別データ信号生成部114
のブロック図である。
(5-6) Discrimination Data Signal Generation Unit FIG. 19 shows the discrimination data signal generation unit 114 shown in FIG.
It is a block diagram of.

【0091】図19に示すように、集中型第1データ検
出画素数JS−Aが、集中型第1ディザ画像を判別する
とともに当該画像に対する非中間調指数と判別信号を出
力するためのテーブル用ROMRT7の第1のアドレス
端子に入力され、集中型第2データ検出画素数JS−B
が、集中型第2ディザ画像を判別するとともに当該画像
に対する非中間調指数と判別信号を出力するためのテー
ブル用ROMRT6の第1のアドレス端子に入力され
る。また、中間調画像検出画素数JS−Cが、分散型中
間調画像に対する非中間調指数を出力するためのテーブ
ル用ROMRT5の第1のアドレス端子に入力され、非
中間調画像検出画素数JS−Dが、テーブル用ROMR
T5の第2のアドレス端子に入力される。さらに、像域
判別を行なうための5×11のウィンドウ内の総画素数
を示す“55”のデータが減算器SU1の入力端子Aに
入力され、全白全黒画像検出画素数JS−Eが減算器S
U−1の入力端子Bに入力される。減算器SU1は、A
−Bの減算を行って減算結果のデータをテーブル用RO
MRT6,RT7の各第2のアドレス端子に出力する。
As shown in FIG. 19, the number of concentrated first data detection pixels JS-A is used for a table for discriminating a concentrated first dither image and outputting a non-halftone index and a discrimination signal for the image. The number of pixels JS-B, which is inputted to the first address terminal of the ROMRT7 and is the centralized second data detection pixel
Is input to the first address terminal of the table ROMRT6 for determining the centralized second dither image and outputting a non-halftone index and a determination signal for the image. The halftone image detection pixel number JS-C is input to the first address terminal of the table ROMRT5 for outputting the non-halftone index for the distributed halftone image, and the non-halftone image detection pixel number JS-C is output. D is the table ROMR
Input to the second address terminal of T5. Further, data of “55” indicating the total number of pixels in a 5 × 11 window for performing image area determination is input to the input terminal A of the subtractor SU1, and the number of all white and all black image detection pixels JS-E is calculated. Subtractor S
It is input to the input terminal B of U-1. The subtractor SU1 has A
−B is subtracted, and the data of the subtraction result is returned to the table RO.
Output to each second address terminal of MRT6 and RT7.

【0092】図48は、テーブル用ROMRT5に格納
される、分散型中間調画像に対する非中間調指数のグラ
フであり、図49は、テーブル用ROMRT6,RT7
に格納される、集中型中間調画像に対する非中間調指数
のグラフである。ここで、各グラフの横軸のデータx
1,x2は次の「数4」,「数5」で表される。
FIG. 48 is a graph of a non-halftone index for a distributed halftone image stored in the table ROMRT5, and FIG. 49 is a table ROMRT6, RT7.
7 is a graph of a non-halftone index for a intensive halftone image, stored in FIG. Here, the data x on the horizontal axis of each graph
1 and x2 are represented by the following “Formula 4” and “Formula 5”.

【数4】 x1=(非中間調画像検出画素数)/ {(非中間調画像検出画素数)+(中間調画像検出画素数)}X1 = (number of non-halftone image detection pixels) / {(number of non-halftone image detection pixels) + (number of halftone image detection pixels)}

【数5】 (a)テーブル用ROMRT7のとき x2=(集中型第1ディザ画像検出画素数)/ {(総画素数)−(全白全黒画像検出画素数)} (b)テーブル用ROMRT6のとき x2=(集中型第2ディザ画像検出画素数)/ {(総画素数)−(全白全黒画像検出画素数)}(A) In the case of the table ROMRT7 x2 = (the number of pixels of the centralized first dither image detection) / {(the total number of pixels)-(the number of all white and all black image detection pixels)} (b) the table ROMRT6 X2 = (centralized second dither image detection pixel number) / {(total pixel number)-(all white / all black image detection pixel number)}

【0093】なお、データx2の分母は、減算器SU1
によって計算される。図48から明らかなように、分散
型中間調画像に対する非中間調らしさを示す非中間調指
数y1は、データx1に対して次のような値を有する。 (a)0≦x1≦0.5のとき、y1=0, (b)0.5<x1≦0.8のとき、y1=2×x1−
1, (c)x1>0.8のとき、y1=1。
The denominator of the data x2 is the subtractor SU1
Is calculated by As is clear from FIG. 48, the non-halftone index y1 indicating non-halftone likelihood for a distributed halftone image has the following value for the data x1. (A) When 0 ≦ x1 ≦ 0.5, y1 = 0, (b) When 0.5 <x1 ≦ 0.8, y1 = 2 × x1−
1, (c) When x1> 0.8, y1 = 1.

【0094】また、図49から明らかなように、集中型
中間調画像に対する非中間調らしさを示す非中間調指数
y2は、データx2に対して次のような値を有する。 (a)0≦x2≦2/3のとき、y2=0, (b)x2>2/3のとき、y2=2×x2−1。
Further, as is apparent from FIG. 49, the non-halftone index y2 indicating non-halftone-likeness for the concentrated halftone image has the following value for the data x2. (A) When 0 ≦ x2 ≦ 2/3, y2 = 0, and (b) When x2> 2, y2 = 2 × x2-1.

【0095】なお、図49のグラフにおいて、データx
2が2/3よりも大きい場合、テーブル用ROMRT
7,RT6からそれぞれ、集中型第1ディザ画像,集中
型第2ディザ画像を検出したと判断して、Hレベルの集
中型第1ディザ画像判別信号,Hレベルの第2ディザ画
像判別信号が出力される。一方、データx2が2/3以
下の場合、テーブル用ROMRT7,RT6からそれぞ
れ、集中型第1ディザ画像,集中型第2ディザ画像を検
出しないと判断して、Lレベルの集中型第1ディザ画像
判別信号,Lレベルの集中型第2ディザ画像判別信号が
出力される。また、説明の便宜上、非中間調指数y1,
y2の値を0から1までの値としているが、図19の回
路においては、当該非中間調指数y1,y2を4ビット
のデータで表している。
In the graph of FIG. 49, the data x
If 2 is greater than 2/3, table ROMRT
7 and RT6, it is determined that the concentrated first dither image and the concentrated second dither image have been detected, respectively, and an H level concentrated first dither image determination signal and an H level second dither image determination signal are output. Is done. On the other hand, when the data x2 is 2/3 or less, it is determined that the centralized first dither image and the centralized second dither image are not detected from the table ROMs RT7 and RT6, respectively, and the L-level centralized first dither image is determined. A discrimination signal and an L-level concentrated second dither image discrimination signal are output. For convenience of explanation, the non-halftone index y1,
Although the value of y2 is a value from 0 to 1, in the circuit of FIG. 19, the non-halftone indices y1 and y2 are represented by 4-bit data.

【0096】テーブル用ROMRT5は、アドレス端子
に入力されるデータJSーC,JS−Dに基づいて、格
納しているテーブルから分散型中間調画像に対する非中
間調指数を求めた後、比較選択器CS2の第1の入力端
子に出力する。また、テーブル用ROMRT7は、アド
レス端子に入力されるデータJSーA及び減算器SU1
の出力データに基づいて、格納しているテーブルから集
中型中間調画像に対する非中間調指数を求めた後、比較
選択器CS1の第1の入力端子に出力するとともに、集
中型第1ディザ画像判別信号を図28の復元データ計算
部112に出力する。さらに、テーブル用ROMRT6
は、アドレス端子に入力されるデータJSーB及び減算
器SU1の出力データに基づいて、格納しているテーブ
ルから集中型中間調画像に対する非中間調指数を求めた
後、比較選択器CS1の第2の入力端子に出力するとと
もに、集中型第2ディザ画像判別信号を図28の復元デ
ータ計算部112に出力する。
The table ROMRT5 calculates the non-halftone index for the distributed halftone image from the stored table based on the data JS-C and JS-D input to the address terminals, and then compares the non-halftone index with the comparison selector. Output to the first input terminal of CS2. The table ROMRT7 stores the data JS-A input to the address terminal and the subtractor SU1.
, A non-halftone index for the intensive halftone image is obtained from the stored table based on the output data, and output to the first input terminal of the comparison / selector CS1, and the centralized first dither image discrimination is performed. The signal is output to restored data calculation section 112 in FIG. Further, a table ROMRT6
Calculates the non-halftone index for the intensive halftone image from the stored table based on the data JS-B input to the address terminal and the output data of the subtractor SU1, and then calculates the first halftone index of the comparison selector CS1. 2 as well as the centralized second dither image determination signal to the restored data calculation unit 112 in FIG.

【0097】比較選択器CS1は、入力される各中間調
指数のうち最大のデータを選択した後、選択したデータ
を比較選択器CS2の第1の入力端子に出力する。さら
に、比較選択器CS2は、入力される各中間調指数のう
ち最大のデータを選択した後、選択したデータを像域判
別データとして、図3のデータ混合部104に出力す
る。
After selecting the largest data among the input halftone indices, the comparison selector CS1 outputs the selected data to the first input terminal of the comparison selector CS2. Further, the comparison selector CS2 selects the largest data among the inputted halftone indices, and outputs the selected data to the data mixing unit 104 in FIG. 3 as image area determination data.

【0098】(6)中間調画像復元部 (6−1)各部の構成及び動作 図3に図示した中間調画像復元部101は、窓内計数部
113と、エッジ領域判別部109と、平滑量計算部1
10と、エッジ強調量計算部111と、復元データ計算
部112を備える。以下、各計算部109乃至113に
おける動作の特徴について説明する。
(6) Halftone Image Restoring Unit (6-1) Configuration and Operation of Each Unit The halftone image restoring unit 101 shown in FIG. Calculation unit 1
10, an edge enhancement amount calculation unit 111, and a restored data calculation unit 112. Hereinafter, features of the operations of the calculation units 109 to 113 will be described.

【0099】平滑量計算部110においては、図50に
図示した7×7のウィンドウW7の空間フィルタF11
と、図51に図示した9×9のウィンドウW9の空間フ
ィルタF12を、詳細後述するように集中型第2ディザ
画像判別信号に応じて切り替えて用いる。図50の空間
フィルタF11と図51の空間フィルタF12の両方に
おいて、当該各図から明らかなように、各ウィンドウW
7,W9内の各画素に対する重み付け係数を1としてい
る。これは、本実施例の装置で復元された画像として、
単位面積当たりの黒画素数を用いて画像濃度を表現す
る、面積階調方式の擬似中間調で2値化された中間調画
像を対象とするためである。本実施例において、平滑量
を計算するためのウィンドウとして正方形状を用いてい
るが、これに限らず、図52に示すように、注目画素か
らの距離を概ね一定とするウィンドウの空間フィルタF
13を用いてもよい。
In the smoothing amount calculation unit 110, the spatial filter F11 of the 7 × 7 window W7 shown in FIG.
The spatial filter F12 of the 9 × 9 window W9 shown in FIG. 51 is switched and used according to the centralized second dither image determination signal as described later in detail. In both the spatial filter F11 of FIG. 50 and the spatial filter F12 of FIG.
7, the weighting coefficient for each pixel in W9 is 1. This is an image restored by the device of the present embodiment,
This is because a halftone image binarized by a pseudo halftone of the area gradation method, which expresses the image density using the number of black pixels per unit area, is targeted. In this embodiment, a square shape is used as a window for calculating the smoothing amount. However, the present invention is not limited to this, and as shown in FIG.
13 may be used.

【0100】次に、エッジ強調量計算部111において
エッジ強調量を計算する必要性について説明する。
Next, the necessity of calculating the edge enhancement amount in the edge enhancement amount calculation unit 111 will be described.

【0101】図55に、3画素毎に主走査方向MSに対
して白画像と黒画像が反転する画像を示している。この
画像の主走査方向MSの空間周波数は1/6[lp/画
素]となる。いま、図53に図示した1×6のウィンド
ウの平滑用空間フィルタF14と、図54に図示した1
×3のウィンドウの平滑用空間フィルタF15を用い
て、主走査方向MSに走査線MSL上で走査したときに
それぞれ計算される平滑値計算値CV1,CV2を図5
5に示す。図55に示す結果から明らかなように、空間
フィルタF15を用いて図55の画像を平滑した場合、
その空間周波数成分は保存されるが、一方、空間フィル
タF14を用いて図55の画像を平滑した場合、その空
間周波数成分は喪失されることがわかる。従って、走査
方向の幅が自然数n画素であるウィンドウの平滑用空間
フィルタは、その空間フィルタを用いて当該走査方向に
走査させた場合に、1/(2n)[lp/画素]よりも
高い空間周波数成分を減衰させるということがわかる。
このことより、図50,図51にそれぞれ図示した空間
フィルタF11,F12はそれぞれ、1/14[lp/
画素],1/18[lp/画素]よりも高い空間周波数
成分を有する画像を十分に復元することができないこと
がわかる。また、平滑処理後の画像データに対してエッ
ジ強調しても喪失された空間周波数成分を取り戻ること
は不可能である。従って、本実施例においては、平滑量
を求めるとともに、その平滑処理によって喪失される空
間周波数成分を取り戻すために、エッジ成分に対応する
エッジ強調量を計算している。
FIG. 55 shows an image in which a white image and a black image are inverted in the main scanning direction MS for every three pixels. The spatial frequency of this image in the main scanning direction MS is 1/6 [lp / pixel]. Now, the smoothing spatial filter F14 of the 1 × 6 window shown in FIG. 53 and the 1 × 6 window shown in FIG.
FIG. 5 shows the smoothed value calculation values CV1 and CV2 calculated respectively when scanning is performed on the scanning line MSL in the main scanning direction MS using the smoothing spatial filter F15 of the × 3 window.
It is shown in FIG. As is clear from the results shown in FIG. 55, when the image of FIG. 55 is smoothed using the spatial filter F15,
Although the spatial frequency component is preserved, on the other hand, when the image of FIG. 55 is smoothed using the spatial filter F14, it is understood that the spatial frequency component is lost. Therefore, the spatial filter for smoothing a window whose width in the scanning direction is a natural number of n pixels has a space higher than 1 / (2n) [lp / pixel] when scanning is performed in the scanning direction using the spatial filter. It can be seen that the frequency component is attenuated.
Accordingly, the spatial filters F11 and F12 shown in FIGS. 50 and 51 respectively have 1/14 [lp /
It can be seen that an image having a spatial frequency component higher than the pixel] and 1/18 [lp / pixel] cannot be sufficiently restored. Further, even if edge enhancement is performed on the image data after the smoothing process, it is impossible to recover the lost spatial frequency component. Therefore, in the present embodiment, the smoothing amount is obtained, and the edge enhancement amount corresponding to the edge component is calculated in order to recover the spatial frequency component lost by the smoothing process.

【0102】図56乃至図63に、エッジ強調量を計算
するための空間フィルタF21乃至F28を示す。ここ
で、空間フィルタF21は、副走査方向のエッジ強調方
向に対して3画素分の幅を有する1対の3×7のウィン
ドウW37a,W37b間の黒画素数の差を計算するた
めの空間フィルタであり、空間フィルタF22は、副走
査方向のエッジ強調方向に対して3画素分の幅を有する
1対の3×7のウィンドウW37a,W37c間の黒画
素数の差を計算するための空間フィルタである。また、
空間フィルタF23は、主走査方向のエッジ強調方向に
対して3画素分の幅を有する1対の7×3のウィンドウ
W73a,W73b間の黒画素数の差を計算するための
空間フィルタであり、空間フィルタF24は、主走査方
向のエッジ強調方向に対して3画素分の幅を有する1対
の7×3のウィンドウW73a,W73c間の黒画素数
の差を計算するための空間フィルタである。
FIGS. 56 to 63 show spatial filters F21 to F28 for calculating the edge enhancement amount. Here, the spatial filter F21 is a spatial filter for calculating a difference in the number of black pixels between a pair of 3 × 7 windows W37a and W37b having a width of three pixels in the edge enhancement direction in the sub-scanning direction. And a spatial filter F22 for calculating a difference in the number of black pixels between a pair of 3 × 7 windows W37a and W37c having a width of three pixels in the edge enhancement direction in the sub-scanning direction. It is. Also,
The spatial filter F23 is a spatial filter for calculating the difference in the number of black pixels between a pair of 7 × 3 windows W73a and W73b having a width of three pixels in the edge enhancement direction in the main scanning direction. The spatial filter F24 is a spatial filter for calculating the difference in the number of black pixels between a pair of 7 × 3 windows W73a and W73c having a width of three pixels in the edge enhancement direction in the main scanning direction.

【0103】さらに、空間フィルタF25は、第2の斜
め方向のエッジ強調方向に対して22画素分の幅を有す
る1対のウィンドウWIa,WIb間の黒画素数の差を
計算するための空間フィルタであり、空間フィルタF2
6は、第2の斜め方向のエッジ強調方向に対して2画素
分の幅を有する1対のウィンドウWIa,WIc間の黒
画素数の差を計算するための空間フィルタである。ま
た、空間フィルタF27は、第1の斜め方向のエッジ強
調方向に対して2画素分の幅を有する1対のウィンドウ
WJa,WJb間の黒画素数の差を計算するための空間
フィルタであり、空間フィルタF28は、第1の斜め方
向のエッジ強調方向に対して2画素分の幅を有する1対
のウィンドウWJa,WJc間の黒画素数の差を計算す
るための空間フィルタである。
Further, the spatial filter F25 is a spatial filter for calculating a difference in the number of black pixels between a pair of windows WIa and WIb having a width of 22 pixels in the second oblique edge enhancement direction. And the spatial filter F2
Reference numeral 6 denotes a spatial filter for calculating a difference in the number of black pixels between a pair of windows WIa and WIc having a width of two pixels with respect to the second oblique edge enhancement direction. The spatial filter F27 is a spatial filter for calculating the difference in the number of black pixels between a pair of windows WJa and WJb having a width of two pixels in the first oblique edge enhancement direction, The spatial filter F28 is a spatial filter for calculating the difference in the number of black pixels between a pair of windows WJa and WJc having a width of two pixels in the first oblique edge enhancement direction.

【0104】従って、上記空間フィルタF21乃至F2
8は、注目画素(i=5,j=5)を中心として、主副
走査方向の4方向と、第1と第2の斜め方向の4方向の
計8方向のエッジ強調量を計算することができる。
Therefore, the spatial filters F21 to F2
8 is to calculate the edge enhancement amount in a total of eight directions of four directions in the main and sub scanning directions and four directions of the first and second diagonal directions with the target pixel (i = 5, j = 5) as the center. Can be.

【0105】図64乃至図71にそれぞれ、上記空間フ
ィルタF21乃至F28に対応しかつより高い空間周波
数のエッジ強調成分のエッジ強調量を求めるための空間
フィルタF31乃至F38を示す。
FIGS. 64 to 71 respectively show spatial filters F31 to F38 corresponding to the spatial filters F21 to F28 and for obtaining an edge enhancement amount of an edge enhancement component having a higher spatial frequency.

【0106】空間フィルタF31は、副走査方向のエッ
ジ強調方向に対して1画素分の幅を有する1対の1×7
のウィンドウW17a,W17b間の黒画素数の差を計
算するための空間フィルタであり、空間フィルタF32
は、副走査方向のエッジ強調方向に対して1画素分の幅
を有する1対の1×7のウィンドウW17a,W17c
間の黒画素数の差を計算するための空間フィルタであ
る。また、空間フィルタF33は、主走査方向のエッジ
強調方向に対して1画素分の幅を有する1対の7×1の
ウィンドウW71a,W71b間の黒画素数の差を計算
するための空間フィルタであり、空間フィルタF34
は、主走査方向のエッジ強調方向に対して1画素分の幅
を有する1対の7×1のウィンドウW71a,W71c
間の黒画素数の差を計算するための空間フィルタであ
る。さらに、空間フィルタF35は、第2の斜め方向の
エッジ強調方向に対して1画素分の幅を有する1対のウ
ィンドウWKa,WKb間の黒画素数の差を計算するた
めの空間フィルタであり、空間フィルタF36は、第2
の斜め方向のエッジ強調方向に対して1画素分の幅を有
する1対のウィンドウWKa,WKc間の黒画素数の差
を計算するための空間フィルタである。またさらに、空
間フィルタF37は、第1の斜め方向のエッジ強調方向
に対して1画素分の幅を有する1対のウィンドウWL
a,WLb間の黒画素数の差を計算するための空間フィ
ルタであり、空間フィルタF38は、第1の斜め方向の
エッジ強調方向に対して1画素分の幅を有する1対のウ
ィンドウWLa,WLc間の黒画素数の差を計算するた
めの空間フィルタである。
The spatial filter F31 is a pair of 1 × 7 pixels having a width of one pixel in the edge enhancement direction in the sub-scanning direction.
Is a spatial filter for calculating the difference in the number of black pixels between the windows W17a and W17b.
Are a pair of 1 × 7 windows W17a and W17c having a width of one pixel in the edge enhancement direction in the sub-scanning direction.
This is a spatial filter for calculating the difference in the number of black pixels between the two. The spatial filter F33 is a spatial filter for calculating the difference in the number of black pixels between a pair of 7 × 1 windows W71a and W71b having a width of one pixel in the edge enhancement direction in the main scanning direction. Yes, spatial filter F34
Are a pair of 7 × 1 windows W71a and W71c having a width of one pixel in the edge enhancement direction in the main scanning direction.
This is a spatial filter for calculating the difference in the number of black pixels between the two. Further, the spatial filter F35 is a spatial filter for calculating the difference in the number of black pixels between a pair of windows WKa and WKb having a width of one pixel in the second oblique edge enhancement direction. The spatial filter F36 has a second
Is a spatial filter for calculating the difference in the number of black pixels between a pair of windows WKa and WKc having a width of one pixel with respect to the edge enhancement direction in the diagonal direction. Further, the spatial filter F37 includes a pair of windows WL each having a width of one pixel in the first oblique edge enhancement direction.
The spatial filter F38 is a spatial filter for calculating the difference in the number of black pixels between a and WLb. The spatial filter F38 includes a pair of windows WLa, This is a spatial filter for calculating the difference in the number of black pixels between WLc.

【0107】これらの空間フィルタF31乃至F38に
おいては、擬似中間調特有の画像パターンの影響を少な
くするために、より多くの画素データから画像濃度を計
算することが必要であり、このため、エッジ強調方向と
は垂直な方向にウィンドウの幅を大きくしている。しか
しながら、擬似中間調特有の画像パターンを強調するこ
とを防止する必要があるため、エッジ領域判別部109
を設け、エッジ領域内にあると判別された画素について
のみ、前述のエッジ強調を行なうように構成している。
In these spatial filters F31 to F38, it is necessary to calculate the image density from a larger amount of pixel data in order to reduce the influence of the image pattern peculiar to the pseudo halftone. The width of the window is increased in a direction perpendicular to the direction. However, since it is necessary to prevent the emphasis on the image pattern peculiar to the pseudo halftone, the edge area determination unit 109
, And the above-described edge enhancement is performed only on the pixels determined to be within the edge area.

【0108】図72乃至図75にそれぞれ、エッジ領域
を判別するためのエッジ領域判別量を計算するための空
間フィルタF41乃至F44を示す。
FIGS. 72 to 75 respectively show spatial filters F41 to F44 for calculating the edge area discrimination amount for discriminating the edge area.

【0109】空間フィルタF41は、主走査方向のエッ
ジ強調方向に対して4画素分の幅を有する1対の4×7
のウィンドウW47a,W47b間の黒画素数の差を計
算するための空間フィルタであり、空間フィルタF42
は、副走査方向のエッジ強調方向に対して4画素分の幅
を有する1対の4×7のウィンドウW47a,W47c
間の黒画素数の差を計算するための空間フィルタであ
る。また、空間フィルタF43は、第2の斜め方向のエ
ッジ強調方向に対して3画素分の幅を有する1対のウィ
ンドウWMa,WMb間の黒画素数の差を計算するため
の空間フィルタであり、空間フィルタF44は、第1の
斜め方向のエッジ強調方向に対して3画素分の幅を有す
る1対のウィンドウWMc,WMd間の黒画素数の差を
計算するための空間フィルタである。
The spatial filter F41 is composed of a pair of 4 × 7 pixels having a width of four pixels in the edge enhancement direction in the main scanning direction.
Is a spatial filter for calculating the difference in the number of black pixels between the windows W47a and W47b.
Are a pair of 4 × 7 windows W47a and W47c having a width of four pixels in the edge enhancement direction in the sub-scanning direction.
This is a spatial filter for calculating the difference in the number of black pixels between the two. The spatial filter F43 is a spatial filter for calculating a difference in the number of black pixels between a pair of windows WMa and WMb having a width of three pixels in the second oblique edge enhancement direction, The spatial filter F44 is a spatial filter for calculating the difference in the number of black pixels between a pair of windows WMc and WMd having a width of three pixels with respect to the first oblique edge enhancement direction.

【0110】これらのエッジ領域判別量を計算するため
の空間フィルタF41乃至F44の各ウィンドウは、エ
ッジ強調用の空間フィルタで検出してしまうエッジ強調
量を排除するために、エッジ強調用の空間フィルタの各
ウィンドウよりもエッジ強調方向の幅が大きくなるよう
に設定されている。なお、平滑用の空間フィルタの各ウ
ィンドウは、エッジ強調用の空間フィルタの各ウィンド
ウを含み、かつエッジ領域判別用の空間フィルタの各ウ
ィンドウを含むように設定している。
Each window of the spatial filters F41 to F44 for calculating the edge area discrimination amount is a spatial filter for edge enhancement in order to eliminate the edge enhancement amount detected by the spatial filter for edge enhancement. Are set so that the width in the edge enhancement direction is larger than each of the windows. Each window of the spatial filter for smoothing is set to include each window of the spatial filter for edge enhancement and to include each window of the spatial filter for edge region discrimination.

【0111】(6−2)窓内計数部 窓内計数部113は、第1計算部113aと、第2計算
部113bと、第3計算部113cと、第4計算部11
3dとを備える。
(6-2) In-window counting section The in-window counting section 113 includes a first calculating section 113a, a second calculating section 113b, a third calculating section 113c, and a fourth calculating section 11c.
3d.

【0112】図20は、主走査方向に連続する7個の各
画素データについて黒画素数を計数するための窓内計数
部113の第1計算部113aのブロック図であり、当
該第1計算部113aは9個の論理B回路LB−60乃
至LB−68を備える。
FIG. 20 is a block diagram of the first calculation unit 113a of the in-window counting unit 113 for counting the number of black pixels for each of seven continuous pixel data in the main scanning direction. Reference numeral 113a includes nine logic B circuits LB-60 to LB-68.

【0113】図20に示すように、主走査方向に連続す
る7個の各画素データD102乃至D108が論理B回
路LB−60に入力され、当該各画素データについての
黒画素数が計数された後、計数値のデータDS10が出
力され、また、主走査方向に連続する7個の各画素デー
タD202乃至D208が論理B回路LB−61に入力
され、当該各画素データについての黒画素数が計数され
た後、計数値のデータDS11が出力される。以下、同
様にして、i=3乃至9に関する主走査方向に連続する
7個の各画素データD302乃至D308,D402乃
至D408,…,D902乃至D908についての黒画
素数が論理B回路LB−62乃至LB−68によって計
数された後、計数値のデータDS12乃至DS18が出
力される。
As shown in FIG. 20, seven consecutive pixel data D102 to D108 in the main scanning direction are input to the logic B circuit LB-60, and after the number of black pixels for each pixel data is counted. , The count value data DS10 is output, and seven pieces of pixel data D202 to D208 continuous in the main scanning direction are input to the logic B circuit LB-61, and the number of black pixels for each pixel data is counted. After that, the count value data DS11 is output. Hereinafter, similarly, the number of black pixels for each of seven pieces of pixel data D302 to D308, D402 to D408,..., D902 to D908 that are continuous in the main scanning direction for i = 3 to 9 is determined by the logical B circuit LB-62 to After being counted by the LB-68, data DS12 to DS18 of the count value are output.

【0114】図21は、副走査方向に連続する7個の各
画素データについて黒画素数を計数するための窓内計数
部113の第2計算部113bのブロック図であり、当
該第2計算部113bは9個の論理B回路LB−70乃
至LB−78を備える。
FIG. 21 is a block diagram of the second calculation unit 113b of the in-window counting unit 113 for counting the number of black pixels for each of seven continuous pixel data in the sub-scanning direction. Reference numeral 113b includes nine logic B circuits LB-70 to LB-78.

【0115】図21に示すように、副走査方向に連続す
る7個の各画素データD201乃至D801が論理B回
路LB−70に入力され、当該各画素データについての
黒画素数が計数された後、計数値のデータDS20が出
力され、また、副走査方向に連続する7個の各画素デー
タD202乃至D802が論理B回路LB−71に入力
され、当該各画素データについての黒画素数が計数され
た後、計数値のデータDS21が出力される。以下、同
様にして、j=3乃至9に関する副走査方向に連続する
7個の各画素データD203乃至D803,D204乃
至D804,…,D209乃至D809についての黒画
素数が論理B回路LB−72乃至LB−78によって計
数された後、計数値のデータDS22乃至DS28が出
力される。
As shown in FIG. 21, seven consecutive pixel data D201 to D801 in the sub-scanning direction are input to the logic B circuit LB-70, and after the number of black pixels for each pixel data is counted. , The count value data DS20 is output, and seven consecutive pixel data D202 to D802 in the sub-scanning direction are input to the logic B circuit LB-71, and the number of black pixels for each pixel data is counted. After that, the count value data DS21 is output. Hereinafter, similarly, the number of black pixels for each of seven pieces of pixel data D203 to D803, D204 to D804,. After being counted by the LB-78, data DS22 to DS28 of the count value are output.

【0116】図22は、第1の斜め方向に連続する7個
の各画素データについて黒画素数を計数するための窓内
計数部113の第3計算部113cのブロック図であ
り、当該第3計算部113cは9個の論理B回路LB−
80乃至LB−88を備える。
FIG. 22 is a block diagram of the third calculation unit 113c of the in-window counting unit 113 for counting the number of black pixels for each of seven pieces of pixel data continuous in the first diagonal direction. The calculation unit 113c has nine logic B circuits LB-
80 to LB-88.

【0117】図22に示すように、第1の斜め方向に連
続する7個の各画素データD006,D105,…,D
600が論理B回路LB−80に入力され、当該各画素
データについての黒画素数が計数された後、計数値のデ
ータDS30が出力され、また、第1の斜め方向に連続
する7個の各画素データD007,D106,…,D6
01が論理B回路LB−81に入力され、当該各画素デ
ータについての黒画素数が計数された後、計数値のデー
タDS31が出力される。以下、同様にして、第1の斜
め方向に連続する7個の各画素データD107,D20
6,…,D701;D108,D207,…,D70
2;…;D310,D409,…,D904;D31
1,D410,…,D905についての黒画素数が論理
B回路LB−82乃至LB−88によって計数された
後、計数値のデータDS32乃至DS38が出力され
る。
As shown in FIG. 22, seven pieces of pixel data D006, D105,.
600 is input to the logic B circuit LB-80, and after counting the number of black pixels for each pixel data, the count value data DS30 is output. Pixel data D007, D106,..., D6
01 is input to the logic B circuit LB-81, and after the number of black pixels for each pixel data is counted, the count value data DS31 is output. Hereinafter, similarly, each of the seven pieces of pixel data D107 and D20 which are continuous in the first oblique direction are similarly set.
, D701; D108, D207, ..., D70
D310, D409, ..., D904; D31
After the number of black pixels for 1, D410,..., D905 is counted by the logic B circuits LB-82 to LB-88, data DS32 to DS38 of count values are output.

【0118】図23は、第2の斜め方向に連続する7個
の各画素データについて黒画素数を計数するための窓内
計数部113の第4計算部113dのブロック図であ
り、当該第4計算部113dは9個の論理B回路LB−
90乃至LB−98を備える。
FIG. 23 is a block diagram of the fourth calculation unit 113d of the in-window counting unit 113 for counting the number of black pixels for each of seven pieces of pixel data continuous in the second oblique direction. The calculation unit 113d has nine logic B circuits LB-
90 to LB-98.

【0119】図23に示すように、第2の斜め方向に連
続する7個の各画素データD004,D105,…D6
10が論理B回路LB−90に入力され、当該各画素デ
ータについての黒画素数が計数された後、計数値のデー
タDS40が出力され、また、第2の斜め方向に連続す
る7個の各画素データD003,D104,…,D60
9が論理B回路LB−91に入力され、当該各画素デー
タについての黒画素数が計数された後、計数値のデータ
DS41が出力される。以下、同様にして、第2の斜め
方向に連続する7個の各画素データD103,D20
4,…,D709;D102,D203,…,D70
8;…;D300,D401,…,D906;D40
0,D501,…,D905,D702についての黒画
素数が論理B回路LB−92乃至LB−98によって計
数された後、計数値のデータDS42乃至DS48が出
力される。
As shown in FIG. 23, seven pieces of pixel data D004, D105,.
10 is input to the logic B circuit LB-90, and after counting the number of black pixels for each of the pixel data, data DS40 of the count value is output. Pixel data D003, D104,..., D60
9 is input to the logic B circuit LB-91, and after counting the number of black pixels for each pixel data, data DS41 of the count value is output. Hereinafter, similarly, each of the seven pieces of pixel data D103 and D20 that are continuous in the second oblique direction
, D709; D102, D203, ..., D70
D300, D401, ..., D906; D40
After the number of black pixels for 0, D501,..., D905, and D702 is counted by the logic B circuits LB-92 to LB-98, the count data DS42 to DS48 are output.

【0120】(6−3)平滑量計算部 図24は、図3に図示した平滑量計算部110のブロッ
ク図である。
(6-3) Smoothing Amount Calculator FIG. 24 is a block diagram of the smoothing amount calculator 110 shown in FIG.

【0121】図24に示すように、データDS11,D
S12が加算器AD71に入力され、データDS13,
DS14が加算器AD72に入力される。また、データ
DS15,DS16が加算器AD74に入力され、デー
タDS17が加算器AD75に入力される。各データD
S11乃至DS17は6個の加算器AD71乃至AD7
6によって加算され、加算結果のデータが加算器AD7
6から、空間フィルタF11による計算結果である7×
7黒画素数第2データとして復元データ計算部112及
び加算器AD81に出力される。
As shown in FIG. 24, data DS11, D
S12 is input to the adder AD71, and the data DS13,
DS14 is input to the adder AD72. The data DS15 and DS16 are input to the adder AD74, and the data DS17 is input to the adder AD75. Each data D
S11 to DS17 are six adders AD71 to AD7.
6 and the data of the addition result is added by the adder AD7.
6, 7 × which is the calculation result by the spatial filter F11
The data is output to the restored data calculation unit 112 and the adder AD81 as the 7-black pixel number second data.

【0122】また、データDS10,DS18が加算器
AD77に入力され、データDS20,DS28が加算
器AD78に入力される。画素データD101,D80
1,D108,D808及び3個の“0”のデータが論
理B回路LB−99に入力され、当該各データについて
の黒画素数が計数された後、計数値のデータが加算器A
D80に出力される。これらのデータDS10,DS1
8,DS20,DS28,D101,D801,D10
8,D808は加算器AD77乃至AD80によって加
算された後、加算結果のデータが加算器AD80から加
算器AD81に出力される。加算器AD81は入力され
る各データを加算し、加算結果のデータを、9×9黒画
素数データとして復元データ計算部112に出力する。
The data DS10 and DS18 are input to the adder AD77, and the data DS20 and DS28 are input to the adder AD78. Pixel data D101, D80
1, D108, D808 and three "0" data are input to the logic B circuit LB-99, and the number of black pixels for each data is counted.
Output to D80. These data DS10, DS1
8, DS20, DS28, D101, D801, D10
8, D808 are added by the adders AD77 to AD80, and the data of the addition result is output from the adder AD80 to the adder AD81. The adder AD81 adds the input data, and outputs the resulting data to the restored data calculation unit 112 as 9 × 9 black pixel number data.

【0123】(6−4)エッジ強調量計算部 エッジ強調量計算部111は、空間フィルタF21乃至
F28を用いて計算された各エッジ強調量のうち絶対値
が最大のエッジ強調量(以下、エッジ強調量第1データ
という。)を計算するための第1計算部111aと、空
間フィルタF31乃至F38を用いて計算された各エッ
ジ強調量のうち絶対値が最大のエッジ強調量(以下、エ
ッジ強調量第2データという。)を計算するための第2
計算部111bとを備える。
(6-4) Edge Enhancement Amount Calculation Unit The edge enhancement amount calculation unit 111 calculates the edge enhancement amount having the largest absolute value (hereinafter referred to as “edge”) among the edge enhancement amounts calculated using the spatial filters F21 to F28. A first calculation unit 111a for calculating the first enhancement data, and an edge enhancement amount having a maximum absolute value (hereinafter, edge enhancement) among the edge enhancement amounts calculated using the spatial filters F31 to F38. Second data for calculating the quantity second data).
And a calculation unit 111b.

【0124】図25は、エッジ強調量計算部111の第
1計算部111aのブロック図である。
FIG. 25 is a block diagram of the first calculator 111a of the edge enhancement amount calculator 111.

【0125】図25に示すように、データDS10乃至
DS12が加算器AD91,AD92によって加算さ
れ、加算結果のデータが加算器AD92から減算器SU
11の入力端子Aに入力される。また、データDS13
乃至DS15が加算器AD93,AD94によって加算
され、加算結果のデータが加算器AD94から減算器S
U11の入力端子B及び減算器SU12の入力端子Aに
入力される。さらに、データDS16乃至DS18が加
算器AD95,AD96によって加算され、加算結果の
データが加算器AD96から減算器SU12の入力端子
Bに入力される。減算器SU11はB−Aの減算を行っ
て減算結果のデータを、空間フィルタF21の計算結果
のデータとして比較選択器CS11に出力する。また、
減算器SU12はA−Bの減算を行って減算結果のデー
タを、空間フィルタF22の計算結果のデータとして比
較選択器CS11に出力する。これに応答して、比較選
択器CS11は入力された各データのうち絶対値が大き
いデータを選択して比較選択器CS13に出力する。
As shown in FIG. 25, data DS10 to DS12 are added by adders AD91 and AD92, and the resulting data is added from adder AD92 to subtractor SU.
11 input terminal A. Also, the data DS13
To DS15 are added by the adders AD93 and AD94, and the data of the addition result is output from the adder AD94 to the subtractor S
It is input to the input terminal B of U11 and the input terminal A of the subtractor SU12. Further, the data DS16 to DS18 are added by the adders AD95 and AD96, and the data of the addition result is input from the adder AD96 to the input terminal B of the subtractor SU12. The subtractor SU11 performs the subtraction of BA and outputs the data of the subtraction result to the comparison selector CS11 as the data of the calculation result of the spatial filter F21. Also,
The subtractor SU12 performs the subtraction of AB and outputs the data of the subtraction result to the comparison selector CS11 as the data of the calculation result of the spatial filter F22. In response to this, the comparison selector CS11 selects data having a larger absolute value from the input data and outputs the data to the comparison selector CS13.

【0126】データDS20乃至DS22が加算器AD
97,AD98によって加算され、加算結果のデータが
加算器AD98から減算器SU13の入力端子Aに入力
される。また、データDS23乃至DS25が加算器A
D99,AD100によって加算され、加算結果のデー
タが加算器AD100から減算器SU13の入力端子B
及び減算器SU14の入力端子Aに入力される。さら
に、データDS26乃至DS28が加算器AD101,
AD102によって加算され、加算結果のデータが加算
器AD102から減算器SU14の入力端子Bに入力さ
れる。減算器SU13はB−Aの減算を行って減算結果
のデータを、空間フィルタF23の計算結果のデータと
して比較選択器CS12に出力する。また、減算器SU
14はA−Bの減算を行って減算結果のデータを、空間
フィルタF24の計算結果のデータとして比較選択器C
S12に出力する。これに応答して、比較選択器CS1
2は入力された各データのうち絶対値が大きいデータを
選択して比較選択器CS13に出力する。
Data DS20 to DS22 are added to adder AD.
97, AD98, and the data of the addition result is input from the adder AD98 to the input terminal A of the subtractor SU13. The data DS23 to DS25 are the adders A
D99 and AD100, and the data of the addition result is supplied from the adder AD100 to the input terminal B of the subtractor SU13.
And input to the input terminal A of the subtractor SU14. Further, the data DS26 to DS28 are added to the adders AD101,
The data is added by the AD 102, and the data of the addition result is input from the adder AD102 to the input terminal B of the subtractor SU14. The subtractor SU13 performs the subtraction of BA and outputs the data of the subtraction result to the comparison selector CS12 as the data of the calculation result of the spatial filter F23. Also, the subtractor SU
14 performs subtraction of AB and uses the data of the subtraction result as the data of the calculation result of the spatial filter F24 as the comparison selector C
Output to S12. In response, the comparison selector CS1
Reference numeral 2 selects data having a large absolute value from the input data and outputs the selected data to the comparison selector CS13.

【0127】データDS30乃至DS32が加算器AD
103,AD104によって加算され、加算結果のデー
タが加算器AD104から減算器SU15の入力端子A
に入力される。また、データDS33乃至DS35が加
算器AD105,AD106によって加算され、加算結
果のデータが加算器AD106から減算器SU15の入
力端子B及び減算器SU16の入力端子Aに入力され
る。さらに、データDS36乃至DS38が加算器AD
107,AD108によって加算され、加算結果のデー
タが加算器AD108から減算器SU16の入力端子B
に入力される。減算器SU15はB−Aの減算を行って
減算結果のデータを、空間フィルタF25の計算結果の
データとして比較選択器CS14に出力する。また、減
算器SU16はA−Bの減算を行って減算結果のデータ
を、空間フィルタF26の計算結果のデータとして比較
選択器CS14に出力する。これに応答して、比較選択
器CS14は入力された各データのうち絶対値が大きい
データを選択して比較選択器CS16に出力する。
The data DS30 to DS32 are added to the adder AD.
103 and AD104, and the data of the addition result is supplied from the adder AD104 to the input terminal A of the subtractor SU15.
Is input to The data DS33 to DS35 are added by the adders AD105 and AD106, and the data of the addition result is input from the adder AD106 to the input terminal B of the subtractor SU15 and the input terminal A of the subtractor SU16. Further, the data DS36 to DS38 are added to the adder AD.
107 and AD108, and the data of the addition result is supplied from the adder AD108 to the input terminal B of the subtractor SU16.
Is input to The subtractor SU15 performs the subtraction of BA and outputs the data of the subtraction result to the comparison selector CS14 as the data of the calculation result of the spatial filter F25. Further, the subtracter SU16 performs the subtraction of AB and outputs the data of the subtraction result to the comparison selector CS14 as the data of the calculation result of the spatial filter F26. In response, the comparison selector CS14 selects data having a large absolute value from the input data and outputs the selected data to the comparison selector CS16.

【0128】データDS40乃至DS42が加算器AD
109,AD110によって加算され、加算結果のデー
タが加算器AD110から減算器SU17の入力端子A
に入力される。また、データDS43乃至DS45が加
算器AD111,AD112によって加算され、加算結
果のデータが加算器AD112から減算器SU17の入
力端子B及び減算器SU18の入力端子Aに入力され
る。さらに、データDS46乃至DS48が加算器AD
113,AD114によって加算され、加算結果のデー
タが加算器AD114から減算器SU18の入力端子B
に入力される。減算器SU17はB−Aの減算を行って
減算結果のデータを、空間フィルタF27の計算結果の
データとして比較選択器CS15に出力する。また、減
算器SU18はA−Bの減算を行って減算結果のデータ
を、空間フィルタF28の計算結果のデータとして比較
選択器CS15に出力する。これに応答して、比較選択
器CS15は入力された各データのうち絶対値が大きい
データを選択して比較選択器CS16に出力する。
Data DS40 to DS42 are added to adder AD.
109 and AD110, and the data of the addition result is supplied from the adder AD110 to the input terminal A of the subtractor SU17.
Is input to The data DS43 to DS45 are added by the adders AD111 and AD112, and the data of the addition result is input from the adder AD112 to the input terminal B of the subtractor SU17 and the input terminal A of the subtractor SU18. Further, the data DS46 to DS48 are added to the adder AD.
113 and AD114, and the data of the addition result is supplied from the adder AD114 to the input terminal B of the subtractor SU18.
Is input to The subtractor SU17 performs the subtraction of BA and outputs the data of the subtraction result to the comparison selector CS15 as the data of the calculation result of the spatial filter F27. Further, the subtracter SU18 performs the subtraction of AB and outputs the data of the subtraction result to the comparison selector CS15 as the data of the calculation result of the spatial filter F28. In response to this, the comparison selector CS15 selects data having a large absolute value from the input data and outputs the selected data to the comparison selector CS16.

【0129】比較選択器CS13は入力された各データ
のうち絶対値が大きいデータを選択して比較選択器CS
17に出力し、また、比較選択器CS16は入力された
各データのうち絶対値が大きいデータを選択して比較選
択器CS17に出力する。これに応答して、比較選択器
CS17は入力された各データのうち絶対値が大きいデ
ータを選択して、選択したデータをエッジ強調量第1デ
ータとして復元データ計算部112に出力する。
The comparison selector CS13 selects data having a large absolute value from the input data and compares it with the comparison selector CS13.
17, and the comparison selector CS16 selects data having a large absolute value from the input data and outputs the selected data to the comparison selector CS17. In response to this, the comparison selector CS17 selects data having a large absolute value from the input data, and outputs the selected data to the restored data calculation unit 112 as edge enhancement amount first data.

【0130】図26は、エッジ強調量計算部111の第
2計算部111bのブロック図である。
FIG. 26 is a block diagram of the second calculator 111b of the edge enhancement amount calculator 111.

【0131】図26に示すように、データDS13が減
算器SU21の入力端子Aに入力され、データDS14
が減算器SU21の入力端子B及び減算器SU22の入
力端子Aに入力され、データDS15が減算器SU22
の入力端子Bに入力される。減算器SU21はB−Aの
減算を行って減算結果のデータを、空間フィルタF31
の計算結果のデータとして比較選択器CS21に出力す
る。また、減算器SU22はA−Bの減算を行って減算
結果のデータを、空間フィルタF32の計算結果のデー
タとして比較選択器CS21に出力する。これに応答し
て、比較選択器CS21は入力された各データのうち絶
対値が大きいデータを選択して比較選択器CS23に出
力する。
As shown in FIG. 26, data DS13 is input to input terminal A of subtractor SU21, and data DS14
Is input to the input terminal B of the subtractor SU21 and the input terminal A of the subtractor SU22, and the data DS15 is supplied to the subtractor SU22.
Is input to the input terminal B. The subtractor SU21 performs the subtraction of BA, and outputs the data of the subtraction result to the spatial filter F31.
Is output to the comparison selector CS21 as the data of the calculation result of. Further, the subtractor SU22 performs the subtraction of AB and outputs the data of the subtraction result to the comparison selector CS21 as the data of the calculation result of the spatial filter F32. In response to this, the comparison selector CS21 selects data having a large absolute value from the input data and outputs the data to the comparison selector CS23.

【0132】データDS23が減算器SU23の入力端
子Aに入力され、データDS24が減算器SU23の入
力端子B及び減算器SU24の入力端子Aに入力され、
データDS25が減算器SU24の入力端子Bに入力さ
れる。減算器SU23はB−Aの減算を行って減算結果
のデータを、空間フィルタF33の計算結果のデータと
して比較選択器CS22に出力する。また、減算器SU
24はA−Bの減算を行って減算結果のデータを、空間
フィルタF34の計算結果のデータとして比較選択器C
S22に出力する。これに応答して、比較選択器CS2
2は入力された各データのうち絶対値が大きいデータを
選択して比較選択器CS23に出力する。
The data DS23 is input to the input terminal A of the subtractor SU23, the data DS24 is input to the input terminal B of the subtractor SU23 and the input terminal A of the subtractor SU24,
Data DS25 is input to input terminal B of subtractor SU24. The subtractor SU23 performs the subtraction of BA and outputs the data of the subtraction result to the comparison selector CS22 as the data of the calculation result of the spatial filter F33. Also, the subtractor SU
24 performs subtraction of AB and uses the data of the subtraction result as the data of the calculation result of the spatial filter F34 as the comparison selector C
Output to S22. In response, the comparison selector CS2
Reference numeral 2 selects data having a large absolute value from the input data and outputs the selected data to the comparison selector CS23.

【0133】データDS33が減算器SU25の入力端
子Aに入力され、データDS34が減算器SU25の入
力端子B及び減算器SU26の入力端子Aに入力され、
データDS35が減算器SU26の入力端子Bに入力さ
れる。減算器SU25はB−Aの減算を行って減算結果
のデータを、空間フィルタF35の計算結果のデータと
して比較選択器CS24に出力する。また、減算器SU
26はA−Bの減算を行って減算結果のデータを、空間
フィルタF36の計算結果のデータとして比較選択器C
S24に出力する。これに応答して、比較選択器CS2
4は入力された各データのうち絶対値が大きいデータを
選択して比較選択器CS26に出力する。
Data DS33 is input to input terminal A of subtractor SU25, and data DS34 is input to input terminal B of subtractor SU25 and input terminal A of subtractor SU26.
Data DS35 is input to input terminal B of subtractor SU26. The subtractor SU25 performs the subtraction of BA, and outputs the data of the subtraction result to the comparison selector CS24 as the data of the calculation result of the spatial filter F35. Also, the subtractor SU
26 performs subtraction of AB and uses the data of the subtraction result as the data of the calculation result of the spatial filter F36 as the comparison selector C
Output to S24. In response, the comparison selector CS2
Reference numeral 4 selects data having a large absolute value from the input data and outputs the selected data to the comparison selector CS26.

【0134】データDS43が減算器SU27の入力端
子Aに入力され、データDS44が減算器SU27の入
力端子B及び減算器SU28の入力端子Aに入力され、
データDS45が減算器SU28の入力端子Bに入力さ
れる。減算器SU27はB−Aの減算を行って減算結果
のデータを、空間フィルタF37の計算結果のデータと
して比較選択器CS25に出力する。また、減算器SU
28はA−Bの減算を行って減算結果のデータを、空間
フィルタF38の計算結果のデータとして比較選択器C
S25に出力する。これに応答して、比較選択器CS2
5は入力された各データのうち絶対値が大きいデータを
選択して比較選択器CS26に出力する。
The data DS43 is input to the input terminal A of the subtractor SU27, the data DS44 is input to the input terminal B of the subtractor SU27 and the input terminal A of the subtractor SU28,
Data DS45 is input to input terminal B of subtractor SU28. The subtractor SU27 performs the subtraction of BA and outputs the data of the subtraction result to the comparison selector CS25 as the data of the calculation result of the spatial filter F37. Also, the subtractor SU
28 performs subtraction of AB and uses the data of the subtraction result as data of the calculation result of the spatial filter F38 as the comparison selector C
Output to S25. In response, the comparison selector CS2
Reference numeral 5 selects data having a large absolute value from the input data and outputs the selected data to the comparison selector CS26.

【0135】比較選択器CS23は入力された各データ
のうち絶対値が大きいデータを選択して比較選択器CS
27に出力し、また、比較選択器CS26は入力された
各データのうち絶対値が大きいデータを選択して比較選
択器CS27に出力する。これに応答して、比較選択器
CS27は入力された各データのうち絶対値が大きいデ
ータを選択して、選択したデータをエッジ強調量第2デ
ータとして復元データ計算部112に出力する。
The comparison selector CS23 selects the data having the larger absolute value from the input data and compares it with the comparison selector CS23.
27, and the comparison selector CS26 selects data having a large absolute value from the input data and outputs the selected data to the comparison selector CS27. In response, the comparison selector CS27 selects data having a large absolute value from the input data, and outputs the selected data to the restored data calculation unit 112 as edge enhancement second data.

【0136】以上のエッジ強調量計算部111におい
て、各空間フィルタによって計算されたエッジ強調量の
うち絶対値のエッジ強調量を選択しているのは、以下の
理由による。すなわち、多値の画像データに対するエッ
ジ強調処理においては、すべての方向のエッジ成分が加
算されるが、一方、2値の画像データに対するエッジ強
調処理においては、擬似中間調特有の画像パターンに対
しては微小なエッジ強調量を出力する場合が多い。この
微小なエッジ強調量は、信頼性が低く、それらの加算は
ともすれば大きな誤差となるからである。
The reason why the edge enhancement amount calculator 111 selects the absolute value edge enhancement amount from the edge enhancement amounts calculated by the respective spatial filters is as follows. That is, in the edge enhancement processing for multi-valued image data, edge components in all directions are added. On the other hand, in the edge enhancement processing for binary image data, an image pattern peculiar to a pseudo halftone is added. Output a small amount of edge enhancement in many cases. This is because the small edge enhancement amount has low reliability and the addition thereof may cause a large error.

【0137】(6−5)エッジ領域判別部 図27は、図3に図示したエッジ領域判別部109のブ
ロック図である。
(6-5) Edge Area Determining Unit FIG. 27 is a block diagram of the edge area determining unit 109 shown in FIG.

【0138】図27に示すように、データDS10乃至
DS13が加算器AD121乃至AD123によって加
算され、加算結果のデータが加算器AD123から減算
器SU31の入力端子Aに出力される。また、データD
S14乃至DS17が加算器AD124乃至AD126
によって加算され、加算結果のデータが加算器AD12
6から減算器SU31の入力端子Bに出力される。減算
器SU31はB−Aの減算を行って、減算結果のデータ
を空間フィルタF41の計算結果のデータとして比較選
択器CS31に出力する。
As shown in FIG. 27, data DS10 to DS13 are added by adders AD121 to AD123, and the added data is output from adder AD123 to input terminal A of subtractor SU31. Data D
S14 to DS17 are adders AD124 to AD126
And the data of the addition result is added by the adder AD12.
6 to the input terminal B of the subtractor SU31. The subtractor SU31 performs the subtraction of BA, and outputs the data of the subtraction result to the comparison selector CS31 as the data of the calculation result of the spatial filter F41.

【0139】データDS21乃至DS24が加算器AD
127乃至AD129によって加算され、加算結果のデ
ータが加算器AD129から減算器SU32の入力端子
Aに出力される。また、データDS25乃至DS28が
加算器AD130乃至AD132によって加算され、加
算結果のデータが加算器AD132から減算器SU32
の入力端子Bに出力される。減算器SU32はA−Bの
減算を行って、減算結果のデータを空間フィルタF42
の計算結果のデータとして比較選択器CS31に出力す
る。
The data DS21 to DS24 are added to the adder AD.
127 to AD129, and data of the addition result is output from the adder AD129 to the input terminal A of the subtractor SU32. The data DS25 to DS28 are added by the adders AD130 to AD132, and the data of the addition result is sent from the adder AD132 to the subtractor SU32.
Is output to the input terminal B. The subtractor SU32 performs the subtraction of AB, and outputs the data of the subtraction result to the spatial filter F42.
Is output to the comparison selector CS31 as data of the calculation result of (1).

【0140】データDS31乃至DS34が加算器AD
133乃至AD135によって加算され、加算結果のデ
ータが加算器AD135から減算器SU33の入力端子
Aに出力される。また、データDS35乃至DS38が
加算器AD136乃至AD138によって加算され、加
算結果のデータが加算器AD138から減算器SU33
の入力端子Bに出力される。減算器SU33はA−Bの
減算を行って、減算結果のデータを空間フィルタF43
の計算結果のデータとして比較選択器CS32に出力す
る。
The data DS31 to DS34 are added to the adder AD.
The data is added by 133 to AD135, and the data of the addition result is output from the adder AD135 to the input terminal A of the subtractor SU33. The data DS35 to DS38 are added by the adders AD136 to AD138, and the data of the addition result is sent from the adder AD138 to the subtractor SU33.
Is output to the input terminal B. The subtractor SU33 performs the subtraction of AB, and outputs the data of the subtraction result to the spatial filter F43.
Is output to the comparison / selector CS32 as data of the calculation result.

【0141】データDS40乃至DS43が加算器AD
139乃至AD141によって加算され、加算結果のデ
ータが加算器AD141から減算器SU34の入力端子
Aに出力される。また、データDS44乃至DS47が
加算器AD142乃至AD144によって加算され、加
算結果のデータが加算器AD144から減算器SU34
の入力端子Bに出力される。減算器SU34はB−Aの
減算を行って、減算結果のデータを空間フィルタF44
の計算結果のデータとして比較選択器CS32に出力す
る。
The data DS40 to DS43 are added to the adder AD.
139 to AD141, and data of the addition result is output from the adder AD141 to the input terminal A of the subtractor SU34. The data DS44 to DS47 are added by the adders AD142 to AD144, and the data of the addition result is sent from the adder AD144 to the subtractor SU34.
Is output to the input terminal B. The subtractor SU34 performs the subtraction of BA, and outputs the data of the subtraction result to the spatial filter F44.
Is output to the comparison / selector CS32 as data of the calculation result.

【0142】比較選択器CS31は入力された各データ
のうち絶対値が大きいデータを選択して比較選択器CS
33に出力し、比較選択器CS32は入力された各デー
タのうち絶対値が大きいデータを選択して比較選択器C
S33に出力する。これに応答して、比較選択器CS3
3は入力された各データのうち絶対値が大きいデータを
選択して選択したデータを絶対値回路AB1に出力す
る。絶対値回路AB1は、入力されたデータの絶対値の
データを、エッジ領域判別量として復元データ計算部1
12に出力する。
The comparison selector CS31 selects data having a large absolute value from the input data and selects the data having the larger absolute value.
33, and the comparison selector CS32 selects data having a large absolute value from the input data, and
Output to S33. In response, the comparison selector CS3
Numeral 3 selects data having a large absolute value from the input data and outputs the selected data to the absolute value circuit AB1. The absolute value circuit AB1 uses the data of the absolute value of the input data as the edge area discrimination amount,
12 is output.

【0143】なお、当該エッジ領域判別部109におい
て、絶対値のデータをエッジ領域判別量として出力して
いるのは、エッジ成分量の正又は負に対応するエッジ成
分の方向の情報が復元データ計算部112において不要
であるからである。
The reason why the edge area discriminating section 109 outputs the absolute value data as the edge area discriminating amount is that the information on the direction of the edge component corresponding to the positive or negative edge component amount is calculated by the restored data calculation. This is because it is unnecessary in the unit 112.

【0144】(6−6)復元データ計算部 図28は、図3に図示した復元データ計算部112のブ
ロック図である。
(6-6) Restored Data Calculator FIG. 28 is a block diagram of the restored data calculator 112 shown in FIG.

【0145】図28に示すように、9×9黒画素数のデ
ータが乗算器201に入力され、9×9のウィンドウW
9内の総画素数と7×7のウィンドウW7内の総画素数
との換算を行うために49/81が入力されたデータに
乗算され、乗算結果のデータがセレクタ202の入力端
子Aに出力される。また、7×7黒画素数第2データ
は、比較器203,204の各入力端子Aに入力される
とともに、セレクタ202の入力端子Bに入力される。
所定のしきい値TJ1のデータが比較器203の入力端
子Bに入力され、比較器203はA<BのときにHレベ
ルの信号をノアゲート205を介して乗算器206のク
リア端子に出力し、一方、それ以外のときLレベルの信
号を同様に出力する。また、“49−TJ1”のデータ
が比較器204の入力端子Bに入力され、比較器204
はA>BのときHレベルの信号をノアゲート205を介
して乗算器206のクリア端子に出力し、一方、それ以
外のときLレベルの信号を同様に出力する。
As shown in FIG. 28, data of the number of 9 × 9 black pixels is input to the multiplier 201, and the 9 × 9 window W
9 is multiplied by 49/81 to convert the total number of pixels in 9 into the total number of pixels in the 7 × 7 window W7, and the multiplied data is output to the input terminal A of the selector 202. Is done. The 7 × 7 black pixel number second data is input to the input terminals A of the comparators 203 and 204 and also to the input terminal B of the selector 202.
The data of the predetermined threshold TJ1 is input to the input terminal B of the comparator 203, and the comparator 203 outputs an H level signal to the clear terminal of the multiplier 206 via the NOR gate 205 when A <B, On the other hand, otherwise, an L-level signal is output similarly. Further, the data of “49-TJ1” is input to the input terminal B of the comparator 204,
Outputs an H-level signal to the clear terminal of the multiplier 206 via the NOR gate 205 when A> B, and outputs an L-level signal otherwise at other times.

【0146】集中型第1ディザ画像判別信号はオアゲー
ト209及びオアゲート210を介して比較選択器20
7のクリア端子に入力され、また、集中型第2ディザ画
像判別信号はオアゲート209及びオアゲート210を
介して比較選択器207のクリア端子に入力されるとと
もに、セレクタ202の選択端子SELに入力される。
The centralized first dither image discrimination signal is supplied to the comparison selector 20 via the OR gate 209 and the OR gate 210.
7 is input to the clear terminal of the comparison selector 207 via the OR gate 209 and the OR gate 210, and is also input to the selection terminal SEL of the selector 202. .

【0147】セレクタ202は、Hレベルの集中型第2
ディザ画像判別信号が選択端子SELに入力されている
とき、入力端子Aに入力されているデータを選択して、
乗算器211に出力し、一方、Lレベルの集中型第2デ
ィザ画像判別信号が選択端子SELに入力されていると
き、入力端子Bに入力されているデータを選択して、乗
算器211に出力する。乗算器211は、50階調から
64階調に変換するために設けられ、入力されるデータ
に63/49の乗数を乗算した後、乗算結果のデータを
平滑量として加算回路213の入力端子Aに出力する。
The selector 202 is an H-level centralized second
When the dither image discrimination signal is input to the selection terminal SEL, the data input to the input terminal A is selected,
When the L-level centralized second dither image discrimination signal is input to the selection terminal SEL, the data input to the input terminal B is selected and output to the multiplier 211. I do. The multiplier 211 is provided to convert from 50 gradations to 64 gradations. After multiplying input data by a multiplier of 63/49, the multiplication result data is used as an input terminal A of the addition circuit 213 as a smoothing amount. Output to

【0148】エッジ強調量第1データは比較選択器20
7の入力端子Bに入力され、エッジ強調量第2データ
は、乗算器206に入力される。乗算器206は、エッ
ジ強調量第1データを計算するときに用いる各空間フィ
ルタの各ウィンドウとエッジ強調量第2データを計算す
るときに用いる各空間フィルタの各ウィンドウとの大き
さを換算するために設けられ、入力されるデータに3を
乗算して、乗算結果のデータを比較選択器207の入力
端子Aに出力する。ここで、Hレベルの信号が乗算器2
06のクリア端子に入力されたとき、その出力データが
“0”にクリアされる。
The first data of the amount of edge enhancement is output from the comparison selector 20.
7, and the second data of the amount of edge enhancement is input to the multiplier 206. The multiplier 206 converts the size of each window of each spatial filter used when calculating the first data of edge enhancement amount and each window of each spatial filter used when calculating the second data of edge enhancement amount. And multiplies the input data by 3, and outputs the multiplication result data to the input terminal A of the comparison selector 207. Here, the H-level signal is output from the multiplier 2
When the data is input to the clear terminal 06, its output data is cleared to "0".

【0149】エッジ領域判別量のデータは比較器208
の入力端子Aに入力され、所定のしきい値TJ2のデー
タが比較器208の入力端子Bに入力され、比較器20
8はA<BのときHレベルの信号をオアゲート210を
介して比較選択器207に出力し、一方、それ以外のと
きLレベルの信号を同様に出力する。比較選択器207
は、クリア端子にLレベルの信号が入力されていると
き、各入力端子A,Bに入力される各データのうち絶対
値が最大のデータを選択して乗算器212に出力し、一
方、クリア端子にHレベルの信号が入力されていると
き、出力データをクリアして“0”のデータを乗算器2
12に出力する。乗算器212は、平滑量に適量のエッ
ジ強調量の混合を行うために、入力されたデータに(6
3×0.4/21)を乗算して、乗算結果のデータをエ
ッジ強調量として加算回路213の入力端子Bに出力す
る。さらに、加算回路213は、各入力端子A,Bに入
力された平滑量のデータとエッジ強調量のデータとを、
詳細後述するように加算した後、加算結果のデータを中
間調復元画像データとしてデータ混合部104に出力す
る。
The data of the edge area discrimination amount is supplied to the comparator 208.
Is input to an input terminal A of the comparator 208, data of a predetermined threshold value TJ2 is input to an input terminal B of the comparator 208,
8 outputs an H level signal to the comparison selector 207 via the OR gate 210 when A <B, and outputs an L level signal otherwise. Comparison selector 207
When an L-level signal is input to the clear terminal, the data having the largest absolute value is selected from the data input to each of the input terminals A and B and output to the multiplier 212. When an H level signal is input to the terminal, the output data is cleared and the data of "0" is
12 is output. The multiplier 212 adds (6) to the input data in order to mix an appropriate amount of edge enhancement with the smoothing amount.
3 × 0.4 / 21), and outputs the multiplication result data to the input terminal B of the addition circuit 213 as an edge enhancement amount. Further, the addition circuit 213 converts the data of the smoothing amount and the data of the edge enhancement amount input to the input terminals A and B into
After the addition as described in detail later, data of the addition result is output to the data mixing unit 104 as halftone restored image data.

【0150】以上のように構成された復元データ計算部
112において、セレクタ202では、集中型第2デー
タ画像判別信号に応じて、9×9黒画素数に対応するデ
ータを選択するか、7×7黒画素数第2データを選択す
るかの両者の選択が行われる。上記集中型第1ディザ画
像は、主副走査方向に4ドット毎に1周期の濃度変化が
存在する。そのため、平滑量を計算するために4×4の
ウィンドウよりも大きなウィンドウが必要であり、本実
施例においては、7×7のウィンドウW7を用いる。一
方、上記集中型第2ディザ画像においては、斜め方向に
4ドット毎に1周期の濃度変化が存在する。そのため、
平滑量を計算するために、(2の平方根×4)×(2の
平方根×4)のウィンドウよりも大きなウィンドウが必
要であり、本実施例では、マージンを加算して、9×9
のウィンドウW9を用いる。なお、分散型中間調画像に
対しては、平滑量を計算するために、7×7のウィンド
ウW7を用いる。
In the restored data calculation unit 112 configured as described above, the selector 202 selects data corresponding to the number of 9 × 9 black pixels or selects 7 × 9 pixels in accordance with the centralized second data image discrimination signal. Both the selection and the selection of the 7th black pixel number second data are performed. The concentration type first dither image has a one-cycle density change every four dots in the main / sub scanning direction. Therefore, a window larger than a 4 × 4 window is required to calculate the smoothing amount. In this embodiment, a 7 × 7 window W7 is used. On the other hand, in the concentrated second dither image, there is a one-cycle density change every four dots in the oblique direction. for that reason,
In order to calculate the smoothing amount, a window larger than a window of (square root of 2 × 4) × (square root of 2 × 4) is necessary. In the present embodiment, a margin is added and 9 × 9
Window W9 is used. Note that a 7 × 7 window W7 is used for calculating the smoothing amount for the dispersed halftone image.

【0151】なお、モアレの発生を防止するために、デ
ィザの周期の整数倍の大きさのウィンドウが望ましい。
従って、平滑量を計算するために、集中型第1ディザ画
像に対しては、4×4のウィンドウ又は8×8のウィン
ドウを用いることがより好ましい。また、集中型第2デ
ィザ画像に対しては、平滑量を計算するために、ウィン
ドウの辺が主副走査方向に平行な8×8のウィンドウ
を、主副走査方向に対して45度だけ傾斜されたウィン
ドウを用いることがより好ましい。
In order to prevent the occurrence of moire, a window having a size which is an integral multiple of the dither period is desirable.
Therefore, it is more preferable to use a 4 × 4 window or an 8 × 8 window for the centralized first dither image in order to calculate the smoothing amount. For the centralized second dither image, an 8 × 8 window whose side is parallel to the main / sub scanning direction is inclined by 45 degrees with respect to the main / sub scanning direction in order to calculate the smoothing amount. It is more preferable to use a specified window.

【0152】また、当該復元データ計算部112におい
て、注目画素がエッジ領域にあるか否かを判別するため
に、集中型第1ディザ画像判別信号と集中型第2ディザ
画像判別信号を用いる。エッジ領域判別量が所定のしき
い値TJ2よりも小さいとき(比較器208の出力信号
がHレベルのとき)、又は集中型第1ディザ画像判別信
号と集中型第2ディザ画像判別信号のいずれかの信号が
Hレベルであるとき(オアゲート209の出力信号がH
レベルであるとき)、オアゲート210の出力信号はH
レベルとなり、このとき、比較選択器207の出力デー
タが“0”にクリアされ、エッジ強調量が“0”とな
り、エッジ強調を行わない。これは、集中型第1又は第
2ディザ画像の領域においては、そのディザパターンの
空間周波数が比較的低いため、分散型中間調画像の検出
を目的とするエッジ領域判別部109がエッジ領域であ
ると誤って判断するようなエッジ判別量を出力するおそ
れがあるからである。なお、本実施例において、好まし
くは、上記しきい値TJ2は4である。
The restored data calculation unit 112 uses the concentrated first dither image determination signal and the concentrated second dither image determination signal in order to determine whether or not the pixel of interest is in the edge area. When the edge area discrimination amount is smaller than a predetermined threshold value TJ2 (when the output signal of the comparator 208 is at the H level), or one of the concentrated first dither image discrimination signal and the concentrated second dither image discrimination signal Is high (the output signal of the OR gate 209 is high).
Level), the output signal of OR gate 210 is H
At this time, the output data of the comparison selector 207 is cleared to “0”, the edge enhancement amount becomes “0”, and no edge enhancement is performed. This is because the spatial frequency of the dither pattern is relatively low in the area of the centralized first or second dither image, and the edge area determining unit 109 for detecting the distributed halftone image is an edge area. This is because there is a possibility that an edge discrimination amount that may be erroneously determined to be output. In the present embodiment, preferably, the threshold value TJ2 is 4.

【0153】さらに、エッジ強調量第1データを計算す
るために用いる空間フィルタのウィンドウとエッジ強調
量第2データを計算するために用いる空間フィルタのウ
ィンドウとの間の大きさの違いを換算するために、乗算
器206を設けている。換算の比率は、一方のウィンド
ウの空間周波数を有する画像に対して、そのウィンドウ
を用いて計算されるエッジ強調量が選択されるように設
定する必要がある。
Further, in order to convert the difference in size between the window of the spatial filter used to calculate the first data of edge enhancement and the window of the spatial filter used to calculate the second data of edge enhancement. , A multiplier 206 is provided. The conversion ratio needs to be set so that the edge enhancement amount calculated using the window with respect to the image having the spatial frequency of one window is selected.

【0154】また、少数画素数が所定のしきい値TJ1
以上であるとき(比較器203,204の両方の出力信
号がLレベルであるとき)、エッジ強調量第2データの
乗算器206による換算データがクリアされて“0”に
される。これは、エッジ強調量第2データは、幅が1の
細線形状の画像を対象として計算されたエッジ強調量で
あって、このような画像において、上述のように、少数
画素数は比較的小さいからである。また、当該処理によ
って、少数画素が多くなってきたとき、擬似中間調の画
像パターンを強調することを防止することができる。な
お、本実施例において、上記しきい値TJ1は好ましく
は、8である。
The number of small pixels is equal to a predetermined threshold value TJ1.
At this time (when both output signals of the comparators 203 and 204 are at the L level), the conversion data of the edge enhancement amount second data by the multiplier 206 is cleared to “0”. This is the edge enhancement amount second data, which is an edge enhancement amount calculated for a thin line-shaped image having a width of 1. In such an image, as described above, the number of minority pixels is relatively small. Because. Further, by the processing, when the number of the small number of pixels increases, it is possible to prevent the emphasis on the pseudo halftone image pattern. In the present embodiment, the threshold value TJ1 is preferably 8.

【0155】図29は、図28に図示した加算回路21
3のブロック図である。
FIG. 29 shows the operation of the adder 21 shown in FIG.
3 is a block diagram of FIG.

【0156】加算回路213は、符号1ビットを含む7
ビットのエッジ強調量と6ビットの平滑量を加算する回
路であって、加算器AD151と、比較器CM51,C
M52と、符号ビット1ビットと最上位1ビットを切り
捨てて出力するビット切捨回路BACと、セレクタSE
1と、入力されるデータを1/2倍して出力する乗算器
MU51とを備える。
The adder circuit 213 has a 7
A circuit for adding the edge enhancement amount of a bit and the smoothing amount of 6 bits, comprising an adder AD151 and comparators CM51, CM
M52, a bit truncation circuit BAC that truncates and outputs one sign bit and one most significant bit, and a selector SE
1 and a multiplier MU51 for halving the input data and outputting the data.

【0157】乗算器212から出力されるエッジ強調量
のデータと、乗算器211から出力される平滑量のデー
タは加算器AD151に入力され、当該加算器AD15
1から出力される符号1ビットを含む8ビットのデータ
は、比較器CM51,CM52の各入力端子Aに出力さ
れるとともに、ビット切捨回路BACを介してセレクタ
SE1に出力される。比較器CM51の入力端子Bに
“0”のデータが入力され、比較器CM51は各入力端
子A,Bに入力されるデータを比較し、入力端子Aに入
力されるデータが入力端子Bに入力されたデータよりも
小さいときHレベルの比較結果信号をセレクタSE1の
選択信号入力端子SELAに出力し、一方、それ以外の
とき、Lレベルの比較結果信号を同様に出力する。ま
た、比較器CM52の入力端子Bに“64”のデータが
入力され、比較器CM52は各入力端子A,Bに入力さ
れるデータを比較し、入力端子Aに入力されるデータが
入力端子Bに入力されたデータ以上であるときHレベル
の比較結果信号をセレクタSE1の選択信号入力端子S
ELBに出力し、一方、それ以外のとき、Lレベルの比
較結果信号を同様に出力する。セレクタSE1は、選択
信号入力端子SEAに入力される信号がHレベルのとき
入力端子Aに入力される“0”のデータを出力し、ま
た、選択信号入力端子SEBに入力される信号がHレベ
ルのとき入力端子Aに入力される“64”のデータを出
力し、各選択信号入力端子SEA,SEBに入力される
信号がいずれもLレベルのとき入力端子Cに入力される
6ビットのデータを出力する。セレクタSE1から出力
されるデータは乗算器MU51を介して、復元された中
間調の多値画像データとしてデータ混合部104に出力
される。
The data of the edge enhancement amount output from the multiplier 212 and the data of the smoothing amount output from the multiplier 211 are input to the adder AD151, and the adder AD151
The 8-bit data including the 1-bit code output from 1 is output to each input terminal A of the comparators CM51 and CM52, and is also output to the selector SE1 via the bit truncation circuit BAC. Data of "0" is input to the input terminal B of the comparator CM51, the comparator CM51 compares the data input to the input terminals A and B, and the data input to the input terminal A is input to the input terminal B. When the data is smaller than the input data, an H level comparison result signal is output to the selection signal input terminal SELA of the selector SE1, and otherwise, an L level comparison result signal is similarly output. Also, data of “64” is input to the input terminal B of the comparator CM52, the comparator CM52 compares the data input to the input terminals A and B, and the data input to the input terminal A is When the data is equal to or more than the data input to the selector SE1, the comparison result signal at the H level is sent to the selection signal input terminal S
The signal is output to the ELB, and at other times, the L-level comparison result signal is output in the same manner. The selector SE1 outputs “0” data input to the input terminal A when the signal input to the selection signal input terminal SEA is at an H level, and outputs a signal input to the selection signal input terminal SEB at an H level. In this case, the data of "64" inputted to the input terminal A is outputted, and when the signals inputted to the respective selection signal input terminals SEA and SEB are both at L level, the 6-bit data inputted to the input terminal C is outputted. Output. The data output from the selector SE1 is output to the data mixing unit 104 as restored halftone multivalued image data via the multiplier MU51.

【0158】以上のように構成された加算回路213
は、エッジ強調量と平滑量を加算し、加算結果のデータ
のうち0未満及び64以上をそれぞれ0、63にまるめ
た後、下位1ビットを切り捨てて、0から31までのあ
る値を有する5ビットのデータを演算することができ、
この演算結果のデータを復元された中間調の多値画像デ
ータとしてデータ混合部104に出力する。
Adder circuit 213 configured as described above
Is obtained by adding the edge enhancement amount and the smoothing amount, rounding less than 0 and 64 or more out of the addition result data to 0 and 63, and then truncating the lower 1 bit to have a certain value from 0 to 31. Can operate on bit data,
The data of this calculation result is output to the data mixing unit 104 as restored halftone multivalued image data.

【0159】(7)他の実施例 以上の実施例においては、図41に図示した周辺分布の
変化に基づいて集中型中間調画像の検出を行っている
が、図76に図示した5個のウィンドウW4a乃至W4
dを用いたパターンマッチングの方法を用いてもよい。
(7) Other Embodiments In the above embodiment, the centralized halftone image is detected based on the change of the peripheral distribution shown in FIG. 41. However, the five halftone images shown in FIG. Windows W4a to W4
A pattern matching method using d may be used.

【0160】図76において、注目画素*を含む4×4
のウィンドウW4aと、当該ウィンドウW4aに対して
第1及び第2の斜め方向に隣接して位置する4個の各4
×4のウィンドウW4b乃至W4dとの間で、画像パタ
ーンのマッチングを行い、各画素データが一致しない画
素数を計数することによって、集中型中間調画像に対す
る中間調判別値を求めることができる。なお、上記4個
のウィンドウW4b乃至W4dは、スクリーン角が0度
と45度の2種類のドット集中型組織的ディザ画像に同
時に対応できるようにするために用いている。
In FIG. 76, 4 × 4 pixels including the pixel of interest *
Window W4a and four windows 44 adjacent to the window W4a in the first and second oblique directions.
By performing image pattern matching between the × 4 windows W4b to W4d and counting the number of pixels in which each pixel data does not match, a halftone discrimination value for a concentrated halftone image can be obtained. The four windows W4b to W4d are used to simultaneously support two types of dot-concentrated systematic dither images having screen angles of 0 and 45 degrees.

【0161】いま、例えば、図77の画像パターンPA
T1と、図78の画像パターンPAT2と、図79の画
像パターンPAT3について、上記のパターンマッチン
グの方法を用いて、非マッチング画素数を計数した結果
を「表1」に示す。
Now, for example, the image pattern PA shown in FIG.
Table 1 shows the results of counting the number of non-matching pixels for T1, the image pattern PAT2 in FIG. 78, and the image pattern PAT3 in FIG. 79 using the above-described pattern matching method.

【0162】[0162]

【表1】 [Table 1]

【0163】「表1」から明らかなように、非中間調の
画像パターンである図77の画像パターンPAT1の場
合に、非マッチング画素数が大きな値となっており、こ
れによって、当該パターンマッチングの方法の妥当性が
証明された。
As is clear from Table 1, in the case of the image pattern PAT1 shown in FIG. 77 which is a non-halftone image pattern, the number of non-matching pixels has a large value. The validity of the method was proved.

【0164】[0164]

【発明の効果】以上詳述したように本発明に係る画像処
理装置によれば、擬似中間調で2値化された2値画像デ
ータと、所定のしきい値を用いて非中間調で2値化され
た2値画像データとを含む入力された2値画像データの
うちの、注目画素とその周辺の複数の画素に対応する2
値画像データに基づいて、上記入力された2値画像デー
タの各画素毎に、第1の種類の擬似中間調の画像らしさ
及び上記第1の種類の擬似中間調と異なる第2の種類の
擬似中間調の画像らしさを判別し、これらの判別結果を
用いて擬似中間調の画像らしさ及び非中間調の画像らし
さを示す判別値を計算する判別手段と、上記入力された
2値画像データのうちの上記注目画素とその周辺の複数
の画素に対応する2値画像データに基づいて各画素毎
に、2値画像データが擬似中間調の画像データである場
合の復元処理によって多値画像データに復元する第1の
復元手段と、上記入力された2値画像データに基づいて
各画素毎に、2値画像データが上記非中間調の画像デー
タである場合の復元処理によって多値画像データに復元
する第2の復元手段と、上記第1の復元手段によって復
元された多値画像データと上記第2の復元手段によって
復元された多値画像データとを、上記判別手段によって
計算された判別値に応じた混合割合で混合して、上記混
合した多値画像データを出力する混合手段とを備える。
As described in detail above, according to the image processing apparatus of the present invention, the binary image data binarized by the pseudo halftone and the binary image data by the non-halftone using the predetermined threshold value. In the input binary image data including the binarized binary image data, two pixels corresponding to the pixel of interest and a plurality of pixels around the pixel of interest.
Based on the value image data, for each pixel of the input binary image data, a first type pseudo halftone image-likeness and a second type pseudo halftone different from the first type pseudo halftone Determining means for determining the likelihood of a halftone image and calculating a determination value indicating the likelihood of a pseudo-halftone image and the likelihood of a non-halftone image using the results of these determinations; Is restored to multi-valued image data by a restoration process in a case where the binary image data is pseudo halftone image data for each pixel based on the binary image data corresponding to the pixel of interest and a plurality of pixels surrounding the pixel of interest. And first restoration means for restoring the binary image data to multi-valued image data by a restoration process when the binary image data is the non-halftone image data for each pixel based on the input binary image data. Second restoration means Mixing the multi-valued image data restored by the first restoration means and the multi-valued image data restored by the second restoration means at a mixing ratio corresponding to the discrimination value calculated by the discrimination means. Mixing means for outputting the mixed multi-valued image data.

【0165】従って、種々のイメージリーダや種々の擬
似中間調2値化回路に対応した上記判別値に応じて多値
画像データへの復元処理を行なうことができ、所定のし
きい値を用いて非中間調で2値された画像データ、並び
に種々の擬似中間調で2値化された画像データを、従来
例に比較しより忠実に元の画像に対応する多値の画像デ
ータに復元することができるという利点がある。
Therefore, it is possible to perform restoration processing on multi-valued image data in accordance with the discrimination values corresponding to various image readers and various pseudo halftone binarization circuits. Restoring non-halftone binarized image data and various pseudo halftone binarized image data into multi-valued image data corresponding to the original image more faithfully as compared with the conventional example. There is an advantage that can be.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明に係る一実施例であるファクシミリ装
置の機構部の縦断面図である。
FIG. 1 is a longitudinal sectional view of a mechanism of a facsimile apparatus according to an embodiment of the present invention.

【図2】 図1に図示したファクシミリ装置の信号処理
部のブロック図である。
FIG. 2 is a block diagram of a signal processing unit of the facsimile apparatus shown in FIG.

【図3】 図2に図示した画像復元処理部のブロック図
である。
FIG. 3 is a block diagram of an image restoration processing unit illustrated in FIG. 2;

【図4】 図3に図示した10×21マトリックスメモ
リ回路のブロック図である。
FIG. 4 is a block diagram of a 10 × 21 matrix memory circuit shown in FIG. 3;

【図5】 図3に図示したディザ判定部の第1計算部の
ブロック図である。
FIG. 5 is a block diagram of a first calculation unit of the dither determination unit shown in FIG. 3;

【図6】 図3に図示したディザ判定部の第2計算部の
ブロック図である。
FIG. 6 is a block diagram of a second calculation unit of the dither determination unit shown in FIG.

【図7】 図5、図6、図18並びに図20乃至図23
に図示した論理B回路のブロック図である。
FIG. 7, FIG. 6, FIG. 18, and FIG. 20 to FIG.
3 is a block diagram of a logic B circuit illustrated in FIG.

【図8】 図3に図示したディザ判定部の第3計算部の
ブロック図である。
FIG. 8 is a block diagram of a third calculation unit of the dither determination unit shown in FIG.

【図9】 図3に図示したディザ判定部の第4計算部の
ブロック図である。
FIG. 9 is a block diagram of a fourth calculation unit of the dither determination unit shown in FIG. 3;

【図10】 図3に図示したディザ判定部の第5計算部
のブロック図である。
FIG. 10 is a block diagram of a fifth calculation unit of the dither determination unit shown in FIG.

【図11】 図3に図示したディザ判定部の第6計算部
のブロック図である。
11 is a block diagram of a sixth calculating unit of the dither determining unit shown in FIG.

【図12】 図3に図示したディザ判定部の第7計算部
のブロック図である。
12 is a block diagram of a seventh calculator of the dither determination unit shown in FIG.

【図13】 図3に図示した隣接状態判定部の第1計算
部のブロック図である。
13 is a block diagram of a first calculation unit of the adjacent state determination unit shown in FIG.

【図14】 図13に図示した主副走査方向隣接数カウ
ンタのブロック図である。
FIG. 14 is a block diagram of a main / sub scanning direction adjacent number counter shown in FIG. 13;

【図15】 図3に図示した隣接状態判定部の第2計算
部のブロック図である。
FIG. 15 is a block diagram of a second calculator of the adjacent state determiner shown in FIG. 3;

【図16】 図3に図示した隣接状態判定部の第3計算
部のブロック図である。
FIG. 16 is a block diagram of a third calculator of the adjacent state determiner shown in FIG. 3;

【図17】 図3に図示した5×11マトリックスメモ
リ回路のブロック図である。
FIG. 17 is a block diagram of the 5 × 11 matrix memory circuit shown in FIG. 3;

【図18】 図3に図示した判定データ計数部のブロッ
ク図である。
FIG. 18 is a block diagram of a determination data counting unit illustrated in FIG. 3;

【図19】 図3に図示した判別データ信号生成部のブ
ロック図である。
FIG. 19 is a block diagram of a discrimination data signal generator shown in FIG. 3;

【図20】 図3に図示した窓内計数部の第1計算部の
ブロック図である。
20 is a block diagram of a first calculation unit of the intra-window counting unit shown in FIG.

【図21】 図3に図示した窓内計数部の第2計算部の
ブロック図である。
21 is a block diagram of a second calculation unit of the in-window counting unit shown in FIG.

【図22】 図3に図示した窓内計数部の第3計算部の
ブロック図である。
FIG. 22 is a block diagram of a third calculating unit of the intra-window counting unit shown in FIG. 3;

【図23】 図3に図示した窓内計数部の第4計算部の
ブロック図である。
FIG. 23 is a block diagram of a fourth calculating unit of the in-window counting unit shown in FIG. 3;

【図24】 図3に図示した平滑量計算部のブロック図
である。
FIG. 24 is a block diagram of a smoothing amount calculator shown in FIG. 3;

【図25】 図3に図示したエッジ強調量計算部の第1
計算部のブロック図である。
FIG. 25 is a diagram illustrating a first example of the edge enhancement amount calculation unit illustrated in FIG. 3;
It is a block diagram of a calculation part.

【図26】 図3に図示したエッジ強調量計算部の第2
計算部のブロック図である。
26 is a diagram illustrating a second example of the edge enhancement amount calculation unit illustrated in FIG. 3;
It is a block diagram of a calculation part.

【図27】 図3に図示したエッジ領域判別部のブロッ
ク図である。
FIG. 27 is a block diagram of an edge area determining unit shown in FIG. 3;

【図28】 図3に図示した復元データ計算部のブロッ
ク図である。
FIG. 28 is a block diagram of a restored data calculation unit shown in FIG. 3;

【図29】 図28に図示した加算回路のブロック図で
ある。
FIG. 29 is a block diagram of the adder circuit shown in FIG. 28;

【図30】 本実施例において用いる10×21のウィ
ンドウ内の各画素データを示す図である。
FIG. 30 is a diagram showing each pixel data in a 10 × 21 window used in the present embodiment.

【図31】 図3に図示した隣接状態判定部及びディザ
判定部における判定時の各画素の参照範囲、図3に図示
した判別データ信号生成部における判定時の各画素の参
照範囲、図3に図示した中間調画像復元部における復元
時の各画素の参照範囲を示す図である。
31 is a reference range of each pixel at the time of determination by the adjacent state determination unit and the dither determination unit shown in FIG. 3, a reference range of each pixel at the time of determination by the determination data signal generation unit shown in FIG. 3, and FIG. FIG. 7 is a diagram illustrating a reference range of each pixel at the time of restoration in the illustrated halftone image restoration unit.

【図32】 文字画像を読み取った後、所定のしきい値
を用いて2値化したときに得られる非中間調画像の一例
を示す図である。
FIG. 32 is a diagram illustrating an example of a non-halftone image obtained when a character image is read and binarized using a predetermined threshold value.

【図33】 均一濃度チャートを読み取った後、誤差拡
散法で2値化したときに得られる擬似中間調2値化画像
の一例を示す図である。
FIG. 33 is a diagram showing an example of a pseudo halftone binary image obtained when a uniform density chart is read and then binarized by an error diffusion method.

【図34】 写真画像を読み取った後、スクリーン角が
0度のドット集中型組織的ディザ法で2値化したときに
得られる擬似中間調2値化画像の一例を示す図である。
FIG. 34 is a diagram illustrating an example of a pseudo halftone binary image obtained when a photographic image is read and then binarized by a dot concentration type systematic dither method with a screen angle of 0 degrees.

【図35】 写真画像を読み取った後、スクリーン角が
45度のドット集中型組織的ディザ法で2値化したとき
に得られる擬似中間調2値化画像の一例を示す図であ
る。
FIG. 35 is a diagram illustrating an example of a pseudo halftone binary image obtained when a photographic image is read and then binarized by a dot concentration type organized dither method with a screen angle of 45 degrees.

【図36】 7×7のウィンドウ内における黒画素数に
対する主副走査方向の4方向の隣接数を示すグラフであ
る。
FIG. 36 is a graph showing the number of black pixels in a 7 × 7 window and the number of adjacent pixels in the four main scanning directions with respect to the number of black pixels.

【図37】 図3に図示したディザ判定部において用い
る各ウィンドウの黒画素数データS10乃至S17を示
す図である。
37 is a diagram showing black pixel number data S10 to S17 of each window used in the dither determination unit shown in FIG.

【図38】 図3に図示したディザ判定部において用い
る各ウィンドウの黒画素数データS20乃至S27を示
す図である。
38 is a diagram showing black pixel number data S20 to S27 of each window used in the dither determination unit shown in FIG.

【図39】 図3に図示したディザ判定部において用い
る各ウィンドウの黒画素数データS30乃至S37を示
す図である。
FIG. 39 is a diagram illustrating black pixel number data S30 to S37 of each window used in the dither determination unit illustrated in FIG. 3;

【図40】 図3に図示したディザ判定部において用い
る各ウィンドウの黒画素数データS40乃至S47を示
す図である。
FIG. 40 is a diagram illustrating black pixel number data S40 to S47 of each window used in the dither determination unit illustrated in FIG. 3;

【図41】 主走査方向又は副走査方向に連続する各ウ
ィンドウの各黒画素数データに対する黒画素数の周辺分
布を示すグラフである。
FIG. 41 is a graph showing a peripheral distribution of the number of black pixels with respect to each data of the number of black pixels in each window continuous in the main scanning direction or the sub-scanning direction.

【図42】 7×7のウィンドウ内の各画素における主
走査方向の隣接を示す図である。
FIG. 42 is a diagram showing adjacent pixels in a 7 × 7 window in the main scanning direction.

【図43】 7×7のウィンドウ内の各画素における副
走査方向の隣接を示す図である。
FIG. 43 is a diagram showing adjacent pixels in a 7 × 7 window in the sub-scanning direction.

【図44】 注目画素周辺に少数画素がないが、隣接判
別用のウィンドウ内に比較的多数の少数画素が存在する
場合の一例を示す図である。
FIG. 44 is a diagram illustrating an example of a case where a small number of pixels are not present around a target pixel, but a relatively large number of small pixels are present in a window for adjacent determination.

【図45】 線状の非中間調画像が7×7のウィンドウ
に近づく場合の一例を示す図である。
FIG. 45 is a diagram illustrating an example of a case where a linear non-halftone image approaches a 7 × 7 window.

【図46】 線状の非中間調画像が7×7のウィンドウ
に近づく場合の別の例を示す図である。
FIG. 46 is a diagram illustrating another example in which a linear non-halftone image approaches a 7 × 7 window.

【図47】 図3に図示した5×11マトリックスメモ
リ回路における各画素の検出信号を示す図である。
FIG. 47 is a diagram showing a detection signal of each pixel in the 5 × 11 matrix memory circuit shown in FIG. 3;

【図48】 図3に図示した判別データ信号生成部のテ
ーブル用ROMに格納される、分散型中間調画像に対す
る非中間調指数のグラフである。
FIG. 48 is a graph of a non-halftone index for a distributed halftone image stored in the table ROM of the discrimination data signal generation unit shown in FIG. 3;

【図49】 図3に図示した判別データ信号生成部のテ
ーブル用ROMに格納される、集中型中間調画像に対す
る非中間調指数のグラフである。
FIG. 49 is a graph of a non-halftone index for a concentrated halftone image stored in the table ROM of the discrimination data signal generator shown in FIG. 3;

【図50】 図3に図示した平滑値計算部において用い
る、7×7のウィンドウ内の黒画素数を計数するための
空間フィルタを示す図である。
50 is a diagram showing a spatial filter used in the smoothing value calculator shown in FIG. 3 for counting the number of black pixels in a 7 × 7 window.

【図51】 図3に図示した平滑値計算部において用い
る、9×9のウィンドウ内の黒画素数を計数するための
空間フィルタを示す図である。
FIG. 51 is a diagram showing a spatial filter used in the smoothing value calculator shown in FIG. 3 for counting the number of black pixels in a 9 × 9 window.

【図52】 平滑値を計算するために用いる空間フィル
タの変形例を示す図である。
FIG. 52 is a diagram showing a modification of the spatial filter used to calculate the smoothed value.

【図53】 エッジ強調量を計算する必要性を説明する
ために用いる平滑用空間フィルタの一例を示す図であ
る。
FIG. 53 is a diagram showing an example of a smoothing spatial filter used to explain the necessity of calculating an edge enhancement amount.

【図54】 エッジ強調量を計算する必要性を説明する
ために用いる平滑用空間フィルタの別の例を示す図であ
る。
FIG. 54 is a diagram showing another example of the smoothing spatial filter used to explain the necessity of calculating the amount of edge enhancement.

【図55】 エッジ強調量を計算する必要性を説明する
ために用いる画像の一例と、その画像について主走査方
向に図53と図54の平滑用空間フィルタを適用したと
きの各計算値を示す図である。
FIG. 55 shows an example of an image used to explain the necessity of calculating the amount of edge enhancement, and respective calculated values when the smoothing spatial filters of FIGS. 53 and 54 are applied to the image in the main scanning direction. FIG.

【図56】 図3に図示したエッジ強調量計算部におい
て用いられる、エッジ強調量を計算するための空間フィ
ルタF21を示す図である。
FIG. 56 is a diagram showing a spatial filter F21 for calculating an edge enhancement amount used in the edge enhancement amount calculation unit shown in FIG. 3;

【図57】 図3に図示したエッジ強調量計算部におい
て用いられる、エッジ強調量を計算するための空間フィ
ルタF22を示す図である。
FIG. 57 is a diagram illustrating a spatial filter F22 used in the edge enhancement amount calculation unit illustrated in FIG. 3 for calculating the edge enhancement amount.

【図58】 図3に図示したエッジ強調量計算部におい
て用いられる、エッジ強調量を計算するための空間フィ
ルタF23を示す図である。
58 is a diagram illustrating a spatial filter F23 used in the edge enhancement amount calculation unit illustrated in FIG. 3 for calculating the edge enhancement amount.

【図59】 図3に図示したエッジ強調量計算部におい
て用いられる、エッジ強調量を計算するための空間フィ
ルタF24を示す図である。
59 is a diagram showing a spatial filter F24 for calculating an edge enhancement amount used in the edge enhancement amount calculation unit shown in FIG.

【図60】 図3に図示したエッジ強調量計算部におい
て用いられる、エッジ強調量を計算するための空間フィ
ルタF25を示す図である。
FIG. 60 is a diagram illustrating a spatial filter F25 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation unit illustrated in FIG. 3;

【図61】 図3に図示したエッジ強調量計算部におい
て用いられる、エッジ強調量を計算するための空間フィ
ルタF26を示す図である。
FIG. 61 is a diagram illustrating a spatial filter F26 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation unit illustrated in FIG. 3;

【図62】 図3に図示したエッジ強調量計算部におい
て用いられる、エッジ強調量を計算するための空間フィ
ルタF27を示す図である。
62 is a diagram showing a spatial filter F27 for calculating an edge enhancement amount used in the edge enhancement amount calculation unit shown in FIG.

【図63】 図3に図示したエッジ強調量計算部におい
て用いられる、エッジ強調量を計算するための空間フィ
ルタF28を示す図である。
FIG. 63 is a diagram showing a spatial filter F28 for calculating an edge enhancement amount used in the edge enhancement amount calculation unit shown in FIG. 3;

【図64】 図3に図示したエッジ強調量計算部におい
て用いられる、エッジ強調量を計算するための空間フィ
ルタF31を示す図である。
FIG. 64 is a diagram illustrating a spatial filter F31 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation unit illustrated in FIG. 3;

【図65】 図3に図示したエッジ強調量計算部におい
て用いられる、エッジ強調量を計算するための空間フィ
ルタF32を示す図である。
FIG. 65 is a diagram illustrating a spatial filter F32 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation unit illustrated in FIG. 3;

【図66】 図3に図示したエッジ強調量計算部におい
て用いられる、エッジ強調量を計算するための空間フィ
ルタF33を示す図である。
FIG. 66 is a diagram illustrating a spatial filter F33 for calculating an edge enhancement amount used in the edge enhancement amount calculation unit illustrated in FIG. 3;

【図67】 図3に図示したエッジ強調量計算部におい
て用いられる、エッジ強調量を計算するための空間フィ
ルタF34を示す図である。
FIG. 67 is a diagram illustrating a spatial filter F34 for calculating an edge enhancement amount, which is used in the edge enhancement amount calculation unit illustrated in FIG. 3;

【図68】 図3に図示したエッジ強調量計算部におい
て用いられる、エッジ強調量を計算するための空間フィ
ルタF35を示す図である。
FIG. 68 is a diagram illustrating a spatial filter F35 for calculating an edge enhancement amount used in the edge enhancement amount calculation unit illustrated in FIG. 3;

【図69】 図3に図示したエッジ強調量計算部におい
て用いられる、エッジ強調量を計算するための空間フィ
ルタF36を示す図である。
69 is a diagram illustrating a spatial filter F36 used in the edge enhancement amount calculation unit illustrated in FIG. 3 for calculating the edge enhancement amount.

【図70】 図3に図示したエッジ強調量計算部におい
て用いられる、エッジ強調量を計算するための空間フィ
ルタF37を示す図である。
70 is a diagram illustrating a spatial filter F37 used in the edge enhancement amount calculation unit illustrated in FIG. 3 for calculating an edge enhancement amount.

【図71】 図3に図示したエッジ強調量計算部におい
て用いられる、エッジ強調量を計算するための空間フィ
ルタF38を示す図である。
71 is a diagram showing a spatial filter F38 for calculating an edge enhancement amount used in the edge enhancement amount calculation unit shown in FIG.

【図72】 図3に図示したエッジ領域判別部において
用いられる、エッジ領域判別量を計算するための空間フ
ィルタF41を示す図である。
FIG. 72 is a diagram showing a spatial filter F41 for calculating an edge area discrimination amount used in the edge area discrimination unit shown in FIG. 3;

【図73】 図3に図示したエッジ領域判別部において
用いられる、エッジ領域判別量を計算するための空間フ
ィルタF42を示す図である。
73 is a diagram illustrating a spatial filter F42 used in the edge area determination unit illustrated in FIG. 3 for calculating an edge area determination amount.

【図74】 図3に図示したエッジ領域判別部において
用いられる、エッジ領域判別量を計算するための空間フ
ィルタF43を示す図である。
74 is a diagram illustrating a spatial filter F43 used in the edge area determination unit illustrated in FIG. 3 for calculating an edge area determination amount.

【図75】 図3に図示したエッジ領域判別部において
用いられる、エッジ領域判別量を計算するための空間フ
ィルタF44を示す図である。
75 is a diagram illustrating a spatial filter F44 used in the edge area determination unit illustrated in FIG. 3 for calculating an edge area determination amount.

【図76】 集中型中間調画像に対する中間調指数を計
算するための変形例であるパターンマッチング法を説明
するための5個のパターンマッチング用ウィンドウW4
a乃至W4eを示す図である。
FIG. 76 shows five pattern matching windows W4 for explaining a pattern matching method which is a modification for calculating a halftone index for a concentrated halftone image.
It is a figure showing a through W4e.

【図77】 図76に図示したパターンマッチング用ウ
ィンドウを用いて行なう、パターンマッチング法による
計算例を示すために用いる第1の画像パターンPAT1
を示す図である。
77 shows a first image pattern PAT1 used to show a calculation example by the pattern matching method performed using the pattern matching window shown in FIG. 76.
FIG.

【図78】 図76に図示したパターンマッチング用ウ
ィンドウを用いて行なう、パターンマッチング法による
計算例を示すために用いる第2の画像パターンPAT2
を示す図である。
78. A second image pattern PAT2 used to show a calculation example by the pattern matching method performed using the pattern matching window shown in FIG.
FIG.

【図79】 図76に図示したパターンマッチング用ウ
ィンドウを用いて行なう、パターンマッチング法による
計算例を示すために用いる第3の画像パターンPAT3
を示す図である。
79 is a third image pattern PAT3 used to show an example of calculation by the pattern matching method performed using the pattern matching window shown in FIG. 76.
FIG.

【符号の説明】[Explanation of symbols]

62…画像復元処理部、 100…10×21マトリックスメモリ回路、 101…中間調画像復元部、 102…像域判別部、 103…単純多値化部、 104…データ混合部、 105…隣接状態判定部、 106…ディザ判定部、 107…5×11マトリックスメモリ回路、 108…判定データ生成部、 109…エッジ領域判別部、 110…平滑量計算部、 111…エッジ強調量計算部、 112…復元データ計算部、 113…窓内計算部、 114…判別データ信号生成部、 RT5,RT6,RT7…テーブル用ROM、 SU1…減算器、 CS1,CS2…比較選択器。 Reference numeral 62: image restoration processing unit, 100: 10 × 21 matrix memory circuit, 101: halftone image restoration unit, 102: image area discrimination unit, 103: simple multi-value conversion unit, 104: data mixing unit, 105: adjacent state judgment Unit 106: dither determination unit 107: 5 × 11 matrix memory circuit 108: determination data generation unit 109: edge area determination unit 110: smoothing amount calculation unit 111: edge enhancement amount calculation unit 112: restored data Calculator, 113: Window calculator, 114: Discrimination data signal generator, RT5, RT6, RT7: Table ROM, SU1: Subtractor, CS1, CS2: Comparison selector.

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) H04N 1/40 - 1/409 B41J 2/52 G06T 5/00 Continuation of front page (58) Fields investigated (Int.Cl. 7 , DB name) H04N 1/40-1/409 B41J 2/52 G06T 5/00

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 擬似中間調で2値化された2値画像デー
タと、所定のしきい値を用いて非中間調で2値化された
2値画像データとを含む入力された2値画像データのう
ちの、注目画素とその周辺の複数の画素に対応する2値
画像データに基づいて、上記入力された2値画像データ
の各画素毎に、第1の種類の擬似中間調の画像らしさ及
び上記第1の種類の擬似中間調と異なる第2の種類の擬
似中間調の画像らしさを判別し、これらの判別結果を用
いて擬似中間調の画像らしさ及び非中間調の画像らしさ
を示す判別値を計算する判別手段と、 上記入力された2値画像データのうちの上記注目画素と
その周辺の複数の画素に対応する2値画像データに基づ
いて各画素毎に、2値画像データが擬似中間調の画像デ
ータである場合の復元処理によって多値画像データに復
元する第1の復元手段と、 上記入力された2値画像データに基づいて各画素毎に、
2値画像データが上記非中間調の画像データである場合
の復元処理によって多値画像データに復元する第2の復
元手段と、 上記第1の復元手段によって復元された多値画像データ
と上記第2の復元手段によって復元された多値画像デー
タとを、上記判別手段によって計算された判別値に応じ
た混合割合で混合して、上記混合した多値画像データを
出力する混合手段とを備えたことを特徴とする画像処理
装置。
1. An input binary image including binary image data binarized in a pseudo halftone and binary image data binarized in a non-halftone using a predetermined threshold value. Based on the binary image data corresponding to the pixel of interest and a plurality of pixels surrounding the pixel of interest, each pixel of the input binary image data is used to represent a pseudo-halftone image of the first type. And a second kind of pseudo-halftone image likelihood different from the first kind of pseudo-halftone image is discriminated, and the discrimination indicating the pseudo-halftone image likeness and the non-halftone image-likeness using these discrimination results. Determining means for calculating a value; and, for each pixel, the binary image data is simulated based on the binary image data corresponding to the pixel of interest and a plurality of pixels surrounding the pixel of interest in the input binary image data. By the restoration process when the image data is halftone A first restoring means for restoring the value image data, for each pixel based on the binary image data the input,
Second restoration means for restoring to multi-valued image data by restoration processing when the binary image data is the non-halftone image data; multi-valued image data restored by the first restoration means; Mixing means for mixing the multi-valued image data restored by the restoration means of No. 2 at a mixing ratio according to the discrimination value calculated by the discrimination means, and outputting the mixed multi-valued image data. An image processing apparatus characterized by the above-mentioned.
【請求項2】 上記判別手段は、注目画素を含む複数の
画素に対する、第1の種類の擬似中間調の画像らしさの
判別結果及び第2の種類の擬似中間調の画像らしさの判
別結果を用いて、注目画素に対する擬似中間調の画像ら
しさ及び非中間調の画像らしさを示す判別値を計算する
ことを特徴とする請求項1記載の画像処理装置。
2. The method according to claim 1, wherein the discriminating means uses a result of discriminating the likeness of a first type of pseudo-halftone image and a result of discriminating a second type of pseudo-halftone image for a plurality of pixels including the pixel of interest. 2. The image processing apparatus according to claim 1, wherein a discriminant value indicating the likelihood of a pseudo halftone image and the likelihood of a non-halftone image for the pixel of interest is calculated.
【請求項3】 上記第1の種類の擬似中間調の画像らし
さは、ドット集中型擬似中間調の画像らしさであること
を特徴とする請求項1又は2記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein the image likeness of the first type of pseudo halftone image is a dot concentration type pseudo halftone image.
【請求項4】 擬似中間調で2値化された2値画像デー
タと、所定のしきい値を用いて非中間調で2値化された
2値画像データとを含む入力された2値画像データのう
ちの、注目画素とその周辺の複数の画素に対応する2値
画像データに基づいて、上記入力された2値画像データ
の各画素毎に、擬似中間調の画像らしさ及び非中間調の
画像らしさを示す判別値を計算する判別手段と、 上記入力された2値画像データのうちの上記注目画素と
その周辺の複数の画素に対応する2値画像データに基づ
いて各画素毎に、2値画像データが擬似中間調の画像デ
ータである場合の復元処理によって多値画像データに復
元する第1の復元手段と、 上記入力された2値画像データに基づいて各画素毎に、
2値画像データが上記非中間調の画像データである場合
の復元処理によって多値画像データに復元する第2の復
元手段と、 上記第1の復元手段によって復元された多値画像データ
と上記第2の復元手段によって復元された多値画像デー
タとを、上記判別手段によって計算された判別値に応じ
た混合割合で混合して、上記混合した多値画像データを
出力する混合手段とを備え、 上記判別手段は、上記入力された2値画像データの各画
素毎に、ドット分散型擬似中間調の画像らしさを示す判
別値を計算する第1の判別手段と、上記入力された2値
画像データの各画素毎に、ドット集中型擬似中間調の画
像らしさを示す判別値を計算する第2の判別手段と、上
記第1の判別手段によって計算された判別値と上記第2
の判別手段によって計算された判別値とを比較してより
大きな判別値を選択し、上記選択した判別値を上記擬似
中間調の画像らしさ及び非中間調の画像らしさを示す判
別値として出力する比較選択手段とを備えたことを特徴
とする画像処理装置。
4. An input binary image including binary image data binarized in a pseudo halftone and binary image data binarized in a non-halftone using a predetermined threshold value. Based on the binary image data corresponding to the pixel of interest and a plurality of pixels around the pixel of interest, each pixel of the input binary image data is used to determine the pseudo-halftone image-likeness and the non-halftone image. Determining means for calculating a determination value indicating image likeness; and, for each pixel, based on binary image data corresponding to the pixel of interest and a plurality of pixels around the pixel of interest in the input binary image data, First restoration means for restoring to multi-valued image data by restoration processing when the value image data is pseudo halftone image data; and for each pixel based on the input binary image data,
Second restoration means for restoring to multi-valued image data by restoration processing when the binary image data is the non-halftone image data; multi-valued image data restored by the first restoration means; Mixing means for mixing the multi-valued image data restored by the restoration means of No. 2 at a mixing ratio according to the discrimination value calculated by the discrimination means, and outputting the mixed multi-valued image data; The discriminating means includes: first discriminating means for calculating a discriminating value indicating the likeness of a dot-dispersed pseudo-halftone image for each pixel of the input binary image data; A second discriminating means for calculating a discriminating value indicating the likelihood of a dot-concentrated pseudo halftone image for each pixel, and a discriminating value calculated by the first discriminating means.
Comparing the discrimination value calculated by the discrimination means with a larger discrimination value and outputting the selected discrimination value as a discrimination value indicating the likelihood of the pseudo halftone image and the non-halftone image. An image processing apparatus comprising: a selection unit.
JP13762091A 1991-06-10 1991-06-10 Image processing device Expired - Lifetime JP3146517B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP13762091A JP3146517B2 (en) 1991-06-10 1991-06-10 Image processing device
US07/894,743 US5384647A (en) 1991-06-10 1992-06-05 Image processing apparatus comprising means for judging image area of pseudo half-tone image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13762091A JP3146517B2 (en) 1991-06-10 1991-06-10 Image processing device

Publications (2)

Publication Number Publication Date
JPH04361479A JPH04361479A (en) 1992-12-15
JP3146517B2 true JP3146517B2 (en) 2001-03-19

Family

ID=15202933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13762091A Expired - Lifetime JP3146517B2 (en) 1991-06-10 1991-06-10 Image processing device

Country Status (1)

Country Link
JP (1) JP3146517B2 (en)

Also Published As

Publication number Publication date
JPH04361479A (en) 1992-12-15

Similar Documents

Publication Publication Date Title
JPH04356869A (en) Image processor
US5384647A (en) Image processing apparatus comprising means for judging image area of pseudo half-tone image
JP4228466B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium storing image processing procedure
JP3146517B2 (en) Image processing device
JPH0818785A (en) Image output device
JP3146516B2 (en) Image processing device
JP3136650B2 (en) Image processing device
JP3158535B2 (en) Image processing device
JP3361355B2 (en) Image processing device
JPH07298074A (en) Image processing unit
JP3118896B2 (en) Facsimile machine
JPH04361477A (en) Picture processing unit
JPH04361476A (en) Picture processing unit
JPS6180969A (en) Picture signal processor
JPH1098614A (en) Picture processor
JPH05176168A (en) Adaptive halftone processing system
JPH0644800B2 (en) Image processing device
JPH04330864A (en) Image processor
JP3434374B2 (en) Image forming device
JPH04270561A (en) Picture processor
JP3690706B2 (en) Image processing device
JPH09294209A (en) Image processor
JPH04330867A (en) Image processor
JPH04330869A (en) Image processor
JPH11136513A (en) Picture processor

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090112

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090112

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100112

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110112

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110112

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120112

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120112

Year of fee payment: 11