JPH07170395A - Area discriminating device and gray level transformation processor - Google Patents

Area discriminating device and gray level transformation processor

Info

Publication number
JPH07170395A
JPH07170395A JP6243661A JP24366194A JPH07170395A JP H07170395 A JPH07170395 A JP H07170395A JP 6243661 A JP6243661 A JP 6243661A JP 24366194 A JP24366194 A JP 24366194A JP H07170395 A JPH07170395 A JP H07170395A
Authority
JP
Japan
Prior art keywords
value
image
gradation
circuit
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6243661A
Other languages
Japanese (ja)
Other versions
JP3380065B2 (en
Inventor
Akio Kojima
章夫 小嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP24366194A priority Critical patent/JP3380065B2/en
Publication of JPH07170395A publication Critical patent/JPH07170395A/en
Application granted granted Critical
Publication of JP3380065B2 publication Critical patent/JP3380065B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To transform an N-value gray level image into an M-value gary level image (N<M) with an excellent accuracy for both of a contour area and a non-contour area. CONSTITUTION:A first transformation circuit 2 transforms K-value image data to be centralized in the vicinity of the central value of a signal range. An N-ary coding circuit 8 transforms the transformed K-value image into N-ary-coded value data (K>N). An image memory 9 stores the N-ary-coded value. An estimation circuit 93 transforms the N-ary-coded value data into an M-value image (N<M). A second transformation circuit 3 performs an inverse transformation for the M-value image based on the transformed amount by the first transformation circuit 2. Thus, the generated of density ripple is suppressed by even a small scanning opening. A control circuit 92 sets transformation tables to the first transformation circuit 2 and the second transformation circuit 3 by the setting signal from an operation panel 91 and performs the processing modes corresponding to various image and an image adjustment by outputting a control signal to the estimation circuit 93.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、K値階調画像をN値階
調画像(K>N)に変換したN値階調画像中の輪郭領域
と非輪郭領域を識別する領域識別装置、及びN値階調画
像をM値階調画像(N<M)に変換する階調変換処理装
置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an area identification device for identifying a contour area and a non-contour area in an N-value gradation image obtained by converting a K-value gradation image into an N-value gradation image (K> N). And a gradation conversion processing device for converting an N-value gradation image into an M-value gradation image (N <M).

【0002】[0002]

【従来の技術】近年、印刷装置や表示装置等の出力装置
として多値データにより印刷や表示を行なうようになっ
てきた。よって、これらに用いる画像情報を電子的に扱
う場合は情報量が増大している。このため、ファクシミ
リ、静止画ファイル、複写装置等では原画像を2値化信
号にして伝送・記憶・処理している。しかし、この2値
化信号をそのまま出力装置で再生すると画質が劣化す
る。この画質の劣化を解決するために、原画像を2値化
信号にして伝送、記憶、編集処理し、出力装置で再生す
る時に、2値化信号から原画像の多値階調信号を推定す
る方法がある。
2. Description of the Related Art In recent years, printing and display have been performed by multivalued data as an output device such as a printing device and a display device. Therefore, the amount of information is increasing when the image information used for these is handled electronically. Therefore, in a facsimile, a still image file, a copying machine, etc., an original image is converted into a binary signal and transmitted, stored and processed. However, if this binarized signal is reproduced as it is on the output device, the image quality deteriorates. In order to solve this deterioration in image quality, the original image is converted into a binary signal, transmitted, stored, and edited, and when reproduced by an output device, a multi-value gradation signal of the original image is estimated from the binary signal. There is a way.

【0003】従来、原画像の濃淡を2値化信号(疑似中
間調画像)で表現するディジタルハーフトーン技術とし
て、ディザ法、誤差拡散方法がある。さらに、この疑似
中間調画像を対象として、2値化信号から原画像の多値
階調信号を推定する方法には、中間調推定方法がある。
(例えば、特開昭61−251368公報)この中間調
推定方法では、走査開口内の白黒画素数の比率に応じて
中間調を推定していた。
Conventionally, there are a dither method and an error diffusion method as a digital halftone technique for expressing the gradation of an original image by a binarized signal (pseudo halftone image). Further, as a method for estimating the multi-value gradation signal of the original image from the binarized signal for the pseudo halftone image, there is a halftone estimation method.
(For example, Japanese Patent Laid-Open No. 61-251368) In this halftone estimation method, the halftone is estimated according to the ratio of the number of black and white pixels in the scanning aperture.

【0004】また、2値画像中のエッジを一つのエッジ
検出フィルタで検出し、検出フィルタの出力によって輪
郭領域・非輪郭領域・中間領域を識別して走査開口内の
加算重み係数を変化させ平滑特性を可変していた。(例
えば、特開平4−51378公報)
Further, the edges in the binary image are detected by one edge detection filter, the contour area / non-contour area / intermediate area is discriminated by the output of the detection filter, and the addition weighting coefficient in the scanning aperture is changed to smooth the edges. The characteristics were variable. (For example, JP-A-4-51378)

【0005】[0005]

【発明が解決しようとする課題】しかしながら上記の従
来の構成では、ファクシミリ、静止画ファイル、複写装
置が扱う種々の文書画像に対して、ページ単位で異なる
画像特性を有する場合、若しくは1ページ中の異なる領
域で画像特性が異なる場合に最適な多値階調信号を推定
できないといった問題点を有していた。
However, in the above-mentioned conventional configuration, various document images handled by a facsimile, a still image file, and a copying apparatus have different image characteristics on a page-by-page basis, or within one page. There is a problem that the optimum multi-value gradation signal cannot be estimated when the image characteristics are different in different areas.

【0006】また、K値画像の濃淡を2値化信号(K>
2)で表現するディジタルハーフトーン技術は、2値化
変換する際にデータが拡散し、さらに独特のテクスチャ
を発生させる。よって、輪郭領域と非輪郭領域の識別を
一つのエッジ検出器だけで行うと、2値化処理時のデー
タの拡散、または、ドット配置パターンによるテクスチ
ャの影響を受けてしまうといった問題点を有していた。
Further, the gradation of the K-value image is converted into a binary signal (K>
In the digital halftone technique expressed in 2), data is diffused at the time of binarization conversion and further a unique texture is generated. Therefore, if the contour area and the non-contour area are discriminated by only one edge detector, there is a problem that the data is diffused during the binarization process or the texture is affected by the dot arrangement pattern. Was there.

【0007】また、走査開口が小さいと推定値が変動
し、誤差が大きいという問題点を有していた。また、フ
ァクシミリ、静止画ファイル、複写装置は様々な対象画
像を扱うので、対象画像に合わせて所望の識別処理と画
質調整を行うことができないという問題点を有してい
た。
Further, when the scanning aperture is small, the estimated value fluctuates and the error is large. Further, since the facsimile, the still image file, and the copying apparatus handle various target images, there is a problem that desired identification processing and image quality adjustment cannot be performed according to the target image.

【0008】本発明は上記従来の問題点を解決するもの
で、画像中の輪郭部および非輪郭領域を2値化データの
拡散、テクスチャに影響されることなく、対象画像に合
わせて領域識別を行う領域識別装置を提供することを第
1の目的とし、画像中のどの領域においても最適な階調
変換を行い、さらに対象画像に合わせた画質調整を行う
優れた階調変換処理装置を提供することを第2の目的と
する。
The present invention solves the above-mentioned problems of the prior art. Region identification is performed according to the target image without being affected by the diffusion and texture of the binarized data in the contour portion and the non-contour region in the image. A first object of the present invention is to provide an area identification device which performs an optimum gradation conversion in any area of an image, and to provide an excellent gradation conversion processing device that adjusts the image quality according to a target image. This is the second purpose.

【0009】[0009]

【課題を解決するための手段】この第1の目的を達成す
るために、本発明の領域識別装置は、次の第1の構成、
第2の構成、第3の構成、第4の構成を有する。第1の
構成では、エッジ検出特性が同一で、かつ着目位置が異
なる複数のフィルタと、前記複数のフィルタのそれぞれ
の出力を所定の値と比較し、前記所定の値以上の出力の
み加算する加算手段と、前記加算手段の出力を所定の判
定レベルで判定し、所定の判定値を出力する判定手段と
を有する。
In order to achieve the first object, the area identification device of the present invention has the following first configuration,
It has a second configuration, a third configuration, and a fourth configuration. In the first configuration, a plurality of filters having the same edge detection characteristics and different positions of interest are compared with respective outputs of the plurality of filters with a predetermined value, and only the outputs having the predetermined value or more are added. And means for determining the output of the adding means at a predetermined determination level and outputting a predetermined determination value.

【0010】第2の構成では、第1の構成に、更に、複
数の処理モード若しくは画質調整値を設定する設定手段
と、前記設定手段の設定内容に応じて前記所定の判定レ
ベルを制御する第1の制御手段とを有する。第3の構成
では、エッジ検出特性が同一で、かつ着目位置が異なる
複数の第1のフィルタの出力を加算する第1の検出手段
と、前記第1のフィルタとエッジ検出特性が異なる複数
の第2のフィルタにより構成され、エッジ検出特性が同
一で、かつ着目位置が異なる前記複数の第2のフィルタ
の出力を加算する第2の検出手段と、前記第1の検出手
段の出力を第1の判定レベルで判定し、所定の第1の判
定値を出力する第1の判定手段と、前記第2の検出手段
の出力を第2の判定レベルで判定し、所定の第2の判定
値を出力する第2の判定手段とを有する。
In the second configuration, in addition to the first configuration, a setting means for setting a plurality of processing modes or image quality adjustment values, and a control means for controlling the predetermined determination level according to the setting contents of the setting means. 1 control means. In the third configuration, a first detection unit that adds outputs of a plurality of first filters having the same edge detection characteristic and different focus positions, and a plurality of first detection units having different edge detection characteristics from the first filter. A second detection unit configured to add the outputs of the plurality of second filters having the same edge detection characteristics and different focus positions, and the output of the first detection unit as the first detection unit. A first determination unit that determines at a determination level and outputs a predetermined first determination value, and an output of the second detection unit at a second determination level, and outputs a predetermined second determination value. And a second determining means for performing the determination.

【0011】第4の構成では、第3の構成に、更に、複
数の処理モード若しくは画質調整値を設定する設定手段
と、前記設定手段の設定内容に応じて前記第1の判定値
若しくは前記第2の判定値の有効、無効を制御する第2
の制御手段とを有する。また、第2の目的を達成するた
めに、N値階調画像をM値階調画像(N<M)に変換す
る階調変換処理装置において、本発明の階調変換処理装
置は、次の第5の構成、第6の構成、第7の構成、第8
の構成、第9の構成、第10の構成、第11の構成を有
する。
In the fourth configuration, in addition to the third configuration, setting means for setting a plurality of processing modes or image quality adjustment values, and the first determination value or the first determination value depending on the setting content of the setting means. The 2nd which controls the validity and invalidity of the judgment value of 2
Control means. In order to achieve the second object, in a gradation conversion processing device for converting an N-value gradation image into an M-value gradation image (N <M), the gradation conversion processing device of the present invention is Fifth configuration, sixth configuration, seventh configuration, eighth
The configuration, the ninth configuration, the tenth configuration, and the eleventh configuration.

【0012】第5の構成では、前記N値階調画像中の着
目画素およびその周辺画素に所定の重み係数を乗じて加
算し、前記N値階調画像を前記M値階調画像(N<M)
に変換する第1の平滑フィルタと、走査開口サイズ若し
くは加算する重み係数を異ならせることで、前記第1の
平滑フィルタより平滑度を大きくし、前記N値階調画像
を前記M値階調画像(N<M)に変換する第2の平滑フ
ィルタと、前記N値階調画像中のエッジ量を検出するエ
ッジ検出手段と、前記エッジ量から混合比を算出する混
合比制御手段と、前記第1の平滑フィルタと前記第2の
平滑フィルタを前記混合比に基づいて混合する混合処理
手段と、前記N値階調画像中の非輪郭領域と輪郭領域を
識別する識別手段と、前記識別手段からの制御信号によ
って非輪郭領域は前記混合処理手段の出力を選択し、輪
郭領域では前記第1の平滑フィルタの出力を選択する選
択手段とを有する。
In the fifth configuration, the pixel of interest and its peripheral pixels in the N-value gradation image are multiplied by a predetermined weighting coefficient and added, and the N-value gradation image is added to the M-value gradation image (N < M)
By changing the scanning aperture size or the weighting factor to be added to the first smoothing filter to be converted into the first smoothing filter, the smoothness is made larger than that of the first smoothing filter, and the N-value gradation image is converted to the M-value gradation image. A second smoothing filter for converting to (N <M), an edge detecting unit for detecting an edge amount in the N-value gradation image, a mixing ratio control unit for calculating a mixing ratio from the edge amount, The mixing processing unit that mixes the first smoothing filter and the second smoothing filter based on the mixing ratio, the identifying unit that identifies the non-contour region and the contour region in the N-value gradation image, and the identifying unit. In the non-contour area, the output of the mixing processing means is selected by the control signal of 1., and in the contour area, the output of the first smoothing filter is selected.

【0013】第6の構成では、前記N値階調画像中の着
目画素およびその周辺画素に所定の重み係数を乗じて加
算し、前記N値階調画像を前記M値階調画像(N<M)
に変換する第1の平滑フィルタと、走査開口サイズ若し
くは加算する重み係数を異ならせることで、前記第1の
平滑フィルタより平滑度を大きくし、前記N値階調画像
を前記M値階調画像(N<M)に変換する第2の平滑フ
ィルタと、前記N値階調画像中のエッジ量を検出するエ
ッジ検出手段と、前記エッジ量から混合比を算出する混
合比制御手段と、前記第1の平滑フィルタと前記第2の
平滑フィルタを前記混合比に基づいて混合する混合処理
手段と、前記第1の平滑フィルタの出力を強調する強調
手段と、前記N値階調画像中の非輪郭領域と輪郭領域を
識別する識別手段と、前記識別手段からの制御信号によ
って非輪郭領域は前記混合処理手段の出力を選択し、輪
郭領域では前記強調手段の出力を選択する選択手段とを
有する。
In the sixth configuration, the pixel of interest and its peripheral pixels in the N-value gradation image are multiplied by a predetermined weighting coefficient and added, and the N-value gradation image is converted into the M-value gradation image (N < M)
By changing the scanning aperture size or the weighting factor to be added to the first smoothing filter to be converted into the first smoothing filter, the smoothness is made larger than that of the first smoothing filter, and the N-value gradation image is converted to the M-value gradation image. A second smoothing filter for converting to (N <M), an edge detecting unit for detecting an edge amount in the N-value gradation image, a mixing ratio control unit for calculating a mixing ratio from the edge amount, A mixing processing unit that mixes the first smoothing filter and the second smoothing filter based on the mixing ratio, an emphasis unit that emphasizes the output of the first smoothing filter, and a non-contour in the N-value gradation image. The non-contour area selects the output of the mixing processing means in the non-contour area and the selection means selects the output of the emphasizing means in the contour area in response to a control signal from the identifying means.

【0014】第7の構成では、前記N値階調画像中の着
目画素およびその周辺画素に所定の重み係数を乗じて加
算し、前記N値階調画像を前記M値階調画像(N<M)
に変換する第1の平滑フィルタと、走査開口サイズ若し
くは加算する重み係数を異ならせることで、前記第1の
平滑フィルタより平滑度を大きくし、前記N値階調画像
を前記M値階調画像(N<M)に変換する第2の平滑フ
ィルタと、前記N値階調画像中のエッジ量を検出するエ
ッジ検出手段と、前記エッジ量から混合比を算出する混
合比制御手段と、前記第1の平滑フィルタと前記第2の
平滑フィルタを前記混合比に基づいて混合する第1の処
理手段と、前記第1の平滑フィルタの着目画素を含む走
査開口内の1つの行方向若しくは1つの列方向の所定の
重み係数の和と着目画素を含まない走査開口内の端に位
置する1つの行方向若しくは1つの列方向の所定の重み
係数の和に基づいて前記第1の平滑フィルタの出力を変
更する第2の処理手段と、前記N値階調画像中の輪郭領
域と非輪郭領域を識別する識別手段と、前記識別手段か
らの制御信号によって非輪郭領域は前記第1の処理手段
を選択し、輪郭領域では前記第2の処理手段を選択する
選択手段とを有する。
In the seventh configuration, the pixel of interest and its peripheral pixels in the N-value gradation image are multiplied by a predetermined weighting factor and added, and the N-value gradation image is converted into the M-value gradation image (N < M)
By changing the scanning aperture size or the weighting factor to be added to the first smoothing filter to be converted into the first smoothing filter, the smoothness is made larger than that of the first smoothing filter, and the N-value gradation image is converted to the M-value gradation image. A second smoothing filter for converting to (N <M), an edge detecting unit for detecting an edge amount in the N-value gradation image, a mixing ratio control unit for calculating a mixing ratio from the edge amount, First processing means for mixing the first smoothing filter and the second smoothing filter based on the mixing ratio; and one row direction or one column in the scanning aperture including the pixel of interest of the first smoothing filter. The output of the first smoothing filter based on the sum of the predetermined weighting factors in the direction and the sum of the predetermined weighting factors in one row direction or one column direction located at the end of the scanning aperture that does not include the pixel of interest. Second process to change A step, an identifying means for identifying a contour area and a non-contour area in the N-value gradation image, and a control signal from the identifying means selects the first processing means for the non-contour area. Selecting means for selecting the second processing means.

【0015】第8の構成では、第5の構成または第6の
構成または第7の構成に、更に、複数の処理モード若し
くは画質調整値を設定する設定手段と、前記設定手段の
設定内容に応じて識別手段の第1の制御手段若しくは第
2の制御手段を制御する第3の制御手段とを有する。第
9の構成では、入力したN値画像データ中のエッジ量を
検出する特性の異なる複数のエッジ検出手段と、前記複
数のエッジ検出手段の出力を混合し、エッジ抽出量を生
成する抽出手段と、前記N値画像を平滑する重み係数若
しくは平滑領域の異なる複数の空間フィルタと、前記複
数の空間フィルタの出力を所定レベルに正規化し、前記
抽出手段からの出力に基づいて正規化した複数の空間フ
ィルタの出力を選択若しくは混合する混合処理手段とを
有する。
In the eighth configuration, the fifth configuration, the sixth configuration, or the seventh configuration further includes setting means for setting a plurality of processing modes or image quality adjustment values, and setting contents of the setting means. And third control means for controlling the first control means or the second control means of the identification means. In the ninth configuration, a plurality of edge detecting means having different characteristics for detecting the edge amount in the input N-valued image data, and an extracting means for mixing outputs of the plurality of edge detecting means to generate an edge extraction amount. , A plurality of spatial filters having different weighting factors or different smoothing regions for smoothing the N-valued image, and a plurality of spaces normalized by the outputs of the plurality of spatial filters to a predetermined level and normalized based on the output from the extracting means. And a mixing processing unit that selects or mixes the outputs of the filters.

【0016】第10の構成では、K値画像データをK値
画像データの信号範囲の中央値近傍に集中するようにデ
ータ変換する第1の変換手段と、データ変換されたK値
画像データをN値化データ(K>N)に変換するN値化
処理手段と、前記N値化処理手段で生成されるN値化デ
ータからM値画像データ(N<M)を推定する推定手段
と、前記M値画像データ(N<M)を前記第1の変換手
段のデータ変換に連動して逆変換を行なう第2の変換手
段とを有する。
In the tenth configuration, the K-valued image data is converted so that the K-valued image data is concentrated in the vicinity of the median of the signal range of the K-valued image data, and the K-valued image data is N converted. N-valued processing means for converting the data into K-valued data (K> N), estimating means for estimating M-valued image data (N <M) from the N-valued data generated by the N-valued processing means, and And second conversion means for performing inverse conversion of the M-value image data (N <M) in conjunction with the data conversion of the first conversion means.

【0017】第11の構成では、第10の構成に、更
に、複数の処理モード若しくは画質調整値を設定する設
定手段と、複数の処理モード若しくは画質調整値に対応
する複数種の変換テーブルを有し、前記設定手段の設定
内容に応じて前記変換テーブルの1つを選択して、第1
の変換手段と第2の変換手段にそれぞれ再設定する第4
の制御手段とを有する。
In the eleventh configuration, the tenth configuration further includes setting means for setting a plurality of processing modes or image quality adjustment values, and a plurality of types of conversion tables corresponding to the plurality of processing modes or image quality adjustment values. Then, one of the conversion tables is selected according to the setting contents of the setting means, and the first
Fourthly, resetting to the converting means and the second converting means respectively.
Control means.

【0018】[0018]

【作用】この第1の構成によって、エッジ検出特性が同
一で、かつ着目位置が異なる複数のフィルタの合成値を
エッジ成分とすることで、複数のフィルタの相関を利用
できるので、データの拡散、テクスチャの影響を排除し
てN値画像中の輪郭領域と非輪郭領域を精度良く識別で
きる。
With this first configuration, the correlation between a plurality of filters can be used by using the combined value of a plurality of filters having the same edge detection characteristics and different focus positions as an edge component, so that the data diffusion, It is possible to accurately distinguish the contour area and the non-contour area in the N-value image by eliminating the influence of the texture.

【0019】さらに、第2の構成によって、第1の制御
手段は、設定手段からの処理モード若しくは画質調整値
の設定値によって所定の判定レベルを制御できるので、
種々の画像に対応して異なる識別領域を得ることができ
る。また、第3の構成によって、異なる特性のエッジ検
出フィルタの判定値から、領域を判定できるので、対象
画像の画像特性の影響を抑えて領域識別を行うことがで
きる。
Further, according to the second configuration, the first control means can control the predetermined judgment level according to the processing mode from the setting means or the set value of the image quality adjustment value.
Different identification areas can be obtained for different images. Further, according to the third configuration, the area can be determined from the determination values of the edge detection filters having different characteristics, so that the area identification can be performed while suppressing the influence of the image characteristics of the target image.

【0020】また、第4の構成によって、第1の制御手
段は、設定手段からの処理モード若しくは画質調整値の
設定値によって、第1の判定値若しくは第2の判定値の
有効、無効を制御できるので、対象画像の特性に合わせ
た領域識別を行うことができる。また、第5の構成によ
って、識別手段からの制御信号によって非輪郭領域は混
合処理手段の出力を選択し、輪郭領域では混合処理手段
が混合としている平滑フィルタの1つを選択するので、
誤識別の影響を抑えて、N値画像中の輪郭領域では解像
度を確保した階調変換を行い、非輪郭領域では階調性を
確保した階調変換を行うことができる。
According to the fourth structure, the first control means controls the validity or invalidity of the first determination value or the second determination value according to the processing mode or the setting value of the image quality adjustment value from the setting means. As a result, it is possible to perform area identification according to the characteristics of the target image. Further, according to the fifth configuration, the output of the mixing processing means is selected in the non-contour area by the control signal from the identification means, and one of the smoothing filters mixed by the mixing processing means is selected in the contour area.
By suppressing the influence of erroneous identification, it is possible to perform the gradation conversion ensuring the resolution in the contour area in the N-value image and the gradation conversion ensuring the gradation in the non-contour area.

【0021】また、第6の構成によって、識別手段から
の制御信号によって非輪郭領域は混合処理手段の出力を
選択し、輪郭領域では混合処理手段が混合としている平
滑フィルタの1つを強調した出力を選択するので、誤識
別の影響を抑えて、N値画像中の輪郭領域では先鋭度を
確保した階調変換を行い、非輪郭領域では階調性を確保
した階調変換を行うことができる。
According to the sixth configuration, the output of the mixing processing means is selected in the non-contour area in accordance with the control signal from the identifying means, and in the contour area, one of the smoothing filters mixed by the mixing processing means is emphasized. Is selected, it is possible to suppress the influence of erroneous identification and perform gradation conversion in which the sharpness is ensured in the contour area in the N-valued image and gradation conversion is ensured in the non-contour area. .

【0022】また、第7の構成によって、識別手段から
の制御信号によって非輪郭領域は第1の処理手段を選択
し、輪郭領域では第1の処理手段が混合としている平滑
フィルタの1つを用い、走査開口を等価的に小さくする
ようにデータ変換した出力を選択するので、誤識別の影
響を抑えて、N値画像中の輪郭領域では解像度を確保し
た階調変換を行い、非輪郭領域では階調性を確保した階
調変換を行うことができる。
According to the seventh configuration, the first processing means is selected in the non-contour area by the control signal from the identification means, and one of the smoothing filters mixed by the first processing means is used in the contour area. , The data converted output is selected so as to make the scanning aperture equivalently small, so that the effect of erroneous identification is suppressed, and the gradation conversion is performed in the contour area in the N-value image while ensuring the resolution, and in the non-contour area. It is possible to perform gradation conversion that ensures gradation.

【0023】また、第8の構成によって、第3の制御手
段は、設定手段からの処理モード若しくは画質調整値の
設定値によって、第1の制御手段若しくは第2の制御手
段を制御できるので、対象画像の特性に合わせて識別領
域を異ならせて、N値画像中の輪郭領域では解像度若し
くは先鋭度を確保した階調変換を行い、非輪郭領域では
階調性を確保した階調変換を行うことができる。
Further, according to the eighth configuration, the third control means can control the first control means or the second control means according to the processing mode or the set value of the image quality adjustment value from the setting means. Differentiating the identification region according to the characteristics of the image to perform gradation conversion that secures the resolution or sharpness in the contour region in the N-value image, and performs gradation conversion that secures the gradation in the non-contour region. You can

【0024】また、第9の構成によって、特性の異なる
複数のエッジ検出手段の出力を画像特性に合わせて混合
したエッジ成分量を生成し、エッジ成分量によって複数
の空間フィルタを混合するので、2値的な処理の状態変
更を伴わずに、かつ空間周波数に対して広範囲のエッジ
成分を抽出できる。また、種々の画像若しくは画像領域
に適応した階調変換を行うことができる。
Further, according to the ninth configuration, the output of a plurality of edge detecting means having different characteristics is mixed according to the image characteristics to generate an edge component amount, and a plurality of spatial filters are mixed according to the edge component amount. It is possible to extract a wide range of edge components with respect to the spatial frequency without changing the value processing state. Further, gradation conversion suitable for various images or image regions can be performed.

【0025】また、第10の構成によって、第1の変換
手段によって変換されたK値画像データをN値化データ
(K>N)に変換することでN値化データのデータ拡散
範囲が抑えられ、このN値化データからM値画像データ
(N<M)を推定するので、走査開口小さくしても推定
値の変動を抑えることができる。また、小さい走査開口
を用いることで、解像度を確保でき、低コストで回路を
実現できる。
According to the tenth configuration, the K-valued image data converted by the first conversion means is converted into N-valued data (K> N), whereby the data diffusion range of the N-valued data is suppressed. Since the M-value image data (N <M) is estimated from the N-valued data, it is possible to suppress the fluctuation of the estimated value even if the scanning aperture is made small. Further, by using a small scanning aperture, the resolution can be secured and the circuit can be realized at low cost.

【0026】また、第11の構成によって、第4の制御
手段は、設定手段からの処理モード若しくは画質調整値
の設定値によって変換テーブルを変更でき、種々の画像
に対応した画質調整ができる。以上のように本発明によ
れば、画像中の輪郭部および非輪郭領域を2値化データ
の拡散、テクスチャに影響されることなく、対象画像に
合わせて領域識別を行うことができる領域識別装置を実
現できる。また、画像中のどの領域においても最適な階
調変換を行い、さらに対象画像に合わせた画質調整を行
う階調変換処理装置を実現できる。
Further, according to the eleventh configuration, the fourth control means can change the conversion table according to the processing mode or the setting value of the image quality adjustment value from the setting means, and can perform the image quality adjustment corresponding to various images. As described above, according to the present invention, an area identification device capable of performing area identification according to a target image without being affected by the diffusion of binarized data and the texture in the contour portion and the non-contour area in the image. Can be realized. Further, it is possible to realize a gradation conversion processing device that performs optimum gradation conversion in any area in an image and further performs image quality adjustment according to the target image.

【0027】[0027]

【実施例】以下本発明の一実施例の領域識別装置及び階
調変換処理装置について、図面を参照しながら説明す
る。図1は、本発明の第1の実施例における領域識別装
置Aを含む階調変換処理装置のブロック図を示すもので
ある。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An area identification device and a gradation conversion processing device according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of a gradation conversion processing device including an area identification device A according to the first embodiment of the present invention.

【0028】図1において、階調変換回路1はN値階調
画像データ100をM値階調画像データ200に変換す
る。(ただし、N<Mとする。)強調回路5は、N値階
調画像100、または、階調変換回路1から出力される
推定値NA(信号300)を強調処理し、強調信号EF
(信号500)を生成する。
In FIG. 1, the gradation conversion circuit 1 converts N-value gradation image data 100 into M-value gradation image data 200. (However, N <M.) The emphasis circuit 5 emphasizes the N-value gradation image 100 or the estimated value NA (signal 300) output from the gradation conversion circuit 1, and emphasizes the emphasis signal EF.
(Signal 500) is generated.

【0029】データ変換回路7は、階調変換回路1から
出力される推定値NA(信号300)を入力し、データ
変換処理を画素単位で実行し、信号700を出力する。
このデータ変換処理は、推定値NA(信号300)の先
鋭度を高める。領域識別装置Aの識別回路4は、N値階
調画像の輪郭領域と非輪郭領域を識別する識別信号40
0(信号SE)を出力する。
The data conversion circuit 7 receives the estimated value NA (signal 300) output from the gradation conversion circuit 1, executes data conversion processing in pixel units, and outputs a signal 700.
This data conversion process increases the sharpness of the estimated value NA (signal 300). The discriminating circuit 4 of the region discriminating apparatus A discriminates the discriminating signal 40 for discriminating the contour region and the non-contour region of the N-value gradation image.
0 (signal SE) is output.

【0030】選択回路6は、識別信号400と制御信号
61(CONT1)によって、入力A〜入力Dの選択を
行い、選択信号600を出力する。この選択によって、
信号200(Xout)、信号300(推定値NA)、
信号500(EF)または信号700のいずれかが選択
信号600として出力される。以上のように構成された
領域識別装置Aを含む階調変換処理装置について、以
下、順次に、階調変換回路1、領域識別装置Aの識別回
路4、データ変換回路7、強調回路5、選択回路6につ
いて説明を行う。
The selection circuit 6 selects the input A to the input D according to the identification signal 400 and the control signal 61 (CONT1) and outputs the selection signal 600. With this choice,
Signal 200 (Xout), signal 300 (estimated value NA),
Either the signal 500 (EF) or the signal 700 is output as the selection signal 600. Regarding the gradation conversion processing device including the area identification device A configured as described above, the gradation conversion circuit 1, the identification circuit 4, the data conversion circuit 7, the enhancement circuit 5, and the selection circuit of the area identification device A are sequentially selected. The circuit 6 will be described.

【0031】まず、図2は階調変換回路1のブロック図
を示すものである。階調変換回路1は、1画素単位でN
値階調画像を走査し、N値階調画像をM値階調画像(N
<M)に変換する。以下、階調変換回路1の構成要素に
ついて説明を行う。第1多値化変換回路11は、第1加
算回路111と第1正規化回路112より構成される。
第1加算回路111は、N値階調画像データ100を入
力し、それぞれ着目画素およびその周辺の画素を設定さ
れた重み係数に応じて加算処理を行なう。第1正規化回
路112は、第1加算回路111より得られる加算結果
の信号SAを、階調数Nと重み係数の和に基づいて、推
定値NAに変換する。
First, FIG. 2 shows a block diagram of the gradation conversion circuit 1. The gradation conversion circuit 1 has N pixels per pixel.
The value gradation image is scanned, and the N value gradation image is converted to the M value gradation image (N
<M). The components of the gradation conversion circuit 1 will be described below. The first multi-value conversion circuit 11 includes a first addition circuit 111 and a first normalization circuit 112.
The first addition circuit 111 receives the N-value gradation image data 100 and performs addition processing on each of the pixel of interest and its peripheral pixels according to the set weighting coefficient. The first normalization circuit 112 converts the addition result signal SA obtained from the first addition circuit 111 into an estimated value NA based on the sum of the gradation number N and the weighting coefficient.

【0032】第2多値化変換回路12は、第2加算回路
121と第2正規化回路122より構成される。第2加
算回路121は、N値階調画像データ100を入力し、
それぞれ着目画素およびその周辺の画素を設定された重
み係数に応じて加算処理を行なう。第2正規化回路12
2は、第2加算回路121より得られる加算結果の信号
SBを、階調数Nと重み係数の和に基づいて、推定値N
Bに変換する。
The second multi-value conversion circuit 12 comprises a second addition circuit 121 and a second normalization circuit 122. The second addition circuit 121 inputs the N-value gradation image data 100,
Addition processing is performed on each of the pixel of interest and the peripheral pixels according to the set weighting coefficient. Second normalization circuit 12
2 is an estimated value N based on the sum of the gradation number N and the weighting coefficient of the signal SB of the addition result obtained from the second addition circuit 121.
Convert to B.

【0033】エッジ抽出回路19は、N値階調画像中の
エッジ成分を検出する。混合回路13は、第1正規化回
路112、第2正規化回路122から得られる推定値N
A、推定値NBを第1重み付け制御回路134からの重
み付け係数Ka、Kbによって混合処理し、混合信号X
を算出する。量子化回路14は、混合信号Xを再量子化
処理し、M値階調画像に変換する。ここで、推定値N
A、推定値NBが0から1の実数値に変換され、0≦混
合信号X≦1になるように混合変換する場合でも、量子
化回路14は、[X・(M−1)+0.5]の演算を行
うことで、必要とする階調数Mに再量子化することがで
きる。量子化回路14をRAMなどの書き換え可能なメ
モリで構成すれば、再量子化によって、表示装置、プリ
ンタ装置で必要な階調数Mにそれぞれ対応できる。ま
た、推定値NA、推定値NBが0から(M−1)の整数
値に変換され、0≦混合信号X≦(M−1)になるよう
に混合変換する場合、量子化回路14は、[X+0.
5]の演算を行い、最大値をM−1として必要とする階
調数Mに再量子化する。
The edge extraction circuit 19 detects an edge component in the N-value gradation image. The mixing circuit 13 uses the estimated value N obtained from the first normalization circuit 112 and the second normalization circuit 122.
A, the estimated value NB is mixed by the weighting coefficients Ka and Kb from the first weighting control circuit 134, and the mixed signal X
To calculate. The quantization circuit 14 requantizes the mixed signal X to convert it into an M-value gradation image. Here, the estimated value N
A. Even when the estimated value NB is converted from a real value of 0 to 1 and mixed conversion is performed so that 0 ≦ mixed signal X ≦ 1, the quantization circuit 14 still has [X · (M−1) +0.5. ], It is possible to requantize to the required number M of gradations. If the quantizing circuit 14 is composed of a rewritable memory such as a RAM, the number of gradations M required in the display device and the printer device can be met by requantization. Further, when the estimated value NA and the estimated value NB are converted from 0 to an integer value of (M−1) and mixed conversion is performed so that 0 ≦ mixed signal X ≦ (M−1), the quantization circuit 14 [X + 0.
5] is performed and the maximum value is set to M−1 and requantized to the required number of gradations M.

【0034】以上のように構成された階調変換回路1に
ついて、以下、図2、図3、図4、図5、図24を用い
てその動作を説明する。本発明の第1の実施例ではN、
Mは特定されるものではないが、例えばN=2、M=2
56として、以下の説明を行なう。図3(a)は第2加
算回路121に用いるフィルタ図、図3(b)は第1加
算回路111に用いるフィルタ図を示すものである。
The operation of the gradation conversion circuit 1 configured as described above will be described below with reference to FIGS. 2, 3, 4, 5, and 24. In the first embodiment of the present invention, N,
M is not specified, but for example N = 2, M = 2
The following description is given as 56. FIG. 3A shows a filter diagram used in the second addition circuit 121, and FIG. 3B shows a filter diagram used in the first addition circuit 111.

【0035】フィルタの開口サイズ、フィルタの重み係
数は特定されるものでないが、本発明の第1の実施例で
は、第1加算回路111には図3(b)に図示する3×
3のサイズと重み係数を有するフィルタ1110を用
い、信号SAを生成する。また、第2加算回路121に
は図3(a)に図示する5×5のサイズと重み係数を有
するフィルタ1210を用い、信号SBを生成する。着
目画素の値をP(i,j)、着目画素の重み係数をW
(i,j)とした場合、信号SA=ΣΣW(i,j)・
P(i,j)の演算を走査開口領域内のすべての画素位
置で行い、演算結果をすべて加算処理する。信号SBも
同様である。よって、信号SA、信号SBは、それぞれ
(数1)、(数2)のように演算される。ここで、・は
乗算を示す演算子である。
Although the aperture size of the filter and the weighting coefficient of the filter are not specified, in the first embodiment of the present invention, the first adder circuit 111 has the 3 × shown in FIG. 3B.
A filter 1110 having a size of 3 and a weighting factor is used to generate the signal SA. Further, the second adder circuit 121 uses the filter 1210 having the size of 5 × 5 and the weighting coefficient shown in FIG. 3A to generate the signal SB. Let P (i, j) be the value of the pixel of interest and W be the weighting factor of the pixel of interest.
When (i, j), the signal SA = ΣΣW (i, j) ·
The calculation of P (i, j) is performed at all pixel positions in the scanning aperture area, and the calculation results are all added. The same applies to the signal SB. Therefore, the signal SA and the signal SB are calculated as in (Equation 1) and (Equation 2), respectively. Here, · is an operator indicating multiplication.

【0036】[0036]

【数1】 [Equation 1]

【0037】[0037]

【数2】 [Equation 2]

【0038】第1加算回路111は、図3(b)に図示
する3×3のサイズと重み係数を有するフィルタ111
0を用い、信号SAを生成する場合、図24に図示する
回路で実現できる。入力したN値画像データ100は、
遅延回路113とラッチ回路117で主走査方向iと副
走査方向jに展開される。3×3領域に展開された9画
素の画像データは乗算器114によってそれぞれ重み係
数レジスタ115からの重み係数が乗算され、乗算結果
は加算回路116ですべて加算され、信号SAを得る。
加算結果は「0」から「16」のM(=17)値画像デ
ータとなる。乗算器114は、重み係数レジスタ115
からの重み係数が2n であれば、ビットシフトの演算に
よっても実現でき、回路を簡易化できる。 第1加算回
路111、第2加算回路121において、入力される画
像データの階調数をn、加算される領域の重み係数の和
をSnとした場合、出力の最大値Mxは(数3)のよう
に演算される。
The first adder circuit 111 has a filter 111 having a size of 3 × 3 and a weighting coefficient shown in FIG. 3B.
When 0 is used to generate the signal SA, it can be realized by the circuit shown in FIG. The input N-value image data 100 is
The delay circuit 113 and the latch circuit 117 develop in the main scanning direction i and the sub scanning direction j. The image data of 9 pixels expanded in the 3 × 3 area is multiplied by the weighting coefficient from the weighting coefficient register 115 by the multiplier 114, and all the multiplication results are added by the adding circuit 116 to obtain the signal SA.
The addition result is M (= 17) value image data of "0" to "16". The multiplier 114 has a weight coefficient register 115.
If the weighting factor from 2 is 2n, it can be realized by a bit shift operation, and the circuit can be simplified. In the first adder circuit 111 and the second adder circuit 121, when the number of gradations of the input image data is n and the sum of weighting coefficients of the added regions is Sn, the maximum output value Mx is (Equation 3). Is calculated as follows.

【0039】[0039]

【数3】 [Equation 3]

【0040】第1加算回路111において、重み係数の
和をSaとし、出力値SAの最大値をMaとすると、M
a=(n−1)×Saとなる。本発明の第1の実施例で
は、n=2であり、第1加算回路111は図3(b)の
フィルタ1110に基づいて加算処理を行うので、各画
素の重み係数からSa=16、Mb=16となる。
In the first adder circuit 111, if the sum of weighting factors is Sa and the maximum value of the output value SA is Ma, then M
It becomes a = (n-1) * Sa. In the first embodiment of the present invention, n = 2, and since the first addition circuit 111 performs addition processing based on the filter 1110 of FIG. 3B, Sa = 16, Mb from the weighting coefficient of each pixel. = 16.

【0041】同様に、第2加算回路121において、重
み係数の和をSbとし、出力値SBの最大値をMbとす
ると、Mb=(n−1)×Sbとなる。本発明の第1の
実施例では、n=2であり、第2加算回路121は図3
(a)のフィルタ1210に基づいて加算処理を行うの
で、各画素の重み係数からSb=25、Mb=25とな
る。
Similarly, in the second adder circuit 121, if the sum of the weighting factors is Sb and the maximum output value SB is Mb, then Mb = (n-1) * Sb. In the first embodiment of the present invention, n = 2, and the second adder circuit 121 is shown in FIG.
Since the addition processing is performed based on the filter 1210 of (a), Sb = 25 and Mb = 25 from the weighting coefficient of each pixel.

【0042】次に、第1正規化回路112、第2正規化
回路122の説明を行なう。 第1正規化回路112、
第2正規化回路122は、入力値をSGxとし、(数
3)から得られるMxを入力値の最大値とすると、(数
4)に基づいて、入力値SGxを出力値SCxに正規化
する。[ ]は小数部を切り捨てる整数化処理である。
Next, the first normalization circuit 112 and the second normalization circuit 122 will be described. The first normalization circuit 112,
The second normalization circuit 122 normalizes the input value SGx to the output value SCx based on (Equation 4), assuming that the input value is SGx and Mx obtained from (Equation 3) is the maximum value of the input values. . [] Is an integerization process that rounds down the fractional part.

【0043】[0043]

【数4】 [Equation 4]

【0044】(数4)は演算回路としても良いし、CP
U、DSPなどによって、SGxからSCxへの対応を
予め(数4)に基づき計算し、計算された値をテーブル
化したルック・アップ・テーブル(以下単にLUTと記
す。)を用いても良い。以上に説明した(数3)、(数
4)により、加算結果である入力値SGxはそれぞれM
値階調画像データに正規化される。具体的には、(数
5)によって第1正規化回路112の入力値SAは推定
値NAに正規化処理され、(数6)によって第2正規化
回路122の入力値SBは推定値NBに正規化処理され
る。ここで、入力値SAの最大値をMaとし、入力値S
Bの最大値をMbとする。また、[]は小数部を切り捨
てる整数化処理である。
Equation (4) may be used as an arithmetic circuit, or CP
It is also possible to use a look-up table (hereinafter simply referred to as LUT) in which the correspondence from SGx to SCx is calculated in advance by U, DSP, etc. based on (Equation 4) and the calculated value is tabulated. By the above-described (Equation 3) and (Equation 4), the input value SGx as the addition result is M
Normalized to the value gradation image data. Specifically, the input value SA of the first normalization circuit 112 is normalized to the estimated value NA by (Equation 5), and the input value SB of the second normalization circuit 122 is changed to the estimated value NB by (Equation 6). Normalized. Here, the maximum value of the input value SA is Ma, and the input value S
The maximum value of B is Mb. In addition, [] is an integerization process that rounds down the fractional part.

【0045】[0045]

【数5】 [Equation 5]

【0046】[0046]

【数6】 [Equation 6]

【0047】本発明の第1の実施例では、例えばMa=
16、Mb=25あり、M=256とすると、それぞれ
入力SAに対する出力NA、入力SBに対する出力NB
が演算され、256階調の画像データとしてそれぞれ混
合回路13に出力される。第1加算回路111、第2加
算回路121において、使用するフィルタの重み係数の
値は、正の数値だけでなく負の数値、零の値としても良
い。さらには整数だけでなく実数でも良い。零が係数の
画素は、入力値に「0」が乗算され、結果は「0」とし
て加算される。加算結果が負の場合は「0」に処理さ
れ、最大値は(数3)に基づく数値に処理される。
In the first embodiment of the present invention, for example, Ma =
16, Mb = 25, and M = 256, output NA for input SA and output NB for input SB, respectively.
Are calculated and output as image data of 256 gradations to the mixing circuit 13. In the first adder circuit 111 and the second adder circuit 121, the value of the weighting coefficient of the filter used may be not only a positive numerical value but also a negative numerical value or zero value. Furthermore, not only an integer but also a real number may be used. For a pixel having a coefficient of zero, the input value is multiplied by "0", and the result is added as "0". If the addition result is negative, it is processed to "0", and the maximum value is processed to a numerical value based on (Equation 3).

【0048】また、重み係数、加算される領域サイズ
(走査開口)は、設計段階で決定される所定の値および
所定のサイズであり、N値階調画像データ、M値階調画
像データから要求される画像品質、即ち要求される空間
フィルタの特性によって考慮されるものである。従っ
て、本発明の第1の実施例では、異なる領域サイズとし
たが、同じサイズとしても良い。重み係数を異ならせる
ことで入力画像データの平滑度合(空間フィルタの平滑
特性)を変えることができる。
The weighting factor and the added area size (scanning aperture) are a predetermined value and a predetermined size determined at the design stage, and are requested from the N-value gradation image data and the M-value gradation image data. Image quality, that is, the spatial filter characteristics required. Therefore, although different area sizes are used in the first embodiment of the present invention, they may have the same size. The degree of smoothness of the input image data (smoothness characteristic of the spatial filter) can be changed by changing the weighting factor.

【0049】次に、混合回路13の説明を図2、図5を
用いて行なう。図5は混合回路13の動作説明図を示す
ものである。重み付け混合係数Ka、Kbは図5に図示
するa、cの重み付け特性を示し、エッジ抽出回路19
からの信号Eoutに基づいて決定される。図2に図示
する推定値NAは乗算器131によって係数Kaとかけ
算され、推定値NBは乗算器132によって係数Kbと
かけ算される。乗算された結果は加算器133によって
加算され混合信号Xを出力する。
Next, the mixing circuit 13 will be described with reference to FIGS. FIG. 5 shows an operation explanatory diagram of the mixing circuit 13. The weighted mixing coefficients Ka and Kb indicate the weighting characteristics of a and c shown in FIG. 5, and the edge extraction circuit 19
Is determined based on the signal Eout from The estimated value NA shown in FIG. 2 is multiplied by the coefficient Ka by the multiplier 131, and the estimated value NB is multiplied by the coefficient Kb by the multiplier 132. The results of the multiplications are added by the adder 133 and the mixed signal X is output.

【0050】推定値NA(信号300)、推定値NB、
エッジ量Eout(信号181)を入力とし、生成され
る混合信号をXとすると、混合回路13により混合信号
Xは(数7)に基づいて生成される。ここで、MAXは
Eout(信号181)が出力する最大値である。
Estimated value NA (signal 300), estimated value NB,
When the edge amount Eout (signal 181) is input and the generated mixed signal is X, the mixing circuit 13 generates the mixed signal X based on (Equation 7). Here, MAX is the maximum value output by Eout (signal 181).

【0051】[0051]

【数7】 [Equation 7]

【0052】(数7)に基づいて混合された混合信号X
は、量子化回路14によって整数化処理され、最終的に
M値階調画像データに変換される。例えば、M=256
とした場合は256階調の画像データXout(信号2
00)が生成される。このように、エッジ量Eout
(信号181)によって、混合回路13は、入力された
複数の信号(推定値NA、推定値NB)に重みづけを行
い、混合処理することで補間画像データを生成する。
Mixed signal X mixed based on (Equation 7)
Is subjected to integer processing by the quantization circuit 14 and finally converted into M-value gradation image data. For example, M = 256
In case of, the image data Xout (signal 2
00) is generated. Thus, the edge amount Eout
The (signal 181) causes the mixing circuit 13 to weight the plurality of input signals (estimated value NA, estimated value NB) and perform a mixing process to generate interpolated image data.

【0053】エッジ量Eoutが大きくなるほど、混合
回路13は、推定値NBより推定値NAの混合比を大き
くする。これは、平滑度を小さくする操作となり、解像
度を保持する方向となる。また逆に、エッジ量Eout
が小きくなるほど、混合回路13は、推定値NAより推
定値NBの混合比を大きくする。これは、平滑度を大き
くする操作となり、入力画像データはより滑らかになる
ように処理される。よって、写真領域などのエッジ変化
の小さい領域は平滑度が向上する。
As the edge amount Eout increases, the mixing circuit 13 increases the mixing ratio of the estimated value NA to the estimated value NB. This is an operation to reduce the smoothness and tends to maintain the resolution. On the contrary, the edge amount Eout
As becomes smaller, the mixing circuit 13 increases the mixing ratio of the estimated value NB over the estimated value NA. This is an operation for increasing the smoothness, and the input image data is processed to be smoother. Therefore, the smoothness is improved in a region such as a photograph region where the edge change is small.

【0054】また、図5に図示するように、係数Ka、
係数Kbとして線形な変化特性を持つa、cを用いる変
わりにb、dのようにMAX/2で2値的な変化特性を
示す係数としても良い。これは選択操作となり、文字な
どの処理に最適である。第1重み付け制御回路134を
RAMまたはROMによるLUTによって構成すれば、
任意な変化特性の係数操作が実現できる。ただし、Ka
+Kb=1となるようにする。
As shown in FIG. 5, the coefficient Ka,
Instead of using a and c having a linear change characteristic as the coefficient Kb, a coefficient showing a binary change characteristic by MAX / 2 like b and d may be used. This is a selection operation, and is optimal for processing characters and the like. If the first weighting control circuit 134 is composed of a LUT of RAM or ROM,
It is possible to realize coefficient manipulation of arbitrary change characteristics. However, Ka
Make sure that + Kb = 1.

【0055】以上に説明したように、混合回路13での
補間処理によって、異なる複数の加算回路(空間フィル
タ)の出力をエッジ量Eoutによって連続的に推移さ
せることができる。結果、入力画像データのエッジ成分
に応じて、局所的に平滑処理の度合を連続変化させ、入
力画像データを所定の多値レベルに変換できる。このエ
ッジ保存を適応的に行う多値化変換処理は、文字・線画
領域の解像度と写真領域の滑らかさを両立させることが
できる。特に文字・写真の混在する領域において、2値
的な切り替え処理を行なわないため誤識別による画像劣
化は非常に小さく抑えられる。
As described above, the output of the plurality of different adder circuits (spatial filters) can be continuously changed by the edge amount Eout by the interpolation processing in the mixing circuit 13. As a result, the degree of smoothing processing can be locally and continuously changed according to the edge component of the input image data, and the input image data can be converted into a predetermined multilevel level. The multi-value conversion processing that adaptively preserves edges can achieve both the resolution of the character / line drawing area and the smoothness of the photographic area. In particular, in a region in which characters and photographs are mixed, since binary switching processing is not performed, image deterioration due to erroneous identification can be suppressed to a very small level.

【0056】本発明の第1の実施例では、2つの入力を
混合処理したが、少なくとも2つ以上の入力で行なえば
良く、同様の効果が得られる。また、加算の領域サイズ
(走査開口)、若しくは、重み係数が異なる加算回路の
種類を多くして混合処理すれば、より連続的な階調画像
データが生成できる。さらには、3つ以上の入力に対し
て、同時(並列)に重み付けの操作を行なうことも容易
にでき、精度の良い補間処理ができる。また、混合回路
13では、線形な重み付けを行なったが、非線形な重み
づけを行なっても良い。
In the first embodiment of the present invention, two inputs are mixed, but at least two or more inputs may be used, and the same effect can be obtained. Further, if the area size of addition (scanning aperture) or the types of addition circuits having different weighting factors are increased and mixed processing is performed, more continuous gradation image data can be generated. Furthermore, it is possible to easily perform simultaneous (parallel) weighting operations on three or more inputs, and it is possible to perform accurate interpolation processing. Further, although the mixing circuit 13 performs linear weighting, it may perform non-linear weighting.

【0057】次に、エッジ抽出回路19について図4、
図8を用いて説明する。図4はエッジ抽出回路19に用
いるフィルタ図、図8は第1の実施例で用いるフィルタ
の空間周波数特性図である。エッジ抽出回路19には、
図4に図示するフィルタ1900、フィルタ1901の
1次微分フィルタを用いる。主走査方向iのエッジ成分
は、フィルタ1901が検出し、副走査方向jのエッジ
成分は、フィルタ1900が検出する。よって、フィル
タ1900の各係数によって得られる加算値の絶対値
と、フィルタ1901の各係数によって得られる加算値
の絶対値を合成することで、N値画像中の主走査方向i
と副走査方向jのエッジ成分を抽出することができる。
図8に図示すように、フィルタ1900、フィルタ19
01はf0にピークを有する空間周波数特性を持つ。よ
って、N値画像中の特定の周波数を中心としたエッジ成
分を抽出する。抽出されたエッジ成分は、最大値MAX
にクリップ処理され、混合回路13にエッジ量Eout
(信号181)として出力される。
Next, regarding the edge extraction circuit 19, FIG.
This will be described with reference to FIG. FIG. 4 is a filter diagram used in the edge extraction circuit 19, and FIG. 8 is a spatial frequency characteristic diagram of the filter used in the first embodiment. The edge extraction circuit 19 has
First-order differential filters of filters 1900 and 1901 shown in FIG. 4 are used. The filter 1901 detects edge components in the main scanning direction i, and the filter 1900 detects edge components in the sub scanning direction j. Therefore, by combining the absolute value of the addition value obtained by each coefficient of the filter 1900 and the absolute value of the addition value obtained by each coefficient of the filter 1901, the main scanning direction i in the N-value image
And the edge component in the sub-scanning direction j can be extracted.
As shown in FIG. 8, a filter 1900 and a filter 19
01 has a spatial frequency characteristic having a peak at f0. Therefore, the edge component centered on a specific frequency in the N-value image is extracted. The extracted edge component has the maximum value MAX.
Clipped to the mixing circuit 13 and the edge amount Eout is input to the mixing circuit 13.
It is output as (signal 181).

【0058】ここで、対象とする画像は、様々な図柄、
写真、文字によって構成されるため、エッジ成分の空間
周波数を特定することは通常困難である。従って、特定
の周波数を中心としたエッジ成分を抽出することで効果
が期待できるのは、画像の特性を把握できる場合、また
は限定される場合であり、輪郭として検出したい所望の
領域のエッジ成分を抽出することができる。
Here, the target image is various designs,
Since it is composed of photographs and characters, it is usually difficult to specify the spatial frequency of the edge component. Therefore, the effect can be expected by extracting the edge component centered on a specific frequency when the characteristics of the image can be grasped or limited, and the edge component of the desired region to be detected as the contour is extracted. Can be extracted.

【0059】しかし、通常、FAX、文書ファイル、ワ
ープロ、複写機などでは、複数ページで異なる任意の対
象画像を扱い、さらには1ページの画像中においても、
図柄、写真、文字が混在している。1ページの各図柄領
域、写真領域、文字領域で期待する輪郭領域のエッジ成
分を抽出するには、異なる空間周波数をもつエッジ検出
器を複数用意し、対応する必要がある。さらには、エッ
ジ成分の空間周波数を特定することは困難である為、適
応的に複数のエッジ検出器を利用する必要がある。
However, in general, in a FAX, a document file, a word processor, a copying machine, etc., an arbitrary target image different in a plurality of pages is handled, and further, even in the image of one page,
Patterns, photographs and letters are mixed. In order to extract the edge component of the expected contour area in each pattern area, photograph area, and character area on one page, it is necessary to prepare a plurality of edge detectors having different spatial frequencies and handle them. Furthermore, since it is difficult to specify the spatial frequency of the edge component, it is necessary to adaptively use a plurality of edge detectors.

【0060】異なる空間周波数をもつエッジ成分に、適
応的に対応するように、エッジ抽出回路19を改良した
実施例について、次に説明する。図6はエッジ抽出回路
19の改良ブロック図である。図6の改良ブロック図で
は、エッジ抽出回路19は、第1エッジ検出回路15、
第2エッジ検出回路16、混合回路17、クリップ回路
18より構成される。
An embodiment in which the edge extraction circuit 19 is improved so as to adaptively correspond to edge components having different spatial frequencies will be described below. FIG. 6 is an improved block diagram of the edge extraction circuit 19. In the improved block diagram of FIG. 6, the edge extraction circuit 19 includes a first edge detection circuit 15,
The second edge detection circuit 16, the mixing circuit 17, and the clipping circuit 18 are included.

【0061】第1エッジ検出回路15、第2エッジ検出
回路16は画像中の着目画素位置でのエッジ成分を検出
する。混合回路17は、第1エッジ検出回路15、第2
エッジ検出回路16から得られるエッジ成分の信号E
a、信号Ebを第2重み付け制御回路174からの重み
付け係数Kc、Kdによって混合処理し、エッジ量Eg
を出力する。第1エッジ検出回路15のエッジ成分Ea
は、乗算回路171によって係数Kcとかけ算され、第
2エッジ検出回路16のエッジ成分Ebは、乗算回路1
72によって係数Kdとかけ算される。乗算された結果
は加算器173によって加算され、エッジ量Egを出力
する。また、混合回路17は演算回路を用いずRAM、
ROMによるLUTとしても良い。
The first edge detection circuit 15 and the second edge detection circuit 16 detect the edge component at the pixel position of interest in the image. The mixing circuit 17 includes a first edge detection circuit 15 and a second edge detection circuit 15.
Edge component signal E obtained from the edge detection circuit 16
a and the signal Eb are mixed by the weighting coefficients Kc and Kd from the second weighting control circuit 174 to obtain the edge amount Eg.
Is output. Edge component Ea of the first edge detection circuit 15
Is multiplied by the coefficient Kc by the multiplication circuit 171, and the edge component Eb of the second edge detection circuit 16 is calculated by the multiplication circuit 1
It is multiplied by 72 with the coefficient Kd. The multiplied results are added by the adder 173, and the edge amount Eg is output. In addition, the mixing circuit 17 does not use an arithmetic circuit, a RAM,
It may be a ROM LUT.

【0062】係数Kc、KdはKc=Ea/(Ea+E
b+Cn)、Kd=1−Kcより演算され、エッジ量E
gはEg=Kc×Ea+Kd×Ebより演算される。定
数Cnは、Ea、Ebに比べ必要とする精度が許容でき
る小さい値であれば良い。例えば、C=0.5とする。
The coefficients Kc and Kd are Kc = Ea / (Ea + E
b + Cn), Kd = 1-Kc, and the edge amount E
g is calculated by Eg = Kc × Ea + Kd × Eb. The constant Cn may be a small value that allows the required accuracy as compared with Ea and Eb. For example, C = 0.5.

【0063】クリップ回路18は、混合回路17より入
力したエッジ量Egを量子化処理し、最大値をMAXに
クリップ処理し、クリップ処理したエッジ量Eoutを
混合回路13に出力する。図7(a)は第1エッジ検出
回路15に用いるフィルタ図、図7(b)は第2エッジ
検出回路16に用いるフィルタ図、図23は2次微分フ
ィルタ1500の回路ブロック図である。
The clipping circuit 18 quantizes the edge amount Eg input from the mixing circuit 17, clips the maximum value to MAX, and outputs the clipped edge amount Eout to the mixing circuit 13. 7A is a filter diagram used for the first edge detection circuit 15, FIG. 7B is a filter diagram used for the second edge detection circuit 16, and FIG. 23 is a circuit block diagram of the secondary differential filter 1500.

【0064】エッジ成分Eaは、図7(a)に図示する
2次微分フィルタ1500を用いて生成され、図示した
重み係数で加算された結果の絶対値をエッジ量Eaとす
る。また、エッジ成分Ebは、図7(b)に図示する1
次微分フィルタ1601、1602を用いて生成され、
図示した各フィルタの重み係数で加算されたそれぞれの
結果の絶対値を加算してエッジ量Ebとする。
The edge component Ea is generated by using the secondary differential filter 1500 shown in FIG. 7A, and the absolute value of the result of addition with the weighting factor shown is the edge amount Ea. In addition, the edge component Eb is 1 shown in FIG.
Generated using the second derivative filters 1601, 1602,
The absolute values of the respective results added by the weighting factors of the illustrated filters are added to obtain the edge amount Eb.

【0065】図23は、2次微分フィルタ1500の回
路ブロック図である。遅延回路150は、N値画像デー
タ100をラインメモリで副走査方向jに遅延させる。
副走査方向jに遅延したデータはラッチによって主走査
方向iに遅延され、用いるフィルタの係数によって、そ
れぞれ加算回路152、加算回路153、加算回路15
9、加算回路160で加算される。乗算器154は加算
回路153の出力を4倍にし、乗算器157は加算回路
159の出力を−1倍にする。加算器155は乗算器1
57と乗算器154の出力を加算することで、エッジ成
分を出力する。絶対値回路156は加算器155の絶対
値を算出することで、着目画素のエッジ成分Eaを出力
する。図23は2次微分フィルタを実現する回路であ
り、主走査方向iの遅延用ラッチと副走査方向jの遅延
用ラインメモリを増減させることで、用いられる2次微
分フィルタの係数に合わせることができる。
FIG. 23 is a circuit block diagram of the second derivative filter 1500. The delay circuit 150 delays the N-valued image data 100 in the sub-scanning direction j in the line memory.
The data delayed in the sub-scanning direction j is delayed in the main scanning direction i by the latch, and the adder circuit 152, the adder circuit 153, and the adder circuit 15 are respectively depending on the coefficients of the filters used.
9, the addition circuit 160 adds. The multiplier 154 multiplies the output of the adder circuit 153 by four, and the multiplier 157 multiplies the output of the adder circuit 159 by -1. The adder 155 is the multiplier 1
The edge component is output by adding 57 and the output of the multiplier 154. The absolute value circuit 156 outputs the edge component Ea of the pixel of interest by calculating the absolute value of the adder 155. FIG. 23 shows a circuit for realizing a secondary differential filter, which can be adjusted to the coefficient of the secondary differential filter used by increasing or decreasing the delay latch in the main scanning direction i and the delay line memory in the sub scanning direction j. it can.

【0066】エッジ成分Ea、エッジ成分Ebの空間周
波数特性は、図8に図示するように、異なるf1、f2
にピークを有する空間周波数特性を示し、ピーク周波数
は、f1>f2の関係になる。また、図4に図示したフ
ィルタ1900、フィルタ1901のピーク周波数に対
してf1>f0>f2の関係になる。この異なるエッジ
成分Ea、エッジ成分Ebの出力に対して、混合回路1
7は、エッジ成分の出力が大きくなる方の成分比を適応
的に大きくするように制御する。これによって、f0の
特定周波数を中心に検出するのに比べ、広い周波数範囲
のエッジ成分を抽出することができ、写真の輪郭、文字
の輪郭、図形の輪郭など条件の異なる輪郭領域のエッジ
成分を適応的に検出することができる。図7(a)で
は、エッジ成分Eaの生成に2次微分フィルタ、図7
(b)では、エッジ成分Ebの生成に1次微分フィルタ
を用いたが、設定された空間周波数を検出する検出器で
あれば良い。また、3つ以上のエッジ検出器の出力を混
合処理しても同様の効果が得られる。
The spatial frequency characteristics of the edge component Ea and the edge component Eb are different f1 and f2 as shown in FIG.
The spatial frequency characteristic has a peak at, and the peak frequencies have a relationship of f1> f2. Further, the relationship of f1>f0> f2 is established for the peak frequencies of the filters 1900 and 1901 shown in FIG. The mixing circuit 1 receives the outputs of the different edge components Ea and Eb.
7 controls to adaptively increase the component ratio of the output of the edge component which becomes larger. As a result, edge components in a wider frequency range can be extracted as compared with the case of detecting mainly at a specific frequency of f0, and edge components of contour regions with different conditions such as photo contours, character contours, and graphic contours can be extracted. It can be detected adaptively. In FIG. 7A, a second-order differential filter is used to generate the edge component Ea.
In (b), the first-order differential filter is used to generate the edge component Eb, but any detector that detects the set spatial frequency may be used. Also, the same effect can be obtained by mixing the outputs of three or more edge detectors.

【0067】このように、特性の異なるエッジ成分を混
合処理することで2値的な処理の切り替えをなくし、か
つ空間周波数的に画像中の広範囲なエッジ成分を適応的
に抽出することができる。このエッジ量Eoutを混合
回路13に用いれば、局所的な画像エッジの特性に適応
して走査開口の混合処理を行なうことができ、エッジ成
分を含めた完全な混合処理が実行できる。即ち、文字、
図形、写真など異なる特性を有する画像が混在しても、
推定処理では、2値的な切り替え処理を完全になくし、
かつ、自動的に局所的な画像エッジの特性に適応するこ
とができる。よって、それぞれの領域に最適なエッジ成
分の抽出と、エッジ成分に応じた推定処理が実行できる
ので、画像の局所的な誤識別の影響を小さく抑え、画像
劣化を非常に小さく抑えることができる。さらには、扱
う画像を特定する操作が不要となる。画像を特定する操
作は処理時間が必要なので、図6に図示するエッジ抽出
回路19を用いることで、処理の高速化を図ることがで
きる。また、FAX等の受信画像のように画像を特定で
きない画像でも最適な処理を実行できる。
By thus mixing the edge components having different characteristics, it is possible to eliminate the switching of binary processing and to adaptively extract a wide range of edge components in the image in terms of spatial frequency. If this edge amount Eout is used in the mixing circuit 13, the scanning aperture mixing process can be performed in accordance with the local image edge characteristic, and the complete mixing process including the edge component can be performed. That is, the letters,
Even if images with different characteristics such as figures and photos are mixed,
The estimation process completely eliminates the binary switching process,
In addition, it is possible to automatically adapt to the characteristics of the local image edge. Therefore, the optimum edge component extraction for each area and the estimation processing according to the edge component can be executed, so that the influence of local misidentification of the image can be suppressed to a small extent and the image deterioration can be suppressed to a very small extent. Furthermore, the operation of specifying the image to be handled becomes unnecessary. Since the operation for specifying the image requires a processing time, the speed of the processing can be increased by using the edge extraction circuit 19 shown in FIG. Further, the optimum processing can be executed even for an image whose image cannot be specified, such as a received image such as a fax.

【0068】次に、領域識別装置Aの識別回路4につい
て、その動作を図8、図9、図10、図11、図12を
用いて説明する。図9は識別回路4のブロック図、図1
0(a)はエッジ検出フィルタ41、エッジ検出フィル
タ42の検出位置の配置図、図10(b)はエッジ検出
フィルタ41のフィルタ図、図10(c)はエッジ検出
フィルタ42のフィルタ図を示すものである。本発明の
第1の実施例においてN、Mは特定されるものではない
が、例えばN=2、M=256として以下の説明を行な
う。
Next, the operation of the discriminating circuit 4 of the area discriminating apparatus A will be described with reference to FIGS. 8, 9, 10, 11 and 12. FIG. 9 is a block diagram of the identification circuit 4, FIG.
0 (a) is a layout diagram of the detection positions of the edge detection filter 41 and the edge detection filter 42, FIG. 10 (b) is a filter diagram of the edge detection filter 41, and FIG. 10 (c) is a filter diagram of the edge detection filter 42. It is a thing. Although N and M are not specified in the first embodiment of the present invention, the following description will be made assuming that N = 2 and M = 256, for example.

【0069】図9において、エッジ検出フィルタ41は
第1検出器A(41a)〜第9検出器A(41i)の9
個の検出器と検出器(41a〜41i)の出力を加算す
る加算器410より構成され、加算信号ESAを生成す
る。図10(a)に図示するように、9個の検出器(4
1a〜41i)は、階調変換回路1が処理する着目画素
位置を位置Eとすると、位置Eを含む周辺位置A〜Iを
それぞれの検出位置としてエッジ量を検出する。検出器
(41a〜41i)には同じフィルタを使用する。例え
ば、エッジ成分の抽出には、図10(b)に図示する1
次微分フィルタ4100、4101を用い、図示した各
フィルタの重み係数で加算されたそれぞれの結果の絶対
値を加算してエッジ量とする。
In FIG. 9, the edge detection filter 41 is composed of the first detector A (41a) to the ninth detector A (41i).
Each of the detectors and an adder 410 that adds the outputs of the detectors (41a to 41i), and generates an addition signal ESA. As shown in FIG. 10A, nine detectors (4
1a to 41i), when the target pixel position processed by the gradation conversion circuit 1 is the position E, the peripheral amounts A to I including the position E are detected as the respective detection positions, and the edge amount is detected. The same filters are used for the detectors (41a-41i). For example, to extract the edge component, 1 shown in FIG.
Using the secondary differential filters 4100 and 4101, the absolute values of the respective results added by the weighting factors of the illustrated filters are added to obtain the edge amount.

【0070】図22は、エッジ検出フィルタ41の第n
検出器A(41a〜41i)の1つを実現する回路ブロ
ック図である。ここで、nは1〜9である。遅延回路4
18は、N値画像データ100をラインメモリで副走査
方向jに遅延させる。副走査方向jに遅延したデータは
ラッチによって主走査方向iに遅延され、用いるフィル
タの係数によって、それぞれ加算回路412a〜412
dで加算される。加算器413は副走査方向jの差分値
を演算し、絶対値回路415は加算器413の絶対値を
算出することで副走査方向jのエッジ成分(フィルタ4
100のエッジ成分)を出力する。また、加算器414
は主走査方向iの差分値を演算し、絶対値回路416は
加算器414の絶対値を算出することで主走査方向iの
エッジ成分(フィルタ4101のエッジ成分)を出力す
る。加算器417は主走査方向iのエッジ成分と副走査
方向jのエッジ成分を加算することで、着目画素のエッ
ジ成分を出力する。図22は1次微分フィルタを実現す
る回路であり、主走査方向iの遅延用ラッチと副走査方
向jの遅延用ラインメモリを増減させることで、用いら
れる1次微分フィルタの係数に合わせることができる。
FIG. 22 shows the nth edge detection filter 41.
It is a circuit block diagram which realizes one of the detectors A (41a-41i). Here, n is 1-9. Delay circuit 4
A line memory 18 delays the N-value image data 100 in the sub-scanning direction j. The data delayed in the sub-scanning direction j is delayed in the main scanning direction i by the latch, and the adder circuits 412a to 412 are respectively depending on the coefficients of the filter used.
It is added at d. The adder 413 calculates the difference value in the sub-scanning direction j, and the absolute value circuit 415 calculates the absolute value in the adder 413 to determine the edge component (filter 4) in the sub-scanning direction j.
100 edge components) are output. In addition, the adder 414
Calculates the difference value in the main scanning direction i, and the absolute value circuit 416 calculates the absolute value of the adder 414 to output the edge component in the main scanning direction i (edge component of the filter 4101). The adder 417 outputs the edge component of the pixel of interest by adding the edge component in the main scanning direction i and the edge component in the sub scanning direction j. FIG. 22 shows a circuit for realizing a first-order differential filter. By increasing or decreasing the delay latch in the main scanning direction i and the delay line memory in the sub-scanning direction j, it is possible to match the coefficient of the first-order differential filter used. it can.

【0071】同様に、エッジ検出フィルタ42は第1検
出器B(42a)〜第9検出器B(42i)の9個の検
出器と検出器(42a〜42i)の出力を加算する加算
器420より構成され、加算信号ESBを生成する。図
10(a)に図示するように、9個の検出器(42a〜
42i)は階調変換回路1が処理する着目画素位置を位
置Eとすると、位置Eを含む周辺位置A〜Iをそれぞれ
の検出位置としてエッジ量を検出する。検出器42a〜
42iには同じフィルタを使用する。例えば、エッジ成
分抽出には図10(c)に図示する1次微分フィルタ4
200、4201を用い、図示した各フィルタの重み係
数で加算されたそれぞれの結果の絶対値を加算してエッ
ジ量とする。
Similarly, the edge detection filter 42 adds nine detectors of the first detector B (42a) to the ninth detector B (42i) and the adder 420 for adding the outputs of the detectors (42a to 42i). And is configured to generate an addition signal ESB. As shown in FIG. 10A, nine detectors (42a-
42i), when the target pixel position processed by the gradation conversion circuit 1 is the position E, the edge amount is detected with the peripheral positions A to I including the position E as respective detection positions. Detector 42a-
The same filter is used for 42i. For example, for the edge component extraction, the first-order differential filter 4 shown in FIG.
200 and 4201, the absolute values of the respective results added by the weighting factors of the illustrated filters are added to obtain the edge amount.

【0072】図8に図示するように、エッジ検出特性
は、異なるピークを有する空間周波数特性を示す。フィ
ルタ4100、フィルタ4101のピーク周波数をFS
aとし、フィルタ4200、フィルタ4201のピーク
周波数をFSbとすると、FSa>FSbの関係とな
る。よって、文字・図形などの周波数の高いパターンの
輪郭検出にはエッジ検出フィルタ41が適し、テクスチ
ャ、網点周波数に影響されず写真などの低い周波数の輪
郭検出にはエッジ検出フィルタ42が適する。また、複
数の検出器の加算値をエッジ量とすることにより複数の
検出器の検出値が大きく、かつ、相関が高いときに大き
な出力となる。よって、2値化処理によって起こるデー
タの拡散、または独特のテクスチャによる影響を受けず
にエッジ検出ができる。
As shown in FIG. 8, the edge detection characteristic shows a spatial frequency characteristic having different peaks. The peak frequencies of the filters 4100 and 4101 are set to FS.
If a and the peak frequencies of the filters 4200 and 4201 are FSb, the relationship of FSa> FSb is established. Therefore, the edge detection filter 41 is suitable for detecting the contour of a pattern having a high frequency such as characters and figures, and the edge detection filter 42 is suitable for detecting the contour of a low frequency such as a photograph which is not affected by the texture and halftone dot frequencies. Further, by using the added value of the plurality of detectors as the edge amount, a large output is obtained when the detected values of the plurality of detectors are large and the correlation is high. Therefore, edge detection can be performed without being affected by the diffusion of data caused by the binarization process or the unique texture.

【0073】図9において、第1比較回路43は、信号
ESAと比較レベルCPA(信号64)を比較し、ES
A>CPAのとき「H」を出力し、ESA≦CPAのと
き「L」を出力する。同様に、第2比較回路44は、信
号ESBと比較レベルCPB(信号65)を比較し、E
SB>CPBのとき「H」を出力し、ESB≦CPBの
とき「L」を出力する。ここで、「H」は輪郭領域と判
定し、「L」は非輪郭領域と判定した判定レベルとす
る。
In FIG. 9, the first comparison circuit 43 compares the signal ESA with the comparison level CPA (signal 64), and outputs ES.
When A> CPA, “H” is output, and when ESA ≦ CPA, “L” is output. Similarly, the second comparison circuit 44 compares the signal ESB with the comparison level CPB (signal 65), and outputs E
When SB> CPB, “H” is output, and when ESB ≦ CPB, “L” is output. Here, "H" is determined to be a contour area, and "L" is a determination level determined to be a non-contour area.

【0074】AND回路45は、制御信号62(信号C
ONT2)が「H」のとき、第1比較回路43の出力を
有効にし、「L」のときは無効で、かつ出力を常に
「L」とする。同様に、AND回路46は制御信号63
(信号CONT3)が「H」のとき、第2比較回路44
の出力を有効にし、「L」のときは無効で、かつ出力を
常に「L」とする。
The AND circuit 45 receives the control signal 62 (signal C
When ONT2) is "H", the output of the first comparison circuit 43 is valid, when it is "L", it is invalid and the output is always "L". Similarly, the AND circuit 46 controls the control signal 63.
When the (signal CONT3) is “H”, the second comparison circuit 44
Output is valid, invalid when "L", and output is always "L".

【0075】OR回路47はAND回路45、AND回
路46の出力のいずれかが「H」のときに「H」の識別
信号400を出力し、どちらも「L」のとき「L」を出
力する。ここで、「H」は輪郭領域と判定し、「L」は
非輪郭領域と判定したレベルとする。このように、第1
比較回路43、第2比較回路44は、比較レベルCP
A、CPBをパラメータにして、複数位置で検出された
エッジ信号を加算した信号ESA、信号ESBの検出信
号を判定する。図8に図示するように、比較レベルCP
Aによって識別aの領域が検出され、比較レベルCPB
によって識別bの領域が検出される。よって、比較レベ
ルCPA、CPBのパラメータで識別する周波数領域を
制御することができる。
The OR circuit 47 outputs the identification signal 400 of "H" when either of the outputs of the AND circuit 45 and the AND circuit 46 is "H", and outputs "L" when both are "L". . Here, "H" is determined to be a contour area, and "L" is a level determined to be a non-contour area. Thus, the first
The comparison circuit 43 and the second comparison circuit 44 have a comparison level CP.
The detection signals of the signals ESA and ESB obtained by adding the edge signals detected at a plurality of positions are determined using A and CPB as parameters. As shown in FIG. 8, the comparison level CP
The area of the identification a is detected by A, and the comparison level CPB
The area of identification b is detected by. Therefore, it is possible to control the frequency region identified by the parameters of the comparison levels CPA and CPB.

【0076】また、制御信号62は第1比較回路43の
判定結果の有効、無効を制御し、制御信号63は第2比
較回路44の判定結果の有効、無効を制御する。結果、
写真画像の輪郭、文字画像の輪郭、図形画像の輪郭、網
点画像の輪郭、文字・写真混在画像の輪郭など最適条件
の異なる対象画像の輪郭領域検出に対応でき、さらに検
出特性の制御ができる。
The control signal 62 controls validity / invalidity of the determination result of the first comparison circuit 43, and the control signal 63 controls validity / invalidity of the determination result of the second comparison circuit 44. result,
It is possible to detect the contour area of the target image with different optimal conditions such as the contour of the photographic image, the contour of the character image, the contour of the graphic image, the contour of the halftone image, the contour of the mixed character / photo image, and control the detection characteristics. .

【0077】また、図9に図示する識別回路4は、図1
1に図示するように、9個の検出器(41a〜41i)
の出力と、レジスタ411の値とを9個の比較器(41
j〜41r)でそれぞれ比較し、レジスタ411の値以
上を加算器410で加算するように改良しても良い。同
様に、9個の検出器(42a〜42i)の出力と、レジ
スタ421の値とを9個の比較器(42j〜42r)で
それぞれ比較し、レジスタ421の値以上を加算器42
0で加算するように改良しても良い。
Further, the identification circuit 4 shown in FIG.
As shown in FIG. 1, nine detectors (41a to 41i)
Output and the value of the register 411 are compared by nine comparators (41
j to 41r) and the values in the register 411 or more may be added by the adder 410. Similarly, the outputs of the nine detectors (42a to 42i) and the value of the register 421 are compared with each other by the nine comparators (42j to 42r), and the values of the register 421 and above are added by the adder 42.
You may improve so that it may add by 0.

【0078】この改良によって改善される効果につい
て、以下、図12(a)、図12(b)、図12
(c)、図12(d)を用いて説明する。図12(a)
は、2値化データ100のパターン図を図示したもので
ある。領域2000は文字・図形領域を示し、領域20
00の内部の領域2200は、2値化処理によってデー
タが拡散し、文字・図形のイメージデータが移動した例
である。このデータの移動は、コンピュータの描画によ
る電子データでは発生しない。しかし、スキャナーなど
の入力によって原稿が読み込まれる場合、原稿濃度が薄
い、または、かすれた状態では多く発生する。また、非
輪郭領域での領域2100は、K値画像データの濃淡値
が小さいときに、2値化処理によって多く発生する孤立
点である。これは、K値画像データの濃淡値が一定のデ
ータとすると、誤差拡散法、ディザ法などのディジタル
ハーフトーン技術では、ある広い領域で濃淡値を平均的
に保存するように2値化処理するからである。
The effect improved by this improvement will be described below with reference to FIG. 12 (a), FIG. 12 (b), and FIG.
This will be described with reference to (c) and FIG. 12 (d). Figure 12 (a)
3 is a pattern diagram of the binarized data 100. Area 2000 indicates a character / graphic area, and area 20
An area 2200 inside 00 is an example in which the data is diffused by the binarization process and the image data of the character / graphic is moved. This data movement does not occur with electronic data drawn by a computer. However, when an original is read by an input from a scanner or the like, it often occurs when the original density is low or when the original is faint. Further, the area 2100 in the non-contour area is an isolated point that often occurs due to the binarization processing when the gray value of the K-value image data is small. This is because, assuming that the K-value image data has a constant gray value, in digital halftone techniques such as the error diffusion method and the dither method, the binarization processing is performed so that the gray values are uniformly stored in a certain wide area. Because.

【0079】図12(b)は、エッジ検出フィルタ41
のうち、着目画素位置Eを検出する第5検出器A(41
e)を1つ用て、画像のエッジを検出したときの出力図
を図示したものである。第5検出器A(41e)は、フ
ィルタ4100、フィルタ4101を用い、主走査方向
と副走査方向の画像のエッジを検出し、それぞれの出力
を合成することで着目画素位置Eでのエッジを検出す
る。実施回路は図22と同じである。このエッジ検出の
出力データを用いて、領域を識別する。誤差拡散法、デ
ィザ法などのディジタルハーフトーン技術では、2値値
化する前のデータが一定値でも、2値化処理によってデ
ータが拡散するため、エッジ出力Egは「0」にならな
い。よって、非輪郭領域での孤立点領域200の影響
(誤識別)を考慮し、識別する判定レベルを「3」以上
とすると、図12(b)の点線で囲まれた領域3000
を輪郭領域として検出できる。図12(b)に図示する
うに、孤立点領域2100の誤検出はないものの、文字
・図形領域2000は検出されず、外側の領域を検出し
ている。さらに、検出領域3000は、図12(a)に
図示した、2値化処理によってデータが移動した領域2
200の影響を受け、領域3000が孤立した状態で識
別している。判定レベルを「2」以上とすると、識別領
域は広がるが、領域3000が孤立した状態は解決され
ない。また、孤立点領域2100の周辺で、誤検出領域
がさらに多くなる。
FIG. 12B shows the edge detection filter 41.
Of these, the fifth detector A (41
FIG. 6 is a diagram illustrating an output diagram when an edge of an image is detected by using one e). The fifth detector A (41e) detects the edge of the image in the main scanning direction and the sub-scanning direction by using the filter 4100 and the filter 4101, and detects the edge at the target pixel position E by combining the respective outputs. To do. The implementation circuit is the same as in FIG. The area is identified using the output data of this edge detection. In the digital halftone technique such as the error diffusion method and the dither method, even if the data before binarization is a constant value, the data is diffused by the binarization process, so the edge output Eg does not become "0". Therefore, considering the influence (misidentification) of the isolated point area 200 in the non-contour area and setting the identification level to be “3” or more, the area 3000 surrounded by the dotted line in FIG. 12B.
Can be detected as a contour area. As shown in FIG. 12B, although the isolated point area 2100 is not erroneously detected, the character / graphic area 2000 is not detected and the outer area is detected. Further, the detection area 3000 is the area 2 where the data is moved by the binarization processing shown in FIG.
Under the influence of 200, the region 3000 is identified in an isolated state. When the determination level is “2” or higher, the identification area is expanded, but the isolated state of the area 3000 cannot be solved. Further, there are more false detection areas around the isolated point area 2100.

【0080】図12(c)は、エッジ検出フィルタ41
のエッジ出力ESAの出力図を図示したものである。エ
ッジ検出フィルタ41は第1検出器A(41a)〜第9
検出器A(41i)の9個の検出器と検出器(41a〜
41i)の出力を加算する加算器410より構成され、
加算信号ESAを生成するので、各検出器(41a〜4
1i)の相関が大きいと、より大きなエッジ成分を出力
し、相関が小さいと、エッジ成分の出力は大きくならな
い。よって、非輪郭領域では、孤立点の影響を抑え、輪
郭領域ではデータの拡散による影響を受けずに領域を識
別できるようになる。ここで、図9に図示する第1比較
回路43の判定レベルCPAの値を「8」に設定する
と、図12(c)の点線で囲まれた領域3000を輪郭
領域として検出できる。孤立点領域100の誤検出はあ
るものの、文字・図形領域2000の周辺を含めて広い
領域を1つの連結した状態で検出している。また、検出
領域3000は、図12(a)に図示した、2値化処理
によってデータが移動した領域2200の影響を全く受
けていない。ここで、判定レベルCPAの値を「15」
に設定することで、文字・図形領域2000のみ抽出し
て識別することもできる。このように、判定レベルCP
Aの値の設定を異ならせることで、抽出する領域を異な
らせ、識別領域を変化させることができる。
FIG. 12C shows the edge detection filter 41.
FIG. 6 is a diagram showing an output diagram of the edge output ESA of FIG. The edge detection filter 41 includes the first detector A (41a) to the ninth detector.
Nine detectors of detector A (41i) and detectors (41a-
41i) is configured by an adder 410 for adding the outputs,
Since the addition signal ESA is generated, each detector (41a to 4a-4
When the correlation of 1i) is large, a larger edge component is output, and when the correlation is small, the output of the edge component does not increase. Therefore, in the non-contour region, the influence of isolated points can be suppressed, and in the contour region, the region can be identified without being affected by the diffusion of data. Here, if the value of the determination level CPA of the first comparison circuit 43 shown in FIG. 9 is set to “8”, the area 3000 surrounded by the dotted line in FIG. 12C can be detected as the contour area. Although the isolated point area 100 is erroneously detected, a wide area including the periphery of the character / graphic area 2000 is detected as one connected state. In addition, the detection area 3000 is not affected by the area 2200 in which the data is moved by the binarization processing illustrated in FIG. Here, the value of the judgment level CPA is "15".
By setting to, it is possible to extract and identify only the character / graphic area 2000. In this way, the decision level CP
By changing the setting of the value of A, it is possible to change the extraction area and change the identification area.

【0081】図12(d)は、図11に図示する改良し
たエッジ検出フィルタ41のエッジ出力ESAの出力図
を図示したものである。この改良によって、エッジ成分
が所定レベル以上を加算対象とするので、孤立点の影響
を排除でき、図12(c)の孤立点の誤検出を改善す
る。ここで、比較値(REG1)を「1」とし、図11
に図示する9個のエッジ検出器(41a〜41i)のエ
ッジ出力Egを、それぞれ各比較器(41j〜41r)
で比較し、Eg>1の時に加算器410でエッジ出力E
gを加算する。さらに、図9に図示する第1比較回路4
3の判定レベルCPAの値を「8」に設定すると、図1
2(d)の点線で囲まれた領域3000を輪郭領域とし
て検出できる。孤立点領域2100の誤検出もなく、文
字・図形領域2000の周辺を含めて広い領域を1つの
連結した状態で検出している。また、検出領域3000
は、図12(a)に図示した、2値化処理によってデー
タが移動した領域2200の影響を全く受けていない。
よって、図12(c)と比べると、エッジ検出フィルタ
41の検出精度が向上していることが分かる。同様の処
理により、エッジ検出フィルタ42の検出精度も向上で
きる。ここで、判定レベルCPAの値を「12」に設定
することで、文字・図形領域2000のみ抽出して識別
することもできる。このように、判定レベルCPAの値
の設定を異ならせることで、抽出する領域を異ならせ、
識別領域を変化させることができる。
FIG. 12D shows an output diagram of the edge output ESA of the improved edge detection filter 41 shown in FIG. By this improvement, since the edge component is targeted for addition at a predetermined level or higher, the influence of the isolated point can be eliminated, and the false detection of the isolated point in FIG. 12C is improved. Here, the comparison value (REG1) is set to "1", and
The edge outputs Eg of the nine edge detectors (41a to 41i) shown in FIG.
, And when Eg> 1, the adder 410 outputs the edge output E
Add g. Furthermore, the first comparison circuit 4 shown in FIG.
When the value of the judgment level CPA of 3 is set to "8",
A region 3000 surrounded by a dotted line 2 (d) can be detected as a contour region. There is no erroneous detection of the isolated point area 2100, and a wide area including the periphery of the character / graphic area 2000 is detected as one connected state. In addition, the detection area 3000
Is not affected by the area 2200 where the data is moved by the binarization processing shown in FIG.
Therefore, as compared with FIG. 12C, it can be seen that the detection accuracy of the edge detection filter 41 is improved. The same processing can also improve the detection accuracy of the edge detection filter 42. Here, by setting the value of the determination level CPA to "12", only the character / graphic area 2000 can be extracted and identified. In this way, by changing the setting of the value of the determination level CPA, the area to be extracted is changed,
The identification area can be changed.

【0082】以上のことから、着目画素位置を含む周辺
位置から複数のエッジ検出フィルタで検出されるエッジ
量を加算し、所定レベルと比較することで、輪郭領域で
ある文字・図形領域を精度良く検出できる。さらに、エ
ッジ検出フィルタで検出されるエッジ量を、所定値と比
較判定して、所定以上の値を加算する処理を追加するこ
とで、2値化処理で生じるデータ拡散の影響を排除で
き、さらには、2値化画像中のテクスチャによる誤検出
を排除できる。結果、非輪郭領域での誤検出量を小さく
し、かつ輪郭領域のエッジ量を加算処理できるので、エ
ッジ検出精度をより向上できる。
From the above, by adding the edge amounts detected by a plurality of edge detection filters from the peripheral positions including the pixel position of interest and comparing them with a predetermined level, the character / graphic area, which is the contour area, can be accurately measured. Can be detected. Furthermore, by adding a process of comparing the edge amount detected by the edge detection filter with a predetermined value and adding a value equal to or more than a predetermined value, the influence of data diffusion caused by the binarization process can be eliminated, and Can eliminate erroneous detection due to texture in the binarized image. As a result, the amount of erroneous detection in the non-contour region can be reduced and the edge amount of the contour region can be added, so that the edge detection accuracy can be further improved.

【0083】また、図9、図11に図示する識別回路4
は、N値階調画像中の輪郭領域と非輪郭領域を識別する
ので、それぞれの識別領域で異なる階調変換処理(N値
画像をM値画像[N<M]に変換する処理)を用いるこ
とができる。よって、それぞれの輪郭領域と非輪郭領域
に最適な階調変換処理を用いることで、N値階調画像全
体に対して、解像度と均一性の両立ができる階調変換処
理が実現できる。
The identification circuit 4 shown in FIGS.
Identifies a contour area and a non-contour area in an N-value gradation image, and therefore uses different gradation conversion processing (processing for converting an N-value image into an M-value image [N <M]) in each identification area. be able to. Therefore, by using the optimum gradation conversion processing for each of the contour area and the non-contour area, it is possible to realize the gradation conversion processing that is compatible with the resolution and the uniformity for the entire N-value gradation image.

【0084】また、輪郭領域の近傍では、階調変換処理
のn×mの走査開口が、輪郭領域の文字・図形領域20
00と非輪郭領域を含めた2値化データから中間状態の
推定値NAを出力する。この中間領域は、画質上、解像
度が優先する領域なので、輪郭領域として識別する必要
がある。n×mの走査開口が文字・図形領域2000を
含む位置を輪郭領域と判定するには、文字・図形領域2
000の周辺を含めて広い領域を1つの連結した状態で
検出する必要があり、この理由から、図9に図示する識
別回路4は、文字・図形領域2000の周辺を含めて広
い領域を1つの連結した状態で検出するので、階調変換
処理と非常に相性が良い。
In the vicinity of the contour area, the n × m scanning aperture of the gradation conversion process is the character / graphic area 20 of the contour area.
00 and the estimated value NA of the intermediate state from the binarized data including the non-contour area. Since this intermediate region is a region where resolution is prioritized in terms of image quality, it is necessary to identify it as a contour region. To determine the position where the n × m scanning aperture includes the character / graphic area 2000 as the contour area, the character / graphic area 2
It is necessary to detect a wide area including the periphery of 000 in a single connected state. For this reason, the identification circuit 4 illustrated in FIG. Since it is detected in the connected state, it is very compatible with the gradation conversion processing.

【0085】次に、データ変換回路7について図13、
図14、図15を用いて説明する。図13はデータ変換
回路7のブロック図、図14(a)はデータ変換回路7
の係数設定を説明するためのフィルタ図、図14(b)
はデータ変換曲線図、図15はデータ変換回路7の動作
説明図を示すものである。ここでは、N=2、M=17
とし、さらに図2に図示する第1正規化回路112の正
規化係数を1(SA=NA)として説明する。
Next, regarding the data conversion circuit 7, FIG.
This will be described with reference to FIGS. 14 and 15. 13 is a block diagram of the data conversion circuit 7, and FIG. 14A is a data conversion circuit 7.
FIG. 14B is a filter diagram for explaining coefficient setting of FIG.
Is a data conversion curve diagram, and FIG. 15 is an operation explanatory diagram of the data conversion circuit 7. Here, N = 2, M = 17
Further, the normalization coefficient of the first normalization circuit 112 shown in FIG. 2 will be described as 1 (SA = NA).

【0086】図13において、入力される推定値NA
(信号300)は、図2に図示される第1多値化変換回
路11によって生成される信号である。第1多値化変換
回路11の第1加算回路111には図3(b)に図示す
るフィルタ1110を用いる。データ変換回路7の係数
設定回路71は、係数設定レジスタ72にデータ変換係
数を設定する。データ変換係数は、第1多値化変換回路
11の第1加算回路111で用いるフィルタ1110の
重み係数に基づいて算出される。算出方法については後
述する。
In FIG. 13, the input estimated value NA
(Signal 300) is a signal generated by the first multi-value conversion circuit 11 shown in FIG. The filter 1110 illustrated in FIG. 3B is used for the first addition circuit 111 of the first multi-value conversion circuit 11. The coefficient setting circuit 71 of the data conversion circuit 7 sets the data conversion coefficient in the coefficient setting register 72. The data conversion coefficient is calculated based on the weighting coefficient of the filter 1110 used in the first addition circuit 111 of the first multi-value conversion circuit 11. The calculation method will be described later.

【0087】第1多値化変換回路11が出力した推定値
NA(信号300)は、減算器77によってレジスタ7
2aの値「4」が減算され、さらに減算結果はレジスタ
72cの値「2」が乗算器78によって乗算され、信号
780を得る。比較回路73は、入力条件がA>Bの時
に出力信号730を「H」レベルにし、A≦Bのとき
「L」レベルする。選択回路75は、比較回路73の出
力信号730が「H」レベルの時、レジスタ72dの値
「16」を選択し、「L」レベルのときに出力信号78
0を選択し、出力信号750を出力する。比較回路74
は入力条件がA<Bの時に出力信号740を「L」レベ
ルにし、A≧Bのとき「H」レベルする。除去回路76
は、信号740が「L」レベルのとき出力信号を「0」
とし、「H」レベルのとき、出力信号750を出力信号
700として出力する。
The estimated value NA (signal 300) output from the first multi-value conversion circuit 11 is applied to the register 7 by the subtractor 77.
The value “4” of 2a is subtracted, and the subtraction result is multiplied by the value “2” of the register 72c by the multiplier 78 to obtain the signal 780. The comparator circuit 73 sets the output signal 730 to “H” level when the input condition is A> B, and sets it to the “L” level when A ≦ B. The selection circuit 75 selects the value "16" of the register 72d when the output signal 730 of the comparison circuit 73 is at "H" level, and the output signal 78 when it is at "L" level.
0 is selected and the output signal 750 is output. Comparison circuit 74
Sets the output signal 740 to the “L” level when the input condition is A <B, and sets it to the “H” level when A ≧ B. Removal circuit 76
Outputs the output signal "0" when the signal 740 is "L" level.
When it is at “H” level, the output signal 750 is output as the output signal 700.

【0088】ここで、図14(a)を用いて、係数設定
レジスタ72に設定する各レジスタ72a〜72dの値
の算出方法について説明する。図14(a)では、フィ
ルタ1110を実施例として説明する。各画素位置での
重み係数をW11〜W33とすると、W11、W13、
W31、W33は「1」、W12、W21、W23、W
32は「2」、W22は「4」となる。重み係数は特定
されるものでないが、着目画素位置の重み係数が周囲画
素位置より大きいほど効果が大きい。さらに、主走査方
向i、副走査方向jで対象になるように係数を配置する
と、方向に依存しなくなるので、画質上好ましい。
Here, a method of calculating the values of the registers 72a to 72d set in the coefficient setting register 72 will be described with reference to FIG. In FIG. 14A, the filter 1110 will be described as an example. If the weighting factors at each pixel position are W11 to W33, W11, W13,
W31, W33 are "1", W12, W21, W23, W
32 is "2" and W22 is "4". Although the weighting factor is not specified, the effect is greater as the weighting factor at the pixel position of interest is larger than the surrounding pixel positions. Furthermore, if the coefficients are arranged so as to be symmetrical in the main scanning direction i and the sub-scanning direction j, it becomes independent of the direction, which is preferable in terms of image quality.

【0089】レジスタ72aの値をreg(a)、レジ
スタ72bの値をreg(b)、レジスタ72cの値を
reg(c)、レジスタ72dの値をreg(d)とす
ると各レジスタ値は(数8)のように算出される。
When the value of the register 72a is reg (a), the value of the register 72b is reg (b), the value of the register 72c is reg (c), and the value of the register 72d is reg (d), each register value is It is calculated as in 8).

【0090】[0090]

【数8】 [Equation 8]

【0091】reg(a)は行ライン上端の重み係数を
加算したが、行ライン上端、行ライン下端、列ライン左
端、列ライン右端のいずれか1つのライン上の重み係数
を加算すれば良い。reg(d)は重み係数の総和が設
定される。(数8)の演算は、走査開口の行方向の端
行、若しくは列方向の端列に位置する画素位置から得ら
れる想定上の推定値分を、推定値NAから予め除去する
ことで、開口を等価的に小さくする方向にデータ変換を
行うので、先鋭度を向上させる。走査開口サイズが大き
くなった場合でも走査開口の行方向の端行、若しくは列
方向の端列に位置する画素から得られる想定上の推定分
を、予め推定値から削除するので同様の効果がある。
In reg (a), the weighting factors at the upper ends of the row lines are added, but the weighting factors on any one of the upper ends of the row lines, the lower ends of the row lines, the left ends of the column lines, and the right ends of the column lines may be added. The sum of weighting factors is set in reg (d). The calculation of (Equation 8) is performed by previously removing from the estimated value NA an estimated estimated value obtained from pixel positions located in the end row in the row direction or the end column in the column direction of the scanning aperture. Since the data conversion is performed in the direction of reducing the equivalent, the sharpness is improved. Even if the scanning aperture size becomes large, a similar effect can be obtained because the estimated amount obtained from the pixels located in the end row in the row direction or the end column in the column direction of the scanning aperture is deleted from the estimated value in advance. .

【0092】以上のデータ変換により、入力される推定
値NA(信号300)は図14(b)に図示するデータ
変換曲線によって変換され、出力信号700として出力
される。図15は、2値画像データ上を図14(a)の
フィルタ1110で主走査方向iへ移動させた場合の推
定値NA(信号300)と、推定値NA(信号300)
をデータ変換回路7で処理した信号700を比較した図
面であり、先鋭度(解像度)が向上している様子がわか
る。
By the above data conversion, the input estimated value NA (signal 300) is converted by the data conversion curve shown in FIG. 14 (b) and output as the output signal 700. FIG. 15 shows an estimated value NA (signal 300) and an estimated value NA (signal 300) when the binary image data is moved in the main scanning direction i by the filter 1110 of FIG. 14A.
It is a drawing comparing the signals 700 processed by the data conversion circuit 7, and it can be seen that the sharpness (resolution) is improved.

【0093】この変換信号700を、図1で図示した選
択回路6の入力Dに用いることによって、識別回路4で
識別した輪郭領域の先鋭度(解像度)を向上させること
ができる。また、誤識別が非輪郭領域で存在しても急激
な濃度変化を起こさないので、画質劣化を小さく抑える
ことができる。なお、データ変換回路7のレジスタ72
に設定するの各値(72a〜72d)が固定される場合
は、データ変換回路7をROMに置き換え、内部にデー
タ変換係数に対応するデータ変換テーブルを格納して同
様のデータ変換を行っても良い。さらに、データ変換回
路7のレジスタ72に設定するの各値(72a〜72
d)が可変される場合は、データ変換回路7をRAMに
置き換え、フィルタ1110の重み係数に対応する係数
を算出し、変換曲線に対応する変換テーブルを再度作成
し、作成した変換テーブルをRAMに再度設定するよう
にしても良い。
By using this converted signal 700 as the input D of the selection circuit 6 shown in FIG. 1, the sharpness (resolution) of the contour area identified by the identification circuit 4 can be improved. Further, even if the erroneous identification is present in the non-contour area, a sharp density change does not occur, so that the image quality deterioration can be suppressed to a small level. The register 72 of the data conversion circuit 7
When the respective values (72a to 72d) set to are fixed, the data conversion circuit 7 is replaced with a ROM, and a data conversion table corresponding to the data conversion coefficient is stored therein to perform the same data conversion. good. Further, each value (72a to 72) set in the register 72 of the data conversion circuit 7 is set.
When d) is variable, the data conversion circuit 7 is replaced with a RAM, a coefficient corresponding to the weighting coefficient of the filter 1110 is calculated, a conversion table corresponding to the conversion curve is created again, and the created conversion table is stored in the RAM. It may be set again.

【0094】次に、強調回路5について図1、図16を
用いて説明する。図16は強調回路5のブロック図であ
る。図16において、遅延回路50は3ラインのライン
メモリより構成され、副走査方向jに推定値NA(信号
300)を遅延させる。遅延されたデータは、遅延回路
51によって主走査方向iに遅延する。遅延回路51は
ラッチによって構成される。乗算回路52は強調する着
目画素位置の値P(i,j)を5倍にする。加算回路5
4は、着目画素位置の周辺に位置する画素値P(i−
1,j−1)、P(i+1,j−1)、P(i−1,j
+1)、P(i+1,j+1)を加算する。乗算回路5
6は、加算回路54の出力を−1倍する。加算回路53
は、乗算回路52と乗算回路56の出力を加算する。絶
対値回路55は加算回路53の出力の絶対値を算出し、
強調信号EF(信号500)を出力する。
Next, the emphasizing circuit 5 will be described with reference to FIGS. FIG. 16 is a block diagram of the emphasis circuit 5. In FIG. 16, the delay circuit 50 is composed of a line memory of 3 lines and delays the estimated value NA (signal 300) in the sub-scanning direction j. The delayed data is delayed by the delay circuit 51 in the main scanning direction i. The delay circuit 51 is composed of a latch. The multiplication circuit 52 multiplies the value P (i, j) at the pixel position of interest to be emphasized by a factor of 5. Adder circuit 5
4 is a pixel value P (i-
1, j-1), P (i + 1, j-1), P (i-1, j)
+1) and P (i + 1, j + 1) are added. Multiplication circuit 5
6 multiplies the output of the adding circuit 54 by -1. Adder circuit 53
Adds the outputs of the multiplication circuit 52 and the multiplication circuit 56. The absolute value circuit 55 calculates the absolute value of the output of the adding circuit 53,
The enhancement signal EF (signal 500) is output.

【0095】この強調回路5は、推定値NA(信号30
0)の画像を着目画素位置毎、即ち1画素単位で強調処
理する。よって、着目する強調位置をP(i,j)とす
ると、強調信号EFは(数9)により演算される。ただ
し、ABS[ ]は絶対値をとる演算である。
This emphasizing circuit 5 uses the estimated value NA (signal 30
The image 0) is emphasized at each pixel position of interest, that is, in pixel units. Therefore, when the emphasis position of interest is P (i, j), the emphasis signal EF is calculated by (Equation 9). However, ABS [] is an operation that takes an absolute value.

【0096】[0096]

【数9】 [Equation 9]

【0097】また、同様の強調信号EF(信号500)
は、推定値NA(信号300)を3ラインのラインメモ
リで遅延させずに生成することもできる。この場合は、
強調する着目画素位置(i,j)を含む位置(i,
j)、位置(i−1,j−1)、位置(i+1,j−
1)、位置(i−1,j+1)、位置(i+1,j+
1)の5点を、推定位置として、それぞれ図2の第1多
値化変換回路11を用いて推定値NAを算出し、算出さ
れた各位置での推定値NA(i,j)、NA(i−1,
j−1)、NA(i+1,j−1)、NA(i−1,j
+1)、NA(i+1,j+1)を(数9)の各位置に
対応する画素値として代入することで、N値階調画像1
00から直接に強調信号EF(信号500)を得ること
ができる。 このN値階調画像100から直接に強調信
号EFを得ると、遅延回路50の3ラインのラインメモ
リの容量が大幅に削減できる。本発明の第1の実施例で
はN=2、M=256である為、信号300の遅延は8
ビット/画素を行なうのに対して、N値階調画像100
の遅延は1ビット/画素となる。遅延ライン数が同じ場
合、ラインメモリ容量は1/8となる。N値階調画像1
00から直接に強調信号EFを得る方法は、5点を着目
位置として推定するので第1多値化変換回路11の規模
は5倍になる。しかし、削減されるメモリ容量の7/8
に相当するゲート換算数と、5倍の第1多値化変換回路
11の規模のゲート換算数では、N値階調画像100か
ら直接に強調信号EF(信号500)を得る方がゲート
換算数が小さい。これは、LSI化する際に有利とな
り、高速化できるといった効果がある。
Also, a similar enhancement signal EF (signal 500)
Can also be generated without delaying the estimated value NA (signal 300) in a line memory of 3 lines. in this case,
A position (i, j) including the target pixel position (i, j) to be emphasized
j), position (i-1, j-1), position (i + 1, j-
1), position (i-1, j + 1), position (i + 1, j +)
The estimated value NA is calculated using the first multi-value conversion circuit 11 of FIG. 2 with the five points 1) as estimated positions, and the estimated values NA (i, j), NA at each calculated position are calculated. (I-1,
j-1), NA (i + 1, j-1), NA (i-1, j)
+1) and NA (i + 1, j + 1) are substituted as pixel values corresponding to the positions of (Equation 9) to obtain the N-value gradation image 1
The enhancement signal EF (signal 500) can be obtained directly from 00. If the enhancement signal EF is obtained directly from the N-value gradation image 100, the capacity of the line memory of the three lines of the delay circuit 50 can be significantly reduced. Since N = 2 and M = 256 in the first embodiment of the present invention, the delay of the signal 300 is 8
Bit / pixel is performed, whereas N-value gradation image 100
Is 1 bit / pixel. If the number of delay lines is the same, the line memory capacity is 1/8. N-value gradation image 1
In the method of directly obtaining the enhancement signal EF from 00, since the five points are estimated as the positions of interest, the scale of the first multi-value conversion circuit 11 is five times as large. However, 7/8 of the reduced memory capacity
In terms of the gate conversion number corresponding to 5 and the gate conversion number of the scale of the first multi-value conversion circuit 11 which is 5 times, it is the gate conversion number that the enhancement signal EF (signal 500) is obtained directly from the N-value gradation image 100. Is small. This is advantageous in making an LSI, and has an effect of speeding up.

【0098】以上の強調回路5を用いることで、先鋭渡
を高めた推定値NAの強調画像を得ることができる。こ
の強調信号500(信号EF)をN値階調画像中の輪郭
領域に用いることによって、エッジの先鋭度の劣化を抑
えることができる。また、輪郭領域のみ強調することで
非輪郭領域の平滑性を劣化させることなくM値階調画像
を得ることができる。結果、輪郭領域ではエッジが保存
され、非輪郭領域では平滑性の良いM値階調画像(N<
M)を得ることができる。
By using the enhancement circuit 5 described above, it is possible to obtain an enhanced image of the estimated value NA with a high sharpness. By using this enhancement signal 500 (signal EF) for the contour area in the N-value gradation image, it is possible to suppress deterioration of the sharpness of the edge. Further, by emphasizing only the contour area, an M-value gradation image can be obtained without deteriorating the smoothness of the non-contour area. As a result, the edge is saved in the contour area, and the M-value gradation image (N <N
M) can be obtained.

【0099】次に、選択回路6について図1を用いて説
明する。選択回路6は、制御信号61(信号CONT
1)と識別信号400(信号SE)によって、入力A
(信号200)、入力B(信号300)、入力C(信号
200)、入力D(信号500または信号700)の選
択を行ない、選択信号600を出力する。
Next, the selection circuit 6 will be described with reference to FIG. The selection circuit 6 controls the control signal 61 (signal CONT
1) and the identification signal 400 (signal SE), input A
(Signal 200), input B (signal 300), input C (signal 200), and input D (signal 500 or signal 700) are selected, and a selection signal 600 is output.

【0100】選択する条件は、例えば(表1)のように
行なう。ここで、選択信号600をOUTとする。ま
た、信号400(信号SE)の「H」レベルは輪郭領
域、「L」レベルは非輪郭領域と判定した結果を表わ
す。
The conditions to be selected are as shown in (Table 1). Here, the selection signal 600 is OUT. Further, the “H” level of the signal 400 (signal SE) represents the result of determination as a contour area and the “L” level represents a non-contour area.

【0101】[0101]

【表1】 [Table 1]

【0102】(表1)より、制御信号61(信号CON
T1)は3ステップの信号レベルを有する。よって、選
択回路6は制御信号61によって以下の選択を行う。信
号レベルが「0」のときは、非輪郭領域に入力A、輪郭
領域に入力Bを選択する。信号レベルが「1」のとき、
非輪郭領域に入力C、輪郭領域に入力Dを選択する。信
号レベルが「2」のとき、非輪郭領域に入力B、輪郭領
域に入力Dを選択する。
From Table 1, the control signal 61 (signal CON
T1) has a signal level of 3 steps. Therefore, the selection circuit 6 makes the following selection by the control signal 61. When the signal level is "0", input A is selected for the non-contour area and input B is selected for the contour area. When the signal level is "1",
Input C is selected for the non-contour area and input D is selected for the contour area. When the signal level is "2", the input B is selected for the non-contour area and the input D is selected for the contour area.

【0103】よって、「写真モード」では、階調性が重
視されるので入力A、入力Bを用いて処理し、輪郭領域
の強調処理は行なわない。「文字・写真モード」では、
解像度と階調性が重視されるので入力C、入力Dを用い
て処理し、輪郭領域の強調処理を行なう。さらに、「文
字モード」では、解像度が重視されるので入力Bと入力
Dを用いて処理し、輪郭領域の強調処理を行なう。
Therefore, in the "photograph mode", since the gradation is emphasized, the processing is performed using the input A and the input B, and the outline area is not emphasized. In "text / photo mode",
Since the resolution and the gradation are emphasized, the processing is performed using the input C and the input D to emphasize the contour area. Further, in the "character mode", since the resolution is emphasized, the processing is performed using the input B and the input D to emphasize the contour area.

【0104】このように、後述する操作パネル91から
の設定操作によって、(表1)に示す「処理モード」を
設定し、制御回路92が対応する制御信号61(信号C
ONT1)の設定を行うことで、種々の対象画像に最適
なN値階調画像からM値階調画像(N<M)への変換処
理が実行できる。また、強調処理を行う強調回路5の出
力信号500を、データ変換回路7の出力信号700に
置き換えても良い。データ変換回路7は、走査開口の行
方向の端行、若しくは列方向の端列に位置する画素位置
から得られる想定上の推定値分を、推定値NAから予め
除去することで、開口を等価的に小さくする方向にデー
タ変換を行うので、先鋭度を向上させる。
As described above, the "processing mode" shown in (Table 1) is set by the setting operation from the operation panel 91 described later, and the control signal 92 (signal C
By setting ONT1), it is possible to execute a conversion process from an N-value gradation image that is optimal for various target images to an M-value gradation image (N <M). Further, the output signal 500 of the emphasis circuit 5 that performs the emphasis process may be replaced with the output signal 700 of the data conversion circuit 7. The data conversion circuit 7 equalizes the openings by previously removing, from the estimated value NA, an estimated estimated value obtained from pixel positions located in the end row in the row direction or the end column in the column direction of the scanning opening. The sharpness is improved because the data conversion is performed in the direction in which it is made smaller.

【0105】以上、第1の実施例によって輪郭領域では
エッジ劣化が少なく、非輪郭領域では平滑性の良いM値
階調画像(N<M)を得ることができる。以下、本発明
の第2の実施例における階調変換処理装置ついて図面を
参照しながら説明する。図17は本発明の第2の実施例
における階調変換処理装置のブロック図を示すものであ
る。
As described above, according to the first embodiment, it is possible to obtain an M-value gradation image (N <M) with less edge deterioration in the contour area and good smoothness in the non-contour area. A gradation conversion processing apparatus according to the second embodiment of the present invention will be described below with reference to the drawings. FIG. 17 is a block diagram of a gradation conversion processing device according to the second embodiment of the present invention.

【0106】図17において、第1変換回路2はRAM
などのLUTで構成され、制御回路92から制御信号9
20(信号TAB1)を経由して設定される変換テーブ
ルによってK値画像データを変換する。N値化回路8
は、第1変換回路2からのK値画像データをN値階調画
像データ(K>N)に変換する。
In FIG. 17, the first conversion circuit 2 is a RAM.
And a control signal 9 from the control circuit 92.
The K-value image data is converted by the conversion table set via 20 (signal TAB1). N-value conversion circuit 8
Converts the K-value image data from the first conversion circuit 2 into N-value gradation image data (K> N).

【0107】画像メモリ9は、例えば半導体メモリまた
はハードディスク装置等からなりN値化回路8からのN
値階調画像データを記憶する。推定回路93は図1に図
示する本発明の第1の実施例の階調変換処理装置であ
り、画像メモリ9からのN値階調画像データ100をM
値階調画像データ600(N<M)に変換する。
The image memory 9 is composed of, for example, a semiconductor memory or a hard disk device and the like.
The value gradation image data is stored. The estimation circuit 93 is the gradation conversion processing device of the first embodiment of the present invention shown in FIG. 1, and the N-value gradation image data 100 from the image memory 9 is converted into M
It is converted into value gradation image data 600 (N <M).

【0108】第2変換回路3はRAMなどのLUTで構
成され、制御回路92から制御信号921(信号TAB
2)を経由して設定される変換テーブルによってM値階
調画像データを変換する。制御回路92は、操作パネル
91からの設定信号に応じて推定回路93、第1変換回
路2、第2変換回路3に制御信号を出力する。
The second conversion circuit 3 is composed of a LUT such as a RAM, and the control circuit 92 outputs a control signal 921 (signal TAB).
The M-value gradation image data is converted by the conversion table set via 2). The control circuit 92 outputs a control signal to the estimation circuit 93, the first conversion circuit 2, and the second conversion circuit 3 according to the setting signal from the operation panel 91.

【0109】操作パネル91は例えば複数のキーより構
成され、画像の解像度レベルの設定、「写真モード」、
「文字・写真モード」、「文字モード」、「文字・図形
モード」「網点モード」値等の入力スイッチの設定に従
って、制御回路92に設定された内容に応じて設定信号
を出力する。以上のように構成された階調変換処理装置
について、以下にその動作を説明する。
The operation panel 91 is composed of, for example, a plurality of keys, and sets the resolution level of the image, the "photograph mode",
The setting signal is output according to the contents set in the control circuit 92 in accordance with the setting of the input switches such as the "character / photo mode", the "character mode", the "character / graphic mode" and the "halftone mode". The operation of the gradation conversion processing device configured as described above will be described below.

【0110】まず、N値化回路8においてK値画像から
N値画像(K>N)へ変換する実施例について図21を
用いて説明する。N値化処理を行なう変換方法はディザ
法、誤差拡散法などがあが、本発明の第2の実施例で
は、例えば、図21に図示する誤差拡散法によってK値
画像データをN値画像データに変換する。図21におい
て、K値画像データfxyは加算器81によって着目画
素周辺の積算誤差値Errと加算され出力f´xyを出
力する。このf´xyはN値化処理回路82で予め設定
される複数のしきい値と比較されることでN値に量子化
され、出力gxyが出力される。加算器83はexy=
f´xy−gxyの演算を行い、量子化誤差exyはあ
る重み係数で着目画素周辺に分配され、誤差メモリ86
に記憶される。かけ算器84は着目画素周辺に分配され
た誤差値eにウェイトマトリクスWijの重み係数をか
け算して積算誤差値Errを出力する。信号801はE
rr=ΣΣe(x+i、y+j)×Wijとなる。例え
ば、N=2とすると、gxyは「0」、「255」の2
値データを出力し、正規化回路87は「0」、「25
5」の2値データを「0」、「1」の2値データに正規
化する。これによって、K値画像データはN値画像デー
タに正規化される。
First, an embodiment of converting a K-value image into an N-value image (K> N) in the N-value conversion circuit 8 will be described with reference to FIG. A conversion method for performing the N-value conversion processing includes a dither method and an error diffusion method. In the second embodiment of the present invention, for example, the K-value image data is converted into the N-value image data by the error diffusion method shown in FIG. Convert to. In FIG. 21, the K-value image data fxy is added by the adder 81 to the integrated error value Err around the pixel of interest, and the output f′xy is output. This f'xy is quantized into an N value by being compared with a plurality of preset threshold values in the N-value conversion processing circuit 82, and the output gxy is output. The adder 83 is exy =
The calculation of f′xy−gxy is performed, and the quantization error exo is distributed around the pixel of interest with a certain weighting coefficient, and the error memory 86
Memorized in. The multiplier 84 multiplies the error value e distributed around the pixel of interest by the weighting coefficient of the weight matrix Wij and outputs the integrated error value Err. Signal 801 is E
rr = ΣΣe (x + i, y + j) × Wij. For example, if N = 2, gxy is 2 of “0” and “255”.
The value data is output, and the normalization circuit 87 outputs "0", "25".
Binary data of "5" is normalized to binary data of "0" and "1". As a result, the K-value image data is normalized to the N-value image data.

【0111】推定回路93の入力画像に、図21に示す
誤差拡散法で生成されるハーフトーン画像を用いると、
エッジ部の劣化が少なく、かつ疑似輪郭のない解像度と
階調性を両立する推定復元を行なうことができる。ここ
では誤差拡散法をK値階調をN値階調(K>N)にする
N値化処理として用いたが、N値化回路8は、本発明の
第2の実施例で特定されるものでなく、画像中の平均的
なデータ値を保存する処理であれば良い。よって、公知
のN値化(K>N)手段で処理を行って良く、例えば、
平均誤差最小法、ディザ法、多値ディザ法等を用いても
良い。
When the halftone image generated by the error diffusion method shown in FIG. 21 is used as the input image of the estimation circuit 93,
It is possible to perform estimation and restoration in which deterioration of the edge portion is small, and resolution and gradation are compatible without pseudo contours. Although the error diffusion method is used here as the N-value conversion process for changing the K-value gradation to the N-value gradation (K> N), the N-value conversion circuit 8 is specified in the second embodiment of the present invention. However, the process may be any process that saves the average data value in the image. Therefore, the processing may be performed by a known N-value conversion (K> N) means, for example,
The minimum average error method, the dither method, the multivalued dither method, or the like may be used.

【0112】次に、第1変換回路2、第2変換回路3に
ついて、図17、図18、図19、図20を用いて説明
する。図18(a)は第1変換回路2、第2変換回路3
の変換動作の説明図、図18(b)は走査開口位置と黒
画素位置の関係図、図19はデータ変換の説明図、図2
0は変換テーブルの説明図である。本発明の第2の実施
例においてN、M、Kは特定されるものでないが、N=
2、M=256、K=256とする。また、説明を容易
にするために図2に図示する階調変換回路1の中で、第
1多値化変換回路11の推定値NAを実施例として説明
する。また、第1加算回路111に用いるフィルタ11
10の走査開口を2×2とし、開口内の加算重み係数を
すべて1として、その推定動作の説明を行なう。よっ
て、第1加算回路111は着目画素位置の画素値をP
(i,j)、重み付け係数をW(i,j)とすると、信
号SAはSA=ΣΣW(i,j)・P(i,j)である
から、(数3)はSA=P(i,j)+P(i+1,
j)+P(i,j+1)+P(i+1,j+1)とな
る。ここで、・は乗算を示す演算子である。また、Sa
=4、Ma=4となる。これに伴って、第1正規化回路
112の正規化は(数5)に従って、Ma=4、M=2
56を代入して算出され、推定値NAが出力される。
(M−1)/Maはおおよそ64となるので、走査開口
2×2の領域でカウントされる1個の黒画素は、推定値
NAでは64のデータ値となる。
Next, the first conversion circuit 2 and the second conversion circuit 3 will be described with reference to FIGS. 17, 18, 19, and 20. FIG. 18A shows the first conversion circuit 2 and the second conversion circuit 3.
18B is a relationship diagram between the scanning aperture position and the black pixel position, FIG. 19 is an explanatory diagram of data conversion, and FIG.
Reference numeral 0 is an explanatory diagram of the conversion table. In the second embodiment of the present invention, N, M and K are not specified, but N =
2, M = 256 and K = 256. Further, in order to facilitate the description, the estimated value NA of the first multi-value conversion circuit 11 in the gradation conversion circuit 1 shown in FIG. 2 will be described as an example. In addition, the filter 11 used in the first adder circuit 111
The estimation operation will be described assuming that the 10 scanning apertures are 2 × 2 and the addition weighting factors in the apertures are all 1. Therefore, the first addition circuit 111 sets the pixel value at the pixel position of interest to P
Assuming that (i, j) and the weighting coefficient are W (i, j), the signal SA is SA = ΣΣW (i, j) · P (i, j). Therefore, (Equation 3) is SA = P (i , J) + P (i + 1,
j) + P (i, j + 1) + P (i + 1, j + 1). Here, · is an operator indicating multiplication. Also, Sa
= 4 and Ma = 4. Accordingly, the normalization of the first normalization circuit 112 follows Ma (4) and M (2) according to (Equation 5).
It is calculated by substituting 56, and the estimated value NA is output.
Since (M-1) / Ma is about 64, one black pixel counted in the area of the scanning aperture 2 × 2 has 64 estimated data values.

【0113】まず、第1変換回路2、第2変換回路3に
図18(a)に図示する変換曲線3を設定した場合の説
明を行なう。変換曲線3は、入力信号Xinと出力信号
YoutがYout=Xinなる関係をもつ。これは、
入力信号をそのまま出力信号とする変換テーブルであ
る。推定回路93は、N値階調画像からM値階調画像
(N<M)を推定する。K=Mとすれば、N値化回路8
に入力されるK値画像を推定することになる。N値化回
路8は、着目画素の濃淡データを「0」、「255」の
2値データに変換し、生じる誤差を周辺画素に拡散させ
る。「0」、「255」の2値データは「0」、「1」
に正規化され、画像メモリ9に記憶される。この2値量
子化処理によって、8ビット/画素は1ビット/画素に
変換され、データ容量は1/8に圧縮される。この圧縮
画像は、ビットマップ構造を有し、圧縮率は固定長であ
る。よって、可変長符号化による圧縮に比べ、圧縮時間
が一定の為、リアルタイム処理に適する。さらには、画
像メモリ9内の画像データはビットマップ構造を有する
ため、可変長符号化による圧縮画像のように一旦伸長し
てから編集する必要がないので、重ね編集を高速に実行
できるものである。この2値データの「0」を白ドッ
ト、「1」を黒ドットで表現する出力装置、若しくは、
2値データの「1」を白ドット、「0」を黒ドットで表
現する表示装置に出力すればドットの粗密によるデジタ
ルハーフトーンの画像が得られる。
First, the case where the conversion curve 3 shown in FIG. 18A is set in the first conversion circuit 2 and the second conversion circuit 3 will be described. The conversion curve 3 has a relationship in which the input signal Xin and the output signal Yout are Yout = Xin. this is,
It is a conversion table in which an input signal is directly used as an output signal. The estimation circuit 93 estimates an M-value gradation image (N <M) from the N-value gradation image. If K = M, the N-value conversion circuit 8
The K-value image input to will be estimated. The N-valued circuit 8 converts the grayscale data of the pixel of interest into binary data of “0” and “255” and diffuses the generated error to peripheral pixels. Binary data of "0" and "255" are "0" and "1"
And is stored in the image memory 9. By this binary quantization processing, 8 bits / pixel is converted to 1 bit / pixel, and the data capacity is compressed to 1/8. This compressed image has a bitmap structure and has a fixed compression rate. Therefore, as compared with the compression by the variable length coding, the compression time is constant, which is suitable for real time processing. Furthermore, since the image data in the image memory 9 has a bit map structure, it is not necessary to decompress and then edit the compressed image as in the case of a compressed image by variable-length coding, and therefore superimposition editing can be performed at high speed. . An output device that expresses "0" of this binary data as white dots and "1" as black dots, or
If "1" of binary data is output to a display device that expresses white dots and "0" as black dots, a digital halftone image due to the density of dots can be obtained.

【0114】画像メモリ9に格納した「0」、「1」の
2値データから、M値階調画像を第1多値化変換回路1
1で推定する。例えば、一定値「16」のK値画像デー
タはN値化回路8によって正規化データ「0」、「1」
に変換され、「0」を白画素、「1」を黒画素で図示す
ると、図18(b)のように主走査方向にDx、副走査
方向にDyの距離を有する「0」「1」の2値データに
変換される。第1多値化変換回路11は、走査開口内の
データ値を加算し、正規化処理することでM値階調画像
の推定を行なう。走査開口が2×2で、加算の重み付け
係数をすべて1にすると、M=256、Ma=4とな
り、黒ドット「1」は(数5)によりデータ値でおおよ
そ64に換算される。
From the binary data of “0” and “1” stored in the image memory 9, the M-value gradation image is converted into the first multi-value conversion circuit 1.
Estimate at 1. For example, the K-value image data having a constant value "16" is normalized by the N-value conversion circuit 8 to be "0" and "1".
18B is converted into a white pixel and “1” is represented by a black pixel, “0” and “1” having a distance of Dx in the main scanning direction and a distance of Dy in the sub-scanning direction as shown in FIG. 18B. Is converted into binary data. The first multi-value conversion circuit 11 estimates the M-value gradation image by adding the data values in the scanning aperture and performing a normalization process. When the scanning aperture is 2 × 2 and the weighting coefficients for addition are all 1, M = 256 and Ma = 4, and the black dot “1” is converted into a data value of approximately 64 by (Equation 5).

【0115】K値データが小さい値、即ち、画像のハイ
ライト領域では、黒画素(2値データの「1」)の拡散
範囲より走査開口サイズが小さくなり、走査位置によっ
て推定値NAが変動する。図18(b)に図示した走査
位置Aでは、推定値が64、位置Bでは0、位置Cでは
64となる。一定値「16」のK値画像データに対し、
推定値は一定とならず変動している。シャドウ領域にお
いても、白画素(2値データの「0」)の拡散範囲より
走査開口サイズが小さくなり、やはり推定値NAは変動
する。
When the K value data is small, that is, in the highlight area of the image, the scanning aperture size is smaller than the diffusion range of black pixels (“1” of binary data), and the estimated value NA varies depending on the scanning position. . At the scanning position A illustrated in FIG. 18B, the estimated value is 64, the estimated value is 0 at the position B, and the estimated value is 64 at the position C. For K value image data with a constant value of "16",
The estimated value is not constant and fluctuates. Even in the shadow area, the scanning aperture size becomes smaller than the diffusion range of white pixels (“0” of binary data), and the estimated value NA also fluctuates.

【0116】このハイライト領域、シャドウ領域の推定
値NAの変動を改善する為、図18(a)に図示する変
換曲線1を第1変換回路2に、変換曲線2を第2変換回
路3に設定する。変換処理の概念的な説明を図18
(a)、図18(b)、図18(c)を用いて説明す
る。ここで、入力データを一定値で16、即ち、図18
(a)のH点におけるK値画像データの変換処理につい
て説明する。また、図18(b)、図18(c)では、
2値データの「0」を白画素、「1」を黒画素で図示す
る。
In order to improve the fluctuation of the estimated value NA in the highlight area and the shadow area, the conversion curve 1 shown in FIG. 18A is used as the first conversion circuit 2 and the conversion curve 2 is used as the second conversion circuit 3. Set. A conceptual explanation of the conversion process is shown in FIG.
This will be described with reference to (a), FIG. 18 (b) and FIG. 18 (c). Here, the input data has a constant value of 16, that is, FIG.
The conversion processing of K-value image data at point H in (a) will be described. In addition, in FIG. 18 (b) and FIG. 18 (c),
Binary data "0" is shown as a white pixel and "1" as a black pixel.

【0117】図18(a)に図示するように、変換曲線
1によって、入力データ「16」は、第1変換回路2の
変換曲線1によって4倍にされ、「64」の出力データ
(B点)に変換される。また、この4倍にされたK値画
像データ「64」は、N値化回路8によって「0」
「1」に変換される。概念的には、データが4倍になっ
ているので図18(c)のように主走査方向にDx/
2、副走査方向にDy/2の距離を有する「0」「1」
の2値データに変換される。図18(c)に図示した走
査位置Aでは、推定値NAは64であり、位置Bで6
4、位置Cで64となる。しかし、K値画像データは変
換曲線1で4倍にされているので、変換曲線2を用いて
1/4倍(E点)にし、位置Aでは16、位置Bでは1
6、位置Cでは16とする。結果、図18(a)に比
べ、推定値NAの変動を抑え、かつ精度の良い推定値を
得ることができる。
As shown in FIG. 18A, the input data "16" is quadrupled by the conversion curve 1 of the first conversion circuit 2 by the conversion curve 1, and the output data of "64" (point B). ) Is converted to. Also, the K-value image data “64” that has been quadrupled is “0” by the N-value conversion circuit 8.
Converted to "1". Conceptually, since the data is quadrupled, Dx / in the main scanning direction as shown in FIG.
2, "0" and "1" having a distance of Dy / 2 in the sub-scanning direction
Is converted into binary data. At the scanning position A shown in FIG. 18C, the estimated value NA is 64, and at the position B, 6
4 and 64 at position C. However, since the K-value image data is quadrupled by the conversion curve 1, it is quadrupled (point E) by using the conversion curve 2, 16 at the position A, and 1 at the position B.
6 and 16 at position C. As a result, compared to FIG. 18A, it is possible to suppress the fluctuation of the estimated value NA and obtain an accurate estimated value.

【0118】図18(a)のG点は、K値画像データの
信号レンジの中央値で、0から255を入力する信号範
囲とした場合、128の位置に設定される点である。第
1変換回路2では、G点以下のハイライト領域では直線
AGよりK値画像データが大きくなるように変換し(例
えば、点ABGを通る曲線)、G点以上のシャドウ領域
でが直線GDより小さくなるように変換(例えば点GC
Dを通る曲線)する。これによってハイライト領域では
黒画素(2値データ「1」)の拡散範囲、またはシャド
ウ領域では白画素(2値データ「0」)の拡散範囲が小
さくなる。また、第2変換回路3では、第1変換回路2
で行った変換処理の逆変換処理を行なう。即ち、第2変
換回路3では、G点以下のハイライト領域での曲線AB
Gをによる変換値を、AEG点を通る曲線により逆変換
し、G点以上のシャドウ領域での曲線GCDによる変換
値を、GFD点を通る曲線により逆変換する。
Point G in FIG. 18A is the median of the signal range of the K-value image data, and is set at the position of 128 when the signal range of 0 to 255 is set. In the first conversion circuit 2, conversion is performed so that the K-value image data is larger than the straight line AG in the highlight area below the point G (for example, a curve passing through the point ABG), and in the shadow area above the point G from the straight line GD. Convert to smaller values (eg, point GC
Curve through D). As a result, the diffusion range of black pixels (binary data “1”) in the highlight region or the diffusion range of white pixels (binary data “0”) in the shadow region is reduced. In the second conversion circuit 3, the first conversion circuit 2
Inverse conversion processing of the conversion processing performed in (1) is performed. That is, in the second conversion circuit 3, the curve AB in the highlight area below the point G
The conversion value by G is inversely converted by the curve passing through the AEG point, and the conversion value by the curve GCD in the shadow region at the point G or higher is inversely converted by the curve passing through the GFD point.

【0119】このように、K値画像データを信号レンジ
の中央値近傍に集中するように第1変換回路2で変換
し、M値データの推定値NAを第2変換回路3で逆変換
すると、ハイライト領域、またはシャドウ領域で、推定
値NAの変動が小さくなる。以上、変換処理の概要につ
いて述べたが、詳細について図19(a)、図19
(b)、図19(c)、図19(d)、図19(e)、
図19(f)を用いて説明する。
As described above, when the K-value image data is converted by the first conversion circuit 2 so as to be concentrated near the median of the signal range and the estimated value NA of the M-value data is inversely converted by the second conversion circuit 3, The fluctuation of the estimated value NA is small in the highlight area or the shadow area. The outline of the conversion process has been described above, and the details will be described with reference to FIGS.
(B), FIG. 19 (c), FIG. 19 (d), FIG. 19 (e),
This will be described with reference to FIG.

【0120】図19(a)は、K値画像データの実施例
を示すものである。説明において、K値画像データの最
大値は255、最小値は0とする。実施例では、K値画
像データの最大値255のほぼ1/16にあたる一定値
「16」を処理する対象データとする。図19(b)
は、図19(a)のK値画像データをN値化回路8で2
値化処理したときの2値化データ100の例を示すもの
である。図19(b)に図示するように、平均的な状態
では領域A(4×4)の中で「1」が1個存在する2値
化データが得られる。
FIG. 19A shows an example of K-value image data. In the description, the maximum value of the K-value image data is 255 and the minimum value is 0. In the embodiment, the constant value "16", which is approximately 1/16 of the maximum value 255 of the K-value image data, is the target data to be processed. FIG. 19 (b)
Is converted into 2 by the N-value conversion circuit 8 from the K-value image data of FIG.
It shows an example of the binarized data 100 when the binarization process. As shown in FIG. 19B, binarized data in which one “1” exists in the region A (4 × 4) is obtained in an average state.

【0121】図19(c)は、図19(b)の2値化デ
ータ100を、第1多値化変換回路11で推定した場合
の推定値NAの出力を示すものである。領域A内の平均
値は「16」となり、確かに領域Aを単位とする平均値
では、K値画像データが推定されているが、内部の個々
の画素位置では、推定値NAの変動が0から64と大き
い。
FIG. 19C shows the output of the estimated value NA when the binarized data 100 of FIG. 19B is estimated by the first multi-value conversion circuit 11. The average value in the area A is "16", and the K-value image data is estimated with the average value in the unit of area A, but the variation of the estimated value NA is 0 at each internal pixel position. It is as large as 64.

【0122】一方、図19(d)は、図19(a)のK
値画像データ「16」を変換曲線1(変換1)で4倍に
変換し、K値画像データの最大値255のほぼ1/4に
あたる「64」をN値化回路8で2値化処理した2値化
データ100の例を示すものである。図19(d)に図
示するように、平均的な状態では領域Aのなかで「1」
が4個存在する2値化データに変換される。
On the other hand, FIG. 19D shows K of FIG. 19A.
The value image data “16” is converted four times by the conversion curve 1 (conversion 1), and “64” which is approximately ¼ of the maximum value 255 of the K value image data is binarized by the N-value conversion circuit 8. 1 shows an example of binarized data 100. As shown in FIG. 19D, in the average state, "1" is set in the area A.
Is converted into binary data in which there are four.

【0123】図19(e)は、図19(d)の2値化デ
ータ100を、第1多値化変換回路11で推定した場合
の推定値NAの出力を示すものである。次に、図19
(f)は、図19(e)の推定値NAを、変換曲線2
(変換2)で1/4倍に逆変換した出力である。ここ
で、1/4倍にする理由は、N値化回路8に入力するK
値画像データを変換曲線1(変換1)で4倍に変換した
ため、変換前の状態に戻す逆変換が必要となるためであ
る。図19(f)では、領域Aの内部において、個々の
画素位置での推定値NAの変動はなく、かつ、K値画像
データ「16」が精度良く推定されている。
FIG. 19 (e) shows the output of the estimated value NA when the binarized data 100 of FIG. 19 (d) is estimated by the first multi-value conversion circuit 11. Next, FIG.
(F) shows the estimated value NA of FIG.
This is the output that is inversely converted to 1/4 in (Conversion 2). Here, the reason for multiplying by 1/4 is the K input to the N-value conversion circuit 8.
This is because the value image data is quadrupled by the conversion curve 1 (conversion 1), and thus it is necessary to perform the inverse conversion to restore the state before conversion. In FIG. 19F, within the area A, the estimated value NA does not change at each pixel position, and the K-value image data “16” is accurately estimated.

【0124】ここで、変換による効果を説明すると、変
換を行わない図19(c)の推定値NAに比べて、第1
変換回路2、第2変換回路3で変換を行う図19(f)
の推定値NAは、明らかに推定値の変動が抑えられてお
り、さらには精度の良い推定値が得られている。この変
換処理は、2値化データが拡散しやすいハイライト領
域、またはシャドウ領域で特に効果がある。
Here, the effect of the conversion will be described. Compared with the estimated value NA of FIG.
FIG. 19F in which conversion is performed by the conversion circuit 2 and the second conversion circuit 3
As for the estimated value NA, the fluctuation of the estimated value is obviously suppressed, and an accurate estimated value is obtained. This conversion process is particularly effective in a highlight area or a shadow area where binarized data is likely to diffuse.

【0125】以上のように、K値画像データを信号レン
ジの中央値近傍に集中するように第1変換回路2で変換
し、変換したK値画像データをN値化データ(K>N)
にN値化変換することで、ハイライト領域の黒ドット、
またはシャドウ領域の白ドットのデータ拡散範囲を抑え
ることができる。このN値化データ(K>N)から得ら
れるM値データ(N<M)の推定値NAを第2変換回路
3で逆変換すると、ハイライト領域、またはシャドウ領
域で、推定値の変動を抑え、かつ精度のよい推定値NA
を得ることができる。これは、N値化回路8の2値化処
理によって起こるデータの拡散範囲を制御することに相
当し、着目画素位置からの距離が小さい領域に、白ドッ
ト「0」若しくは黒ドット「1」のデータの拡散範囲を
抑えることで、局所的な変動を抑えた推定値NAを得る
ことができるものである。
As described above, the K-value image data is converted by the first conversion circuit 2 so as to be concentrated near the median of the signal range, and the converted K-value image data is converted into N-valued data (K> N).
By converting to N-value,
Alternatively, the data diffusion range of white dots in the shadow area can be suppressed. When the estimated value NA of the M-valued data (N <M) obtained from this N-valued data (K> N) is inversely transformed by the second conversion circuit 3, the estimated value changes in the highlight area or the shadow area. Suppressed and accurate estimated value NA
Can be obtained. This corresponds to controlling the diffusion range of the data that occurs due to the binarization processing of the N-valued circuit 8, and the white dot “0” or the black dot “1” is set in the area where the distance from the target pixel position is small. By suppressing the diffusion range of the data, it is possible to obtain the estimated value NA in which the local fluctuation is suppressed.

【0126】また、第1変換回路2、第2変換回路3の
変換動作は、白ドット「0」若しくは黒ドット「1」の
データの拡散範囲を、ハイライト領域、またはシャドウ
領域で、着目画素位置からの距離が小さくなるように抑
えるので、走査開口を小さく設定しても、推定値の変動
を抑えることができる。走査開口を小さくすることで回
路規模を小さくでき、さらに、解像度を高めることがで
きる。 この変動が小さい推定値NA(M値画像デー
タ)を、出力装置、若しくは、表示装置に出力すれば濃
度ムラの少ない高品位な画像が得られる。
In the conversion operation of the first conversion circuit 2 and the second conversion circuit 3, the data diffusion range of the white dot “0” or the black dot “1” is set in the highlighted area or the shadow area in the pixel of interest. Since the distance from the position is suppressed to be small, it is possible to suppress the fluctuation of the estimated value even if the scanning aperture is set small. By reducing the scanning aperture, the circuit scale can be reduced and the resolution can be increased. If the estimated value NA (M-value image data) with a small variation is output to the output device or the display device, a high-quality image with little density unevenness can be obtained.

【0127】また、推定回路93を図1に図示する階調
変換処理装置としたが、図2に図示する階調変換回路
1、第1多値化変換回路11、または多値化変換回路1
2としても良い。所定の走査開口内の画素値から多値化
レベルを推定することでN値階調画像をM値階調画像
(N<M)に変換する装置ならすべてに効果がある。ま
た、推定値NAの変動量は第1変換回路2の変換量、第
1加算回路111に用いるフィルタ1110の走査開口
サイズにより決定される。開口サイズが一定の場合は変
換量が大きい程効果があるが、図18(a)の直線BC
の変化量も小さくなり、エッジ成分の検出量は抑圧され
る。これは、検出したエッジ成分によって推定する開口
サイズを制御する装置では影響が大きい。例えば、文字
・図形では直線BCの変化量が大きい方が好ましい。
Although the estimation circuit 93 is the gradation conversion processing device shown in FIG. 1, the gradation conversion circuit 1, the first multi-value conversion circuit 11 or the multi-value conversion circuit 1 shown in FIG. 2 is used.
It may be 2. Any device that converts an N-value gradation image into an M-value gradation image (N <M) by estimating the multi-valued level from the pixel value within a predetermined scanning aperture is effective. Further, the fluctuation amount of the estimated value NA is determined by the conversion amount of the first conversion circuit 2 and the scanning aperture size of the filter 1110 used in the first addition circuit 111. When the aperture size is constant, the larger the conversion amount is, the more effective it is. However, the straight line BC in FIG.
Of the edge component is suppressed, and the detection amount of the edge component is suppressed. This has a great influence on a device that controls the aperture size estimated by the detected edge component. For example, in the case of characters / figures, it is preferable that the variation of the straight line BC is large.

【0128】よって、処理する画像に対応するように、
操作パネル91上に「処理モード」を設定する操作キー
を設け、操作キーの設定により設定信号を制御回路92
に出力する。制御回路92は変換メモリを内蔵し、変換
テーブルを複数種記憶する。操作パネル91から設定さ
れる「処理モード」に応じて変換テーブルを信号92
0、信号921を経由して第1変換回路2、第2変換回
路3の変換テーブルを再設定する。 図20に図示する
ように、画質調整用の変換テーブルは、例えば、変換メ
モリに格納されている。エッジ成分を重視する「文字・
図形モード」が設定されると、LUT3の先頭アドレス
から変換曲線3のテーブルが読み出され、信号920を
経由して第1変換回路2に、信号921を経由して第2
変換回路3に変換テーブルを再設定する。
Therefore, in order to correspond to the image to be processed,
An operation key for setting the "processing mode" is provided on the operation panel 91, and a setting signal is sent to the control circuit 92 by setting the operation key.
Output to. The control circuit 92 has a built-in conversion memory and stores a plurality of conversion tables. The conversion table signal 92 is sent according to the "processing mode" set from the operation panel 91.
The conversion table of the first conversion circuit 2 and the second conversion circuit 3 is reset via 0 and the signal 921. As illustrated in FIG. 20, the conversion table for image quality adjustment is stored in, for example, the conversion memory. Characters that emphasize edge components
When the “figure mode” is set, the table of the conversion curve 3 is read from the head address of the LUT 3, and the first conversion circuit 2 is sent via the signal 920 to the second conversion circuit 2 via the signal 921.
The conversion table is reset in the conversion circuit 3.

【0129】同様に、平滑性を重視する「写真モード」
が設定されるとLUT1の先頭アドレスから変換曲線1
のテーブルが読み出され、信号920を経由して第1変
換回路2に、LUT2の先頭アドレスから変換曲線2の
テーブルが読み出され、信号921を経由して第2変換
回路3にそれぞれ変換テーブルを再設定する。図20に
図示するように、複数種の変換テーブルを変換メモリに
格納することで、種々の画像に対応することができ、画
質調整もできる。
Similarly, "photograph mode" in which smoothness is important
Is set, the conversion curve 1 starts from the start address of LUT1.
Table is read out, the table of the conversion curve 2 is read out from the head address of the LUT 2 via the signal 920, and the conversion table is read out to the second conversion circuit 3 via the signal 921. Reset. As shown in FIG. 20, by storing a plurality of types of conversion tables in the conversion memory, it is possible to deal with various images and adjust the image quality.

【0130】更に、推定回路93は、制御回路92から
の制御信号61〜65を制御することでも種々の画像に
対応することができ、画質調整できる。以下、その動作
について図9、(表1)、(表2)を用いて説明を行な
う。
Further, the estimation circuit 93 can deal with various images by controlling the control signals 61 to 65 from the control circuit 92, and the image quality can be adjusted. The operation will be described below with reference to FIG. 9, (Table 1) and (Table 2).

【0131】[0131]

【表2】 [Table 2]

【0132】(表1)に示す動作により、制御信号61
(信号CONT1)は、「処理モード」に応じて強調処
理の有無(またはデータ変換の有無)など、各推定出力
の選択をする。制御信号62(信号CONT2)、制御
信号63(信号CONT3)は、図9に図示する識別信
号400を制御するものである。制御信号62(信号C
ONT2)は、図9に図示するAND回路45を制御
し、第1比較回路43で判定される結果の有効、無効を
制御する。また、制御信号63(信号CONT3)は図
9に図示するAND回路63を制御し、第2比較回路4
4で判定される結果の有効、無効を制御する。「H」レ
ベルで有効、「L」レベルで無効となる。比較レベルC
PA、比較レベルCPBは、識別レベルを操作する。比
較レベル値(CPA、CPB)が大きいほど、大きなエ
ッジ検出レベルが必要となり、識別領域が制限される。
逆に、比較レベル値(CPA、CPB)が小さいほど、
小さなエッジ検出レベルで識別するので、識別領域が広
くなる。 以上の制御信号を用いて、「処理モード」に
最適な制御値を設定する。
By the operation shown in (Table 1), the control signal 61
The (signal CONT1) selects each estimated output such as the presence / absence of emphasis processing (or the presence / absence of data conversion) according to the “processing mode”. The control signal 62 (signal CONT2) and the control signal 63 (signal CONT3) control the identification signal 400 shown in FIG. Control signal 62 (signal C
The ONT 2) controls the AND circuit 45 shown in FIG. 9 to control the validity and invalidity of the result determined by the first comparison circuit 43. The control signal 63 (signal CONT3) controls the AND circuit 63 shown in FIG.
Control the validity and invalidity of the result determined in 4. It is valid at "H" level and invalid at "L" level. Comparison level C
The PA, comparison level CPB, manipulates the discriminating level. The larger the comparison level value (CPA, CPB), the larger the edge detection level is required, and the identification area is limited.
Conversely, the smaller the comparison level value (CPA, CPB),
Since the identification is performed with a small edge detection level, the identification area is widened. The optimum control value for the "processing mode" is set using the above control signals.

【0133】「写真モード」では、平滑性が重視される
ので識別処理を行なわい。よって、CONT2を
「L」、CONT3を「L」に設定する。この設定で
は、比較レベル値CPA、CPBは無効である。「文字
・写真モード」では、文字領域の解像度と写真領域の平
滑性の両方が重視されるので、識別処理を行う。しか
し、空間周波数が広範囲に分布する網点画像による誤識
別を考慮して、識別周波数の高いエッジ検出フィルタ4
1を用いた識別信号は無効にし、網点周波数より識別周
波数が低く、かつ網点周波数による誤識別が小さいエッ
ジ検出フィルタ42を用いた識別信号を有効にする。よ
って、CONT2を「L」、CONT3を「H」に設定
する。この設定では、比較レベルCPAの値は無効、比
較レベルCPBの値は有効である。
In the "photograph mode", since the smoothness is important, the identification process is not performed. Therefore, CONT2 is set to "L" and CONT3 is set to "L". In this setting, the comparison level values CPA and CPB are invalid. In the "character / photo mode", since both the resolution of the character area and the smoothness of the picture area are important, the identification processing is performed. However, in consideration of erroneous identification due to a halftone image in which the spatial frequency is distributed over a wide range, the edge detection filter 4 having a high identification frequency
The identification signal using 1 is invalidated, and the identification signal using the edge detection filter 42 whose identification frequency is lower than the halftone dot frequency and whose misidentification due to the halftone dot frequency is small is enabled. Therefore, CONT2 is set to "L" and CONT3 is set to "H". In this setting, the value of the comparison level CPA is invalid and the value of the comparison level CPB is valid.

【0134】「文字モード」では、文字領域の解像度が
重視されるので識別処理を行う。さらに、空間周波数を
広範囲に検出した識別信号を得る為に、エッジ検出フィ
ルタ41とエッジ検出フィルタ42の両方を用いた結果
を有効にする。よって、CONT2を「H」、CONT
3を「H」に設定する。この設定では、比較レベルCP
A、比較レベルCPBの値は有効に機能する。さらに、
エッジの検出領域を広げる為に、比較レベルCPBの値
をB1からB2(B1>B2)に変更する。
In the "character mode", since the resolution of the character area is emphasized, the identification processing is performed. Further, in order to obtain the identification signal in which the spatial frequency is detected in a wide range, the result obtained by using both the edge detection filter 41 and the edge detection filter 42 is validated. Therefore, CONT2 is "H", CONT
Set 3 to "H". With this setting, the comparison level CP
A, the value of the comparison level CPB functions effectively. further,
In order to widen the edge detection area, the value of the comparison level CPB is changed from B1 to B2 (B1> B2).

【0135】また、操作パネル91に複数の画質設定キ
ーを設け、設定操作をすることで制御回路92は複数の
設定ステップで比較レベル値CPA、CPBを設定し、
識別領域を制御することで画質調整を行なう。以上のよ
うに第2の実施例によれば、制御信号61〜65を制御
することで、推定回路93は、種々の画像に対応するこ
とができ、画質調整できる。よって、N値階調画像をM
値階調画像(N<M)に変換する際に、種々の画像に対
応した最適な変換処理を行い、所望の画質調整も変換時
に実行することから、所望する画質で高品位なM値階調
画像(N<M)を生成できる。
Further, by providing a plurality of image quality setting keys on the operation panel 91 and performing the setting operation, the control circuit 92 sets the comparison level values CPA and CPB in a plurality of setting steps,
Image quality is adjusted by controlling the identification area. As described above, according to the second embodiment, by controlling the control signals 61 to 65, the estimation circuit 93 can deal with various images and can adjust the image quality. Therefore, an N-value gradation image is
When converting to a value gradation image (N <M), optimum conversion processing corresponding to various images is performed, and desired image quality adjustment is also performed at the time of conversion. A toned image (N <M) can be generated.

【0136】以上のように、本発明の第1の実施例、第
2の実施例によれば、複数のエッジ検出の加算によって
輪郭領域を検出する識別手段を有することで、K値画像
をN値画像(K>N)に変換した際の、データの拡散に
よるデータ変動に影響されることなく、画像中の輪郭領
域と非輪郭領域を精度良く識別することができる。さら
に、N値画像中の輪郭領域は先鋭度を重視し、非輪郭領
域では階調性を重視した推定処理を実行する手段を有す
ため、N値画像中の輪郭領域および非輪郭領域のいずれ
の領域においても高品位なM値画像(N<M)を推定す
ることができる。
As described above, according to the first and second embodiments of the present invention, by providing the identifying means for detecting the contour area by the addition of the plurality of edge detections, the K-value image is N The contour region and the non-contour region in the image can be accurately discriminated without being affected by the data variation due to the diffusion of the data when the value image (K> N) is converted. Further, since the contour area in the N-valued image has a means for executing the estimation processing with emphasis on sharpness and the non-contour area with emphasis on gradation, it is possible to perform the estimation processing in any of the contour area and the non-contour area in the N-valued image. It is possible to estimate a high-quality M-value image (N <M) even in the area of.

【0137】また、K値画像データを信号レンジの中央
値近傍に集中させる変換を行う手段を有し、変換された
K値画像データをN値化データ(K>N)に変換するこ
とで、N値化データの拡散範囲を抑えることができる。
このN値化データを推定手段が推定することで、走査開
口を小さくしても推定値の変動を抑えることができると
いった効果がある。小さい走査開口による処理は、解像
度が確保され、かつ低コストで実現できる。
Further, there is provided means for performing conversion for concentrating the K-value image data in the vicinity of the median of the signal range, and by converting the converted K-value image data into N-valued data (K> N), The diffusion range of N-valued data can be suppressed.
By estimating this N-valued data by the estimating means, there is an effect that the variation of the estimated value can be suppressed even if the scanning aperture is made small. The processing with a small scanning aperture can ensure the resolution and can be realized at low cost.

【0138】また、特性の異なる複数のエッジ検出手段
の出力を画像特性に合わせて混合したエッジ成分量を生
成し、エッジ成分量によって複数の空間フィルタを混合
する手段を有することから、2値的な処理の状態変更を
伴わずに、かつ空間周波数に対して広範囲のエッジ成分
を抽出できる。よって、種々の画像若しくは画像領域に
適応した階調変換を行うことができる。
Further, since there is a means for mixing the outputs of a plurality of edge detecting means having different characteristics in accordance with the image characteristics to generate an edge component quantity and mixing a plurality of spatial filters according to the edge component quantity, it is a binary value. It is possible to extract a wide range of edge components with respect to the spatial frequency without changing the processing state. Therefore, gradation conversion suitable for various images or image regions can be performed.

【0139】また、N値階調画像をM値階調画像(N<
M)に変換する際に、種々の画像に対応した最適な変換
処理を行うように制御する制御手段を有し、所望の画質
調整も変換時に実行する手段を有することから、所望の
画質で高品位なM値階調画像(N<M)を生成できる。
また、本発明を複写機、プリンタ、表示装置、FAX、
文書ファイルなどに応用することで、画像データ容量を
削減して記憶、データ転送を実現でき、出力および表示
段階で高品位な推定画像を得ることができる。さらに、
白黒画像に限らずカラーの出力装置およびカラーの表示
装置およびカラーのFAXに応用すれば、画質を維持し
ながら、さらに画像データ容量の削減を行なうことがで
きる。カラーでは、RGB画像、若しくは、YMC画像
のそれぞれの色に、白黒と同様の処理を行うことで実現
できる。
Further, the N-value gradation image is converted into the M-value gradation image (N <
When the image is converted into M), it has a control means for controlling so as to perform an optimum conversion process corresponding to various images, and has a means for executing a desired image quality adjustment at the time of conversion. It is possible to generate a quality M-value gradation image (N <M).
Further, the present invention can be applied to a copying machine, a printer, a display device, a FAX,
By applying it to a document file or the like, it is possible to reduce the image data capacity, realize storage and data transfer, and obtain a high-quality estimated image at the output and display stages. further,
If the present invention is applied not only to a monochrome image but also to a color output device, a color display device, and a color FAX, the image data capacity can be further reduced while maintaining the image quality. The color can be realized by performing the same processing as black and white on each color of the RGB image or the YMC image.

【0140】また、本発明の第1、第2の実施例におけ
る領域識別装置及び階調変換処理装置をすべてCPU、
またはDSPを用いた演算処理(ソフトウェア処理)に
よって実現してもよい。また、本発明の階調変換処理装
置を画像データの圧縮・伸長処理として用いると、固定
長の符号化とビットマップ構造を維持した圧縮・伸長処
理が実現できる。固定長の符号化は、固定した時間で圧
縮・伸長を行うので、リアルタイム処理を行う装置に最
適である。さらに、ビットマップ構造を維持した圧縮
は、画像記録装置内の任意の位置に対する重ね書き編集
を可能にし、可変長符号化方式のように圧縮画像を一度
再展開して編集する必要がないために編集処理の高速化
を図ることができる。
Further, the area identification device and the gradation conversion processing device in the first and second embodiments of the present invention are all CPUs,
Alternatively, it may be realized by arithmetic processing (software processing) using a DSP. Further, when the gradation conversion processing device of the present invention is used as compression / expansion processing of image data, fixed-length coding and compression / expansion processing maintaining a bitmap structure can be realized. Fixed-length encoding is optimal for a device that performs real-time processing because it performs compression / decompression in a fixed time. Furthermore, the compression that maintains the bitmap structure enables overwriting and editing at any position in the image recording device, and does not require recompressing and editing the compressed image once unlike the variable-length coding method. It is possible to speed up the editing process.

【0141】[0141]

【発明の効果】以上のように本発明は、複数のエッジ検
出の加算によって輪郭領域を検出する識別手段を有する
ことで、K値画像をN値画像(K>N)に変換した際
の、データの拡散によるデータ変動に影響されることな
く、画像中の輪郭領域と非輪郭領域を精度良く識別する
ことができるといった効果がある。
As described above, according to the present invention, when the K-value image is converted into the N-value image (K> N) by having the identifying means for detecting the contour area by the addition of the plurality of edge detections, There is an effect that the contour area and the non-contour area in the image can be accurately distinguished without being affected by the data variation due to the diffusion of the data.

【0142】さらに、N値画像中の輪郭領域は先鋭度を
重視し、非輪郭領域では階調性を重視した推定処理を実
行する手段を有すため、N値画像中の輪郭領域および非
輪郭領域のいずれの領域においても高品位なM値画像
(N<M)を推定することができるといった効果があ
る。また、K値画像データを信号レンジの中央値近傍に
集中させる変換を行う手段を有し、変換されたK値画像
データをN値化データ(K>N)に変換することで、N
値化データの拡散範囲を抑えることができる。このN値
化データを推定手段が推定することで、走査開口を小さ
くしても推定値の変動を抑えることができるといった効
果がある。小さい走査開口による処理は、解像度が確保
され、かつ低コストで実現できるといった効果がある。
Further, the contour area in the N-valued image emphasizes sharpness, and the non-contoured area has means for executing the estimation processing with emphasis on gradation. There is an effect that a high-quality M-value image (N <M) can be estimated in any of the areas. Further, it has means for performing conversion for concentrating the K-value image data in the vicinity of the median of the signal range, and by converting the converted K-value image data into N-valued data (K> N), N
The diffusion range of the digitized data can be suppressed. By estimating this N-valued data by the estimating means, there is an effect that the variation of the estimated value can be suppressed even if the scanning aperture is made small. The processing by the small scanning aperture has the effects that the resolution is secured and the processing can be realized at low cost.

【0143】また、特性の異なる複数のエッジ検出手段
の出力を画像特性に合わせて混合したエッジ成分量を生
成し、エッジ成分量によって複数の空間フィルタを混合
する手段を有することから、2値的な処理の状態変更を
伴わずに、かつ空間周波数に対して広範囲のエッジ成分
を抽出できる。よって、種々の画像若しくは画像領域に
適応した階調変換を行うことができるといった効果があ
る。
Further, since the output of a plurality of edge detecting means having different characteristics is mixed according to the image characteristics to generate an edge component amount, and a means for mixing a plurality of spatial filters according to the edge component amount is provided, it is a binary value. It is possible to extract a wide range of edge components with respect to the spatial frequency without changing the processing state. Therefore, there is an effect that gradation conversion suitable for various images or image regions can be performed.

【0144】また、N値階調画像をM値階調画像(N<
M)に変換する際に、種々の画像に対応した最適な変換
処理を行うように制御する制御手段を有し、所望の画質
調整も変換時に実行する手段を有することから、所望の
画質で高品位なM値階調画像(N<M)を生成できると
いった効果がある。
Further, the N-value gradation image is converted into the M-value gradation image (N <
When the image is converted into M), it has a control means for controlling so as to perform an optimum conversion process corresponding to various images, and has a means for executing a desired image quality adjustment at the time of conversion. There is an effect that a quality M-value gradation image (N <M) can be generated.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例における領域識別装置A
を含む階調変換処理装置のブロック図である。
FIG. 1 is an area identification device A according to a first embodiment of the present invention.
It is a block diagram of a gradation conversion processing device including.

【図2】本発明の第1の実施例の図1における階調変換
回路1のブロック図である。
FIG. 2 is a block diagram of the gradation conversion circuit 1 in FIG. 1 according to the first embodiment of the present invention.

【図3】(a)第2加算回路121に用いるフィルタ図
(1210)である。 (b)第1加算回路111に用いるフィルタ図(111
0)である。
FIG. 3A is a filter diagram (1210) used in the second adder circuit 121; (B) Filter diagram used in the first adder circuit 111 (111
0).

【図4】エッジ抽出回路19に用いるフィルタ図(19
00、1901)である。
FIG. 4 is a filter diagram used in an edge extraction circuit 19 (19
00, 1901).

【図5】第1の実施例に用いる混合回路13の動作説明
図である。
FIG. 5 is an operation explanatory diagram of the mixing circuit 13 used in the first embodiment.

【図6】エッジ抽出回路19の改良ブロック図である。6 is an improved block diagram of the edge extraction circuit 19. FIG.

【図7】(a)第1エッジ検出回路15に用いるフィル
タ図(1500)である。 (b)第2エッジ検出回路16に用いるフィルタ図(1
600、1601)である。
7A is a filter diagram (1500) used in the first edge detection circuit 15. FIG. (B) Filter diagram used in the second edge detection circuit 16 (1
600, 1601).

【図8】第1の実施例で用いるフィルタの空間周波数特
性図である。
FIG. 8 is a spatial frequency characteristic diagram of the filter used in the first embodiment.

【図9】識別回路4のブロック図である。9 is a block diagram of an identification circuit 4. FIG.

【図10】(a)エッジ検出フィルタ41、エッジ検出
フィルタ42の検出位置の配置図っである。 (b)エッジ検出フィルタ41に用いるフィルタ図(4
100、4101)である。 (c)エッジ検出フィルタ42に用いるフィルタ図(4
200、4201)である。
FIG. 10A is a layout diagram of detection positions of the edge detection filter 41 and the edge detection filter 42. (B) Filter diagram used for the edge detection filter 41 (4
100, 4101). (C) Filter diagram used for the edge detection filter 42 (4
200, 4201).

【図11】エッジ検出フィルタ41、エッジ検出フィル
タ42の改良ブロック図である。
11 is an improved block diagram of an edge detection filter 41 and an edge detection filter 42. FIG.

【図12】(a)2値化データ100のパターン図であ
る。 (b)エッジ検出フィルタ41の第5検出器A(41
e)のエッジ出力図である。 (c)エッジ検出フィルタ41のエッジ出力ESAの出
力図である。 (d)改良したエッジ検出フィルタ41のエッジ出力E
SAの出力図である。
12 (a) is a pattern diagram of the binarized data 100. FIG. (B) The fifth detector A (41
It is an edge output figure of e). (C) An output diagram of the edge output ESA of the edge detection filter 41. (D) Edge output E of the improved edge detection filter 41
It is an output figure of SA.

【図13】データ変換回路7のブロック図である。FIG. 13 is a block diagram of a data conversion circuit 7.

【図14】(a)はデータ変換回路7の係数設定を説明
するためのフィルタ図(1000)である。 (b)はデータ変換曲線図である。
14A is a filter diagram (1000) for explaining coefficient setting of the data conversion circuit 7. FIG. (B) is a data conversion curve diagram.

【図15】データ変換回路7の動作説明図である。FIG. 15 is an operation explanatory diagram of the data conversion circuit 7.

【図16】強調回路5のブロック図である。16 is a block diagram of an emphasis circuit 5. FIG.

【図17】本発明の第2の実施例における階調変換処理
装置のブロック図である。
FIG. 17 is a block diagram of a gradation conversion processing device according to a second embodiment of the present invention.

【図18】(a)第1変換回路2、第2変換回路3の変
換動作の説明図である。 (b)変換前の走査開口位置と画素位置の関係図であ
る。 (c)変換後の走査開口位置と画素位置の関係図であ
る。
FIG. 18A is an explanatory diagram of a conversion operation of the first conversion circuit 2 and the second conversion circuit 3. (B) It is a relationship diagram between the scanning aperture position and the pixel position before conversion. FIG. 6C is a relationship diagram between the scanning aperture position and the pixel position after conversion.

【図19】(a)K値画像データのデータ図である。 (b)図19(a)のK値画像データを2値化処理した
ときの2値化データ図である。 (c)図19(b)の2値化データ100を推定した場
合の推定値NAの出力データ図である。 (d)図19(a)のK値画像データを変換曲線1で変
換し、2値化処理したときの2値化データ図である。 (e)図19(d)の2値化データ100を推定した場
合の推定値NAの出力データ図である。 (f)図19(e)の推定値NAを、変換曲線2で逆変
換した出力データ図である。
FIG. 19 (a) is a data diagram of K-value image data. FIG. 19B is a binarized data diagram when the K-value image data of FIG. 19A is binarized. FIG. 20C is an output data diagram of the estimated value NA when the binarized data 100 of FIG. 19B is estimated. FIG. 20D is a binarized data diagram when the K-value image data of FIG. 19A is converted by the conversion curve 1 and binarized. 19E is an output data diagram of the estimated value NA when the binarized data 100 of FIG. 19D is estimated. (F) An output data diagram obtained by inversely converting the estimated value NA of FIG.

【図20】変換テーブルの説明図である。FIG. 20 is an explanatory diagram of a conversion table.

【図21】N値化回路8のブロック図である。FIG. 21 is a block diagram of an N-value conversion circuit 8.

【図22】エッジ検出フィルタ41の第n検出器Aの回
路ブロック図である。
22 is a circuit block diagram of the n-th detector A of the edge detection filter 41. FIG.

【図23】フィルタ1500の回路ブロック図である。FIG. 23 is a circuit block diagram of a filter 1500.

【図24】第1加算回路111の回路ブロック図であ
る。
FIG. 24 is a circuit block diagram of a first adder circuit 111.

【符号の説明】[Explanation of symbols]

1 階調変換回路 2 第1変換回路 3 第2変換回路 4 識別回路 5 強調回路 6 選択回路 7 データ変換回路 8 N値化回路 9 画像メモリ 11 第1多値化変換回路 12 第2多値化変換回路 13 混合回路 14 量子化回路 15 第1エッジ検出回路 16 第2エッジ検出回路 17 混合回路 19 エッジ抽出回路 41 エッジ検出フィルタ 42 エッジ検出フィルタ 91 操作パネル 92 制御回路 93 推定回路 DESCRIPTION OF SYMBOLS 1 gradation conversion circuit 2 1st conversion circuit 3 2nd conversion circuit 4 identification circuit 5 emphasizing circuit 6 selection circuit 7 data conversion circuit 8 N-value conversion circuit 9 image memory 11 first multi-value conversion circuit 12 second multi-value conversion Conversion circuit 13 Mixing circuit 14 Quantization circuit 15 First edge detection circuit 16 Second edge detection circuit 17 Mixing circuit 19 Edge extraction circuit 41 Edge detection filter 42 Edge detection filter 91 Operation panel 92 Control circuit 93 Estimating circuit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 1/40 101 E ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Office reference number FI technical display location H04N 1/40 101 E

Claims (23)

【特許請求の範囲】[Claims] 【請求項1】 エッジ検出特性が同一で、かつ着目位置
が異なる複数のフィルタと、 前記複数のフィルタのそれぞれの出力を所定の値と比較
し、前記所定の値以上の出力のみ加算する加算手段と、 前記加算手段の出力を所定の判定レベルで判定し、所定
の判定値を出力する判定手段とを備え、 前記所定の判定値よりN値画像中の輪郭領域と非輪郭領
域を識別する領域識別装置。
1. An adding means for comparing a plurality of filters having the same edge detection characteristic and different focus positions with respective outputs of the plurality of filters with a predetermined value, and adding only outputs having the predetermined value or more. And a determination unit that determines the output of the addition unit at a predetermined determination level and outputs a predetermined determination value, and a region that discriminates a contour region and a non-contour region in an N-value image from the predetermined determination value. Identification device.
【請求項2】 前記領域識別装置は、更に、複数の処理
モード若しくは画質調整値を設定する設定手段と、前記
設定手段の設定内容に応じて前記所定の判定レベルを制
御する第1の制御手段と、を備えることを特徴とする請
求項1記載の領域識別装置。
2. The area identification device further comprises setting means for setting a plurality of processing modes or image quality adjustment values, and first control means for controlling the predetermined determination level according to the setting contents of the setting means. The area identification device according to claim 1, further comprising:
【請求項3】 エッジ検出特性が同一で、かつ着目位置
が異なる複数の第1のフィルタの出力を加算する第1の
検出手段と、 前記第1のフィルタとエッジ検出特性が異なる複数の第
2のフィルタにより構成され、エッジ検出特性が同一
で、かつ着目位置が異なる前記複数の第2のフィルタの
出力を加算する第2の検出手段と、 前記第1の検出手段の出力を第1の判定レベルで判定
し、所定の第1の判定値を出力する第1の判定手段と、 前記第2の検出手段の出力を第2の判定レベルで判定
し、所定の第2の判定値を出力する第2の判定手段とを
備え、 前記所定の第1の判定値と前記所定の第2の判定値に基
づいてN値画像中の輪郭領域と非輪郭領域を識別する領
域識別装置。
3. A first detection unit for adding outputs of a plurality of first filters having the same edge detection characteristic and different focus positions, and a plurality of second detection units having different edge detection characteristics from the first filter. Second detection means for adding the outputs of the plurality of second filters having the same edge detection characteristics and different focus positions, and the output of the first detection means for the first determination. A first determination unit that makes a determination based on a level and outputs a predetermined first determination value, and an output from the second detection unit is determined at a second determination level, and outputs a predetermined second determination value. A region discriminating apparatus, comprising a second discriminating means, for discriminating a contour region and a non-contour region in an N-value image based on the predetermined first judgment value and the predetermined second judgment value.
【請求項4】 複数の第1のフィルタの各出力をそれぞ
れ第1のレベルと比較し、前記第1のレベル以上の出力
のみ加算した結果を前記第1の検出手段の出力とし、前
記第2の検出手段は、複数の第2のフィルタの各出力を
それぞれ第2のレベルと比較し、前記第2のレベル以上
の出力のみ加算した結果を前記第2の検出手段の出力と
することを特徴とする請求項3記載の領域識別装置。
4. The output of the first detecting means is the result of comparing the outputs of the plurality of first filters with the first level and adding only the outputs of the first level and above. Detecting means compares each output of the plurality of second filters with a second level, and outputs only the output of the second level or higher as the output of the second detecting means. The area identification device according to claim 3.
【請求項5】 前記領域識別装置は、更に、複数の処理
モード若しくは画質調整値を設定する設定手段と、前記
設定手段の設定内容に応じて前記第1の判定値若しくは
前記第2の判定値の有効、無効を制御する第2の制御手
段と、を備えることを特徴とする請求項3記載の領域識
別装置。
5. The area identification device further includes setting means for setting a plurality of processing modes or image quality adjustment values, and the first determination value or the second determination value according to the setting content of the setting means. The area identification device according to claim 3, further comprising: second control means for controlling the validity and invalidity of the.
【請求項6】 N値階調画像をM値階調画像(N<M)
に変換する階調変換処理装置において、 前記N値階調画像中の着目画素およびその周辺画素に所
定の重み係数を乗じて加算し、前記N値階調画像を前記
M値階調画像(N<M)に変換する第1の平滑フィルタ
と、 走査開口サイズ若しくは加算する重み係数を異ならせる
ことで、前記第1の平滑フィルタより平滑度を大きく
し、前記N値階調画像を前記M値階調画像(N<M)に
変換する第2の平滑フィルタと、 前記N値階調画像中のエッジ量を検出するエッジ検出手
段と、 前記エッジ量から混合比を算出する混合比制御手段と、 前記第1の平滑フィルタと前記第2の平滑フィルタを前
記混合比に基づいて混合する混合処理手段と、 前記N値階調画像中の非輪郭領域と輪郭領域を識別する
識別手段と、 前記識別手段からの制御信号によって非輪郭領域は前記
混合処理手段の出力を選択し、輪郭領域では前記第1の
平滑フィルタの出力を選択する選択手段と、を備えたこ
とを特徴とする階調変換処理装置。
6. An N-value gradation image is changed to an M-value gradation image (N <M).
In the gradation conversion processing device for converting to N, the target pixel and its peripheral pixels in the N-value gradation image are multiplied by a predetermined weighting coefficient and added, and the N-value gradation image is converted into the M-value gradation image (N <M) The first smoothing filter and the scanning aperture size or the weighting coefficient to be added are made different to increase the smoothness as compared with the first smoothing filter, and the N-value gradation image is converted into the M value. A second smoothing filter for converting into a gradation image (N <M); edge detecting means for detecting an edge amount in the N-value gradation image; and mixture ratio control means for calculating a mixture ratio from the edge amount. Mixing processing means for mixing the first smoothing filter and the second smoothing filter based on the mixing ratio; identification means for identifying a non-contour area and a contour area in the N-value gradation image; By the control signal from the identification means A gradation conversion processing device comprising: a selection means for selecting an output of the mixing processing means in the non-contour area and a selection means for selecting an output of the first smoothing filter in the contour area.
【請求項7】 前記識別手段は、請求項1または請求項
3に記載の領域識別装置であることを特徴とする請求項
6記載の階調変換処理装置。
7. The gradation conversion processing apparatus according to claim 6, wherein the identification means is the area identification apparatus according to claim 1 or 3.
【請求項8】 N値階調画像をM値階調画像(N<M)
に変換する階調変換処理装置において、 前記N値階調画像中の着目画素およびその周辺画素に所
定の重み係数を乗じて加算し、前記N値階調画像を前記
M値階調画像(N<M)に変換する第1の平滑フィルタ
と、 走査開口サイズ若しくは加算する重み係数を異ならせる
ことで、前記第1の平滑フィルタより平滑度を大きく
し、前記N値階調画像を前記M値階調画像(N<M)に
変換する第2の平滑フィルタと、 前記N値階調画像中のエッジ量を検出するエッジ検出手
段と、 前記エッジ量から混合比を算出する混合比制御手段と、 前記第1の平滑フィルタと前記第2の平滑フィルタを前
記混合比に基づいて混合する混合処理手段と、 前記第1の平滑フィルタの出力を強調する強調手段と、 前記N値階調画像中の非輪郭領域と輪郭領域を識別する
識別手段と、 前記識別手段からの制御信号によって非輪郭領域は前記
混合処理手段の出力を選択し、輪郭領域では前記強調手
段の出力を選択する選択手段と、を備えたことを特徴と
する階調変換処理装置。
8. An N-value gradation image is converted to an M-value gradation image (N <M).
In the gradation conversion processing device for converting to N, the target pixel and its peripheral pixels in the N-value gradation image are multiplied by a predetermined weighting coefficient and added, and the N-value gradation image is converted into the M-value gradation image (N <M) The first smoothing filter and the scanning aperture size or the weighting coefficient to be added are made different to increase the smoothness as compared with the first smoothing filter, and the N-value gradation image is converted into the M value. A second smoothing filter for converting into a gradation image (N <M); edge detecting means for detecting an edge amount in the N-value gradation image; and mixture ratio control means for calculating a mixture ratio from the edge amount. A mixing processing unit that mixes the first smoothing filter and the second smoothing filter based on the mixing ratio; an emphasizing unit that emphasizes the output of the first smoothing filter; Distinguish between non-contoured and contoured regions of Identifying means, and a selecting means for selecting the output of the mixing processing means in the non-contour area and the output of the emphasizing means in the contour area according to the control signal from the identifying means. Gradation conversion processing device.
【請求項9】 前記識別手段は、請求項1または請求項
3に記載の領域識別装置であることを特徴とする請求項
8記載の階調変換処理装置。
9. The gradation conversion processing apparatus according to claim 8, wherein the identification means is the area identification apparatus according to claim 1 or 3.
【請求項10】 N値階調画像をM値階調画像(N<
M)に変換する階調変換処理装置において、 前記N値階調画像中の着目画素およびその周辺画素に所
定の重み係数を乗じて加算し、前記N値階調画像を前記
M値階調画像(N<M)に変換する第1の平滑フィルタ
と、 走査開口サイズ若しくは加算する重み係数を異ならせる
ことで、前記第1の平滑フィルタより平滑度を大きく
し、前記N値階調画像を前記M値階調画像(N<M)に
変換する第2の平滑フィルタと、 前記N値階調画像中のエッジ量を検出するエッジ検出手
段と、 前記エッジ量から混合比を算出する混合比制御手段と、 前記第1の平滑フィルタと前記第2の平滑フィルタを前
記混合比に基づいて混合する第1の処理手段と、 前記第1の平滑フィルタの着目画素を含む走査開口内の
1つの行方向若しくは1つの列方向の所定の重み係数の
和と着目画素を含まない走査開口内の端に位置する1つ
の行方向若しくは1つの列方向の所定の重み係数の和に
基づいて前記第1の平滑フィルタの出力を変更する第2
の処理手段と、 前記N値階調画像中の輪郭領域と非輪郭領域を識別する
識別手段と、 前記識別手段からの制御信号によって非輪郭領域は前記
第1の処理手段を選択し、輪郭領域では前記第2の処理
手段を選択する選択手段と、を備えたことを特徴とする
階調変換処理装置。
10. An N-value gradation image is converted into an M-value gradation image (N <
In the gradation conversion processing device for converting into M), the target pixel in the N-value gradation image and its peripheral pixels are multiplied by a predetermined weighting coefficient and added, and the N-value gradation image is converted into the M-value gradation image. The first smoothing filter for converting to (N <M) and the scanning aperture size or the weighting coefficient to be added are made to have a higher smoothness than that of the first smoothing filter, and the N-value gradation image is A second smoothing filter for converting into an M-value gradation image (N <M), an edge detecting means for detecting an edge amount in the N-value gradation image, and a mixture ratio control for calculating a mixture ratio from the edge amount. Means, first processing means for mixing the first smoothing filter and the second smoothing filter based on the mixing ratio, and one row in a scanning aperture including a pixel of interest of the first smoothing filter. Direction or one column direction The change of the output of the first smoothing filter based on the sum of a row direction or one predetermined weighting factor in the column direction on the edge of the scanning opening without the sum and the pixel of interest seen factor 2
Processing means, identifying means for identifying a contour area and a non-contour area in the N-value gradation image, and a control signal from the identifying means selects the first processing means for the non-contour area, Then, a gradation conversion processing device comprising: a selection unit that selects the second processing unit.
【請求項11】 前記識別手段は、請求項1または請求
項3に記載の領域識別装置であることを特徴とする請求
項10記載の階調変換処理装置。
11. The gradation conversion processing apparatus according to claim 10, wherein the identification means is the area identification apparatus according to claim 1 or 3.
【請求項12】 前記階調変換処理装置は、更に、複数
の処理モード若しくは画質調整値を設定する設定手段
と、前記設定手段の設定内容に応じて識別手段の第1の
制御手段若しくは第2の制御手段を制御する第3の制御
手段を備え、前記設定内容により識別処理を異ならせる
ことを特徴とする請求項7または請求項9または請求項
11記載の階調変換処理装置。
12. The gradation conversion processing device further includes a setting means for setting a plurality of processing modes or image quality adjustment values, and a first control means or a second control means of the identification means according to the setting contents of the setting means. 12. The gradation conversion processing device according to claim 7, further comprising a third control means for controlling the control means, wherein the identification processing is different depending on the setting content.
【請求項13】 入力したN値画像データ中のエッジ量
を検出する特性の異なる複数のエッジ検出手段と、 前記複数のエッジ検出手段の出力を混合し、エッジ抽出
量を生成する抽出手段と、 前記N値画像を平滑する重み係数若しくは平滑領域の異
なる複数の空間フィルタと、 前記複数の空間フィルタの出力を所定レベルに正規化
し、前記抽出手段からの出力に基づいて正規化した複数
の空間フィルタの出力を選択若しくは混合する混合処理
手段とを備え、前記N値画像をM値画像(N<M)に変
換することを特徴とする階調変換処理装置。
13. A plurality of edge detecting means having different characteristics for detecting an edge amount in input N-valued image data, and an extracting means for mixing outputs of the plurality of edge detecting means to generate an edge extraction amount. A plurality of spatial filters having different weighting factors or different smoothing areas for smoothing the N-valued image, and a plurality of spatial filters that normalize outputs of the plurality of spatial filters to a predetermined level and normalize based on the output from the extracting means. And a mixing processing unit that selects or mixes the outputs of the above, and converts the N-valued image into an M-valued image (N <M).
【請求項14】 前記抽出手段は、検出特性の異なる複
数のエッジ検出手段の出力から混合比を算出し、前記混
合比に基づいて前記複数のエッジ検出手段の出力を混合
することで前記エッジ抽出量を生成することを特徴とす
る請求項13記載の階調変換処理装置。
14. The edge extracting unit calculates the mixing ratio from outputs of a plurality of edge detecting units having different detection characteristics, and mixes outputs of the plurality of edge detecting units based on the mixing ratio. 14. The gradation conversion processing device according to claim 13, wherein the gradation conversion processing device generates an amount.
【請求項15】 前記空間フィルタは重み係数若しくは
平滑領域に基づいてN値画像の着目画素およびその周辺
画素の加算を行なうことを特徴とする請求項13記載の
階調変換処理装置。
15. The gradation conversion processing apparatus according to claim 13, wherein the spatial filter adds the pixel of interest of the N-value image and its peripheral pixels based on a weighting coefficient or a smooth region.
【請求項16】 前記正規化は前記空間フィルタの重み
係数の和と前記N値画像の階調数Nに基づいて所定レベ
ルに変換することを特徴とする請求項13記載の階調変
換処理装置。
16. The tone conversion processing apparatus according to claim 13, wherein the normalization is performed by converting to a predetermined level based on a sum of weighting coefficients of the spatial filter and the number of gradations N of the N-valued image. .
【請求項17】 K値画像データをK値画像データの信
号範囲の中央値近傍に集中するようにデータ変換する第
1の変換手段と、 データ変換されたK値画像データをN値化データ(K>
N)に変換するN値化処理手段と、 前記N値化処理手段で生成されるN値化データからM値
画像データ(N<M)を推定する推定手段と、 前記M値画像データ(N<M)を前記第1の変換手段の
データ変換に連動して逆変換を行なう第2の変換手段
と、を備えたことを特徴とする階調変換処理装置。
17. A first conversion means for converting the K-valued image data so that the K-valued image data is concentrated in the vicinity of the median of the signal range of the K-valued image data, and the K-valued image data converted into N-valued data ( K>
N-value conversion processing means for converting into N), estimation means for estimating M-value image data (N <M) from the N-valued data generated by the N-value conversion processing means, and the M-value image data (N <M), and second conversion means for performing inverse conversion by interlocking with data conversion of the first conversion means, a gradation conversion processing device.
【請求項18】 前記第1の変換手段は、K値画像デー
タの信号範囲の中央値で変換量を最小にすることを特徴
とする請求項17記載の階調変換処理装置。
18. The gradation conversion processing apparatus according to claim 17, wherein the first conversion means minimizes the conversion amount at the median value of the signal range of the K-value image data.
【請求項19】 前記第1の変換手段は、K値画像デー
タの信号範囲の中央値より小さい領域、若しくはK値画
像データの信号範囲の中央値より大きい領域で変換量を
最大にすることを特徴とする請求項17記載の階調変換
処理装置。
19. The first conversion means maximizes the conversion amount in an area smaller than the median of the signal range of the K-value image data or in an area larger than the median of the signal range of the K-value image data. 18. The gradation conversion processing device according to claim 17, which is characterized in that.
【請求項20】 前記推定手段は、請求項6または請求
項8または請求項10または請求項13記載の階調変換
処理装置であることを特徴とする請求項17記載の階調
変換処理装置。
20. The gradation conversion processing device according to claim 17, wherein said estimating means is the gradation conversion processing device according to claim 6, 8 or 10, or 13.
【請求項21】 前記階調変換処理装置は、更に、複数
の処理モード若しくは画質調整値を設定する設定手段
と、複数の処理モード若しくは画質調整値に対応する複
数種の変換テーブルを有し、前記設定手段の設定内容に
応じて前記変換テーブルの1つを選択して、第1の変換
手段と第2の変換手段にそれぞれ再設定する第4の制御
手段とを備えることを特徴とする請求項17記載の階調
変換処理装置。
21. The gradation conversion processing device further comprises setting means for setting a plurality of processing modes or image quality adjustment values, and a plurality of types of conversion tables corresponding to the plurality of processing modes or image quality adjustment values. 4. A fourth control means for selecting one of the conversion tables according to the setting content of the setting means and resetting the conversion table to the first conversion means and the second conversion means, respectively. Item 17. The gradation conversion processing device according to item 17.
【請求項22】 前記N値画像が2値画像であることを
特徴とする請求項1、請求項3記載の領域識別装置。
22. The area identifying apparatus according to claim 1, wherein the N-valued image is a binary image.
【請求項23】 前記N値画像が2値画像であることを
特徴とする請求項6、請求項8、請求項10、請求項1
3、請求項17記載の階調変換処理装置。
23. The image processing method according to claim 6, wherein the N-valued image is a binary image.
3. The gradation conversion processing device according to claim 17.
JP24366194A 1993-10-08 1994-10-07 Region identification device and gradation conversion processing device Expired - Fee Related JP3380065B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24366194A JP3380065B2 (en) 1993-10-08 1994-10-07 Region identification device and gradation conversion processing device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5-252853 1993-03-10
JP25285393 1993-10-08
JP24366194A JP3380065B2 (en) 1993-10-08 1994-10-07 Region identification device and gradation conversion processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2002323717A Division JP3650766B2 (en) 1993-10-08 2002-11-07 Gradation conversion processing device

Publications (2)

Publication Number Publication Date
JPH07170395A true JPH07170395A (en) 1995-07-04
JP3380065B2 JP3380065B2 (en) 2003-02-24

Family

ID=26536360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24366194A Expired - Fee Related JP3380065B2 (en) 1993-10-08 1994-10-07 Region identification device and gradation conversion processing device

Country Status (1)

Country Link
JP (1) JP3380065B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007300624A (en) * 2006-04-28 2007-11-15 Xerox Corp System and method for enhancing stored binary images
JP2008160415A (en) * 2006-12-22 2008-07-10 Canon Inc Image processing apparatus, image processing method, image processing program, and storage medium
JP2009037634A (en) * 2001-11-16 2009-02-19 Mitsutoyo Corp Operation method of machine vision system and case-specific boundary positioning system
JP2009164436A (en) * 2008-01-09 2009-07-23 Hitachi High-Technologies Corp Semiconductor defect inspection device and method thereof
WO2009101693A1 (en) * 2008-02-14 2009-08-20 Fujitsu Limited Image processing device, image processing method, and image processing program
WO2010058497A1 (en) * 2008-11-21 2010-05-27 三菱電機株式会社 Image processing device and image processing method
JP2010130119A (en) * 2008-11-25 2010-06-10 Samsung Electronics Co Ltd Image processor, image processing method, program, and display device
WO2015008663A1 (en) * 2013-07-16 2015-01-22 株式会社Jvcケンウッド Focus control device, and focus control method
US9019362B2 (en) 2009-12-03 2015-04-28 Hitachi High-Technologies Corporation Charged particle beam device and a method of improving image quality of the same
US11024033B2 (en) 2017-12-28 2021-06-01 Samsung Electronics Co., Ltd. Method and apparatus for processing image and computer program product thereof

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037634A (en) * 2001-11-16 2009-02-19 Mitsutoyo Corp Operation method of machine vision system and case-specific boundary positioning system
JP2007300624A (en) * 2006-04-28 2007-11-15 Xerox Corp System and method for enhancing stored binary images
JP2008160415A (en) * 2006-12-22 2008-07-10 Canon Inc Image processing apparatus, image processing method, image processing program, and storage medium
JP2009164436A (en) * 2008-01-09 2009-07-23 Hitachi High-Technologies Corp Semiconductor defect inspection device and method thereof
JP4847591B2 (en) * 2008-02-14 2011-12-28 富士通株式会社 Image processing apparatus, image processing method, and image processing program
WO2009101693A1 (en) * 2008-02-14 2009-08-20 Fujitsu Limited Image processing device, image processing method, and image processing program
US8233706B2 (en) 2008-02-14 2012-07-31 Fujitsu Limited Image processing apparatus and image processing method
US8477210B2 (en) 2008-11-21 2013-07-02 Mitsubishi Electric Corporation Image processing device and image processing method
WO2010058497A1 (en) * 2008-11-21 2010-05-27 三菱電機株式会社 Image processing device and image processing method
JP2010130119A (en) * 2008-11-25 2010-06-10 Samsung Electronics Co Ltd Image processor, image processing method, program, and display device
US9019362B2 (en) 2009-12-03 2015-04-28 Hitachi High-Technologies Corporation Charged particle beam device and a method of improving image quality of the same
WO2015008663A1 (en) * 2013-07-16 2015-01-22 株式会社Jvcケンウッド Focus control device, and focus control method
US11024033B2 (en) 2017-12-28 2021-06-01 Samsung Electronics Co., Ltd. Method and apparatus for processing image and computer program product thereof

Also Published As

Publication number Publication date
JP3380065B2 (en) 2003-02-24

Similar Documents

Publication Publication Date Title
US5760922A (en) Area recognizing device and gradation level converting device employing area recognizing device
US5886797A (en) Method and apparatus for controlling a spatial filtering process based on characteristics of image data
JPH05344340A (en) Gradation conversion processing method and device
JPH05268462A (en) Picture processor
JP2001251517A (en) Image processing method, image processor and image processing system
JPH06105160A (en) Image controller
JP3380065B2 (en) Region identification device and gradation conversion processing device
JP2002077623A (en) Image processing apparatus
JP3650766B2 (en) Gradation conversion processing device
JPH0669212B2 (en) Adaptive pseudo halftone circuit
JPH10283470A (en) Image processor, image processing method and recording medium
JP3769004B2 (en) Gradation conversion processing device
JP2001109889A (en) Image processor
JPH05136988A (en) Variable notation processor for binary picture
JPH0877350A (en) Image processor
JP2851724B2 (en) Image processing device
JPH07302190A (en) Divider and image signal reader using the same
JPH0662230A (en) Image forming device
JP2702133B2 (en) Image processing method
JP2006245938A (en) Image processing apparatus
JPH05160996A (en) Image processing method
JPH09200499A (en) Image processor
JP3136650B2 (en) Image processing device
JP3346111B2 (en) Image processing device
JP3069466B2 (en) Image segmentation method

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071213

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081213

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091213

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091213

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101213

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101213

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111213

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees