JP3769004B2 - Gradation conversion processing device - Google Patents

Gradation conversion processing device Download PDF

Info

Publication number
JP3769004B2
JP3769004B2 JP2004381575A JP2004381575A JP3769004B2 JP 3769004 B2 JP3769004 B2 JP 3769004B2 JP 2004381575 A JP2004381575 A JP 2004381575A JP 2004381575 A JP2004381575 A JP 2004381575A JP 3769004 B2 JP3769004 B2 JP 3769004B2
Authority
JP
Japan
Prior art keywords
value
conversion
image
gradation
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004381575A
Other languages
Japanese (ja)
Other versions
JP2005141770A (en
Inventor
章夫 小嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2004381575A priority Critical patent/JP3769004B2/en
Publication of JP2005141770A publication Critical patent/JP2005141770A/en
Application granted granted Critical
Publication of JP3769004B2 publication Critical patent/JP3769004B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、N値階調画像をM値階調画像(N<M)に変換する階調変換処理装置に関するものである。   The present invention relates to a gradation conversion processing device that converts an N-value gradation image into an M-value gradation image (N <M).

近年、印刷装置や表示装置等の出力装置として多値データにより印刷や表示を行なうようになってきた。よって、これらに用いる画像情報を電子的に扱う場合は情報量が増大している。
このため、ファクシミリ、静止画ファイル、複写装置等では原画像を2値化信号にして伝送・記憶・処理している。しかし、この2値化信号をそのまま出力装置で再生すると画質が劣化する。この画質の劣化を解決するために、原画像を2値化信号にして伝送、記憶、編集処理し、出力装置で再生する時に、2値化信号から原画像の多値階調信号を推定する方法がある。
In recent years, printing and display have been performed using multi-value data as output devices such as printing devices and display devices. Therefore, when the image information used for these is handled electronically, the amount of information is increasing.
For this reason, facsimiles, still image files, copying machines, etc. transmit, store, and process original images as binary signals. However, if the binarized signal is reproduced as it is on the output device, the image quality deteriorates. In order to solve this deterioration in image quality, the original image is transmitted as a binarized signal, transmitted, stored, edited, and reproduced by the output device, and the multilevel gradation signal of the original image is estimated from the binarized signal. There is a way.

従来、原画像の濃淡を2値化信号(疑似中間調画像)で表現するディジタルハーフトーン技術として、ディザ法、誤差拡散方法がある。
さらに、この疑似中間調画像を対象として、2値化信号から原画像の多値階調信号を推定する方法には、中間調推定方法がある。(例えば、特開昭61−251368号公報)
この中間調推定方法では、走査開口内の白黒画素数の比率に応じて中間調を推定していた。
Conventionally, there are a dither method and an error diffusion method as digital halftone techniques for expressing the density of an original image by a binary signal (pseudo halftone image).
Further, there is a halftone estimation method as a method for estimating the multilevel gradation signal of the original image from the binarized signal for the pseudo halftone image. (For example, Japanese Patent Laid-Open No. 61-251368)
In this halftone estimation method, the halftone is estimated according to the ratio of the number of black and white pixels in the scanning aperture.

また、2値画像中のエッジを一つのエッジ検出フィルタで検出し、検出フィルタの出力によって輪郭領域・非輪郭領域・中間領域を識別して走査開口内の加算重み係数を変化させ平滑特性を可変していた。(例えば、特開平4−51378号公報)
特開昭61−251368号公報 特開平4−51378号公報
Also, the edge in the binary image is detected by a single edge detection filter, the contour area / non-contour area / intermediate area are identified by the output of the detection filter, and the addition weight coefficient in the scanning aperture is changed to vary the smoothing characteristics. Was. (For example, JP-A-4-51378)
JP 61-251368 A JP-A-4-51378

しかしながら上記の従来の構成では、ファクシミリ、静止画ファイル、複写装置が扱う種々の文書画像に対して、ページ単位で異なる画像特性を有する場合、若しくは1ページ中の異なる領域で画像特性が異なる場合に最適な多値階調信号を推定できないといった問題点を有していた。
また、K値画像の濃淡を2値化信号(K>2)で表現するディジタルハーフトーン技術は、2値化変換する際にデータが拡散し、さらに独特のテクスチャを発生させる。よって、輪郭領域と非輪郭領域の識別を一つのエッジ検出器だけで行うと、2値化処理時のデータの拡散、または、ドット配置パターンによるテクスチャの影響を受けてしまうといった問題点を有していた。
However, in the above-described conventional configuration, when various document images handled by a facsimile, a still image file, and a copying apparatus have different image characteristics in units of pages, or when image characteristics differ in different areas in one page. There has been a problem that the optimum multi-level gradation signal cannot be estimated.
In addition, in the digital halftone technique that expresses the density of a K-value image with a binarized signal (K> 2), data is diffused during binarization conversion, and a unique texture is generated. Therefore, if the distinction between the contour region and the non-contour region is performed with only one edge detector, there is a problem that data is diffused at the time of binarization processing or affected by the texture due to the dot arrangement pattern. It was.

また、走査開口が小さいと推定値が変動し、誤差が大きいという問題点を有していた。
また、ファクシミリ、静止画ファイル、複写装置は様々な対象画像を扱うので、対象画像に合わせて所望の識別処理と画質調整を行うことができないという問題点を有していた。
本発明は上記従来の問題点を解決するもので、画像中の輪郭部および非輪郭領域を2値化データの拡散、テクスチャに影響されることなく、画像中のどの領域においても最適な階調変換を行い、さらに対象画像に合わせた画質調整を行うことができる優れた階調変換処理装置を提供することを目的とする。
Further, when the scanning aperture is small, the estimated value fluctuates and there is a problem that the error is large.
Further, since facsimile machines, still image files, and copying apparatuses handle various target images, there is a problem in that desired identification processing and image quality adjustment cannot be performed in accordance with the target images.
The present invention solves the above-mentioned conventional problems, and the optimum gradation in any region in the image without affecting the contour portion and non-contour region in the image by the diffusion of binary data and texture. An object of the present invention is to provide an excellent gradation conversion processing apparatus that can perform conversion and further perform image quality adjustment in accordance with a target image.

この目的を達成するために、N値階調画像をM値階調画像(N<M)に変換する階調変換処理装置において、本発明の階調変換処理装置は、次の第1の構成、第2の構成、第3の構成、第4の構成、第5の構成を有する。
第1の構成では、K値画像データをK値画像データの信号範囲の中央値近傍に集中するようにデータ変換する第1の変換手段と、データ変換されたK値画像データをN値化データ(K>N)に変換するN値化処理手段と、前記N値化処理手段で生成されるN値化データからM値画像データ(N<M)を推定する推定手段と、前記M値画像データ(N<M)を前記第1の変換手段のデータ変換に連動して逆変換を行なう第2の変換手段とを有する。
In order to achieve this object, in a gradation conversion processing apparatus that converts an N-value gradation image into an M-value gradation image (N <M), the gradation conversion processing apparatus of the present invention has the following first configuration. , Second configuration, third configuration, fourth configuration, and fifth configuration.
In the first configuration, the first conversion means for converting the K value image data so that the K value image data is concentrated in the vicinity of the median value of the signal range of the K value image data, and the converted K value image data are converted into N-valued data. N-value conversion processing means for converting into (K> N), estimation means for estimating M-value image data (N <M) from the N-value data generated by the N-value conversion processing means, and the M-value image Second conversion means for inversely converting data (N <M) in conjunction with data conversion of the first conversion means.

第2の構成では、第1の構成に、更に、複数の処理モード若しくは画質調整値を設定する設定手段と、複数の処理モード若しくは画質調整値に対応する複数種の変換テーブルを有し、前記設定手段の設定内容に応じて前記変換テーブルの1つを選択して、第1の変換手段と第2の変換手段にそれぞれ再設定する制御手段とを有する。
第3の構成では、所定の値より小さい値の画像により構成されるハイライト領域において、K値画像データを元の値より増加させるようにデータ変換する第1の変換手段と、データ変換されたK値画像データをN値化データ(K>N)に変換するN値化処理手段と、前記N値化処理手段で生成されるN値化データからM値画像データ(N<M)を推定する推定手段と、前記ハイライト領域において、前記M値画像データ(N<M)を元の値より減少させるように変換する第2の変換手段とを有する。
In the second configuration, the first configuration further includes setting means for setting a plurality of processing modes or image quality adjustment values, and a plurality of types of conversion tables corresponding to the plurality of processing modes or image quality adjustment values, Control means for selecting one of the conversion tables according to the setting contents of the setting means and resetting the conversion table in the first conversion means and the second conversion means, respectively.
In the third configuration, the first conversion means for converting the data so that the K value image data is increased from the original value in the highlight region constituted by the image having a value smaller than the predetermined value, and the data conversion N-value conversion processing means for converting K-value image data into N-value conversion data (K> N), and M-value image data (N <M) is estimated from the N-value conversion data generated by the N-value conversion processing means. And second conversion means for converting the M-value image data (N <M) to be smaller than the original value in the highlight area.

第4の構成では、第3構成における前記第1の変換手段は、前記所定の値より大きいか又は等しい値の画像により構成されるシャドウ領域において、K値画像データを元の値より減少させるようにデータ変換し、前記第2の変換手段は、前記シャドウ領域において、M値画像データを元の値より増加させるように変換する。
第5の構成では、所定の値より小さい値の画像により構成されるハイライト領域において、K値画像データを元の値より増加させるようにデータ変換する第1の変換手段と、データ変換されたK値画像データをN値化データ(K>N)に変換するN値化処理手段と、前記N値化処理手段で生成されるN値化データからM値画像データ(N<M)を推定する推定手段と、前記ハイライト領域において、前記M値画像データ(N<M)に対して前記第1の変換の逆変換を行う第2の変換手段とを有する。
In the fourth configuration, the first conversion means in the third configuration may reduce the K-value image data from the original value in a shadow region constituted by an image having a value greater than or equal to the predetermined value. The second conversion means converts the M-value image data to increase from the original value in the shadow area.
In the fifth configuration, the first conversion means for converting the data so that the K value image data is increased from the original value in the highlight region constituted by the image having a value smaller than the predetermined value, and the data conversion N-value conversion processing means for converting K-value image data into N-value conversion data (K> N), and M-value image data (N <M) is estimated from the N-value conversion data generated by the N-value conversion processing means. And second conversion means for performing inverse conversion of the first conversion on the M-value image data (N <M) in the highlight area.

また、第1の構成によって、第1の変換手段によって変換されたK値画像データをN値化データ(K>N)に変換することでN値化データのデータ拡散範囲が抑えられ、このN値化データからM値画像データ(N<M)を推定するので、走査開口小さくしても推定値の変動を抑えることができる。また、小さい走査開口を用いることで、解像度を確保でき、低コストで回路を実現できる。   Further, the first configuration converts the K-value image data converted by the first conversion means into N-valued data (K> N), thereby suppressing the data diffusion range of the N-valued data. Since the M-value image data (N <M) is estimated from the digitized data, fluctuations in the estimated value can be suppressed even if the scanning aperture is reduced. Further, by using a small scanning aperture, the resolution can be secured and a circuit can be realized at low cost.

また、第2の構成によって、制御手段は、設定手段からの処理モード若しくは画質調整値の設定値によって変換テーブルを変更でき、種々の画像に対応した画質調整ができる。 また、第2の構成によって、制御手段は、設定手段からの処理モード若しくは画質調整値の設定値によって変換テーブルを変更でき、種々の画像に対応した画質調整ができる。
また、第3の構成によって、所定の値より小さい値の画像により構成されるハイライト領域において、K値画像データを元の値より増加させるようにデータ変換し、データ変換されたK値画像データをN値化データ(K>N)に変換し、前記生成されるN値化データからM値画像データ(N<M)を推定し、前記ハイライト領域において、前記M値画像データ(N<M)を元の値より減少させるように変換する。
Further, according to the second configuration, the control unit can change the conversion table according to the processing mode from the setting unit or the set value of the image quality adjustment value, and can perform image quality adjustment corresponding to various images. Further, according to the second configuration, the control unit can change the conversion table according to the processing mode from the setting unit or the set value of the image quality adjustment value, and can perform image quality adjustment corresponding to various images.
Further, according to the third configuration, the K value image data obtained by converting the data so that the K value image data is increased from the original value in the highlight region constituted by the image having a value smaller than the predetermined value, is converted. Is converted into N-valued data (K> N), M-value image data (N <M) is estimated from the generated N-valued data, and the M-value image data (N <M) is calculated in the highlight region. Convert M) to be less than the original value.

また、第4の構成によって、第3構成において、前記所定の値より大きいか又は等しい値の画像により構成されるシャドウ領域において、K値画像データを元の値より減少させるようにデータ変換し、前記シャドウ領域において、M値画像データを元の値より増加させるように変換する。
また、第5の構成によって、所定の値より小さい値の画像により構成されるハイライト領域において、K値画像データを元の値より増加させるようにデータ変換し、データ変換されたK値画像データをN値化データ(K>N)に変換し、前記生成されるN値化データからM値画像データ(N<M)を推定し、前記ハイライト領域において、前記M値画像データ(N<M)に対して前記変換の逆変換を行う。
Further, according to the fourth configuration, in the third configuration, in the shadow region constituted by an image having a value larger than or equal to the predetermined value, data conversion is performed so that the K value image data is reduced from the original value, In the shadow area, conversion is performed so that the M-value image data is increased from the original value.
Further, according to the fifth configuration, the K value image data obtained by performing data conversion so that the K value image data is increased from the original value in the highlight region constituted by the image having a value smaller than the predetermined value, and the data converted. Is converted into N-valued data (K> N), M-value image data (N <M) is estimated from the generated N-valued data, and the M-value image data (N <M) is calculated in the highlight region. The inverse transformation of the transformation is performed on M).

以上のように本発明によれば、画像中の輪郭部および非輪郭領域を2値化データの拡散、テクスチャに影響されることなく、画像中のどの領域においても最適な階調変換を行い、さらに対象画像に合わせた画質調整を行う階調変換処理装置を実現できる。   As described above, according to the present invention, the optimum gradation conversion is performed in any region in the image without being affected by the diffusion of the binarized data and the texture in the contour portion and the non-contour region in the image, Furthermore, a gradation conversion processing device that performs image quality adjustment according to the target image can be realized.

以下本発明の一実施例の領域識別装置及び階調変換処理装置について、図面を参照しながら説明する。
図1は、本発明の第1の実施例における領域識別装置Aを含む階調変換処理装置のブロック図を示すものである。
図1において、階調変換回路1はN値階調画像データ100をM値階調画像データ200に変換する。(ただし、N<Mとする。)
強調回路5は、N値階調画像100、または、階調変換回路1から出力される推定値NA(信号300)を強調処理し、強調信号EF(信号500)を生成する。
Hereinafter, an area identifying apparatus and a gradation conversion processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 shows a block diagram of a gradation conversion processing apparatus including an area identification apparatus A in the first embodiment of the present invention.
In FIG. 1, the gradation conversion circuit 1 converts N-value gradation image data 100 into M-value gradation image data 200. (However, N <M)
The enhancement circuit 5 enhances the N-value gradation image 100 or the estimated value NA (signal 300) output from the gradation conversion circuit 1, and generates an enhancement signal EF (signal 500).

データ変換回路7は、階調変換回路1から出力される推定値NA(信号300)を入力し、データ変換処理を画素単位で実行し、信号700を出力する。このデータ変換処理は、推定値NA(信号300)の先鋭度を高める。
領域識別装置Aの識別回路4は、N値階調画像の輪郭領域と非輪郭領域を識別する識別信号400(信号SE)を出力する。
The data conversion circuit 7 receives the estimated value NA (signal 300) output from the gradation conversion circuit 1, performs data conversion processing on a pixel basis, and outputs a signal 700. This data conversion process increases the sharpness of the estimated value NA (signal 300).
The identification circuit 4 of the area identification device A outputs an identification signal 400 (signal SE) for identifying the contour area and the non-contour area of the N-value gradation image.

選択回路6は、識別信号400と制御信号61(CONT1)によって、入力A〜入力Dの選択を行い、選択信号600を出力する。この選択によって、信号200(Xout)、信号300(推定値NA)、信号500(EF)または信号700のいずれかが選択信号600として出力される。
以上のように構成された領域識別装置Aを含む階調変換処理装置について、以下、順次に、階調変換回路1、領域識別装置Aの識別回路4、データ変換回路7、強調回路5、選択回路6について説明を行う。
The selection circuit 6 selects input A to input D based on the identification signal 400 and the control signal 61 (CONT1), and outputs a selection signal 600. By this selection, one of the signal 200 (Xout), the signal 300 (estimated value NA), the signal 500 (EF), or the signal 700 is output as the selection signal 600.
Regarding the gradation conversion processing apparatus including the area identification apparatus A configured as described above, the gradation conversion circuit 1, the identification circuit 4 of the area identification apparatus A, the data conversion circuit 7, the enhancement circuit 5, and the selection will be sequentially described below. The circuit 6 will be described.

まず、図2は階調変換回路1のブロック図を示すものである。階調変換回路1は、1画素単位でN値階調画像を走査し、N値階調画像をM値階調画像(N<M)に変換する。以下、階調変換回路1の構成要素について説明を行う。
第1多値化変換回路11は、第1加算回路111と第1正規化回路112より構成される。第1加算回路111は、N値階調画像データ100を入力し、それぞれ着目画素およびその周辺の画素を設定された重み係数に応じて加算処理を行なう。第1正規化回路112は、第1加算回路111より得られる加算結果の信号SAを、階調数Nと重み係数の和に基づいて、推定値NAに変換する。
First, FIG. 2 shows a block diagram of the gradation conversion circuit 1. The gradation conversion circuit 1 scans an N-value gradation image for each pixel and converts the N-value gradation image into an M-value gradation image (N <M). Hereinafter, components of the gradation conversion circuit 1 will be described.
The first multi-value conversion circuit 11 includes a first addition circuit 111 and a first normalization circuit 112. The first addition circuit 111 receives the N-value gradation image data 100 and performs an addition process for each pixel of interest and its surrounding pixels according to the set weighting coefficient. The first normalization circuit 112 converts the addition result signal SA obtained from the first addition circuit 111 into an estimated value NA based on the sum of the gradation number N and the weighting coefficient.

第2多値化変換回路12は、第2加算回路121と第2正規化回路122より構成される。第2加算回路121は、N値階調画像データ100を入力し、それぞれ着目画素およびその周辺の画素を設定された重み係数に応じて加算処理を行なう。第2正規化回路122は、第2加算回路121より得られる加算結果の信号SBを、階調数Nと重み係数の和に基づいて、推定値NBに変換する。   The second multi-value conversion circuit 12 includes a second addition circuit 121 and a second normalization circuit 122. The second addition circuit 121 receives the N-value gradation image data 100 and performs an addition process for each pixel of interest and its surrounding pixels according to the set weighting coefficient. The second normalization circuit 122 converts the addition result signal SB obtained from the second addition circuit 121 into an estimated value NB based on the sum of the gradation number N and the weighting coefficient.

エッジ抽出回路19は、N値階調画像中のエッジ成分を検出する。
混合回路13は、第1正規化回路112、第2正規化回路122から得られる推定値NA、推定値NBを第1重み付け制御回路134からの重み付け係数Ka、Kbによって混合処理し、混合信号Xを算出する。
量子化回路14は、混合信号Xを再量子化処理し、M値階調画像に変換する。ここで、推定値NA、推定値NBが0から1の実数値に変換され、0≦混合信号X≦1になるように混合変換する場合でも、量子化回路14は、[X・(M−1)+0.5]の演算を行うことで、必要とする階調数Mに再量子化することができる。量子化回路14をRAMなどの書き換え可能なメモリで構成すれば、再量子化によって、表示装置、プリンタ装置で必要な階調数Mにそれぞれ対応できる。また、推定値NA、推定値NBが0から(M−1)の整数値に変換され、0≦混合信号X≦(M−1)になるように混合変換する場合、量子化回路14は、[X+0.5]の演算を行い、最大値をM−1として必要とする階調数Mに再量子化する。
The edge extraction circuit 19 detects an edge component in the N-value gradation image.
The mixing circuit 13 mixes the estimated value NA and the estimated value NB obtained from the first normalization circuit 112 and the second normalization circuit 122 with the weighting coefficients Ka and Kb from the first weighting control circuit 134, and the mixed signal X Is calculated.
The quantization circuit 14 re-quantizes the mixed signal X and converts it into an M-value gradation image. Here, even when the estimated value NA and the estimated value NB are converted from 0 to 1 and are mixed and converted so that 0 ≦ mixed signal X ≦ 1, the quantization circuit 14 [X · (M− 1) By performing the calculation of +0.5], it can be re-quantized to the required number of gradations M. If the quantization circuit 14 is composed of a rewritable memory such as a RAM, the number of gradations M required for the display device and printer device can be accommodated by requantization. Further, when the estimated value NA and the estimated value NB are converted from 0 to an integer value of (M−1) and mixed and converted so that 0 ≦ mixed signal X ≦ (M−1), the quantization circuit 14 [X + 0.5] is calculated and requantized to the required number of gradations M, with the maximum value being M-1.

以上のように構成された階調変換回路1について、以下、図2、図3、図4、図5、図24を用いてその動作を説明する。本発明の第1の実施例ではN、Mは特定されるものではないが、例えばN=2、M=256として、以下の説明を行なう。
図3(a)は第2加算回路121に用いるフィルタ図、図3(b)は第1加算回路111に用いるフィルタ図を示すものである。
The operation of the gradation conversion circuit 1 configured as described above will be described below with reference to FIGS. 2, 3, 4, 5, and 24. FIG. In the first embodiment of the present invention, N and M are not specified, but the following description will be made assuming that N = 2 and M = 256, for example.
FIG. 3A shows a filter diagram used for the second adder circuit 121, and FIG. 3B shows a filter diagram used for the first adder circuit 111.

フィルタの開口サイズ、フィルタの重み係数は特定されるものでないが、本発明の第1の実施例では、第1加算回路111には図3(b)に図示する3×3のサイズと重み係数を有するフィルタ1110を用い、信号SAを生成する。また、第2加算回路121には図3(a)に図示する5×5のサイズと重み係数を有するフィルタ1210を用い、信号SBを生成する。着目画素の値をP(i,j)、着目画素の重み係数をW(i,j)とした場合、信号SA=ΣΣW(i,j)・P(i,j)の演算を走査開口領域内のすべての画素位置で行い、演算結果をすべて加算処理する。信号SBも同様である。よって、信号SA、信号SBは、それぞれ(数1)、(数2)のように演算される。ここで、・は乗算を示す演算子である。   Although the aperture size of the filter and the weighting factor of the filter are not specified, in the first embodiment of the present invention, the first addition circuit 111 has a 3 × 3 size and weighting factor shown in FIG. A signal SA is generated using a filter 1110 having The second adder circuit 121 generates a signal SB using a filter 1210 having a size of 5 × 5 and a weighting coefficient shown in FIG. When the value of the pixel of interest is P (i, j) and the weighting factor of the pixel of interest is W (i, j), the calculation of the signal SA = ΣΣW (i, j) · P (i, j) is performed in the scanning aperture region. The calculation is performed at all the pixel positions, and all the calculation results are added. The same applies to the signal SB. Therefore, the signal SA and the signal SB are calculated as (Equation 1) and (Equation 2), respectively. Here, · is an operator indicating multiplication.

Figure 0003769004
Figure 0003769004

Figure 0003769004
第1加算回路111は、図3(b)に図示する3×3のサイズと重み係数を有するフィルタ1110を用い、信号SAを生成する場合、図24に図示する回路で実現できる。入力したN値画像データ100は、遅延回路113とラッチ回路117で主走査方向iと副走査方向jに展開される。3×3領域に展開された9画素の画像データは乗算器114によってそれぞれ重み係数レジスタ115からの重み係数が乗算され、乗算結果は加算回路116ですべて加算され、信号SAを得る。加算結果は「0」から「16」のM(=17)値画像データとなる。乗算器114は、重み係数レジスタ115からの重み係数が2n であれば、ビットシフトの演算によっても実現でき、回路を簡易化できる。 第1加算回路111、第2加算回路121において、入力される画像データの階調数をn、加算される領域の重み係数の和をSnとした場合、出力の最大値Mxは(数3)のように演算される。
Figure 0003769004
The first adder circuit 111 can be realized by the circuit shown in FIG. 24 when the signal SA is generated using the filter 1110 having the size of 3 × 3 and the weighting coefficient shown in FIG. 3B. The input N-value image data 100 is developed in the main scanning direction i and the sub-scanning direction j by the delay circuit 113 and the latch circuit 117. The image data of 9 pixels developed in the 3 × 3 area is multiplied by the weighting coefficient from the weighting coefficient register 115 by the multiplier 114, and all the multiplication results are added by the adding circuit 116 to obtain the signal SA. The addition result is M (= 17) value image data from “0” to “16”. If the weighting factor from the weighting factor register 115 is 2n, the multiplier 114 can be realized by a bit shift operation, and the circuit can be simplified. In the first addition circuit 111 and the second addition circuit 121, when the number of gradations of the input image data is n and the sum of the weighting factors of the added regions is Sn, the maximum output value Mx is (Expression 3). It is calculated as follows.

Figure 0003769004
第1加算回路111において、重み係数の和をSaとし、出力値SAの最大値をMaとすると、Ma=(n−1)×Saとなる。本発明の第1の実施例では、n=2であり、第1加算回路111は図3(b)のフィルタ1110に基づいて加算処理を行うので、各画素の重み係数からSa=16、Mb=16となる。
Figure 0003769004
In the first addition circuit 111, when the sum of the weighting factors is Sa and the maximum value of the output value SA is Ma, Ma = (n−1) × Sa. In the first embodiment of the present invention, n = 2, and the first adder circuit 111 performs addition processing based on the filter 1110 in FIG. 3B, and therefore Sa = 16, Mb from the weighting factor of each pixel. = 16.

同様に、第2加算回路121において、重み係数の和をSbとし、出力値SBの最大値をMbとすると、Mb=(n−1)×Sbとなる。本発明の第1の実施例では、n=2であり、第2加算回路121は図3(a)のフィルタ1210に基づいて加算処理を行うので、各画素の重み係数からSb=25、Mb=25となる。
次に、第1正規化回路112、第2正規化回路122の説明を行なう。 第1正規化回路112、第2正規化回路122は、入力値をSGxとし、(数3)から得られるMxを入力値の最大値とすると、(数4)に基づいて、入力値SGxを出力値SCxに正規化する。[ ]は小数部を切り捨てる整数化処理である。
Similarly, in the second adder circuit 121, if the sum of the weight coefficients is Sb and the maximum value of the output value SB is Mb, Mb = (n−1) × Sb. In the first embodiment of the present invention, n = 2, and the second adder circuit 121 performs addition processing based on the filter 1210 in FIG. 3A, so that Sb = 25, Mb from the weight coefficient of each pixel. = 25.
Next, the first normalization circuit 112 and the second normalization circuit 122 will be described. The first normalization circuit 112 and the second normalization circuit 122 assume that the input value is SGx, and that Mx obtained from (Equation 3) is the maximum value of the input value, the input value SGx is calculated based on (Equation 4). Normalize to output value SCx. [] Is an integerization process that cuts off the fractional part.

Figure 0003769004
(数4)は演算回路としても良いし、CPU、DSPなどによって、SGxからSCxへの対応を予め(数4)に基づき計算し、計算された値をテーブル化したルック・アップ・テーブル(以下単にLUTと記す。)を用いても良い。
Figure 0003769004
(Equation 4) may be an arithmetic circuit, or a look-up table (hereinafter referred to as a table) that calculates the correspondence from SGx to SCx based on (Equation 4) in advance by a CPU, DSP, or the like. May be simply referred to as LUT).

以上に説明した(数3)、(数4)により、加算結果である入力値SGxはそれぞれM値階調画像データに正規化される。具体的には、(数5)によって第1正規化回路112の入力値SAは推定値NAに正規化処理され、(数6)によって第2正規化回路122の入力値SBは推定値NBに正規化処理される。ここで、入力値SAの最大値をMaとし、入力値SBの最大値をMbとする。また、[]は小数部を切り捨てる整数化処理である。   According to (Equation 3) and (Equation 4) described above, the input value SGx as an addition result is normalized to M-value gradation image data, respectively. Specifically, the input value SA of the first normalization circuit 112 is normalized to the estimated value NA by (Equation 5), and the input value SB of the second normalization circuit 122 is converted to the estimated value NB by (Equation 6). Normalized. Here, the maximum value of the input value SA is Ma, and the maximum value of the input value SB is Mb. In addition, [] is an integer process that rounds down the fractional part.

Figure 0003769004
Figure 0003769004

Figure 0003769004
本発明の第1の実施例では、例えばMa=16、Mb=25あり、M=256とすると、それぞれ入力SAに対する出力NA、入力SBに対する出力NBが演算され、256階調の画像データとしてそれぞれ混合回路13に出力される。
Figure 0003769004
In the first embodiment of the present invention, for example, when Ma = 16 and Mb = 25 and M = 256, the output NA for the input SA and the output NB for the input SB are calculated, respectively, and image data of 256 gradations is obtained. It is output to the mixing circuit 13.

第1加算回路111、第2加算回路121において、使用するフィルタの重み係数の値は、正の数値だけでなく負の数値、零の値としても良い。さらには整数だけでなく実数でも良い。零が係数の画素は、入力値に「0」が乗算され、結果は「0」として加算される。加算結果が負の場合は「0」に処理され、最大値は(数3)に基づく数値に処理される。   In the first addition circuit 111 and the second addition circuit 121, the value of the weighting factor of the filter to be used may be not only a positive numerical value but also a negative numerical value or a zero value. Furthermore, it may be a real number as well as an integer. For pixels with zero coefficient, the input value is multiplied by “0” and the result is added as “0”. When the addition result is negative, it is processed as “0”, and the maximum value is processed into a numerical value based on (Equation 3).

また、重み係数、加算される領域サイズ(走査開口)は、設計段階で決定される所定の値および所定のサイズであり、N値階調画像データ、M値階調画像データから要求される画像品質、即ち要求される空間フィルタの特性によって考慮されるものである。従って、本発明の第1の実施例では、異なる領域サイズとしたが、同じサイズとしても良い。重み係数を異ならせることで入力画像データの平滑度合(空間フィルタの平滑特性)を変えることができる。   Further, the weighting factor and the area size (scanning aperture) to be added are a predetermined value and a predetermined size determined at the design stage, and an image required from the N-value gradation image data and the M-value gradation image data. It is taken into account by the quality, i.e. the characteristics of the required spatial filter. Accordingly, in the first embodiment of the present invention, different region sizes are used, but the same size may be used. By varying the weighting factor, the smoothness of the input image data (smooth characteristics of the spatial filter) can be changed.

次に、混合回路13の説明を図2、図5を用いて行なう。図5は混合回路13の動作説明図を示すものである。
重み付け混合係数Ka、Kbは図5に図示するa、cの重み付け特性を示し、エッジ抽出回路19からの信号Eoutに基づいて決定される。図2に図示する推定値NAは乗算器131によって係数Kaとかけ算され、推定値NBは乗算器132によって係数Kbとかけ算される。乗算された結果は加算器133によって加算され混合信号Xを出力する。
Next, the mixing circuit 13 will be described with reference to FIGS. FIG. 5 is a diagram for explaining the operation of the mixing circuit 13.
The weighted mixing coefficients Ka and Kb indicate the weighting characteristics of a and c shown in FIG. 5 and are determined based on the signal Eout from the edge extraction circuit 19. The estimated value NA shown in FIG. 2 is multiplied by the coefficient Ka by the multiplier 131, and the estimated value NB is multiplied by the coefficient Kb by the multiplier 132. The multiplied results are added by an adder 133 to output a mixed signal X.

推定値NA(信号300)、推定値NB、エッジ量Eout(信号181)を入力とし、生成される混合信号をXとすると、混合回路13により混合信号Xは(数7)に基づいて生成される。ここで、MAXはEout(信号181)が出力する最大値である。   When the estimated value NA (signal 300), estimated value NB, and edge amount Eout (signal 181) are input and the generated mixed signal is X, the mixed signal X is generated by the mixing circuit 13 based on (Equation 7). The Here, MAX is the maximum value output by Eout (signal 181).

Figure 0003769004
(数7)に基づいて混合された混合信号Xは、量子化回路14によって整数化処理され、最終的にM値階調画像データに変換される。例えば、M=256とした場合は256階調の画像データXout(信号200)が生成される。
Figure 0003769004
The mixed signal X mixed based on (Equation 7) is converted into an integer by the quantization circuit 14 and finally converted to M-value gradation image data. For example, when M = 256, image data Xout (signal 200) having 256 gradations is generated.

このように、エッジ量Eout(信号181)によって、混合回路13は、入力された複数の信号(推定値NA、推定値NB)に重みづけを行い、混合処理することで補間画像データを生成する。
エッジ量Eoutが大きくなるほど、混合回路13は、推定値NBより推定値NAの混合比を大きくする。これは、平滑度を小さくする操作となり、解像度を保持する方向となる。また逆に、エッジ量Eoutが小きくなるほど、混合回路13は、推定値NAより推定値NBの混合比を大きくする。これは、平滑度を大きくする操作となり、入力画像データはより滑らかになるように処理される。よって、写真領域などのエッジ変化の小さい領域は平滑度が向上する。
As described above, the mixing circuit 13 weights the input signals (estimated value NA and estimated value NB) based on the edge amount Eout (signal 181), and generates interpolated image data by performing the mixing process. .
As the edge amount Eout increases, the mixing circuit 13 increases the mixing ratio of the estimated value NA to the estimated value NB. This is an operation for reducing the smoothness, and the direction for maintaining the resolution. Conversely, as the edge amount Eout decreases, the mixing circuit 13 increases the mixing ratio of the estimated value NB to the estimated value NA. This is an operation for increasing the smoothness, and the input image data is processed to be smoother. Therefore, smoothness is improved in a region with a small edge change such as a photographic region.

また、図5に図示するように、係数Ka、係数Kbとして線形な変化特性を持つa、cを用いる変わりにb、dのようにMAX/2で2値的な変化特性を示す係数としても良い。これは選択操作となり、文字などの処理に最適である。第1重み付け制御回路134をRAMまたはROMによるLUTによって構成すれば、任意な変化特性の係数操作が実現できる。ただし、Ka+Kb=1となるようにする。   Further, as shown in FIG. 5, instead of using a and c having linear change characteristics as the coefficient Ka and coefficient Kb, coefficients such as b and d that show binary change characteristics at MAX / 2 may also be used. good. This is a selection operation and is optimal for processing characters and the like. If the first weighting control circuit 134 is configured by a LUT using RAM or ROM, a coefficient operation with an arbitrary change characteristic can be realized. However, Ka + Kb = 1.

以上に説明したように、混合回路13での補間処理によって、異なる複数の加算回路(空間フィルタ)の出力をエッジ量Eoutによって連続的に推移させることができる。結果、入力画像データのエッジ成分に応じて、局所的に平滑処理の度合を連続変化させ、入力画像データを所定の多値レベルに変換できる。このエッジ保存を適応的に行う多値化変換処理は、文字・線画領域の解像度と写真領域の滑らかさを両立させることができる。特に文字・写真の混在する領域において、2値的な切り替え処理を行なわないため誤識別による画像劣化は非常に小さく抑えられる。   As described above, the output of a plurality of different addition circuits (spatial filters) can be continuously shifted by the edge amount Eout by the interpolation processing in the mixing circuit 13. As a result, according to the edge component of the input image data, the degree of smoothing can be continuously changed locally, and the input image data can be converted to a predetermined multilevel level. The multi-value conversion processing that adaptively preserves the edges can achieve both the resolution of the character / line drawing area and the smoothness of the photographic area. In particular, in a region where characters and photographs are mixed, since the binary switching process is not performed, image degradation due to erroneous identification can be suppressed to a very small level.

本発明の第1の実施例では、2つの入力を混合処理したが、少なくとも2つ以上の入力で行なえば良く、同様の効果が得られる。また、加算の領域サイズ(走査開口)、若しくは、重み係数が異なる加算回路の種類を多くして混合処理すれば、より連続的な階調画像データが生成できる。
さらには、3つ以上の入力に対して、同時(並列)に重み付けの操作を行なうことも容易にでき、精度の良い補間処理ができる。また、混合回路13では、線形な重み付けを行なったが、非線形な重みづけを行なっても良い。
In the first embodiment of the present invention, the two inputs are mixed, but it is sufficient to perform at least two inputs, and the same effect can be obtained. Further, if the addition region size (scanning aperture) or the types of addition circuits having different weighting factors are increased and mixed, more continuous gradation image data can be generated.
Furthermore, it is possible to easily perform weighting operations on three or more inputs simultaneously (in parallel), and an accurate interpolation process can be performed. In the mixing circuit 13, linear weighting is performed, but non-linear weighting may be performed.

次に、エッジ抽出回路19について図4、図8を用いて説明する。図4はエッジ抽出回路19に用いるフィルタ図、図8は第1の実施例で用いるフィルタの空間周波数特性図である。
エッジ抽出回路19には、図4に図示するフィルタ1900、フィルタ1901の1次微分フィルタを用いる。主走査方向iのエッジ成分は、フィルタ1901が検出し、副走査方向jのエッジ成分は、フィルタ1900が検出する。よって、フィルタ1900の各係数によって得られる加算値の絶対値と、フィルタ1901の各係数によって得られる加算値の絶対値を合成することで、N値画像中の主走査方向iと副走査方向jのエッジ成分を抽出することができる。図8に図示すように、フィルタ1900、フィルタ1901はf0にピークを有する空間周波数特性を持つ。よって、N値画像中の特定の周波数を中心としたエッジ成分を抽出する。抽出されたエッジ成分は、最大値MAXにクリップ処理され、混合回路13にエッジ量Eout(信号181)として出力される。
Next, the edge extraction circuit 19 will be described with reference to FIGS. FIG. 4 is a filter diagram used in the edge extraction circuit 19, and FIG. 8 is a spatial frequency characteristic diagram of the filter used in the first embodiment.
For the edge extraction circuit 19, primary differential filters such as a filter 1900 and a filter 1901 shown in FIG. 4 are used. The edge component in the main scanning direction i is detected by the filter 1901, and the edge component in the sub scanning direction j is detected by the filter 1900. Therefore, by combining the absolute value of the addition value obtained by each coefficient of the filter 1900 and the absolute value of the addition value obtained by each coefficient of the filter 1901, the main scanning direction i and the sub-scanning direction j in the N-value image are combined. Edge components can be extracted. As shown in FIG. 8, the filter 1900 and the filter 1901 have a spatial frequency characteristic having a peak at f0. Therefore, an edge component centered on a specific frequency in the N-value image is extracted. The extracted edge component is clipped to the maximum value MAX and output to the mixing circuit 13 as an edge amount Eout (signal 181).

ここで、対象とする画像は、様々な図柄、写真、文字によって構成されるため、エッジ成分の空間周波数を特定することは通常困難である。従って、特定の周波数を中心としたエッジ成分を抽出することで効果が期待できるのは、画像の特性を把握できる場合、または限定される場合であり、輪郭として検出したい所望の領域のエッジ成分を抽出することができる。   Here, since the target image is composed of various designs, photographs, and characters, it is usually difficult to specify the spatial frequency of the edge component. Therefore, extracting the edge component centered on a specific frequency can be expected when the characteristics of the image can be grasped or limited, and the edge component of the desired region to be detected as the contour can be obtained. Can be extracted.

しかし、通常、FAX、文書ファイル、ワープロ、複写機などでは、複数ページで異なる任意の対象画像を扱い、さらには1ページの画像中においても、図柄、写真、文字が混在している。1ページの各図柄領域、写真領域、文字領域で期待する輪郭領域のエッジ成分を抽出するには、異なる空間周波数をもつエッジ検出器を複数用意し、対応する必要がある。さらには、エッジ成分の空間周波数を特定することは困難である為、適応的に複数のエッジ検出器を利用する必要がある。   However, in general, FAX, document files, word processors, copiers, and the like handle arbitrary target images that are different on a plurality of pages, and symbols, photographs, and characters are mixed in an image on one page. In order to extract the edge components of the contour region expected in each symbol region, photo region, and character region of one page, it is necessary to prepare a plurality of edge detectors having different spatial frequencies. Furthermore, since it is difficult to specify the spatial frequency of the edge component, it is necessary to use a plurality of edge detectors adaptively.

異なる空間周波数をもつエッジ成分に、適応的に対応するように、エッジ抽出回路19を改良した実施例について、次に説明する。図6はエッジ抽出回路19の改良ブロック図である。図6の改良ブロック図では、エッジ抽出回路19は、第1エッジ検出回路15、第2エッジ検出回路16、混合回路17、クリップ回路18より構成される。
第1エッジ検出回路15、第2エッジ検出回路16は画像中の着目画素位置でのエッジ成分を検出する。
An embodiment in which the edge extraction circuit 19 is improved so as to adaptively correspond to edge components having different spatial frequencies will be described below. FIG. 6 is an improved block diagram of the edge extraction circuit 19. In the improved block diagram of FIG. 6, the edge extraction circuit 19 includes a first edge detection circuit 15, a second edge detection circuit 16, a mixing circuit 17, and a clip circuit 18.
The first edge detection circuit 15 and the second edge detection circuit 16 detect an edge component at the target pixel position in the image.

混合回路17は、第1エッジ検出回路15、第2エッジ検出回路16から得られるエッジ成分の信号Ea、信号Ebを第2重み付け制御回路174からの重み付け係数Kc、Kdによって混合処理し、エッジ量Egを出力する。第1エッジ検出回路15のエッジ成分Eaは、乗算回路171によって係数Kcとかけ算され、第2エッジ検出回路16のエッジ成分Ebは、乗算回路172によって係数Kdとかけ算される。乗算された結果は加算器173によって加算され、エッジ量Egを出力する。また、混合回路17は演算回路を用いずRAM、ROMによるLUTとしても良い。   The mixing circuit 17 mixes the edge component signals Ea and Eb obtained from the first edge detection circuit 15 and the second edge detection circuit 16 with the weighting coefficients Kc and Kd from the second weighting control circuit 174 to obtain the edge amount. Eg is output. The edge component Ea of the first edge detection circuit 15 is multiplied by the coefficient Kc by the multiplication circuit 171, and the edge component Eb of the second edge detection circuit 16 is multiplied by the coefficient Kd by the multiplication circuit 172. The multiplied results are added by an adder 173, and an edge amount Eg is output. The mixing circuit 17 may be an LUT using RAM and ROM without using an arithmetic circuit.

係数Kc、KdはKc=Ea/(Ea+Eb+Cn)、Kd=1−Kcより演算され、エッジ量EgはEg=Kc×Ea+Kd×Ebより演算される。定数Cnは、Ea、Ebに比べ必要とする精度が許容できる小さい値であれば良い。例えば、C=0.5とする。
クリップ回路18は、混合回路17より入力したエッジ量Egを量子化処理し、最大値をMAXにクリップ処理し、クリップ処理したエッジ量Eoutを混合回路13に出力する。
The coefficients Kc and Kd are calculated from Kc = Ea / (Ea + Eb + Cn) and Kd = 1−Kc, and the edge amount Eg is calculated from Eg = Kc × Ea + Kd × Eb. The constant Cn may be a small value that allows the required accuracy compared to Ea and Eb. For example, C = 0.5.
The clip circuit 18 quantizes the edge amount Eg input from the mixing circuit 17, clips the maximum value to MAX, and outputs the clipped edge amount Eout to the mixing circuit 13.

図7(a)は第1エッジ検出回路15に用いるフィルタ図、図7(b)は第2エッジ検出回路16に用いるフィルタ図、図23は2次微分フィルタ1500の回路ブロック図である。
エッジ成分Eaは、図7(a)に図示する2次微分フィルタ1500を用いて生成され、図示した重み係数で加算された結果の絶対値をエッジ量Eaとする。また、エッジ成分Ebは、図7(b)に図示する1次微分フィルタ1601、1602を用いて生成され、図示した各フィルタの重み係数で加算されたそれぞれの結果の絶対値を加算してエッジ量Ebとする。
FIG. 7A is a filter diagram used for the first edge detection circuit 15, FIG. 7B is a filter diagram used for the second edge detection circuit 16, and FIG. 23 is a circuit block diagram of the second-order differential filter 1500.
The edge component Ea is generated using the second-order differential filter 1500 shown in FIG. 7A, and the absolute value of the result obtained by adding the weighting coefficients shown in the figure is the edge amount Ea. The edge component Eb is generated by using the first-order differential filters 1601 and 1602 shown in FIG. 7B, and the absolute values of the respective results added by the weighting coefficients of the respective filters shown in FIG. The amount is Eb.

図23は、2次微分フィルタ1500の回路ブロック図である。遅延回路150は、N値画像データ100をラインメモリで副走査方向jに遅延させる。副走査方向jに遅延したデータはラッチによって主走査方向iに遅延され、用いるフィルタの係数によって、それぞれ加算回路152、加算回路153、加算回路159、加算回路160で加算される。乗算器154は加算回路153の出力を4倍にし、乗算器157は加算回路159の出力を−1倍にする。加算器155は乗算器157と乗算器154の出力を加算することで、エッジ成分を出力する。絶対値回路156は加算器155の絶対値を算出することで、着目画素のエッジ成分Eaを出力する。図23は2次微分フィルタを実現する回路であり、主走査方向iの遅延用ラッチと副走査方向jの遅延用ラインメモリを増減させることで、用いられる2次微分フィルタの係数に合わせることができる。   FIG. 23 is a circuit block diagram of the second-order differential filter 1500. The delay circuit 150 delays the N-value image data 100 in the sub-scanning direction j with a line memory. The data delayed in the sub-scanning direction j is delayed in the main scanning direction i by the latch, and added by the adder circuit 152, the adder circuit 153, the adder circuit 159, and the adder circuit 160, respectively, depending on the coefficients of the filters used. The multiplier 154 multiplies the output of the adder circuit 153, and the multiplier 157 multiplies the output of the adder circuit 159 by -1. The adder 155 adds the outputs of the multiplier 157 and the multiplier 154 to output an edge component. The absolute value circuit 156 calculates the absolute value of the adder 155 and outputs the edge component Ea of the pixel of interest. FIG. 23 is a circuit that implements a secondary differential filter. By adjusting the delay latch in the main scanning direction i and the delay line memory in the sub-scanning direction j, the circuit can be adjusted to the coefficient of the secondary differential filter used. it can.

エッジ成分Ea、エッジ成分Ebの空間周波数特性は、図8に図示するように、異なるf1、f2にピークを有する空間周波数特性を示し、ピーク周波数は、f1>f2の関係になる。また、図4に図示したフィルタ1900、フィルタ1901のピーク周波数に対してf1>f0>f2の関係になる。
この異なるエッジ成分Ea、エッジ成分Ebの出力に対して、混合回路17は、エッジ成分の出力が大きくなる方の成分比を適応的に大きくするように制御する。これによって、f0の特定周波数を中心に検出するのに比べ、広い周波数範囲のエッジ成分を抽出することができ、写真の輪郭、文字の輪郭、図形の輪郭など条件の異なる輪郭領域のエッジ成分を適応的に検出することができる。図7(a)では、エッジ成分Eaの生成に2次微分フィルタ、図7(b)では、エッジ成分Ebの生成に1次微分フィルタを用いたが、設定された空間周波数を検出する検出器であれば良い。また、3つ以上のエッジ検出器の出力を混合処理しても同様の効果が得られる。
As shown in FIG. 8, the spatial frequency characteristics of the edge component Ea and the edge component Eb show spatial frequency characteristics having peaks at different f1 and f2, and the peak frequency has a relationship of f1> f2. Further, the relationship is f1>f0> f2 with respect to the peak frequencies of the filters 1900 and 1901 shown in FIG.
With respect to the outputs of the different edge component Ea and edge component Eb, the mixing circuit 17 performs control so as to adaptively increase the component ratio in which the output of the edge component increases. As a result, it is possible to extract edge components in a wider frequency range compared to detection centered on a specific frequency of f0, and to detect edge components in contour regions with different conditions such as photo contours, character contours, figure contours, etc. It can be detected adaptively. In FIG. 7A, a secondary differential filter is used to generate the edge component Ea, and in FIG. 7B, a primary differential filter is used to generate the edge component Eb, but a detector that detects the set spatial frequency. If it is good. The same effect can be obtained by mixing the outputs of three or more edge detectors.

このように、特性の異なるエッジ成分を混合処理することで2値的な処理の切り替えをなくし、かつ空間周波数的に画像中の広範囲なエッジ成分を適応的に抽出することができる。このエッジ量Eoutを混合回路13に用いれば、局所的な画像エッジの特性に適応して走査開口の混合処理を行なうことができ、エッジ成分を含めた完全な混合処理が実行できる。即ち、文字、図形、写真など異なる特性を有する画像が混在しても、推定処理では、2値的な切り替え処理を完全になくし、かつ、自動的に局所的な画像エッジの特性に適応することができる。よって、それぞれの領域に最適なエッジ成分の抽出と、エッジ成分に応じた推定処理が実行できるので、画像の局所的な誤識別の影響を小さく抑え、画像劣化を非常に小さく抑えることができる。さらには、扱う画像を特定する操作が不要となる。画像を特定する操作は処理時間が必要なので、図6に図示するエッジ抽出回路19を用いることで、処理の高速化を図ることができる。また、FAX等の受信画像のように画像を特定できない画像でも最適な処理を実行できる。   In this way, by mixing edge components having different characteristics, it is possible to eliminate binary processing switching and adaptively extract a wide range of edge components in the image in terms of spatial frequency. If this edge amount Eout is used in the mixing circuit 13, the scanning aperture mixing process can be performed in accordance with the local image edge characteristics, and the complete mixing process including the edge component can be executed. In other words, even if images with different characteristics such as characters, graphics, and photographs are mixed, the estimation process should completely eliminate the binary switching process and automatically adapt to the local image edge characteristics. Can do. Therefore, since the extraction of the optimum edge component for each region and the estimation process according to the edge component can be performed, the influence of local misidentification of the image can be suppressed, and the image degradation can be suppressed very small. Furthermore, an operation for specifying the image to be handled becomes unnecessary. Since the operation for specifying the image requires processing time, the processing speed can be increased by using the edge extraction circuit 19 shown in FIG. Further, optimum processing can be executed even for an image such as a received image such as a fax that cannot specify an image.

次に、領域識別装置Aの識別回路4について、その動作を図8、図9、図10、図11、図12を用いて説明する。
図9は識別回路4のブロック図、図10(a)はエッジ検出フィルタ41、エッジ検出フィルタ42の検出位置の配置図、図10(b)はエッジ検出フィルタ41のフィルタ図、図10(c)はエッジ検出フィルタ42のフィルタ図を示すものである。本発明の第1の実施例においてN、Mは特定されるものではないが、例えばN=2、M=256として以下の説明を行なう。
Next, the operation of the identification circuit 4 of the area identification device A will be described with reference to FIGS. 8, 9, 10, 11, and 12. FIG.
9 is a block diagram of the identification circuit 4, FIG. 10A is an arrangement diagram of detection positions of the edge detection filter 41 and the edge detection filter 42, FIG. 10B is a filter diagram of the edge detection filter 41, and FIG. ) Shows a filter diagram of the edge detection filter 42. In the first embodiment of the present invention, N and M are not specified, but the following description will be made assuming that N = 2 and M = 256, for example.

図9において、エッジ検出フィルタ41は第1検出器A(41a)〜第9検出器A(41i)の9個の検出器と検出器(41a〜41i)の出力を加算する加算器410より構成され、加算信号ESAを生成する。図10(a)に図示するように、9個の検出器(41a〜41i)は、階調変換回路1が処理する着目画素位置を位置Eとすると、位置Eを含む周辺位置A〜Iをそれぞれの検出位置としてエッジ量を検出する。検出器(41a〜41i)には同じフィルタを使用する。例えば、エッジ成分の抽出には、図10(b)に図示する1次微分フィルタ4100、4101を用い、図示した各フィルタの重み係数で加算されたそれぞれの結果の絶対値を加算してエッジ量とする。   In FIG. 9, the edge detection filter 41 includes nine detectors from the first detector A (41a) to the ninth detector A (41i) and an adder 410 for adding the outputs of the detectors (41a to 41i). The sum signal ESA is generated. As illustrated in FIG. 10A, the nine detectors (41 a to 41 i) define peripheral positions A to I including the position E, where the target pixel position processed by the gradation conversion circuit 1 is the position E. Edge amounts are detected as the respective detection positions. The same filter is used for the detectors (41a to 41i). For example, for the extraction of edge components, the first-order differential filters 4100 and 4101 shown in FIG. 10B are used, and the absolute values of the respective results added by the weighting coefficients of the respective filters shown in FIG. And

図22は、エッジ検出フィルタ41の第n検出器A(41a〜41i)の1つを実現する回路ブロック図である。ここで、nは1〜9である。遅延回路418は、N値画像データ100をラインメモリで副走査方向jに遅延させる。副走査方向jに遅延したデータはラッチによって主走査方向iに遅延され、用いるフィルタの係数によって、それぞれ加算回路412a〜412dで加算される。加算器413は副走査方向jの差分値を演算し、絶対値回路415は加算器413の絶対値を算出することで副走査方向jのエッジ成分(フィルタ4100のエッジ成分)を出力する。また、加算器414は主走査方向iの差分値を演算し、絶対値回路416は加算器414の絶対値を算出することで主走査方向iのエッジ成分(フィルタ4101のエッジ成分)を出力する。加算器417は主走査方向iのエッジ成分と副走査方向jのエッジ成分を加算することで、着目画素のエッジ成分を出力する。図22は1次微分フィルタを実現する回路であり、主走査方向iの遅延用ラッチと副走査方向jの遅延用ラインメモリを増減させることで、用いられる1次微分フィルタの係数に合わせることができる。   FIG. 22 is a circuit block diagram that realizes one of the n-th detectors A (41 a to 41 i) of the edge detection filter 41. Here, n is 1-9. The delay circuit 418 delays the N-value image data 100 in the sub-scanning direction j by the line memory. The data delayed in the sub-scanning direction j is delayed in the main scanning direction i by the latch, and added by the adder circuits 412a to 412d, respectively, depending on the filter coefficient used. The adder 413 calculates the difference value in the sub-scanning direction j, and the absolute value circuit 415 calculates the absolute value of the adder 413 and outputs the edge component in the sub-scanning direction j (the edge component of the filter 4100). The adder 414 calculates the difference value in the main scanning direction i, and the absolute value circuit 416 calculates the absolute value of the adder 414 to output an edge component in the main scanning direction i (an edge component of the filter 4101). . The adder 417 adds the edge component in the main scanning direction i and the edge component in the sub-scanning direction j to output the edge component of the pixel of interest. FIG. 22 shows a circuit that implements a first-order differential filter. By adjusting the delay latch in the main scanning direction i and the delay line memory in the sub-scanning direction j, it can be adjusted to the coefficient of the first-order differential filter used. it can.

同様に、エッジ検出フィルタ42は第1検出器B(42a)〜第9検出器B(42i)の9個の検出器と検出器(42a〜42i)の出力を加算する加算器420より構成され、加算信号ESBを生成する。図10(a)に図示するように、9個の検出器(42a〜42i)は階調変換回路1が処理する着目画素位置を位置Eとすると、位置Eを含む周辺位置A〜Iをそれぞれの検出位置としてエッジ量を検出する。検出器42a〜42iには同じフィルタを使用する。例えば、エッジ成分抽出には図10(c)に図示する1次微分フィルタ4200、4201を用い、図示した各フィルタの重み係数で加算されたそれぞれの結果の絶対値を加算してエッジ量とする。   Similarly, the edge detection filter 42 includes nine detectors of the first detector B (42a) to the ninth detector B (42i) and an adder 420 that adds the outputs of the detectors (42a to 42i). The addition signal ESB is generated. As illustrated in FIG. 10A, the nine detectors (42 a to 42 i) have peripheral positions A to I including the position E as the target pixel position processed by the gradation conversion circuit 1, respectively. The edge amount is detected as the detection position. The same filter is used for the detectors 42a to 42i. For example, the edge component extraction uses the first-order differential filters 4200 and 4201 shown in FIG. 10C, and adds the absolute values of the results obtained by adding the weighting coefficients of the respective filters to obtain the edge amount. .

図8に図示するように、エッジ検出特性は、異なるピークを有する空間周波数特性を示す。フィルタ4100、フィルタ4101のピーク周波数をFSaとし、フィルタ4200、フィルタ4201のピーク周波数をFSbとすると、FSa>FSbの関係となる。よって、文字・図形などの周波数の高いパターンの輪郭検出にはエッジ検出フィルタ41が適し、テクスチャ、網点周波数に影響されず写真などの低い周波数の輪郭検出にはエッジ検出フィルタ42が適する。また、複数の検出器の加算値をエッジ量とすることにより複数の検出器の検出値が大きく、かつ、相関が高いときに大きな出力となる。よって、2値化処理によって起こるデータの拡散、または独特のテクスチャによる影響を受けずにエッジ検出ができる。   As illustrated in FIG. 8, the edge detection characteristic indicates a spatial frequency characteristic having different peaks. When the peak frequency of the filter 4100 and the filter 4101 is FSa, and the peak frequency of the filter 4200 and the filter 4201 is FSb, the relationship of FSa> FSb is established. Therefore, the edge detection filter 41 is suitable for detecting a contour of a pattern having a high frequency such as a character / graphic, and the edge detection filter 42 is suitable for detecting a contour of a low frequency such as a photograph without being affected by the texture and the halftone dot frequency. Further, by using the added value of a plurality of detectors as the edge amount, a large output is obtained when the detection values of the plurality of detectors are large and the correlation is high. Therefore, edge detection can be performed without being affected by data diffusion caused by the binarization process or a unique texture.

図9において、第1比較回路43は、信号ESAと比較レベルCPA(信号64)を比較し、ESA>CPAのとき「H」を出力し、ESA≦CPAのとき「L」を出力する。同様に、第2比較回路44は、信号ESBと比較レベルCPB(信号65)を比較し、ESB>CPBのとき「H」を出力し、ESB≦CPBのとき「L」を出力する。ここで、「H」は輪郭領域と判定し、「L」は非輪郭領域と判定した判定レベルとする。   In FIG. 9, the first comparison circuit 43 compares the signal ESA and the comparison level CPA (signal 64), and outputs “H” when ESA> CPA, and outputs “L” when ESA ≦ CPA. Similarly, the second comparison circuit 44 compares the signal ESB with the comparison level CPB (signal 65), and outputs “H” when ESB> CPB, and outputs “L” when ESB ≦ CPB. Here, “H” is determined to be a contour region, and “L” is determined to be a non-contour region.

AND回路45は、制御信号62(信号CONT2)が「H」のとき、第1比較回路43の出力を有効にし、「L」のときは無効で、かつ出力を常に「L」とする。同様に、AND回路46は制御信号63(信号CONT3)が「H」のとき、第2比較回路44の出力を有効にし、「L」のときは無効で、かつ出力を常に「L」とする。
OR回路47はAND回路45、AND回路46の出力のいずれかが「H」のときに「H」の識別信号400を出力し、どちらも「L」のとき「L」を出力する。ここで、「H」は輪郭領域と判定し、「L」は非輪郭領域と判定したレベルとする。
The AND circuit 45 enables the output of the first comparison circuit 43 when the control signal 62 (signal CONT2) is “H”, disables it when it is “L”, and always sets the output to “L”. Similarly, the AND circuit 46 validates the output of the second comparison circuit 44 when the control signal 63 (signal CONT3) is “H”, is invalid when it is “L”, and always keeps the output “L”. .
The OR circuit 47 outputs an identification signal 400 of “H” when either of the outputs of the AND circuit 45 and the AND circuit 46 is “H”, and outputs “L” when both are “L”. Here, “H” is determined as a contour region, and “L” is a level determined as a non-contour region.

このように、第1比較回路43、第2比較回路44は、比較レベルCPA、CPBをパラメータにして、複数位置で検出されたエッジ信号を加算した信号ESA、信号ESBの検出信号を判定する。図8に図示するように、比較レベルCPAによって識別aの領域が検出され、比較レベルCPBによって識別bの領域が検出される。よって、比較レベルCPA、CPBのパラメータで識別する周波数領域を制御することができる。   As described above, the first comparison circuit 43 and the second comparison circuit 44 use the comparison levels CPA and CPB as parameters to determine the signal ESA and the detection signal of the signal ESB obtained by adding the edge signals detected at a plurality of positions. As shown in FIG. 8, the region of identification a is detected by the comparison level CPA, and the region of identification b is detected by the comparison level CPB. Therefore, it is possible to control the frequency region identified by the parameters of the comparison levels CPA and CPB.

また、制御信号62は第1比較回路43の判定結果の有効、無効を制御し、制御信号63は第2比較回路44の判定結果の有効、無効を制御する。結果、写真画像の輪郭、文字画像の輪郭、図形画像の輪郭、網点画像の輪郭、文字・写真混在画像の輪郭など最適条件の異なる対象画像の輪郭領域検出に対応でき、さらに検出特性の制御ができる。
また、図9に図示する識別回路4は、図11に図示するように、9個の検出器(41a〜41i)の出力と、レジスタ411の値とを9個の比較器(41j〜41r)でそれぞれ比較し、レジスタ411の値以上を加算器410で加算するように改良しても良い。同様に、9個の検出器(42a〜42i)の出力と、レジスタ421の値とを9個の比較器(42j〜42r)でそれぞれ比較し、レジスタ421の値以上を加算器420で加算するように改良しても良い。
The control signal 62 controls validity / invalidity of the determination result of the first comparison circuit 43, and the control signal 63 controls validity / invalidity of the determination result of the second comparison circuit 44. As a result, it can respond to the detection of contour areas of target images with different optimum conditions such as contours of photographic images, contours of character images, contours of graphic images, contours of halftone images, contours of mixed images of characters and photographs, and control of detection characteristics Can do.
Further, as shown in FIG. 11, the identification circuit 4 shown in FIG. 9 uses the outputs of the nine detectors (41a to 41i) and the value of the register 411 as nine comparators (41j to 41r). The values may be compared with each other in the register 411 and the adder 410 may add more than the value in the register 411. Similarly, the outputs of the nine detectors (42a to 42i) and the value of the register 421 are respectively compared by the nine comparators (42j to 42r), and the value of the register 421 or more is added by the adder 420. It may be improved as follows.

この改良によって改善される効果について、以下、図12(a)、図12(b)、図12(c)、図12(d)を用いて説明する。
図12(a)は、2値化データ100のパターン図を図示したものである。領域2000は文字・図形領域を示し、領域2000の内部の領域2200は、2値化処理によってデータが拡散し、文字・図形のイメージデータが移動した例である。このデータの移動は、コンピュータの描画による電子データでは発生しない。しかし、スキャナーなどの入力によって原稿が読み込まれる場合、原稿濃度が薄い、または、かすれた状態では多く発生する。また、非輪郭領域での領域2100は、K値画像データの濃淡値が小さいときに、2値化処理によって多く発生する孤立点である。これは、K値画像データの濃淡値が一定のデータとすると、誤差拡散法、ディザ法などのディジタルハーフトーン技術では、ある広い領域で濃淡値を平均的に保存するように2値化処理するからである。
The effects improved by this improvement will be described below with reference to FIGS. 12 (a), 12 (b), 12 (c), and 12 (d).
FIG. 12A shows a pattern diagram of the binarized data 100. An area 2000 indicates a character / graphic area, and an area 2200 inside the area 2000 is an example in which data is diffused by binarization processing and character / graphic image data is moved. This movement of data does not occur with electronic data drawn by a computer. However, when an original is read by an input from a scanner or the like, it often occurs when the original density is low or blurred. Further, the region 2100 in the non-contour region is an isolated point frequently generated by the binarization process when the gray value of the K-value image data is small. Assuming that the gray value of the K-value image data is constant, the digital halftone technique such as the error diffusion method or the dither method performs binarization processing so that the gray value is averaged over a wide area. Because.

図12(b)は、エッジ検出フィルタ41のうち、着目画素位置Eを検出する第5検出器A(41e)を1つ用て、画像のエッジを検出したときの出力図を図示したものである。第5検出器A(41e)は、フィルタ4100、フィルタ4101を用い、主走査方向と副走査方向の画像のエッジを検出し、それぞれの出力を合成することで着目画素位置Eでのエッジを検出する。実施回路は図22と同じである。このエッジ検出の出力データを用いて、領域を識別する。誤差拡散法、ディザ法などのディジタルハーフトーン技術では、2値値化する前のデータが一定値でも、2値化処理によってデータが拡散するため、エッジ出力Egは「0」にならない。よって、非輪郭領域での孤立点領域200の影響(誤識別)を考慮し、識別する判定レベルを「3」以上とすると、図12(b)の点線で囲まれた領域3000を輪郭領域として検出できる。図12(b)に図示するうに、孤立点領域2100の誤検出はないものの、文字・図形領域2000は検出されず、外側の領域を検出している。さらに、検出領域3000は、図12(a)に図示した、2値化処理によってデータが移動した領域2200の影響を受け、領域3000が孤立した状態で識別している。判定レベルを「2」以上とすると、識別領域は広がるが、領域3000が孤立した状態は解決されない。また、孤立点領域2100の周辺で、誤検出領域がさらに多くなる。   FIG. 12B illustrates an output diagram when an edge of an image is detected using one fifth detector A (41e) that detects the target pixel position E in the edge detection filter 41. is there. The fifth detector A (41e) uses the filter 4100 and the filter 4101 to detect the edge of the image in the main scanning direction and the sub-scanning direction, and detects the edge at the target pixel position E by combining the respective outputs. To do. The implementation circuit is the same as in FIG. A region is identified using the output data of the edge detection. In the digital halftone technique such as the error diffusion method or the dither method, even if the data before binarization is a constant value, the data is diffused by the binarization process, so the edge output Eg does not become “0”. Therefore, in consideration of the influence (misidentification) of the isolated point region 200 in the non-contour region, when the determination level to be identified is “3” or more, the region 3000 surrounded by the dotted line in FIG. It can be detected. As shown in FIG. 12B, although there is no false detection of the isolated point area 2100, the character / graphic area 2000 is not detected and the outer area is detected. Further, the detection area 3000 is identified by the influence of the area 2200 in which data is moved by the binarization processing illustrated in FIG. If the determination level is “2” or higher, the identification area is expanded, but the state where the area 3000 is isolated cannot be solved. Further, the number of erroneous detection areas is further increased around the isolated point area 2100.

図12(c)は、エッジ検出フィルタ41のエッジ出力ESAの出力図を図示したものである。エッジ検出フィルタ41は第1検出器A(41a)〜第9検出器A(41i)の9個の検出器と検出器(41a〜41i)の出力を加算する加算器410より構成され、加算信号ESAを生成するので、各検出器(41a〜41i)の相関が大きいと、より大きなエッジ成分を出力し、相関が小さいと、エッジ成分の出力は大きくならない。よって、非輪郭領域では、孤立点の影響を抑え、輪郭領域ではデータの拡散による影響を受けずに領域を識別できるようになる。ここで、図9に図示する第1比較回路43の判定レベルCPAの値を「8」に設定すると、図12(c)の点線で囲まれた領域3000を輪郭領域として検出できる。孤立点領域100の誤検出はあるものの、文字・図形領域2000の周辺を含めて広い領域を1つの連結した状態で検出している。また、検出領域3000は、図12(a)に図示した、2値化処理によってデータが移動した領域2200の影響を全く受けていない。ここで、判定レベルCPAの値を「15」に設定することで、文字・図形領域2000のみ抽出して識別することもできる。このように、判定レベルCPAの値の設定を異ならせることで、抽出する領域を異ならせ、識別領域を変化させることができる。   FIG. 12C illustrates an output diagram of the edge output ESA of the edge detection filter 41. The edge detection filter 41 includes nine detectors from the first detector A (41a) to the ninth detector A (41i) and an adder 410 that adds the outputs of the detectors (41a to 41i). Since the ESA is generated, a larger edge component is output when the correlation between the detectors (41a to 41i) is large, and an output of the edge component does not increase when the correlation is small. Therefore, the influence of isolated points is suppressed in the non-contour region, and the region can be identified in the contour region without being influenced by data diffusion. Here, when the value of the determination level CPA of the first comparison circuit 43 illustrated in FIG. 9 is set to “8”, the region 3000 surrounded by the dotted line in FIG. 12C can be detected as the contour region. Although there is an erroneous detection of the isolated point region 100, a wide region including the periphery of the character / graphic region 2000 is detected in a single connected state. Further, the detection area 3000 is not affected at all by the area 2200 in which data is moved by the binarization processing shown in FIG. Here, by setting the value of the determination level CPA to “15”, only the character / graphic region 2000 can be extracted and identified. Thus, by changing the setting of the value of the determination level CPA, it is possible to change the area to be extracted and change the identification area.

図12(d)は、図11に図示する改良したエッジ検出フィルタ41のエッジ出力ESAの出力図を図示したものである。この改良によって、エッジ成分が所定レベル以上を加算対象とするので、孤立点の影響を排除でき、図12(c)の孤立点の誤検出を改善する。ここで、比較値(REG1)を「1」とし、図11に図示する9個のエッジ検出器(41a〜41i)のエッジ出力Egを、それぞれ各比較器(41j〜41r)で比較し、Eg>1の時に加算器410でエッジ出力Egを加算する。さらに、図9に図示する第1比較回路43の判定レベルCPAの値を「8」に設定すると、図12(d)の点線で囲まれた領域3000を輪郭領域として検出できる。孤立点領域2100の誤検出もなく、文字・図形領域2000の周辺を含めて広い領域を1つの連結した状態で検出している。また、検出領域3000は、図12(a)に図示した、2値化処理によってデータが移動した領域2200の影響を全く受けていない。よって、図12(c)と比べると、エッジ検出フィルタ41の検出精度が向上していることが分かる。同様の処理により、エッジ検出フィルタ42の検出精度も向上できる。ここで、判定レベルCPAの値を「12」に設定することで、文字・図形領域2000のみ抽出して識別することもできる。このように、判定レベルCPAの値の設定を異ならせることで、抽出する領域を異ならせ、識別領域を変化させることができる。   FIG. 12D illustrates an output diagram of the edge output ESA of the improved edge detection filter 41 illustrated in FIG. As a result of this improvement, since the edge component is added to a predetermined level or more, the influence of isolated points can be eliminated, and erroneous detection of isolated points in FIG. 12C is improved. Here, the comparison value (REG1) is set to “1”, the edge outputs Eg of the nine edge detectors (41a to 41i) illustrated in FIG. 11 are compared by the respective comparators (41j to 41r), and Eg When> 1, the adder 410 adds the edge output Eg. Furthermore, when the value of the determination level CPA of the first comparison circuit 43 shown in FIG. 9 is set to “8”, the region 3000 surrounded by the dotted line in FIG. 12D can be detected as the contour region. There is no false detection of the isolated point area 2100, and a wide area including the periphery of the character / graphic area 2000 is detected in a single connected state. Further, the detection area 3000 is not affected at all by the area 2200 in which data is moved by the binarization processing shown in FIG. Therefore, it can be seen that the detection accuracy of the edge detection filter 41 is improved as compared with FIG. By the same processing, the detection accuracy of the edge detection filter 42 can be improved. Here, by setting the value of the determination level CPA to “12”, only the character / graphic region 2000 can be extracted and identified. Thus, by changing the setting of the value of the determination level CPA, it is possible to change the area to be extracted and change the identification area.

以上のことから、着目画素位置を含む周辺位置から複数のエッジ検出フィルタで検出されるエッジ量を加算し、所定レベルと比較することで、輪郭領域である文字・図形領域を精度良く検出できる。さらに、エッジ検出フィルタで検出されるエッジ量を、所定値と比較判定して、所定以上の値を加算する処理を追加することで、2値化処理で生じるデータ拡散の影響を排除でき、さらには、2値化画像中のテクスチャによる誤検出を排除できる。結果、非輪郭領域での誤検出量を小さくし、かつ輪郭領域のエッジ量を加算処理できるので、エッジ検出精度をより向上できる。   From the above, by adding the edge amounts detected by the plurality of edge detection filters from the peripheral position including the pixel position of interest and comparing it with a predetermined level, the character / graphic area that is the outline area can be detected with high accuracy. Furthermore, by adding a process of comparing the edge amount detected by the edge detection filter with a predetermined value and adding a value greater than or equal to the predetermined value, it is possible to eliminate the influence of data diffusion caused by the binarization process. Can eliminate false detection due to texture in the binarized image. As a result, since the erroneous detection amount in the non-contour region can be reduced and the edge amount in the contour region can be added, the edge detection accuracy can be further improved.

また、図9、図11に図示する識別回路4は、N値階調画像中の輪郭領域と非輪郭領域を識別するので、それぞれの識別領域で異なる階調変換処理(N値画像をM値画像[N<M]に変換する処理)を用いることができる。よって、それぞれの輪郭領域と非輪郭領域に最適な階調変換処理を用いることで、N値階調画像全体に対して、解像度と均一性の両立ができる階調変換処理が実現できる。   Further, the identification circuit 4 shown in FIGS. 9 and 11 discriminates the contour region and the non-contour region in the N-value gradation image, so that different gradation conversion processing (N-value image is converted into M value in each identification region). Image [N <M]). Therefore, by using the optimum gradation conversion processing for each contour region and non-contour region, gradation conversion processing that can achieve both resolution and uniformity can be realized for the entire N-value gradation image.

また、輪郭領域の近傍では、階調変換処理のn×mの走査開口が、輪郭領域の文字・図形領域2000と非輪郭領域を含めた2値化データから中間状態の推定値NAを出力する。この中間領域は、画質上、解像度が優先する領域なので、輪郭領域として識別する必要がある。n×mの走査開口が文字・図形領域2000を含む位置を輪郭領域と判定するには、文字・図形領域2000の周辺を含めて広い領域を1つの連結した状態で検出する必要があり、この理由から、図9に図示する識別回路4は、文字・図形領域2000の周辺を含めて広い領域を1つの連結した状態で検出するので、階調変換処理と非常に相性が良い。   In the vicinity of the contour region, the n × m scanning aperture of the gradation conversion process outputs an estimated value NA of the intermediate state from the binarized data including the character / graphic region 2000 of the contour region and the non-contour region. . Since this intermediate region is a region where resolution is prioritized in terms of image quality, it needs to be identified as a contour region. In order to determine the position where the n × m scanning aperture includes the character / graphic region 2000 as the contour region, it is necessary to detect a wide region including the periphery of the character / graphic region 2000 in a single connected state. For this reason, the identification circuit 4 shown in FIG. 9 detects a wide area including the periphery of the character / graphic area 2000 in a single connected state, and thus is very compatible with the gradation conversion process.

次に、データ変換回路7について図13、図14、図15を用いて説明する。
図13はデータ変換回路7のブロック図、図14(a)はデータ変換回路7の係数設定を説明するためのフィルタ図、図14(b)はデータ変換曲線図、図15はデータ変換回路7の動作説明図を示すものである。ここでは、N=2、M=17とし、さらに図2に図示する第1正規化回路112の正規化係数を1(SA=NA)として説明する。
Next, the data conversion circuit 7 will be described with reference to FIGS. 13, 14, and 15. FIG.
13 is a block diagram of the data conversion circuit 7, FIG. 14A is a filter diagram for explaining the coefficient setting of the data conversion circuit 7, FIG. 14B is a data conversion curve diagram, and FIG. The operation explanatory view of is shown. Here, it is assumed that N = 2 and M = 17, and that the normalization coefficient of the first normalization circuit 112 shown in FIG. 2 is 1 (SA = NA).

図13において、入力される推定値NA(信号300)は、図2に図示される第1多値化変換回路11によって生成される信号である。第1多値化変換回路11の第1加算回路111には図3(b)に図示するフィルタ1110を用いる。
データ変換回路7の係数設定回路71は、係数設定レジスタ72にデータ変換係数を設定する。データ変換係数は、第1多値化変換回路11の第1加算回路111で用いるフィルタ1110の重み係数に基づいて算出される。算出方法については後述する。
In FIG. 13, an input estimated value NA (signal 300) is a signal generated by the first multi-value conversion circuit 11 shown in FIG. A filter 1110 illustrated in FIG. 3B is used for the first adder circuit 111 of the first multi-value conversion circuit 11.
The coefficient setting circuit 71 of the data conversion circuit 7 sets the data conversion coefficient in the coefficient setting register 72. The data conversion coefficient is calculated based on the weight coefficient of the filter 1110 used in the first addition circuit 111 of the first multi-value conversion circuit 11. The calculation method will be described later.

第1多値化変換回路11が出力した推定値NA(信号300)は、減算器77によってレジスタ72aの値「4」が減算され、さらに減算結果はレジスタ72cの値「2」が乗算器78によって乗算され、信号780を得る。比較回路73は、入力条件がA>Bの時に出力信号730を「H」レベルにし、A≦Bのとき「L」レベルする。選択回路75は、比較回路73の出力信号730が「H」レベルの時、レジスタ72dの値「16」を選択し、「L」レベルのときに出力信号780を選択し、出力信号750を出力する。比較回路74は入力条件がA<Bの時に出力信号740を「L」レベルにし、A≧Bのとき「H」レベルする。除去回路76は、信号740が「L」レベルのとき出力信号を「0」とし、「H」レベルのとき、出力信号750を出力信号700として出力する。   The estimated value NA (signal 300) output from the first multi-value conversion circuit 11 is subtracted from the value “4” of the register 72a by the subtractor 77, and the value “2” of the register 72c is further subtracted from the multiplier 78. To obtain a signal 780. The comparison circuit 73 sets the output signal 730 to “H” level when the input condition is A> B, and to “L” level when A ≦ B. The selection circuit 75 selects the value “16” of the register 72d when the output signal 730 of the comparison circuit 73 is “H” level, selects the output signal 780 when the output signal 730 is “L” level, and outputs the output signal 750 To do. The comparison circuit 74 sets the output signal 740 to “L” level when the input condition is A <B, and to “H” level when A ≧ B. The removal circuit 76 sets the output signal to “0” when the signal 740 is “L” level, and outputs the output signal 750 as the output signal 700 when it is “H” level.

ここで、図14(a)を用いて、係数設定レジスタ72に設定する各レジスタ72a〜72dの値の算出方法について説明する。
図14(a)では、フィルタ1110を実施例として説明する。各画素位置での重み係数をW11〜W33とすると、W11、W13、W31、W33は「1」、W12、W21、W23、W32は「2」、W22は「4」となる。重み係数は特定されるものでないが、着目画素位置の重み係数が周囲画素位置より大きいほど効果が大きい。さらに、主走査方向i、副走査方向jで対象になるように係数を配置すると、方向に依存しなくなるので、画質上好ましい。
Here, a method of calculating the values of the registers 72a to 72d set in the coefficient setting register 72 will be described with reference to FIG.
FIG. 14A illustrates the filter 1110 as an example. If the weighting coefficients at each pixel position are W11 to W33, W11, W13, W31, and W33 are “1”, W12, W21, W23, and W32 are “2”, and W22 is “4”. Although the weighting coefficient is not specified, the effect is greater as the weighting coefficient at the target pixel position is larger than the surrounding pixel positions. Furthermore, it is preferable in terms of image quality to arrange the coefficients so as to be the target in the main scanning direction i and the sub-scanning direction j because they do not depend on the direction.

レジスタ72aの値をreg(a)、レジスタ72bの値をreg(b)、レジスタ72cの値をreg(c)、レジスタ72dの値をreg(d)とすると各レジスタ値は(数8)のように算出される。   When the value of the register 72a is reg (a), the value of the register 72b is reg (b), the value of the register 72c is reg (c), and the value of the register 72d is reg (d), the value of each register is Is calculated as follows.

Figure 0003769004
reg(a)は行ライン上端の重み係数を加算したが、行ライン上端、行ライン下端、列ライン左端、列ライン右端のいずれか1つのライン上の重み係数を加算すれば良い。reg(d)は重み係数の総和が設定される。
Figure 0003769004
In reg (a), the weighting coefficient at the upper end of the row line is added, but the weighting coefficient on any one of the upper end of the row line, the lower end of the row line, the left end of the column line, and the right end of the column line may be added. In reg (d), the sum of weighting coefficients is set.

(数8)の演算は、走査開口の行方向の端行、若しくは列方向の端列に位置する画素位置から得られる想定上の推定値分を、推定値NAから予め除去することで、開口を等価的に小さくする方向にデータ変換を行うので、先鋭度を向上させる。走査開口サイズが大きくなった場合でも走査開口の行方向の端行、若しくは列方向の端列に位置する画素から得られる想定上の推定分を、予め推定値から削除するので同様の効果がある。   The calculation of (Equation 8) is performed by previously removing the estimated estimated value obtained from the pixel position located in the end row in the row direction or the end column in the column direction from the estimated value NA. Since the data conversion is performed in the direction of reducing the size equally, sharpness is improved. Even when the scanning aperture size is increased, the estimated amount obtained from the pixel located in the end row in the row direction of the scanning aperture or the pixel located in the end column in the column direction is deleted in advance from the estimated value, so that the same effect is obtained. .

以上のデータ変換により、入力される推定値NA(信号300)は図14(b)に図示するデータ変換曲線によって変換され、出力信号700として出力される。
図15は、2値画像データ上を図14(a)のフィルタ1110で主走査方向iへ移動させた場合の推定値NA(信号300)と、推定値NA(信号300)をデータ変換回路7で処理した信号700を比較した図面であり、先鋭度(解像度)が向上している様子がわかる。
By the above data conversion, the input estimated value NA (signal 300) is converted by the data conversion curve shown in FIG. 14B and output as an output signal 700.
FIG. 15 shows the estimated value NA (signal 300) and the estimated value NA (signal 300) when the binary image data is moved in the main scanning direction i by the filter 1110 of FIG. It is a drawing comparing the signal 700 processed in step 1, and it can be seen that the sharpness (resolution) is improved.

この変換信号700を、図1で図示した選択回路6の入力Dに用いることによって、識別回路4で識別した輪郭領域の先鋭度(解像度)を向上させることができる。また、誤識別が非輪郭領域で存在しても急激な濃度変化を起こさないので、画質劣化を小さく抑えることができる。
なお、データ変換回路7のレジスタ72に設定するの各値(72a〜72d)が固定される場合は、データ変換回路7をROMに置き換え、内部にデータ変換係数に対応するデータ変換テーブルを格納して同様のデータ変換を行っても良い。さらに、データ変換回路7のレジスタ72に設定するの各値(72a〜72d)が可変される場合は、データ変換回路7をRAMに置き換え、フィルタ1110の重み係数に対応する係数を算出し、変換曲線に対応する変換テーブルを再度作成し、作成した変換テーブルをRAMに再度設定するようにしても良い。
By using this converted signal 700 as the input D of the selection circuit 6 shown in FIG. 1, the sharpness (resolution) of the contour region identified by the identification circuit 4 can be improved. In addition, even if misidentification exists in the non-contour area, a rapid density change does not occur, and image quality deterioration can be suppressed to a small level.
When each value (72a to 72d) to be set in the register 72 of the data conversion circuit 7 is fixed, the data conversion circuit 7 is replaced with a ROM, and a data conversion table corresponding to the data conversion coefficient is stored therein. The same data conversion may be performed. Further, when each value (72a to 72d) set in the register 72 of the data conversion circuit 7 is variable, the data conversion circuit 7 is replaced with a RAM, and a coefficient corresponding to the weight coefficient of the filter 1110 is calculated and converted. The conversion table corresponding to the curve may be created again, and the created conversion table may be set again in the RAM.

次に、強調回路5について図1、図16を用いて説明する。図16は強調回路5のブロック図である。
図16において、遅延回路50は3ラインのラインメモリより構成され、副走査方向jに推定値NA(信号300)を遅延させる。遅延されたデータは、遅延回路51によって主走査方向iに遅延する。遅延回路51はラッチによって構成される。乗算回路52は強調する着目画素位置の値P(i,j)を5倍にする。加算回路54は、着目画素位置の周辺に位置する画素値P(i−1,j−1)、P(i+1,j−1)、P(i−1,j+1)、P(i+1,j+1)を加算する。乗算回路56は、加算回路54の出力を−1倍する。加算回路53は、乗算回路52と乗算回路56の出力を加算する。絶対値回路55は加算回路53の出力の絶対値を算出し、強調信号EF(信号500)を出力する。
Next, the enhancement circuit 5 will be described with reference to FIGS. FIG. 16 is a block diagram of the emphasis circuit 5.
In FIG. 16, the delay circuit 50 is composed of a three-line line memory, and delays the estimated value NA (signal 300) in the sub-scanning direction j. The delayed data is delayed in the main scanning direction i by the delay circuit 51. The delay circuit 51 is configured by a latch. The multiplication circuit 52 multiplies the value P (i, j) of the target pixel position to be emphasized five times. The adder circuit 54 has pixel values P (i−1, j−1), P (i + 1, j−1), P (i−1, j + 1), P (i + 1, j + 1) located around the target pixel position. Is added. The multiplier circuit 56 multiplies the output of the adder circuit 54 by -1. The adder circuit 53 adds the outputs of the multiplier circuit 52 and the multiplier circuit 56. The absolute value circuit 55 calculates the absolute value of the output from the adder circuit 53 and outputs an enhancement signal EF (signal 500).

この強調回路5は、推定値NA(信号300)の画像を着目画素位置毎、即ち1画素単位で強調処理する。よって、着目する強調位置をP(i,j)とすると、強調信号EFは(数9)により演算される。ただし、ABS[ ]は絶対値をとる演算である。   The enhancement circuit 5 enhances the image of the estimated value NA (signal 300) for each target pixel position, that is, for each pixel. Therefore, if the emphasized position of interest is P (i, j), the emphasized signal EF is calculated by (Equation 9). However, ABS [] is an operation that takes an absolute value.

Figure 0003769004
また、同様の強調信号EF(信号500)は、推定値NA(信号300)を3ラインのラインメモリで遅延させずに生成することもできる。この場合は、強調する着目画素位置(i,j)を含む位置(i,j)、位置(i−1,j−1)、位置(i+1,j−1)、位置(i−1,j+1)、位置(i+1,j+1)の5点を、推定位置として、それぞれ図2の第1多値化変換回路11を用いて推定値NAを算出し、算出された各位置での推定値NA(i,j)、NA(i−1,j−1)、NA(i+1,j−1)、NA(i−1,j+1)、NA(i+1,j+1)を(数9)の各位置に対応する画素値として代入することで、N値階調画像100から直接に強調信号EF(信号500)を得ることができる。 このN値階調画像100から直接に強調信号EFを得ると、遅延回路50の3ラインのラインメモリの容量が大幅に削減できる。本発明の第1の実施例ではN=2、M=256である為、信号300の遅延は8ビット/画素を行なうのに対して、N値階調画像100の遅延は1ビット/画素となる。遅延ライン数が同じ場合、ラインメモリ容量は1/8となる。N値階調画像100から直接に強調信号EFを得る方法は、5点を着目位置として推定するので第1多値化変換回路11の規模は5倍になる。しかし、削減されるメモリ容量の7/8に相当するゲート換算数と、5倍の第1多値化変換回路11の規模のゲート換算数では、N値階調画像100から直接に強調信号EF(信号500)を得る方がゲート換算数が小さい。これは、LSI化する際に有利となり、高速化できるといった効果がある。
Figure 0003769004
Further, the same enhancement signal EF (signal 500) can be generated without delaying the estimated value NA (signal 300) by a three-line line memory. In this case, the position (i, j), the position (i−1, j−1), the position (i + 1, j−1), the position (i−1, j + 1) including the pixel position of interest (i, j) to be emphasized. ) And 5 (5) at positions (i + 1, j + 1) as estimated positions, the estimated value NA is calculated using the first multi-value conversion circuit 11 of FIG. 2, and the estimated values NA ( i, j), NA (i-1, j-1), NA (i + 1, j-1), NA (i-1, j + 1), and NA (i + 1, j + 1) correspond to the respective positions of (Equation 9). By substituting as the pixel value to be applied, the enhancement signal EF (signal 500) can be obtained directly from the N-value gradation image 100. If the enhancement signal EF is obtained directly from the N-value gradation image 100, the capacity of the three-line line memory of the delay circuit 50 can be greatly reduced. In the first embodiment of the present invention, since N = 2 and M = 256, the delay of the signal 300 is 8 bits / pixel, whereas the delay of the N-value gradation image 100 is 1 bit / pixel. Become. When the number of delay lines is the same, the line memory capacity is 1/8. In the method of obtaining the enhancement signal EF directly from the N-value gradation image 100, since the five points are estimated as the target position, the scale of the first multi-value conversion circuit 11 is five times larger. However, the enhancement signal EF directly from the N-value gradation image 100 is obtained with the gate conversion number corresponding to 7/8 of the memory capacity to be reduced and the gate conversion number of the scale of the first multi-value conversion circuit 11 of 5 times. Obtaining (signal 500) has a smaller gate conversion number. This is advantageous when LSI is used, and has the effect of speeding up.

以上の強調回路5を用いることで、先鋭渡を高めた推定値NAの強調画像を得ることができる。この強調信号500(信号EF)をN値階調画像中の輪郭領域に用いることによって、エッジの先鋭度の劣化を抑えることができる。また、輪郭領域のみ強調することで非輪郭領域の平滑性を劣化させることなくM値階調画像を得ることができる。結果、輪郭領域ではエッジが保存され、非輪郭領域では平滑性の良いM値階調画像(N<M)を得ることができる。   By using the enhancement circuit 5 described above, it is possible to obtain an enhanced image of the estimated value NA with increased sharpness. By using this enhancement signal 500 (signal EF) for the contour region in the N-value gradation image, it is possible to suppress the deterioration of the sharpness of the edge. Further, by emphasizing only the contour region, an M-value gradation image can be obtained without deteriorating the smoothness of the non-contour region. As a result, an edge is preserved in the contour region, and an M-value gradation image (N <M) having good smoothness can be obtained in the non-contour region.

次に、選択回路6について図1を用いて説明する。
選択回路6は、制御信号61(信号CONT1)と識別信号400(信号SE)によって、入力A(信号200)、入力B(信号300)、入力C(信号200)、入力D(信号500または信号700)の選択を行ない、選択信号600を出力する。
選択する条件は、例えば(表1)のように行なう。ここで、選択信号600をOUTとする。また、信号400(信号SE)の「H」レベルは輪郭領域、「L」レベルは非輪郭領域と判定した結果を表わす。
Next, the selection circuit 6 will be described with reference to FIG.
The selection circuit 6 receives an input A (signal 200), an input B (signal 300), an input C (signal 200), an input D (signal 500 or signal) according to a control signal 61 (signal CONT1) and an identification signal 400 (signal SE). 700) and the selection signal 600 is output.
The selection condition is as shown in (Table 1), for example. Here, the selection signal 600 is OUT. Further, the “H” level of the signal 400 (signal SE) represents the result of determination as a contour region, and the “L” level represents a result of determination as a non-contour region.

Figure 0003769004
(表1)より、制御信号61(信号CONT1)は3ステップの信号レベルを有する。よって、選択回路6は制御信号61によって以下の選択を行う。信号レベルが「0」のときは、非輪郭領域に入力A、輪郭領域に入力Bを選択する。信号レベルが「1」のとき、非輪郭領域に入力C、輪郭領域に入力Dを選択する。信号レベルが「2」のとき、非輪郭領域に入力B、輪郭領域に入力Dを選択する。
Figure 0003769004
From Table 1, the control signal 61 (signal CONT1) has a signal level of 3 steps. Therefore, the selection circuit 6 performs the following selection by the control signal 61. When the signal level is “0”, the input A is selected for the non-contour area and the input B is selected for the outline area. When the signal level is “1”, the input C is selected for the non-contour area and the input D is selected for the outline area. When the signal level is “2”, the input B is selected for the non-contour area and the input D is selected for the outline area.

よって、「写真モード」では、階調性が重視されるので入力A、入力Bを用いて処理し、輪郭領域の強調処理は行なわない。「文字・写真モード」では、解像度と階調性が重視されるので入力C、入力Dを用いて処理し、輪郭領域の強調処理を行なう。さらに、「文字モード」では、解像度が重視されるので入力Bと入力Dを用いて処理し、輪郭領域の強調処理を行なう。   Therefore, in the “photo mode”, since gradation is emphasized, processing is performed using the inputs A and B, and the contour region is not emphasized. In the “character / photo mode”, since the resolution and gradation are important, processing is performed using the input C and input D, and the contour region is emphasized. Further, in the “character mode”, since the resolution is important, the processing is performed using the input B and the input D, and the contour region is emphasized.

このように、後述する操作パネル91からの設定操作によって、(表1)に示す「処理モード」を設定し、制御回路92が対応する制御信号61(信号CONT1)の設定を行うことで、種々の対象画像に最適なN値階調画像からM値階調画像(N<M)への変換処理が実行できる。
また、強調処理を行う強調回路5の出力信号500を、データ変換回路7の出力信号700に置き換えても良い。データ変換回路7は、走査開口の行方向の端行、若しくは列方向の端列に位置する画素位置から得られる想定上の推定値分を、推定値NAから予め除去することで、開口を等価的に小さくする方向にデータ変換を行うので、先鋭度を向上させる。
As described above, the “processing mode” shown in (Table 1) is set by the setting operation from the operation panel 91 described later, and the control circuit 92 sets the corresponding control signal 61 (signal CONT1). Conversion processing from an N-value gradation image optimal for the target image to an M-value gradation image (N <M) can be executed.
Further, the output signal 500 of the enhancement circuit 5 that performs enhancement processing may be replaced with the output signal 700 of the data conversion circuit 7. The data conversion circuit 7 equalizes the aperture by removing in advance from the estimated value NA the estimated estimated value obtained from the pixel position located in the end row in the row direction or the end column in the column direction of the scanning aperture. Therefore, sharpness is improved because data conversion is performed in the direction of decreasing the size.

以上、第1の実施例によって輪郭領域ではエッジ劣化が少なく、非輪郭領域では平滑性の良いM値階調画像(N<M)を得ることができる。
以下、本発明の第2の実施例における階調変換処理装置ついて図面を参照しながら説明する。
図17は本発明の第2の実施例における階調変換処理装置のブロック図を示すものである。
As described above, according to the first embodiment, it is possible to obtain an M-value gradation image (N <M) with little edge deterioration in the contour region and good smoothness in the non-contour region.
Hereinafter, a gradation conversion processing apparatus according to a second embodiment of the present invention will be described with reference to the drawings.
FIG. 17 shows a block diagram of a gradation conversion processing apparatus in the second embodiment of the present invention.

図17において、第1変換回路2はRAMなどのLUTで構成され、制御回路92から制御信号920(信号TAB1)を経由して設定される変換テーブルによってK値画像データを変換する。
N値化回路8は、第1変換回路2からのK値画像データをN値階調画像データ(K>N)に変換する。
In FIG. 17, the first conversion circuit 2 is configured by a LUT such as a RAM, and converts K-value image data by a conversion table set from the control circuit 92 via a control signal 920 (signal TAB1).
The N-value conversion circuit 8 converts the K-value image data from the first conversion circuit 2 into N-value gradation image data (K> N).

画像メモリ9は、例えば半導体メモリまたはハードディスク装置等からなりN値化回路8からのN値階調画像データを記憶する。
推定回路93は図1に図示する本発明の第1の実施例の階調変換処理装置であり、画像メモリ9からのN値階調画像データ100をM値階調画像データ600(N<M)に変換する。
The image memory 9 is composed of, for example, a semiconductor memory or a hard disk device, and stores the N-value gradation image data from the N-value conversion circuit 8.
The estimation circuit 93 is the gradation conversion processing apparatus of the first embodiment of the present invention shown in FIG. 1, and the N-value gradation image data 100 from the image memory 9 is converted into the M-value gradation image data 600 (N <M ).

第2変換回路3はRAMなどのLUTで構成され、制御回路92から制御信号921(信号TAB2)を経由して設定される変換テーブルによってM値階調画像データを変換する。
制御回路92は、操作パネル91からの設定信号に応じて推定回路93、第1変換回路2、第2変換回路3に制御信号を出力する。
The second conversion circuit 3 is configured by an LUT such as a RAM, and converts M-value gradation image data by a conversion table set from the control circuit 92 via a control signal 921 (signal TAB2).
The control circuit 92 outputs a control signal to the estimation circuit 93, the first conversion circuit 2, and the second conversion circuit 3 in accordance with the setting signal from the operation panel 91.

操作パネル91は例えば複数のキーより構成され、画像の解像度レベルの設定、「写真モード」、「文字・写真モード」、「文字モード」、「文字・図形モード」「網点モード」値等の入力スイッチの設定に従って、制御回路92に設定された内容に応じて設定信号を出力する。
以上のように構成された階調変換処理装置について、以下にその動作を説明する。
The operation panel 91 is composed of, for example, a plurality of keys, such as image resolution level setting, “photo mode”, “character / photo mode”, “character mode”, “character / graphic mode”, “halftone mode” values, etc. In accordance with the setting of the input switch, a setting signal is output according to the content set in the control circuit 92.
The operation of the gradation conversion processing apparatus configured as described above will be described below.

まず、N値化回路8においてK値画像からN値画像(K>N)へ変換する実施例について図21を用いて説明する。N値化処理を行なう変換方法はディザ法、誤差拡散法などがあが、本発明の第2の実施例では、例えば、図21に図示する誤差拡散法によってK値画像データをN値画像データに変換する。
図21において、K値画像データfxyは加算器81によって着目画素周辺の積算誤差値Errと加算され出力f´xyを出力する。このf´xyはN値化処理回路82で予め設定される複数のしきい値と比較されることでN値に量子化され、出力gxyが出力される。加算器83はexy=f´xy−gxyの演算を行い、量子化誤差exyはある重み係数で着目画素周辺に分配され、誤差メモリ86に記憶される。かけ算器84は着目画素周辺に分配された誤差値eにウェイトマトリクスWijの重み係数をかけ算して積算誤差値Errを出力する。信号801はErr=ΣΣe(x+i、y+j)×Wijとなる。例えば、N=2とすると、gxyは「0」、「255」の2値データを出力し、正規化回路87は「0」、「255」の2値データを「0」、「1」の2値データに正規化する。これによって、K値画像データはN値画像データに正規化される。
First, an embodiment in which the N-value conversion circuit 8 converts a K-value image into an N-value image (K> N) will be described with reference to FIG. The conversion method for performing the N-value processing includes a dither method and an error diffusion method. In the second embodiment of the present invention, for example, the K-value image data is converted into N-value image data by the error diffusion method shown in FIG. Convert to
In FIG. 21, the K-value image data fxy is added by the adder 81 with the integrated error value Err around the pixel of interest, and an output f′xy is output. This f′xy is quantized to an N value by being compared with a plurality of preset threshold values by the N-value conversion processing circuit 82, and an output gxy is output. The adder 83 performs an operation of xy = f′xy−gxy, and the quantization error xy is distributed around the pixel of interest with a certain weighting factor and stored in the error memory 86. The multiplier 84 multiplies the error value e distributed around the pixel of interest by the weight coefficient of the weight matrix Wij and outputs an integrated error value Err. The signal 801 is Err = ΣΣe (x + i, y + j) × Wij. For example, when N = 2, gxy outputs binary data “0” and “255”, and the normalization circuit 87 outputs binary data “0” and “255” to “0” and “1”. Normalize to binary data. As a result, the K-value image data is normalized to N-value image data.

推定回路93の入力画像に、図21に示す誤差拡散法で生成されるハーフトーン画像を用いると、エッジ部の劣化が少なく、かつ疑似輪郭のない解像度と階調性を両立する推定復元を行なうことができる。ここでは誤差拡散法をK値階調をN値階調(K>N)にするN値化処理として用いたが、N値化回路8は、本発明の第2の実施例で特定されるものでなく、画像中の平均的なデータ値を保存する処理であれば良い。よって、公知のN値化(K>N)手段で処理を行って良く、例えば、平均誤差最小法、ディザ法、多値ディザ法等を用いても良い。   When a halftone image generated by the error diffusion method shown in FIG. 21 is used as the input image of the estimation circuit 93, estimation restoration is performed that has little degradation of the edge portion and has both a resolution and gradation without pseudo contour. be able to. Here, the error diffusion method is used as an N-value conversion process in which the K-value gradation is changed to the N-value gradation (K> N), but the N-value conversion circuit 8 is specified in the second embodiment of the present invention. Any processing may be used as long as the average data value in the image is stored. Therefore, the processing may be performed by a known N-value (K> N) means, and for example, a minimum average error method, a dither method, a multi-value dither method, or the like may be used.

次に、第1変換回路2、第2変換回路3について、図17、図18、図19、図20を用いて説明する。図18(a)は第1変換回路2、第2変換回路3の変換動作の説明図、図18(b)は走査開口位置と黒画素位置の関係図、図19はデータ変換の説明図、図20は変換テーブルの説明図である。
本発明の第2の実施例においてN、M、Kは特定されるものでないが、N=2、M=256、K=256とする。また、説明を容易にするために図2に図示する階調変換回路1の中で、第1多値化変換回路11の推定値NAを実施例として説明する。また、第1加算回路111に用いるフィルタ1110の走査開口を2×2とし、開口内の加算重み係数をすべて1として、その推定動作の説明を行なう。よって、第1加算回路111は着目画素位置の画素値をP(i,j)、重み付け係数をW(i,j)とすると、信号SAはSA=ΣΣW(i,j)・P(i,j)であるから、(数3)はSA=P(i,j)+P(i+1,j)+P(i,j+1)+P(i+1,j+1)となる。ここで、・は乗算を示す演算子である。また、Sa=4、Ma=4となる。これに伴って、第1正規化回路112の正規化は(数5)に従って、Ma=4、M=256を代入して算出され、推定値NAが出力される。(M−1)/Maはおおよそ64となるので、走査開口2×2の領域でカウントされる1個の黒画素は、推定値NAでは64のデータ値となる。
Next, the first conversion circuit 2 and the second conversion circuit 3 will be described with reference to FIGS. 17, 18, 19, and 20. 18A is an explanatory diagram of the conversion operation of the first conversion circuit 2 and the second conversion circuit 3, FIG. 18B is a relationship diagram between the scanning aperture position and the black pixel position, and FIG. 19 is an explanatory diagram of data conversion. FIG. 20 is an explanatory diagram of a conversion table.
In the second embodiment of the present invention, N, M, and K are not specified, but N = 2, M = 256, and K = 256. For ease of explanation, the estimated value NA of the first multi-value conversion circuit 11 in the gradation conversion circuit 1 shown in FIG. 2 will be described as an example. The estimation operation will be described assuming that the scanning aperture of the filter 1110 used in the first addition circuit 111 is 2 × 2 and all the addition weight coefficients in the aperture are 1. Therefore, if the pixel value at the pixel position of interest is P (i, j) and the weighting coefficient is W (i, j), the first addition circuit 111 has a signal SA of SA = ΣΣW (i, j) · P (i, j), (Equation 3) becomes SA = P (i, j) + P (i + 1, j) + P (i, j + 1) + P (i + 1, j + 1). Here, · is an operator indicating multiplication. Further, Sa = 4 and Ma = 4. Accordingly, normalization of the first normalization circuit 112 is calculated by substituting Ma = 4 and M = 256 according to (Equation 5), and an estimated value NA is output. Since (M−1) / Ma is approximately 64, one black pixel counted in the area of the scanning aperture 2 × 2 has 64 data values in the estimated value NA.

まず、第1変換回路2、第2変換回路3に図18(a)に図示する変換曲線3を設定した場合の説明を行なう。変換曲線3は、入力信号Xinと出力信号YoutがYout=Xinなる関係をもつ。これは、入力信号をそのまま出力信号とする変換テーブルである。
推定回路93は、N値階調画像からM値階調画像(N<M)を推定する。K=Mとすれば、N値化回路8に入力されるK値画像を推定することになる。N値化回路8は、着目画素の濃淡データを「0」、「255」の2値データに変換し、生じる誤差を周辺画素に拡散させる。「0」、「255」の2値データは「0」、「1」に正規化され、画像メモリ9に記憶される。この2値量子化処理によって、8ビット/画素は1ビット/画素に変換され、データ容量は1/8に圧縮される。この圧縮画像は、ビットマップ構造を有し、圧縮率は固定長である。よって、可変長符号化による圧縮に比べ、圧縮時間が一定の為、リアルタイム処理に適する。さらには、画像メモリ9内の画像データはビットマップ構造を有するため、可変長符号化による圧縮画像のように一旦伸長してから編集する必要がないので、重ね編集を高速に実行できるものである。この2値データの「0」を白ドット、「1」を黒ドットで表現する出力装置、若しくは、2値データの「1」を白ドット、「0」を黒ドットで表現する表示装置に出力すればドットの粗密によるデジタルハーフトーンの画像が得られる。
First, the case where the conversion curve 3 illustrated in FIG. 18A is set in the first conversion circuit 2 and the second conversion circuit 3 will be described. The conversion curve 3 has a relationship in which the input signal Xin and the output signal Yout are Yout = Xin. This is a conversion table in which an input signal is directly used as an output signal.
The estimation circuit 93 estimates an M-value gradation image (N <M) from the N-value gradation image. If K = M, the K-value image input to the N-ary circuit 8 is estimated. The N-value conversion circuit 8 converts the grayscale data of the pixel of interest into binary data “0” and “255” and diffuses the generated error to surrounding pixels. The binary data “0” and “255” is normalized to “0” and “1” and stored in the image memory 9. By this binary quantization process, 8 bits / pixel is converted to 1 bit / pixel, and the data capacity is compressed to 1/8. This compressed image has a bitmap structure, and the compression rate is a fixed length. Therefore, it is suitable for real-time processing because the compression time is constant compared to compression by variable length coding. Furthermore, since the image data in the image memory 9 has a bitmap structure, it is not necessary to edit the image data once it has been decompressed as in the case of a compressed image by variable length coding, so that it is possible to execute overlapping editing at a high speed. . The binary data “0” is output as a white dot and “1” is expressed as a black dot, or the binary data “1” is output as a white dot and “0” is output as a black dot. In this way, a digital halftone image based on dot density can be obtained.

画像メモリ9に格納した「0」、「1」の2値データから、M値階調画像を第1多値化変換回路11で推定する。例えば、一定値「16」のK値画像データはN値化回路8によって正規化データ「0」、「1」に変換され、「0」を白画素、「1」を黒画素で図示すると、図18(b)のように主走査方向にDx、副走査方向にDyの距離を有する「0」「1」の2値データに変換される。第1多値化変換回路11は、走査開口内のデータ値を加算し、正規化処理することでM値階調画像の推定を行なう。走査開口が2×2で、加算の重み付け係数をすべて1にすると、M=256、Ma=4となり、黒ドット「1」は(数5)によりデータ値でおおよそ64に換算される。   From the binary data “0” and “1” stored in the image memory 9, an M-value gradation image is estimated by the first multi-value conversion circuit 11. For example, K value image data having a constant value “16” is converted into normalized data “0” and “1” by the N-ary circuit 8, and “0” is illustrated as a white pixel and “1” is illustrated as a black pixel. As shown in FIG. 18B, the data is converted into binary data “0” and “1” having a distance of Dx in the main scanning direction and Dy in the sub scanning direction. The first multi-value conversion circuit 11 adds the data values in the scanning aperture and performs normalization to estimate the M-value gradation image. If the scanning aperture is 2 × 2 and the weighting coefficients for addition are all 1, M = 256 and Ma = 4, and the black dot “1” is converted to approximately 64 as a data value by (Equation 5).

K値データが小さい値、即ち、画像のハイライト領域では、黒画素(2値データの「1」)の拡散範囲より走査開口サイズが小さくなり、走査位置によって推定値NAが変動する。図18(b)に図示した走査位置Aでは、推定値が64、位置Bでは0、位置Cでは64となる。一定値「16」のK値画像データに対し、推定値は一定とならず変動している。シャドウ領域においても、白画素(2値データの「0」)の拡散範囲より走査開口サイズが小さくなり、やはり推定値NAは変動する。   In a small value of the K value data, that is, in the highlight area of the image, the scanning aperture size is smaller than the diffusion range of the black pixel (binary data “1”), and the estimated value NA varies depending on the scanning position. The estimated value is 64 at the scanning position A shown in FIG. 18B, 0 at the position B, and 64 at the position C. For the K value image data of the constant value “16”, the estimated value does not become constant but fluctuates. Also in the shadow area, the scanning aperture size becomes smaller than the diffusion range of white pixels (binary data “0”), and the estimated value NA also varies.

このハイライト領域、シャドウ領域の推定値NAの変動を改善する為、図18(a)に図示する変換曲線1を第1変換回路2に、変換曲線2を第2変換回路3に設定する。
変換処理の概念的な説明を図18(a)、図18(b)、図18(c)を用いて説明する。ここで、入力データを一定値で16、即ち、図18(a)のH点におけるK値画像データの変換処理について説明する。また、図18(b)、図18(c)では、2値データの「0」を白画素、「1」を黒画素で図示する。
In order to improve the fluctuation of the estimated value NA of the highlight area and the shadow area, the conversion curve 1 shown in FIG. 18A is set in the first conversion circuit 2 and the conversion curve 2 is set in the second conversion circuit 3.
A conceptual description of the conversion process will be described with reference to FIGS. 18 (a), 18 (b), and 18 (c). Here, the conversion process of the K value image data at a constant value of 16, that is, the point H in FIG. 18A will be described. 18B and 18C, binary data “0” is illustrated as a white pixel and “1” is illustrated as a black pixel.

図18(a)に図示するように、変換曲線1によって、入力データ「16」は、第1変換回路2の変換曲線1によって4倍にされ、「64」の出力データ(B点)に変換される。また、この4倍にされたK値画像データ「64」は、N値化回路8によって「0」「1」に変換される。概念的には、データが4倍になっているので図18(c)のように主走査方向にDx/2、副走査方向にDy/2の距離を有する「0」「1」の2値データに変換される。図18(c)に図示した走査位置Aでは、推定値NAは64であり、位置Bで64、位置Cで64となる。しかし、K値画像データは変換曲線1で4倍にされているので、変換曲線2を用いて1/4倍(E点)にし、位置Aでは16、位置Bでは16、位置Cでは16とする。結果、図18(a)に比べ、推定値NAの変動を抑え、かつ精度の良い推定値を得ることができる。   As illustrated in FIG. 18A, the input data “16” is quadrupled by the conversion curve 1 of the first conversion circuit 2 by the conversion curve 1 and converted to “64” output data (point B). Is done. Further, the quadrupled K-value image data “64” is converted into “0” and “1” by the N-value conversion circuit 8. Conceptually, since the data is quadrupled, binary values of “0” and “1” having a distance of Dx / 2 in the main scanning direction and Dy / 2 in the sub scanning direction as shown in FIG. 18C. Converted to data. In the scanning position A illustrated in FIG. 18C, the estimated value NA is 64, 64 at the position B, and 64 at the position C. However, since the K-value image data is quadrupled by the conversion curve 1, it is multiplied by 1/4 using the conversion curve 2 (point E) to be 16 at position A, 16 at position B, and 16 at position C. To do. As a result, compared to FIG. 18A, it is possible to suppress the fluctuation of the estimated value NA and obtain an accurate estimated value.

図18(a)のG点は、K値画像データの信号レンジの中央値で、0から255を入力する信号範囲とした場合、128の位置に設定される点である。第1変換回路2では、G点以下のハイライト領域では直線AGよりK値画像データが大きくなるように変換し(例えば、点ABGを通る曲線)、G点以上のシャドウ領域でが直線GDより小さくなるように変換(例えば点GCDを通る曲線)する。これによってハイライト領域では黒画素(2値データ「1」)の拡散範囲、またはシャドウ領域では白画素(2値データ「0」)の拡散範囲が小さくなる。また、第2変換回路3では、第1変換回路2で行った変換処理の逆変換処理を行なう。即ち、第2変換回路3では、G点以下のハイライト領域での曲線ABGをによる変換値を、AEG点を通る曲線により逆変換し、G点以上のシャドウ領域での曲線GCDによる変換値を、GFD点を通る曲線により逆変換する。   A point G in FIG. 18A is a median value of the signal range of the K-value image data, and is a point set at 128 when a signal range from 0 to 255 is input. The first conversion circuit 2 converts the K value image data so that the K value image data is larger than the straight line AG in the highlight area below the G point (for example, a curve passing through the point ABG), and the shadow area above the G point is from the straight line GD. Conversion (for example, a curve passing through the point GCD) is performed so as to decrease. This reduces the diffusion range of black pixels (binary data “1”) in the highlight region, or the diffusion range of white pixels (binary data “0”) in the shadow region. The second conversion circuit 3 performs an inverse conversion process of the conversion process performed in the first conversion circuit 2. That is, in the second conversion circuit 3, the conversion value by the curve ABG in the highlight region below the G point is inversely converted by the curve passing through the AEG point, and the conversion value by the curve GCD in the shadow region above the G point is converted. , Inversely transform using a curve passing through the GFD point.

このように、K値画像データを信号レンジの中央値近傍に集中するように第1変換回路2で変換し、M値データの推定値NAを第2変換回路3で逆変換すると、ハイライト領域、またはシャドウ領域で、推定値NAの変動が小さくなる。
以上、変換処理の概要について述べたが、詳細について図19(a)、図19(b)、図19(c)、図19(d)、図19(e)、図19(f)を用いて説明する。
As described above, when the K value image data is converted by the first conversion circuit 2 so as to be concentrated in the vicinity of the median value of the signal range, and the estimated value NA of the M value data is inversely converted by the second conversion circuit 3, a highlight region is obtained. Or in the shadow area, the fluctuation of the estimated value NA becomes small.
The outline of the conversion processing has been described above, and details are shown in FIGS. 19A, 19B, 19C, 19D, 19E, and 19F. I will explain.

図19(a)は、K値画像データの実施例を示すものである。説明において、K値画像データの最大値は255、最小値は0とする。実施例では、K値画像データの最大値255のほぼ1/16にあたる一定値「16」を処理する対象データとする。
図19(b)は、図19(a)のK値画像データをN値化回路8で2値化処理したときの2値化データ100の例を示すものである。図19(b)に図示するように、平均的な状態では領域A(4×4)の中で「1」が1個存在する2値化データが得られる。
FIG. 19A shows an example of K-value image data. In the description, the maximum value of K-value image data is 255, and the minimum value is 0. In the embodiment, a constant value “16” corresponding to approximately 1/16 of the maximum value 255 of the K-value image data is set as target data to be processed.
FIG. 19B shows an example of the binarized data 100 when the K-value image data of FIG. 19A is binarized by the N-value conversion circuit 8. As shown in FIG. 19B, in the average state, binarized data having one “1” in the region A (4 × 4) is obtained.

図19(c)は、図19(b)の2値化データ100を、第1多値化変換回路11で推定した場合の推定値NAの出力を示すものである。領域A内の平均値は「16」となり、確かに領域Aを単位とする平均値では、K値画像データが推定されているが、内部の個々の画素位置では、推定値NAの変動が0から64と大きい。
一方、図19(d)は、図19(a)のK値画像データ「16」を変換曲線1(変換1)で4倍に変換し、K値画像データの最大値255のほぼ1/4にあたる「64」をN値化回路8で2値化処理した2値化データ100の例を示すものである。図19(d)に図示するように、平均的な状態では領域Aのなかで「1」が4個存在する2値化データに変換される。
FIG. 19C shows the output of the estimated value NA when the binarized data 100 of FIG. 19B is estimated by the first multi-value conversion circuit 11. The average value in the area A is “16”, and the K value image data is certainly estimated for the average value in the area A as a unit. However, the fluctuation of the estimated value NA is 0 at each internal pixel position. It is big with 64.
On the other hand, in FIG. 19D, the K value image data “16” of FIG. 19A is converted to four times by the conversion curve 1 (conversion 1), and is almost ¼ of the maximum value 255 of the K value image data. An example of binarized data 100 in which “64” corresponding to the binarization is binarized by the N-valued circuit 8 is shown. As shown in FIG. 19D, in an average state, the data is converted into binarized data in which four “1” exist in the area A.

図19(e)は、図19(d)の2値化データ100を、第1多値化変換回路11で推定した場合の推定値NAの出力を示すものである。
次に、図19(f)は、図19(e)の推定値NAを、変換曲線2(変換2)で1/4倍に逆変換した出力である。ここで、1/4倍にする理由は、N値化回路8に入力するK値画像データを変換曲線1(変換1)で4倍に変換したため、変換前の状態に戻す逆変換が必要となるためである。図19(f)では、領域Aの内部において、個々の画素位置での推定値NAの変動はなく、かつ、K値画像データ「16」が精度良く推定されている。
FIG. 19 (e) shows an output of the estimated value NA when the binarized data 100 of FIG. 19 (d) is estimated by the first multi-value conversion circuit 11.
Next, FIG. 19 (f) is an output obtained by inversely converting the estimated value NA of FIG. 19 (e) by a factor of 1/4 with the conversion curve 2 (conversion 2). Here, the reason for the 1/4 magnification is that the K-value image data input to the N-ary circuit 8 is converted to 4 times by the conversion curve 1 (conversion 1), and therefore, it is necessary to perform inverse conversion to return to the state before the conversion. It is to become. In FIG. 19 (f), within the region A, the estimated value NA does not vary at each pixel position, and the K-value image data “16” is estimated with high accuracy.

ここで、変換による効果を説明すると、変換を行わない図19(c)の推定値NAに比べて、第1変換回路2、第2変換回路3で変換を行う図19(f)の推定値NAは、明らかに推定値の変動が抑えられており、さらには精度の良い推定値が得られている。この変換処理は、2値化データが拡散しやすいハイライト領域、またはシャドウ領域で特に効果がある。   Here, the effect of the conversion will be described. Compared to the estimated value NA of FIG. 19C in which no conversion is performed, the estimated value in FIG. 19F in which conversion is performed by the first conversion circuit 2 and the second conversion circuit 3. As for NA, the fluctuation | variation of an estimated value is suppressed clearly, Furthermore, the estimated value with sufficient precision is obtained. This conversion process is particularly effective in a highlight area or a shadow area where binary data is likely to diffuse.

以上のように、K値画像データを信号レンジの中央値近傍に集中するように第1変換回路2で変換し、変換したK値画像データをN値化データ(K>N)にN値化変換することで、ハイライト領域の黒ドット、またはシャドウ領域の白ドットのデータ拡散範囲を抑えることができる。このN値化データ(K>N)から得られるM値データ(N<M)の推定値NAを第2変換回路3で逆変換すると、ハイライト領域、またはシャドウ領域で、推定値の変動を抑え、かつ精度のよい推定値NAを得ることができる。これは、N値化回路8の2値化処理によって起こるデータの拡散範囲を制御することに相当し、着目画素位置からの距離が小さい領域に、白ドット「0」若しくは黒ドット「1」のデータの拡散範囲を抑えることで、局所的な変動を抑えた推定値NAを得ることができるものである。   As described above, the K value image data is converted by the first conversion circuit 2 so as to be concentrated in the vicinity of the median value of the signal range, and the converted K value image data is converted into N value data (K> N). By converting, the data diffusion range of the black dot in the highlight area or the white dot in the shadow area can be suppressed. When the estimated value NA of the M-value data (N <M) obtained from the N-valued data (K> N) is inversely transformed by the second conversion circuit 3, the estimated value fluctuates in the highlight area or the shadow area. It is possible to obtain the estimated value NA with high accuracy. This is equivalent to controlling the data diffusion range caused by the binarization processing of the N-value conversion circuit 8, and the white dot “0” or the black dot “1” is placed in an area where the distance from the target pixel position is small. By suppressing the data diffusion range, it is possible to obtain an estimated value NA in which local fluctuations are suppressed.

また、第1変換回路2、第2変換回路3の変換動作は、白ドット「0」若しくは黒ドット「1」のデータの拡散範囲を、ハイライト領域、またはシャドウ領域で、着目画素位置からの距離が小さくなるように抑えるので、走査開口を小さく設定しても、推定値の変動を抑えることができる。走査開口を小さくすることで回路規模を小さくでき、さらに、解像度を高めることができる。 この変動が小さい推定値NA(M値画像データ)を、出力装置、若しくは、表示装置に出力すれば濃度ムラの少ない高品位な画像が得られる。   Also, the conversion operation of the first conversion circuit 2 and the second conversion circuit 3 is performed by changing the data diffusion range of the white dot “0” or the black dot “1” from the target pixel position in the highlight area or the shadow area. Since the distance is suppressed to be small, fluctuations in the estimated value can be suppressed even if the scanning aperture is set small. By reducing the scanning aperture, the circuit scale can be reduced and the resolution can be increased. If an estimated value NA (M-value image data) having a small variation is output to an output device or a display device, a high-quality image with little density unevenness can be obtained.

また、推定回路93を図1に図示する階調変換処理装置としたが、図2に図示する階調変換回路1、第1多値化変換回路11、または多値化変換回路12としても良い。所定の走査開口内の画素値から多値化レベルを推定することでN値階調画像をM値階調画像(N<M)に変換する装置ならすべてに効果がある。
また、推定値NAの変動量は第1変換回路2の変換量、第1加算回路111に用いるフィルタ1110の走査開口サイズにより決定される。開口サイズが一定の場合は変換量が大きい程効果があるが、図18(a)の直線BCの変化量も小さくなり、エッジ成分の検出量は抑圧される。これは、検出したエッジ成分によって推定する開口サイズを制御する装置では影響が大きい。例えば、文字・図形では直線BCの変化量が大きい方が好ましい。
Further, although the estimation circuit 93 is the gradation conversion processing device shown in FIG. 1, the gradation conversion circuit 1, the first multi-value conversion circuit 11, or the multi-value conversion circuit 12 shown in FIG. . Any device that converts an N-value gradation image into an M-value gradation image (N <M) by estimating a multi-value level from pixel values within a predetermined scanning aperture is effective.
The fluctuation amount of the estimated value NA is determined by the conversion amount of the first conversion circuit 2 and the scanning aperture size of the filter 1110 used in the first addition circuit 111. When the aperture size is constant, the larger the conversion amount, the more effective, but the change amount of the straight line BC in FIG. 18A is also reduced, and the detection amount of the edge component is suppressed. This has a great influence on an apparatus that controls the opening size estimated based on the detected edge component. For example, it is preferable that the amount of change of the straight line BC is larger in characters / graphics.

よって、処理する画像に対応するように、操作パネル91上に「処理モード」を設定する操作キーを設け、操作キーの設定により設定信号を制御回路92に出力する。制御回路92は変換メモリを内蔵し、変換テーブルを複数種記憶する。操作パネル91から設定される「処理モード」に応じて変換テーブルを信号920、信号921を経由して第1変換回路2、第2変換回路3の変換テーブルを再設定する。 図20に図示するように、画質調整用の変換テーブルは、例えば、変換メモリに格納されている。エッジ成分を重視する「文字・図形モード」が設定されると、LUT3の先頭アドレスから変換曲線3のテーブルが読み出され、信号920を経由して第1変換回路2に、信号921を経由して第2変換回路3に変換テーブルを再設定する。   Therefore, an operation key for setting the “processing mode” is provided on the operation panel 91 so as to correspond to the image to be processed, and a setting signal is output to the control circuit 92 according to the setting of the operation key. The control circuit 92 has a built-in conversion memory and stores a plurality of types of conversion tables. In accordance with the “processing mode” set from the operation panel 91, the conversion tables of the first conversion circuit 2 and the second conversion circuit 3 are reset via the signal 920 and the signal 921. As shown in FIG. 20, the conversion table for adjusting image quality is stored in, for example, a conversion memory. When the “character / graphic mode” emphasizing the edge component is set, the table of the conversion curve 3 is read from the head address of the LUT 3 and is sent to the first conversion circuit 2 via the signal 920 via the signal 921. Then, the conversion table is reset in the second conversion circuit 3.

同様に、平滑性を重視する「写真モード」が設定されるとLUT1の先頭アドレスから変換曲線1のテーブルが読み出され、信号920を経由して第1変換回路2に、LUT2の先頭アドレスから変換曲線2のテーブルが読み出され、信号921を経由して第2変換回路3にそれぞれ変換テーブルを再設定する。
図20に図示するように、複数種の変換テーブルを変換メモリに格納することで、種々の画像に対応することができ、画質調整もできる。
Similarly, when the “photo mode” that places importance on smoothness is set, the table of the conversion curve 1 is read from the head address of the LUT 1 and is sent to the first converter circuit 2 via the signal 920 from the head address of the LUT 2. The conversion curve 2 table is read out, and the conversion table is reset in the second conversion circuit 3 via the signal 921.
As shown in FIG. 20, by storing a plurality of types of conversion tables in the conversion memory, it is possible to deal with various images and to adjust image quality.

更に、推定回路93は、制御回路92からの制御信号61〜65を制御することでも種々の画像に対応することができ、画質調整できる。以下、その動作について図9、(表1)、(表2)を用いて説明を行なう。   Further, the estimation circuit 93 can cope with various images by controlling the control signals 61 to 65 from the control circuit 92 and can adjust the image quality. Hereinafter, the operation will be described with reference to FIG. 9, (Table 1), and (Table 2).

Figure 0003769004
(表1)に示す動作により、制御信号61(信号CONT1)は、「処理モード」に応じて強調処理の有無(またはデータ変換の有無)など、各推定出力の選択をする。制御信号62(信号CONT2)、制御信号63(信号CONT3)は、図9に図示する識別信号400を制御するものである。制御信号62(信号CONT2)は、図9に図示するAND回路45を制御し、第1比較回路43で判定される結果の有効、無効を制御する。また、制御信号63(信号CONT3)は図9に図示するAND回路63を制御し、第2比較回路44で判定される結果の有効、無効を制御する。「H」レベルで有効、「L」レベルで無効となる。比較レベルCPA、比較レベルCPBは、識別レベルを操作する。比較レベル値(CPA、CPB)が大きいほど、大きなエッジ検出レベルが必要となり、識別領域が制限される。逆に、比較レベル値(CPA、CPB)が小さいほど、小さなエッジ検出レベルで識別するので、識別領域が広くなる。 以上の制御信号を用いて、「処理モード」に最適な制御値を設定する。
Figure 0003769004
By the operation shown in (Table 1), the control signal 61 (signal CONT1) selects each estimated output, such as presence / absence of enhancement processing (or presence / absence of data conversion) according to the “processing mode”. The control signal 62 (signal CONT2) and the control signal 63 (signal CONT3) control the identification signal 400 shown in FIG. The control signal 62 (signal CONT2) controls the AND circuit 45 shown in FIG. 9, and controls the validity / invalidity of the result determined by the first comparison circuit 43. Further, the control signal 63 (signal CONT3) controls the AND circuit 63 shown in FIG. 9, and controls the validity / invalidity of the result determined by the second comparison circuit 44. Valid at “H” level and invalid at “L” level. The comparison level CPA and the comparison level CPB operate the identification level. The larger the comparison level value (CPA, CPB), the larger the edge detection level is required, and the identification area is limited. Conversely, the smaller the comparison level value (CPA, CPB), the smaller the edge detection level, the wider the identification area. Using the control signals described above, an optimal control value is set for the “processing mode”.

「写真モード」では、平滑性が重視されるので識別処理を行なわい。よって、CONT2を「L」、CONT3を「L」に設定する。この設定では、比較レベル値CPA、CPBは無効である。
「文字・写真モード」では、文字領域の解像度と写真領域の平滑性の両方が重視されるので、識別処理を行う。しかし、空間周波数が広範囲に分布する網点画像による誤識別を考慮して、識別周波数の高いエッジ検出フィルタ41を用いた識別信号は無効にし、網点周波数より識別周波数が低く、かつ網点周波数による誤識別が小さいエッジ検出フィルタ42を用いた識別信号を有効にする。よって、CONT2を「L」、CONT3を「H」に設定する。この設定では、比較レベルCPAの値は無効、比較レベルCPBの値は有効である。
In the “photo mode”, since smoothness is important, identification processing is performed. Therefore, CONT2 is set to “L” and CONT3 is set to “L”. In this setting, the comparison level values CPA and CPB are invalid.
In the “character / photo mode”, since both the resolution of the character area and the smoothness of the photographic area are emphasized, the identification process is performed. However, in consideration of misidentification by a halftone image in which the spatial frequency is distributed over a wide range, the identification signal using the edge detection filter 41 having a high identification frequency is invalidated, the identification frequency is lower than the halftone frequency, and the halftone frequency. The identification signal using the edge detection filter 42 with small misidentification due to is enabled. Therefore, CONT2 is set to “L” and CONT3 is set to “H”. In this setting, the value of the comparison level CPA is invalid and the value of the comparison level CPB is valid.

「文字モード」では、文字領域の解像度が重視されるので識別処理を行う。さらに、空間周波数を広範囲に検出した識別信号を得る為に、エッジ検出フィルタ41とエッジ検出フィルタ42の両方を用いた結果を有効にする。よって、CONT2を「H」、CONT3を「H」に設定する。この設定では、比較レベルCPA、比較レベルCPBの値は有効に機能する。さらに、エッジの検出領域を広げる為に、比較レベルCPBの値をB1からB2(B1>B2)に変更する。   In the “character mode”, since the resolution of the character area is emphasized, identification processing is performed. Furthermore, in order to obtain an identification signal in which the spatial frequency is detected in a wide range, the result using both the edge detection filter 41 and the edge detection filter 42 is validated. Therefore, CONT2 is set to “H” and CONT3 is set to “H”. In this setting, the values of the comparison level CPA and the comparison level CPB function effectively. Further, in order to widen the edge detection area, the value of the comparison level CPB is changed from B1 to B2 (B1> B2).

また、操作パネル91に複数の画質設定キーを設け、設定操作をすることで制御回路92は複数の設定ステップで比較レベル値CPA、CPBを設定し、識別領域を制御することで画質調整を行なう。
以上のように第2の実施例によれば、制御信号61〜65を制御することで、推定回路93は、種々の画像に対応することができ、画質調整できる。よって、N値階調画像をM値階調画像(N<M)に変換する際に、種々の画像に対応した最適な変換処理を行い、所望の画質調整も変換時に実行することから、所望する画質で高品位なM値階調画像(N<M)を生成できる。
Further, a plurality of image quality setting keys are provided on the operation panel 91, and the control circuit 92 sets the comparison level values CPA and CPB in a plurality of setting steps by performing a setting operation, and adjusts the image quality by controlling the identification area. .
As described above, according to the second embodiment, by controlling the control signals 61 to 65, the estimation circuit 93 can cope with various images and can adjust the image quality. Therefore, when converting an N-value gradation image into an M-value gradation image (N <M), optimum conversion processing corresponding to various images is performed, and desired image quality adjustment is also performed at the time of conversion. A high-quality M-value gradation image (N <M) can be generated.

以上のように、本発明の第1の実施例、第2の実施例によれば、複数のエッジ検出の加算によって輪郭領域を検出する識別手段を有することで、K値画像をN値画像(K>N)に変換した際の、データの拡散によるデータ変動に影響されることなく、画像中の輪郭領域と非輪郭領域を精度良く識別することができる。
さらに、N値画像中の輪郭領域は先鋭度を重視し、非輪郭領域では階調性を重視した推定処理を実行する手段を有すため、N値画像中の輪郭領域および非輪郭領域のいずれの領域においても高品位なM値画像(N<M)を推定することができる。
As described above, according to the first embodiment and the second embodiment of the present invention, the K-value image is converted into the N-value image (with the identification means for detecting the contour region by adding a plurality of edge detections. The contour region and the non-contour region in the image can be accurately identified without being affected by the data fluctuation caused by the data diffusion when converted to K> N).
Further, since the contour region in the N-value image emphasizes sharpness and the non-contour region has a means for executing estimation processing that emphasizes gradation, any of the contour region and non-contour region in the N-value image is included. It is possible to estimate a high-quality M-value image (N <M) even in the region of.

また、K値画像データを信号レンジの中央値近傍に集中させる変換を行う手段を有し、変換されたK値画像データをN値化データ(K>N)に変換することで、N値化データの拡散範囲を抑えることができる。このN値化データを推定手段が推定することで、走査開口を小さくしても推定値の変動を抑えることができるといった効果がある。小さい走査開口による処理は、解像度が確保され、かつ低コストで実現できる。   Further, there is provided means for performing conversion for concentrating the K-value image data in the vicinity of the median value of the signal range, and converting the converted K-value image data into N-valued data (K> N), thereby converting to N-value. Data diffusion range can be suppressed. By estimating the N-valued data by the estimation means, there is an effect that fluctuation of the estimated value can be suppressed even if the scanning aperture is reduced. Processing with a small scanning aperture can be realized at a low cost while ensuring the resolution.

また、特性の異なる複数のエッジ検出手段の出力を画像特性に合わせて混合したエッジ成分量を生成し、エッジ成分量によって複数の空間フィルタを混合する手段を有することから、2値的な処理の状態変更を伴わずに、かつ空間周波数に対して広範囲のエッジ成分を抽出できる。よって、種々の画像若しくは画像領域に適応した階調変換を行うことができる。   In addition, since it has means for generating an edge component amount in which outputs from a plurality of edge detection means having different characteristics are mixed in accordance with image characteristics and mixing a plurality of spatial filters according to the edge component amount, A wide range of edge components can be extracted with respect to the spatial frequency without changing the state. Therefore, gradation conversion adapted to various images or image regions can be performed.

また、N値階調画像をM値階調画像(N<M)に変換する際に、種々の画像に対応した最適な変換処理を行うように制御する制御手段を有し、所望の画質調整も変換時に実行する手段を有することから、所望の画質で高品位なM値階調画像(N<M)を生成できる。
また、本発明を複写機、プリンタ、表示装置、FAX、文書ファイルなどに応用することで、画像データ容量を削減して記憶、データ転送を実現でき、出力および表示段階で高品位な推定画像を得ることができる。さらに、白黒画像に限らずカラーの出力装置およびカラーの表示装置およびカラーのFAXに応用すれば、画質を維持しながら、さらに画像データ容量の削減を行なうことができる。カラーでは、RGB画像、若しくは、YMC画像のそれぞれの色に、白黒と同様の処理を行うことで実現できる。
In addition, when converting an N-value gradation image into an M-value gradation image (N <M), the image processing apparatus has a control unit that performs control so as to perform an optimal conversion process corresponding to various images. Since it also has means for executing at the time of conversion, it is possible to generate a high-quality M-value gradation image (N <M) with a desired image quality.
In addition, by applying the present invention to copying machines, printers, display devices, fax machines, document files, etc., it is possible to reduce the amount of image data to realize storage and data transfer, and to produce high-quality estimated images at the output and display stages. Obtainable. Furthermore, if applied to a color output device, a color display device, and a color FAX as well as a monochrome image, the image data capacity can be further reduced while maintaining the image quality. The color can be realized by performing the same processing as that for black and white on each color of the RGB image or the YMC image.

また、本発明の第1、第2の実施例における領域識別装置及び階調変換処理装置をすべてCPU、またはDSPを用いた演算処理(ソフトウェア処理)によって実現してもよい。
また、本発明の階調変換処理装置を画像データの圧縮・伸長処理として用いると、固定長の符号化とビットマップ構造を維持した圧縮・伸長処理が実現できる。固定長の符号化は、固定した時間で圧縮・伸長を行うので、リアルタイム処理を行う装置に最適である。さらに、ビットマップ構造を維持した圧縮は、画像記録装置内の任意の位置に対する重ね書き編集を可能にし、可変長符号化方式のように圧縮画像を一度再展開して編集する必要がないために編集処理の高速化を図ることができる。
Further, the area identification device and the gradation conversion processing device in the first and second embodiments of the present invention may all be realized by arithmetic processing (software processing) using a CPU or DSP.
Further, when the gradation conversion processing apparatus of the present invention is used as compression / decompression processing for image data, it is possible to realize compression / decompression processing that maintains fixed-length encoding and a bitmap structure. The fixed-length encoding performs compression / decompression in a fixed time, and is optimal for an apparatus that performs real-time processing. Furthermore, the compression that maintains the bitmap structure enables overwriting editing at an arbitrary position in the image recording apparatus, and there is no need to re-develop and edit the compressed image once as in the variable-length encoding method. The editing process can be speeded up.

以上の実施例の効果をまとめると、複数のエッジ検出の加算によって輪郭領域を検出する識別手段を有することで、K値画像をN値画像(K>N)に変換した際の、データの拡散によるデータ変動に影響されることなく、画像中の輪郭領域と非輪郭領域を精度良く識別することができるといった効果がある。
さらに、N値画像中の輪郭領域は先鋭度を重視し、非輪郭領域では階調性を重視した推定処理を実行する手段を有すため、N値画像中の輪郭領域および非輪郭領域のいずれの領域においても高品位なM値画像(N<M)を推定することができるといった効果がある。
Summarizing the effects of the above embodiment, the data diffusion when the K-value image is converted into the N-value image (K> N) by having an identification means for detecting the contour region by adding a plurality of edge detections. Thus, there is an effect that the contour region and the non-contour region in the image can be accurately identified without being affected by the data fluctuation due to.
Further, since the contour region in the N-value image emphasizes sharpness and the non-contour region has a means for executing estimation processing that emphasizes gradation, any of the contour region and non-contour region in the N-value image is included. Even in this area, it is possible to estimate a high-quality M-value image (N <M).

また、K値画像データを信号レンジの中央値近傍に集中させる変換を行う手段を有し、変換されたK値画像データをN値化データ(K>N)に変換することで、N値化データの拡散範囲を抑えることができる。このN値化データを推定手段が推定することで、走査開口を小さくしても推定値の変動を抑えることができるといった効果がある。小さい走査開口による処理は、解像度が確保され、かつ低コストで実現できるといった効果がある。   Further, there is provided means for performing conversion for concentrating the K-value image data in the vicinity of the median value of the signal range, and converting the converted K-value image data into N-valued data (K> N), thereby converting to N-value. Data diffusion range can be suppressed. By estimating the N-valued data by the estimation means, there is an effect that fluctuation of the estimated value can be suppressed even if the scanning aperture is reduced. Processing with a small scanning aperture has the effect that the resolution is ensured and can be realized at low cost.

また、特性の異なる複数のエッジ検出手段の出力を画像特性に合わせて混合したエッジ成分量を生成し、エッジ成分量によって複数の空間フィルタを混合する手段を有することから、2値的な処理の状態変更を伴わずに、かつ空間周波数に対して広範囲のエッジ成分を抽出できる。よって、種々の画像若しくは画像領域に適応した階調変換を行うことができるといった効果がある。   In addition, since it has means for generating an edge component amount in which outputs from a plurality of edge detection means having different characteristics are mixed in accordance with image characteristics and mixing a plurality of spatial filters according to the edge component amount, A wide range of edge components can be extracted with respect to the spatial frequency without changing the state. Therefore, there is an effect that gradation conversion adapted to various images or image regions can be performed.

また、N値階調画像をM値階調画像(N<M)に変換する際に、種々の画像に対応した最適な変換処理を行うように制御する制御手段を有し、所望の画質調整も変換時に実行する手段を有することから、所望の画質で高品位なM値階調画像(N<M)を生成できるといった効果がある。
以上のように本発明によれば、第1の変換手段によって変換されたK値画像データをN値化データ(K>N)に変換することでN値化データのデータ拡散範囲が抑えられ、このN値化データからM値画像データ(N<M)を推定するので、走査開口小さくしても推定値の変動を抑えることができる。また、小さい走査開口を用いることで、解像度を確保でき、低コストで回路を実現できる。
In addition, when converting an N-value gradation image into an M-value gradation image (N <M), the image processing apparatus has a control unit that performs control so as to perform an optimal conversion process corresponding to various images. In addition, since it has means for executing at the time of conversion, there is an effect that a high-quality M-value gradation image (N <M) can be generated with a desired image quality.
As described above, according to the present invention, the data diffusion range of N-valued data can be suppressed by converting the K-value image data converted by the first conversion means into N-valued data (K> N). Since the M-value image data (N <M) is estimated from the N-value data, fluctuations in the estimated value can be suppressed even if the scanning aperture is reduced. Further, by using a small scanning aperture, the resolution can be secured and a circuit can be realized at low cost.

また、制御手段は、設定手段からの処理モード若しくは画質調整値の設定値によって変換テーブルを変更でき、種々の画像に対応した画質調整ができる。 また、制御手段は、設定手段からの処理モード若しくは画質調整値の設定値によって変換テーブルを変更でき、種々の画像に対応した画質調整ができる。
また、所定の値より小さい値の画像により構成されるハイライト領域において、K値画像データを元の値より増加させるようにデータ変換し、データ変換されたK値画像データをN値化データ(K>N)に変換し、前記生成されるN値化データからM値画像データ(N<M)を推定し、前記ハイライト領域において、前記M値画像データ(N<M)を元の値より減少させるように変換する。
Further, the control unit can change the conversion table according to the processing mode from the setting unit or the set value of the image quality adjustment value, and can perform image quality adjustment corresponding to various images. Further, the control unit can change the conversion table according to the processing mode from the setting unit or the set value of the image quality adjustment value, and can perform image quality adjustment corresponding to various images.
Further, in a highlight region constituted by an image having a value smaller than a predetermined value, data conversion is performed so that the K value image data is increased from the original value, and the converted K value image data is converted into N-valued data ( K> N), M-value image data (N <M) is estimated from the generated N-value data, and the M-value image data (N <M) is an original value in the highlight region. Convert to reduce more.

また、前記所定の値より大きいか又は等しい値の画像により構成されるシャドウ領域において、K値画像データを元の値より減少させるようにデータ変換し、前記シャドウ領域において、M値画像データを元の値より増加させるように変換する。
また、所定の値より小さい値の画像により構成されるハイライト領域において、K値画像データを元の値より増加させるようにデータ変換し、データ変換されたK値画像データをN値化データ(K>N)に変換し、前記生成されるN値化データからM値画像データ(N<M)を推定し、前記ハイライト領域において、前記M値画像データ(N<M)に対して前記変換の逆変換を行うことができる。
Further, in a shadow area constituted by an image having a value greater than or equal to the predetermined value, data conversion is performed so that the K-value image data is reduced from the original value, and the M-value image data is restored in the shadow area. It is converted to increase from the value of.
Further, in a highlight region constituted by an image having a value smaller than a predetermined value, data conversion is performed so that the K value image data is increased from the original value, and the converted K value image data is converted into N-valued data ( K> N), M-value image data (N <M) is estimated from the generated N-valued data, and the M-value image data (N <M) is estimated in the highlight region. Inverse transformation can be performed.

以上のように本発明によれば、画像中の輪郭部および非輪郭領域を2値化データの拡散、テクスチャに影響されることなく、画像中のどの領域においても最適な階調変換を行い、さらに対象画像に合わせた画質調整を行う階調変換処理装置を実現できる。     As described above, according to the present invention, the optimum gradation conversion is performed in any region in the image without being affected by the diffusion of the binarized data and the texture in the contour portion and the non-contour region in the image, Furthermore, a gradation conversion processing device that performs image quality adjustment according to the target image can be realized.

本発明の階調変換処理装置はファクシミリ、静止画ファイル、複写装置等においてN値階調画像をM値階調画像(N<M)に変換する場合に用いて有用である。   The gradation conversion processing apparatus of the present invention is useful when converting an N-value gradation image into an M-value gradation image (N <M) in a facsimile, a still image file, a copying apparatus, or the like.

本発明の第1の実施例における領域識別装置Aを含む階調変換処理装置のブロック図である。1 is a block diagram of a gradation conversion processing device including a region identification device A according to a first embodiment of the present invention. 本発明の第1の実施例の図1における階調変換回路1のブロック図である。FIG. 2 is a block diagram of the gradation conversion circuit 1 in FIG. 1 according to the first embodiment of the present invention. (a)第2加算回路121に用いるフィルタ図(1210)である。(A) It is a filter figure (1210) used for the 2nd addition circuit 121. FIG.

(b)第1加算回路111に用いるフィルタ図(1110)である。
エッジ抽出回路19に用いるフィルタ図(1900、1901)である。 第1の実施例に用いる混合回路13の動作説明図である。 エッジ抽出回路19の改良ブロック図である。 (a)第1エッジ検出回路15に用いるフィルタ図(1500)である。
FIG. 11B is a filter diagram (1110) used for the first adder circuit 111;
FIG. 6 is a filter diagram (1900, 1901) used for the edge extraction circuit 19; It is operation | movement explanatory drawing of the mixing circuit 13 used for a 1st Example. FIG. 6 is an improved block diagram of the edge extraction circuit 19. (A) It is a filter figure (1500) used for the 1st edge detection circuit 15. FIG.

(b)第2エッジ検出回路16に用いるフィルタ図(1600、1601)である。
第1の実施例で用いるフィルタの空間周波数特性図である。 識別回路4のブロック図である。 (a)エッジ検出フィルタ41、エッジ検出フィルタ42の検出位置の配置図である。
(B) It is a filter figure (1600, 1601) used for the 2nd edge detection circuit 16. FIG.
It is a spatial frequency characteristic figure of the filter used in the 1st example. 3 is a block diagram of an identification circuit 4. FIG. (A) It is an arrangement diagram of detection positions of the edge detection filter 41 and the edge detection filter 42. FIG.

(b)エッジ検出フィルタ41に用いるフィルタ図(4100、4101)である。
(c)エッジ検出フィルタ42に用いるフィルタ図(4200、4201)である。
エッジ検出フィルタ41、エッジ検出フィルタ42の改良ブロック図である。 (a)2値化データ100のパターン図である。
(B) It is a filter figure (4100, 4101) used for the edge detection filter 41. FIG.
(C) It is a filter figure (4200, 4201) used for the edge detection filter 42. FIG.
4 is an improved block diagram of an edge detection filter 41 and an edge detection filter 42. FIG. (A) It is a pattern diagram of the binarized data 100.

(b)エッジ検出フィルタ41の第5検出器A(41e)のエッジ出力図である。
(c)エッジ検出フィルタ41のエッジ出力ESAの出力図である。
(d)改良したエッジ検出フィルタ41のエッジ出力ESAの出力図である。
データ変換回路7のブロック図である。 (a)はデータ変換回路7の係数設定を説明するためのフィルタ図(1000)である。
FIG. 6B is an edge output diagram of the fifth detector A (41e) of the edge detection filter 41.
FIG. 6C is an output diagram of the edge output ESA of the edge detection filter 41.
(D) It is an output figure of edge output ESA of the improved edge detection filter 41. FIG.
3 is a block diagram of a data conversion circuit 7. FIG. (A) is a filter diagram (1000) for explaining coefficient setting of the data conversion circuit 7;

(b)はデータ変換曲線図である。
データ変換回路7の動作説明図である。 強調回路5のブロック図である。 本発明の第2の実施例における階調変換処理装置のブロック図である。 (a)第1変換回路2、第2変換回路3の変換動作の説明図である。
(B) is a data conversion curve diagram.
6 is an operation explanatory diagram of the data conversion circuit 7. FIG. 3 is a block diagram of an emphasis circuit 5. FIG. It is a block diagram of the gradation conversion processing apparatus in 2nd Example of this invention. (A) It is explanatory drawing of the conversion operation | movement of the 1st conversion circuit 2 and the 2nd conversion circuit 3. FIG.

(b)変換前の走査開口位置と画素位置の関係図である。
(c)変換後の走査開口位置と画素位置の関係図である。
(a)K値画像データのデータ図である。 (b)図19(a)のK値画像データを2値化処理したときの2値化データ図である。
(B) It is a relationship figure of the scanning aperture position and pixel position before conversion.
(C) It is a relationship figure of the scanning aperture position and pixel position after conversion.
(A) It is a data figure of K value image data. FIG. 19B is a binarized data diagram when the K-value image data in FIG.

(c)図19(b)の2値化データ100を推定した場合の推定値NAの出力データ図である。
(d)図19(a)のK値画像データを変換曲線1で変換し、2値化処理したときの2値化データ図である。
(e)図19(d)の2値化データ100を推定した場合の推定値NAの出力データ図である。
(C) It is an output data figure of estimated value NA at the time of estimating the binarized data 100 of FIG.19 (b).
FIG. 19D is a binarized data diagram when the K-value image data of FIG. 19A is converted by the conversion curve 1 and binarized.
(E) It is an output data figure of estimated value NA at the time of estimating the binarized data 100 of FIG.19 (d).

(f)図19(e)の推定値NAを、変換曲線2で逆変換した出力データ図である。
変換テーブルの説明図である。 N値化回路8のブロック図である。 エッジ検出フィルタ41の第n検出器Aの回路ブロック図である。 フィルタ1500の回路ブロック図である。 第1加算回路111の回路ブロック図である。
FIG. 20F is an output data diagram obtained by inversely transforming the estimated value NA of FIG.
It is explanatory drawing of a conversion table. 4 is a block diagram of an N-ary circuit 8. FIG. 3 is a circuit block diagram of an nth detector A of an edge detection filter 41. FIG. 2 is a circuit block diagram of a filter 1500. FIG. 3 is a circuit block diagram of a first addition circuit 111. FIG.

符号の説明Explanation of symbols

1 階調変換回路
2 第1変換回路
3 第2変換回路
4 識別回路
5 強調回路
6 選択回路
7 データ変換回路
8 N値化回路
9 画像メモリ
11 第1多値化変換回路
12 第2多値化変換回路13 混合回路
14 量子化回路
15 第1エッジ検出回路
16 第2エッジ検出回路
17 混合回路
19 エッジ抽出回路
41 エッジ検出フィルタ
42 エッジ検出フィルタ
91 操作パネル
92 制御回路
93 推定回路
DESCRIPTION OF SYMBOLS 1 Gradation conversion circuit 2 1st conversion circuit 3 2nd conversion circuit 4 Identification circuit 5 Emphasis circuit 6 Selection circuit 7 Data conversion circuit 8 N-value conversion circuit 9 Image memory 11 1st multi-value conversion circuit 12 2nd multi-value conversion Conversion circuit 13 Mixing circuit 14 Quantization circuit 15 First edge detection circuit 16 Second edge detection circuit 17 Mixing circuit 19 Edge extraction circuit 41 Edge detection filter 42 Edge detection filter 91 Operation panel 92 Control circuit 93 Estimation circuit

Claims (12)

K値画像データをK値画像データの信号範囲の中央値近傍に集中するようにデータ変換する第1の変換手段と、
データ変換されたK値画像データをN値化データ(K>N)に変換するN値化処理手段と、
前記N値化処理手段で生成されるN値化データからM値画像データ(N<M)を推定する推定手段と、
前記M値画像データ(N<M)を前記第1の変換手段のデータ変換に連動して逆変換を行なう第2の変換手段と、を備えたことを特徴とする階調変換処理装置。
First conversion means for converting the K value image data so that the K value image data is concentrated in the vicinity of the median of the signal range of the K value image data;
N-value conversion processing means for converting the converted K-value image data into N-value data (K>N);
Estimation means for estimating M-value image data (N <M) from the N-value data generated by the N-value processing means;
A gradation conversion processing apparatus, comprising: second conversion means for performing inverse conversion on the M-value image data (N <M) in conjunction with data conversion of the first conversion means.
前記第1の変換手段は、K値画像データの信号範囲の中央値で変換量を最小にすることを特徴とする請求項1記載の階調変換処理装置。 2. The gradation conversion processing apparatus according to claim 1, wherein the first conversion means minimizes the conversion amount by the median value of the signal range of the K-value image data. 前記第1の変換手段は、K値画像データの信号範囲の中央値より小さい領域、若しくはK値画像データの信号範囲の中央値より大きい領域で変換量を最大にすることを特徴とする請求項1記載の階調変換処理装置。 The first conversion means maximizes the amount of conversion in a region smaller than the median value of the signal range of K-value image data or a region larger than the median value of the signal range of K-value image data. 1. A gradation conversion processing apparatus according to 1. 前記推定手段は、N値階調画像をM値階調画像(N<M)に変換する階調変換処理装置であって、
前記N値階調画像中の着目画素およびその周辺画素に所定の重み係数を乗じて加算し、前記N値階調画像を前記M値階調画像(N<M)に変換する第1の平滑フィルタと、
走査開口サイズ若しくは加算する重み係数を異ならせることで、前記第1の平滑フィルタより平滑度を大きくし、前記N値階調画像を前記M値階調画像(N<M)に変換する第2の平滑フィルタと、
前記N値階調画像中のエッジ量を検出するエッジ検出手段と、
前記エッジ量から混合比を算出する混合比制御手段と、
前記第1の平滑フィルタと前記第2の平滑フィルタを前記混合比に基づいて混合する混合処理手段と、
前記N値階調画像中の非輪郭領域と輪郭領域を識別する識別手段と、
前記識別手段からの制御信号によって非輪郭領域は前記混合処理手段の出力を選択し、輪郭領域では前記第1の平滑フィルタの出力を選択する選択手段とを備えた階調変換処理装置であることを特徴とする請求項1記載の階調変換処理装置。
The estimation means is a gradation conversion processing device that converts an N-value gradation image into an M-value gradation image (N <M),
A first smoothing for converting the N-value gradation image into the M-value gradation image (N <M) by multiplying the pixel of interest in the N-value gradation image and its surrounding pixels by multiplication by a predetermined weighting coefficient. Filters,
A second value for converting the N-value gradation image into the M-value gradation image (N <M) by increasing the smoothness by making the scanning aperture size or the weighting factor to be added different from that of the first smoothing filter. A smoothing filter of
Edge detecting means for detecting an edge amount in the N-value gradation image;
A mixing ratio control means for calculating a mixing ratio from the edge amount;
Mixing processing means for mixing the first smoothing filter and the second smoothing filter based on the mixing ratio;
Identifying means for identifying a non-contour region and a contour region in the N-value gradation image;
A gradation conversion processing apparatus comprising: a non-contour region that selects an output of the mixing processing unit based on a control signal from the identification unit; and a selection unit that selects an output of the first smoothing filter in the contour region. The gradation conversion processing device according to claim 1.
前記推定手段は、N値階調画像をM値階調画像(N<M)に変換する階調変換処理装置であって、
前記N値階調画像中の着目画素およびその周辺画素に所定の重み係数を乗じて加算し、前記N値階調画像を前記M値階調画像(N<M)に変換する第1の平滑フィルタと、
走査開口サイズ若しくは加算する重み係数を異ならせることで、前記第1の平滑フィルタより平滑度を大きくし、前記N値階調画像を前記M値階調画像(N<M)に変換する第2の平滑フィルタと、
前記N値階調画像中のエッジ量を検出するエッジ検出手段と、
前記エッジ量から混合比を算出する混合比制御手段と、
前記第1の平滑フィルタと前記第2の平滑フィルタを前記混合比に基づいて混合する混合処理手段と、
前記第1の平滑フィルタの出力を強調する強調手段と、
前記N値階調画像中の非輪郭領域と輪郭領域を識別する識別手段と、
前記識別手段からの制御信号によって非輪郭領域は前記混合処理手段の出力を選択し、輪郭領域では前記強調手段の出力を選択する選択手段とを備えた階調変換処理装置であることを特徴とする請求項1記載の階調変換処理装置。
The estimation means is a gradation conversion processing device that converts an N-value gradation image into an M-value gradation image (N <M),
A first smoothing for converting the N-value gradation image into the M-value gradation image (N <M) by multiplying the pixel of interest in the N-value gradation image and its surrounding pixels by multiplication by a predetermined weighting coefficient. Filters,
A second value for converting the N-value gradation image into the M-value gradation image (N <M) by increasing the smoothness by making the scanning aperture size or the weighting factor to be added different from that of the first smoothing filter. A smoothing filter of
Edge detecting means for detecting an edge amount in the N-value gradation image;
A mixing ratio control means for calculating a mixing ratio from the edge amount;
Mixing processing means for mixing the first smoothing filter and the second smoothing filter based on the mixing ratio;
Enhancement means for enhancing the output of the first smoothing filter;
Identifying means for identifying a non-contour region and a contour region in the N-value gradation image;
A non-contour region is a gradation conversion processing device including a selection unit that selects an output of the mixing processing unit based on a control signal from the identification unit, and a selection unit that selects an output of the enhancement unit in the contour region. The gradation conversion processing device according to claim 1.
前記推定手段は、N値階調画像をM値階調画像(N<M)に変換する階調変換処理装置であって、
前記N値階調画像中の着目画素およびその周辺画素に所定の重み係数を乗じて加算し、前記N値階調画像を前記M値階調画像(N<M)に変換する第1の平滑フィルタと、
走査開口サイズ若しくは加算する重み係数を異ならせることで、前記第1の平滑フィルタより平滑度を大きくし、前記N値階調画像を前記M値階調画像(N<M)に変換する第2の平滑フィルタと、
前記N値階調画像中のエッジ量を検出するエッジ検出手段と、
前記エッジ量から混合比を算出する混合比制御手段と、
前記第1の平滑フィルタと前記第2の平滑フィルタを前記混合比に基づいて混合する第1の処理手段と、
前記第1の平滑フィルタの着目画素を含む走査開口内の1つの行方向若しくは1つの列方向の所定の重み係数の和と着目画素を含まない走査開口内の端に位置する1つの行方向若しくは1つの列方向の所定の重み係数の和に基づいて前記第1の平滑フィルタの出力を変更する第2の処理手段と、
前記N値階調画像中の輪郭領域と非輪郭領域を識別する識別手段と、
前記識別手段からの制御信号によって非輪郭領域は前記第1の処理手段を選択し、輪郭領域では前記第2の処理手段を選択する選択手段とを備えた階調変換処理装置であることを特徴とする請求項1記載の階調変換処理装置。
The estimation means is a gradation conversion processing device that converts an N-value gradation image into an M-value gradation image (N <M),
A first smoothing for converting the N-value gradation image into the M-value gradation image (N <M) by multiplying the pixel of interest in the N-value gradation image and its surrounding pixels by multiplication by a predetermined weighting coefficient. Filters,
A second value for converting the N-value gradation image into the M-value gradation image (N <M) by increasing the smoothness by making the scanning aperture size or the weighting factor to be added different from that of the first smoothing filter. A smoothing filter of
Edge detecting means for detecting an edge amount in the N-value gradation image;
A mixing ratio control means for calculating a mixing ratio from the edge amount;
First processing means for mixing the first smoothing filter and the second smoothing filter based on the mixing ratio;
A sum of a predetermined weighting factor in one row direction or one column direction in the scanning aperture including the target pixel of the first smoothing filter and one row direction positioned at an end in the scanning aperture not including the target pixel; Second processing means for changing an output of the first smoothing filter based on a sum of predetermined weighting factors in one column direction;
Identification means for identifying a contour region and a non-contour region in the N-value gradation image;
The gradation conversion processing apparatus includes: a selection unit that selects the first processing unit for the non-contour region in response to a control signal from the identification unit, and selects the second processing unit for the contour region. The gradation conversion processing apparatus according to claim 1.
前記推定手段は、入力したN値画像データ中のエッジ量を検出する特性の異なる複数のエッジ検出手段と、
前記複数のエッジ検出手段の出力を混合し、エッジ抽出量を生成する抽出手段と、
前記N値画像を平滑する重み係数若しくは平滑領域の異なる複数の空間フィルタと、
前記複数の空間フィルタの出力を所定レベルに正規化し、前記抽出手段からの出力に基づいて正規化した複数の空間フィルタの出力を選択若しくは混合する混合処理手段とを備え、前記N値画像をM値画像(N<M)に変換する階調変換処理装置であることを特徴とする請求項1記載の階調変換処理装置。
The estimation means includes a plurality of edge detection means having different characteristics for detecting edge amounts in the input N-value image data;
Extraction means for mixing the outputs of the plurality of edge detection means to generate an edge extraction amount;
A plurality of spatial filters having different weighting factors or smoothing regions for smoothing the N-value image;
Mixing processing means for normalizing the outputs of the plurality of spatial filters to a predetermined level and selecting or mixing the outputs of the plurality of spatial filters normalized based on the output from the extraction means; The gradation conversion processing apparatus according to claim 1, wherein the gradation conversion processing apparatus converts to a value image (N <M).
前記階調変換処理装置は、更に、複数の処理モード若しくは画質調整値を設定する設定手段と、複数の処理モード若しくは画質調整値に対応する複数種の変換テーブルを有し、前記設定手段の設定内容に応じて前記変換テーブルの1つを選択して、第1の変換手段と第2の変換手段にそれぞれ再設定する制御手段とを備えることを特徴とする請求項1記載の階調変換処理装置。 The gradation conversion processing apparatus further includes setting means for setting a plurality of processing modes or image quality adjustment values, and a plurality of types of conversion tables corresponding to the plurality of processing modes or image quality adjustment values. 2. The gradation conversion process according to claim 1, further comprising: a control unit that selects one of the conversion tables according to the contents and resets the conversion table in each of the first conversion unit and the second conversion unit. apparatus. 前記N値画像が2値画像であることを特徴とする、請求項1記載の階調変換処理装置。 The gradation conversion processing apparatus according to claim 1, wherein the N-value image is a binary image. 所定の値より小さい値の画像により構成されるハイライト領域において、K値画像データを元の値より増加させるようにデータ変換する第1の変換手段と、
データ変換されたK値画像データをN値化データ(K>N)に変換するN値化処理手段と、
前記N値化処理手段で生成されるN値化データからM値画像データ(N<M)を推定する推定手段と、
前記ハイライト領域において、前記M値画像データ(N<M)を元の値より減少させるように変換する第2の変換手段と、
を備えたことを特徴とする階調変換処理装置。
First conversion means for performing data conversion so that the K-value image data is increased from the original value in a highlight region constituted by an image having a value smaller than a predetermined value;
N-value conversion processing means for converting the converted K-value image data into N-value data (K>N);
Estimation means for estimating M-value image data (N <M) from the N-value data generated by the N-value processing means;
Second conversion means for converting the M-value image data (N <M) to be less than the original value in the highlight region;
A gradation conversion processing apparatus comprising:
前記第1の変換手段は、前記所定の値より大きいか又は等しい値の画像により構成されるシャドウ領域において、K値画像データを元の値より減少させるようにデータ変換し、
前記第2の変換手段は、前記シャドウ領域において、M値画像データを元の値より増加させるように変換する
ことを特徴とする請求項10記載の階調変換処理装置。
The first conversion means performs data conversion so that the K value image data is reduced from the original value in a shadow region constituted by an image having a value greater than or equal to the predetermined value,
The gradation conversion processing device according to claim 10, wherein the second conversion unit converts the M-value image data so as to increase from the original value in the shadow region.
所定の値より小さい値の画像により構成されるハイライト領域において、K値画像データを元の値より増加させるようにデータ変換する第1の変換手段と、
データ変換されたK値画像データをN値化データ(K>N)に変換するN値化処理手段と、
前記N値化処理手段で生成されるN値化データからM値画像データ(N<M)を推定する推定手段と、
前記ハイライト領域において、前記M値画像データ(N<M)に対して前記第1の変換の逆変換を行う第2の変換手段と、
を備えたことを特徴とする階調変換処理装置。
First conversion means for performing data conversion so that the K-value image data is increased from the original value in a highlight region constituted by an image having a value smaller than a predetermined value;
N-value conversion processing means for converting the converted K-value image data into N-value data (K>N);
Estimation means for estimating M-value image data (N <M) from the N-value data generated by the N-value processing means;
Second conversion means for performing inverse conversion of the first conversion on the M-value image data (N <M) in the highlight region;
A gradation conversion processing apparatus comprising:
JP2004381575A 1993-10-08 2004-12-28 Gradation conversion processing device Expired - Fee Related JP3769004B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004381575A JP3769004B2 (en) 1993-10-08 2004-12-28 Gradation conversion processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP25285393 1993-10-08
JP2004381575A JP3769004B2 (en) 1993-10-08 2004-12-28 Gradation conversion processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002323717A Division JP3650766B2 (en) 1993-10-08 2002-11-07 Gradation conversion processing device

Publications (2)

Publication Number Publication Date
JP2005141770A JP2005141770A (en) 2005-06-02
JP3769004B2 true JP3769004B2 (en) 2006-04-19

Family

ID=34702610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004381575A Expired - Fee Related JP3769004B2 (en) 1993-10-08 2004-12-28 Gradation conversion processing device

Country Status (1)

Country Link
JP (1) JP3769004B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4700445B2 (en) 2005-09-01 2011-06-15 オリンパス株式会社 Image processing apparatus and image processing program

Also Published As

Publication number Publication date
JP2005141770A (en) 2005-06-02

Similar Documents

Publication Publication Date Title
US5760922A (en) Area recognizing device and gradation level converting device employing area recognizing device
JP4104783B2 (en) Digital color copier and background noise removal method
US5886797A (en) Method and apparatus for controlling a spatial filtering process based on characteristics of image data
US5454052A (en) Method and apparatus for converting halftone images
US7050650B2 (en) User selected background noise removal for scanned document images
JPH05268462A (en) Picture processor
JP2001251517A (en) Image processing method, image processor and image processing system
US8619330B2 (en) Image processing apparatus and image processing method
US5835238A (en) Phantom level edge enhanced error diffusion
JP5013805B2 (en) Processor-readable storage medium
JP3380065B2 (en) Region identification device and gradation conversion processing device
JP3650766B2 (en) Gradation conversion processing device
JP6976824B2 (en) Image processing equipment, image processing methods, and programs
JP3769004B2 (en) Gradation conversion processing device
JPH05136988A (en) Variable notation processor for binary picture
JPH0877350A (en) Image processor
JP2702133B2 (en) Image processing method
JP3679522B2 (en) Image processing method and apparatus
JP3755157B2 (en) Adaptive binarization method
JP2006245938A (en) Image processing apparatus
JPH09200499A (en) Image processor
JP2004200799A (en) Image processing apparatus, image processing method, and image processing program
JP3556732B2 (en) Color image processing equipment
JPH1093815A (en) Image forming device and image processor
JPH0955850A (en) Pseudo halftone image processor

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060202

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110210

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120210

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees