JPH06164929A - Gradation conversion processing method and device therefor - Google Patents

Gradation conversion processing method and device therefor

Info

Publication number
JPH06164929A
JPH06164929A JP43A JP30913692A JPH06164929A JP H06164929 A JPH06164929 A JP H06164929A JP 43 A JP43 A JP 43A JP 30913692 A JP30913692 A JP 30913692A JP H06164929 A JPH06164929 A JP H06164929A
Authority
JP
Japan
Prior art keywords
image data
feature amount
gradation conversion
conversion processing
valued
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP43A
Other languages
Japanese (ja)
Inventor
Akio Kojima
章夫 小嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP43A priority Critical patent/JPH06164929A/en
Publication of JPH06164929A publication Critical patent/JPH06164929A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To apply gradation conversion to an N-value picture into an M-value picture (N<M) by generating an optimum emphasis picture from any of a contour part and an intermediate tone part in the picture. CONSTITUTION:A 1st multi-value processing circuit 11, a 2nd multi-value processing circuit 12, a 3rd multi-value processing circuit 13, a 4th multi-value processing circuit 14, and a 5th multi-value processing circuit 15 generate a multi-value processing signal from an N-value picture. Then multi-value processing signals 200-204 are used to change the emphasis at an edge emphasis circuit 17 based on a signal 205 representing a characteristic quantity from a characteristic quantity detection circuit 16 to generate emphasis picture data 110.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、N値画像をM値画像
(N<M)に変換し画像強調する階調変換処理方法およ
び装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a gradation conversion processing method and apparatus for converting an N-valued image into an M-valued image (N <M) and enhancing the image.

【0002】[0002]

【従来の技術】従来は、平滑処理によって多値化した画
像データに固定係数の強調処理を行っていた(たとえ
ば、特開昭62−114377公報)。
2. Description of the Related Art Conventionally, fixed coefficient enhancement processing has been performed on multi-valued image data by smoothing processing (for example, Japanese Patent Laid-Open No. 62-114377).

【0003】[0003]

【発明が解決しようとする課題】しかしながら上記の従
来の構成において、多値化後の画像に対して固定係数の
強調処理を全体に行う方法では、文字領域と写真領域で
最適な強調処理が実現できない。たとえば、文字領域を
シャープにするために強調度を強くすると文字画質は改
善されるが、写真領域にも強調処理が強くかかり平滑性
が損なわれ出力画像が劣化しまうという問題点を有して
いた。
However, in the above-mentioned conventional configuration, the method of globally performing the enhancement process of the fixed coefficient on the image after multi-value quantization realizes the optimal enhancement process in the character region and the photo region. Can not. For example, if the degree of emphasis is increased in order to sharpen the character area, the character image quality is improved, but the emphasis processing is also applied strongly to the photo area, which impairs smoothness and deteriorates the output image. .

【0004】本発明は上記従来の問題点を解決するもの
で、画像中の輪郭部および中間調部分のいずれにおいて
も最適な画像の階調変換ができる優れた階調変換処理方
法および装置を提供することを目的とする。
The present invention solves the above-mentioned conventional problems, and provides an excellent gradation conversion processing method and apparatus capable of optimum gradation conversion of an image in both the contour portion and the halftone portion in the image. The purpose is to do.

【0005】[0005]

【課題を解決するための手段】この目的を達成するため
に本発明の階調変換処理方法は、入力したN値画像デー
タ中の特徴量を抽出し、空間フィルタにより前記N値画
像データをM値画像データ(N<M)に変換し、抽出し
た前記特徴量に応じて強調係数を変化させながら前記空
間フィルタの出力から強調画像データを生成するもので
あり、さらに強調画像データは複数の空間フィルタの出
力から生成するものである。
In order to achieve this object, the gradation conversion processing method of the present invention extracts a feature amount from the input N-valued image data and uses the spatial filter to convert the N-valued image data into M-values. Value image data (N <M) is converted, and emphasized image data is generated from the output of the spatial filter while changing the emphasis coefficient according to the extracted feature amount. Further, the emphasized image data is a plurality of spaces. It is generated from the output of the filter.

【0006】また、階調変換処理装置は、入力したN値
画像データ中の特徴量を抽出する抽出手段と、空間フィ
ルタにより前記N値画像データをM値画像データ(N<
M)に変換する変換手段と、抽出した前記特徴量に応じ
て強調係数を変化させながら前記変換手段の空間フィル
タの出力から強調画像データを生成する強調手段とを備
えたものであり、さらに、前記変換手段を複数の空間フ
ィルタによって構成し、前記強調手段は複数の空間フィ
ルタの出力から強調画像データを生成するようにしたも
のである。
Further, the gradation conversion processing apparatus uses an extraction means for extracting a feature amount in the input N-valued image data and a spatial filter to convert the N-valued image data into M-valued image data (N <
M) and a highlighting unit that generates enhanced image data from the output of the spatial filter of the transforming unit while changing the enhancement coefficient in accordance with the extracted feature amount. The converting means is composed of a plurality of spatial filters, and the enhancing means is adapted to generate enhanced image data from the outputs of the plurality of spatial filters.

【0007】また、階調変換処理装置は、入力したN値
画像データ中の特徴量を抽出する抽出手段と、複数の空
間フィルタにより前記N値画像データをM値画像データ
(N<M)に変換する変換手段と、抽出した前記特徴量
に応じて強調係数を変化させながら前記変換手段の複数
の空間フィルタの出力から強調画像データを生成する強
調手段とを同一チップ上に形成したものである。
Further, the gradation conversion processing apparatus converts the N-valued image data into M-valued image data (N <M) by an extracting means for extracting a feature amount in the input N-valued image data and a plurality of spatial filters. The conversion means for converting and the emphasis means for generating emphasized image data from the outputs of the plurality of spatial filters of the conversion means while changing the emphasis coefficient according to the extracted feature amount are formed on the same chip. .

【0008】[0008]

【作用】上記構成により、入力したN値画像データ中の
特徴量を抽出し、空間フィルタにより前記N値画像デー
タをM値画像データ(N<M)に変換し、抽出した前記
特徴量に応じて強調係数を変化させながら前記空間フィ
ルタの出力から強調画像データを生成するので、文字・
図形の輪郭領域は強調度を強くし、写真領域などの濃度
変化が小さい領域は強調度を弱くして強調処理すること
ができる。さらに、強調画像データは複数の空間フィル
タの出力から生成するので、遅延メモリの容量削減がで
きる。
With the above configuration, the feature amount in the input N-valued image data is extracted, the N-valued image data is converted into the M-valued image data (N <M) by the spatial filter, and the extracted feature amount is determined according to the extracted feature amount. Since the emphasized image data is generated from the output of the spatial filter while changing the emphasis coefficient by
The contour area of the figure can be emphasized by increasing the emphasis degree, and the area such as a photograph area in which the density change is small can be emphasized by decreasing the emphasis degree. Furthermore, since the emphasized image data is generated from the outputs of the plurality of spatial filters, the capacity of the delay memory can be reduced.

【0009】また、入力したN値画像データ中の特徴量
を抽出する抽出手段と、複数の空間フィルタにより前記
N値画像データをM値画像データ(N<M)に変換する
変換手段と、抽出した前記特徴量に応じて強調係数を変
化させながら前記変換手段の複数の空間フィルタの出力
から強調画像データを生成する強調手段とを同一チップ
上に形成しているので、遅延メモリの容量および集積回
路チップの入出力ピンの削減ができる。
Extraction means for extracting a feature amount in the input N-valued image data, conversion means for converting the N-valued image data into M-valued image data (N <M) by a plurality of spatial filters, and extraction Since the emphasizing means for generating the emphasized image data from the outputs of the plurality of spatial filters of the converting means while changing the emphasizing coefficient according to the feature amount are formed on the same chip, the capacity and the integration of the delay memory are increased. The number of I / O pins on the circuit chip can be reduced.

【0010】[0010]

【実施例】以下本発明の一実施例の階調変換処理方法お
よび装置について、図面を参照しながら説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A gradation conversion processing method and apparatus according to an embodiment of the present invention will be described below with reference to the drawings.

【0011】図1は本発明の一実施例における階調変換
処理装置の処理構成を示すブロック図である。図1にお
いて、1ラインメモリ20、1ラインメモリ21、1ラ
インメモリ22、1ラインメモリ23はN値画像データ
100を副走査方向iに遅延させるための遅延メモリで
あり、副走査遅延データ101〜104を生成する。変
換手段を構成する複数の空間フィルタである第1多値化
回路11、第2多値化回路12、第3多値化回路13、
第4多値化回路14、第5多値化回路15はN値画像デ
ータ100と副走査遅延データ101〜104をそれぞ
れの処理ラインに応じて入力し、それぞれ着目画素およ
びその周辺の画素を設定された重み係数または平滑領域
に基づいて加算処理を行い、多値化信号200〜204
を生成する。特徴量検出回路16はN値画像データ10
0とその副走査遅延データ101〜104を入力し、N
値画像データ100の着目画素近傍の特徴量を抽出す
る。エッジ強調回路17は多値化信号200〜204を
入力し、特徴量検出回路16から出力される信号205
に応じてエッジ強調量を変化させて強調画像データ11
0を生成する。
FIG. 1 is a block diagram showing the processing arrangement of a gradation conversion processing apparatus according to an embodiment of the present invention. In FIG. 1, a 1-line memory 20, a 1-line memory 21, a 1-line memory 22, and a 1-line memory 23 are delay memories for delaying the N-value image data 100 in the sub-scanning direction i. 104 is generated. A first multi-valued circuit 11, a second multi-valued circuit 12, and a third multi-valued circuit 13, which are a plurality of spatial filters forming a conversion means,
The fourth multivalued circuit 14 and the fifth multivalued circuit 15 input the N-valued image data 100 and the sub-scanning delay data 101 to 104 in accordance with the respective processing lines, and set the pixel of interest and the pixels around it. The addition processing is performed based on the weighted coefficient or the smoothed region, and the multi-valued signals 200 to 204 are obtained.
To generate. The feature amount detection circuit 16 uses the N-valued image data 10
0 and its sub-scanning delay data 101 to 104 are input, and N
The feature amount near the pixel of interest of the value image data 100 is extracted. The edge emphasizing circuit 17 inputs the multilevel signals 200 to 204, and outputs the signal 205 output from the feature amount detecting circuit 16.
The edge enhancement amount is changed according to
Generates 0.

【0012】以上のように構成された階調変換処理装置
について、以下図1、図2、図3、図4および図5を用
いてその動作を説明する。まず、N値画像データをM値
画像データ(N<M)に変換する動作を図2、図3を用
いて説明する。図2はN値画像データをM値画像データ
(N<M)に変換する第3多値化回路のブロック図、図
3は図2の加算回路131における加算重み係数を説明
する図である。本実施例では、N、Mは特定されるもの
ではないが、たとえば、N=2、M=256として、以
下に図2の第3多値化回路のブロック図の説明を行う。
The operation of the gradation conversion processing device configured as described above will be described below with reference to FIGS. 1, 2, 3, 4, and 5. First, the operation of converting N-value image data into M-value image data (N <M) will be described with reference to FIGS. 2 and 3. FIG. 2 is a block diagram of a third multi-value quantization circuit for converting N-valued image data into M-valued image data (N <M), and FIG. 3 is a diagram for explaining addition weighting coefficients in the addition circuit 131 in FIG. In the present embodiment, N and M are not specified. However, assuming that N = 2 and M = 256, for example, the block diagram of the third multi-value quantization circuit in FIG. 2 will be described below.

【0013】加算回路131は信号101〜103のN
値画像データを入力し、図3に図示する重み係数を用い
て信号300(Sp)を生成する。着目画素の値をP
(i,j)、信号300をSpとした場合、Spは
(1)式のように演算される。
The adder circuit 131 outputs N signals 101 to 103.
The value image data is input, and the signal 300 (Sp) is generated using the weighting factors shown in FIG. The value of the pixel of interest is P
When (i, j) and the signal 300 are Sp, Sp is calculated as in Expression (1).

【0014】 Sp=+1×P(i−1,j−1)+2×P(i−1,j) +P(i−1,j+1) +2×P(i,j−1)+3×P(i,j)+2×P(i,j+1) +1×P(i+1,j−1)+2×P(i+1,j) +1×P(i+1,j+1)…(1) 加算回路131において、入力される画像データの階調
数をN、加算される領域の重み係数の和をSxとした場
合、出力の最大値Mxは(2)式のようになる。
Sp = + 1 × P (i-1, j-1) + 2 × P (i-1, j) + P (i-1, j + 1) + 2 × P (i, j-1) + 3 × P (i , J) + 2 × P (i, j + 1) + 1 × P (i + 1, j−1) + 2 × P (i + 1, j) + 1 × P (i + 1, j + 1) ... (1) The image input in the addition circuit 131 When the number of gradations of data is N and the sum of the weighting factors of the added areas is Sx, the maximum output value Mx is as shown in equation (2).

【0015】Mx=(N−1)×Sx…(2) よって、(2)式から求められるMxから信号300を
M値画像における多値化信号202に正規化変換するに
は(3)式の演算を行う。ただし、信号202をPx、
信号300をSpとする。
Mx = (N-1) * Sx (2) Therefore, to normalize the signal 300 from the Mx obtained from the equation (2) into the multi-valued signal 202 in the M-value image, the equation (3) is used. Is calculated. However, if the signal 202 is Px,
Let signal 300 be Sp.

【0016】 Px=Spx((M−1)÷Mx)…(3) したがって、K倍回路132はK=(M−1)÷Mxな
るかけ算を行う。ここで、もしMx=M−1であればK
倍回路132はなくても良い。ここでの実施例ではM=
256、Mx=15であるから、K=17となり、K倍
回路132は入力信号300(Sp)を17倍し、多値
化信号202(Px)を生成する。
Px = Spx ((M−1) ÷ Mx) (3) Therefore, the K multiplication circuit 132 performs multiplication K = (M−1) ÷ Mx. Here, if Mx = M-1, then K
The multiplication circuit 132 may be omitted. In this example, M =
Since 256 and Mx = 15, K = 17, and the K multiplication circuit 132 multiplies the input signal 300 (Sp) by 17 to generate the multilevel signal 202 (Px).

【0017】以上によって、空間フィルタである第3多
値化回路13は着目画素および着目画素周辺のN値画像
データを用いて画素単位でM値画像(N<M)データに
変換処理し、多値化信号202(Px)を生成する。
As described above, the third multi-value quantization circuit 13, which is a spatial filter, performs conversion processing on a pixel-by-pixel basis into M-value image (N <M) data using the pixel-of-interest and N-value image data around the pixel of interest. The binarized signal 202 (Px) is generated.

【0018】図1における第1多値化回路11、第2多
値化回路12、第4多値化回路14、第5多値化回路1
5も同様な処理によって着目画素および着目画素周辺の
N値画像データを用いて画素単位でM値画像(N<M)
データに変換処理し、それぞれ第1多値化回路11は信
号200(Ax)を、第2多値化回路12は信号201
(Bx)を、第4多値化回路14は信号203(Cx)
を、第5多値化回路15は信号204(Dx)を生成す
る。
The first multi-valued circuit 11, the second multi-valued circuit 12, the fourth multi-valued circuit 14 and the fifth multi-valued circuit 1 in FIG.
5 is an M-value image (N <M) in pixel units using the pixel of interest and N-valued image data around the pixel of interest by similar processing.
The data is converted into data, and the first multi-valued circuit 11 outputs the signal 200 (Ax) and the second multi-valued circuit 12 outputs the signal 201 (Ax).
(Bx), and the fourth multilevel circuit 14 outputs the signal 203 (Cx).
And the fifth multi-value quantization circuit 15 generates a signal 204 (Dx).

【0019】次に、エッジ強調回路17の説明を図1、
図4を用いて説明する。図4はエッジ強調を行なう際の
参照画素配置の説明図である。図4において、エッジ強
調回路17は着目画素位置をP(i,j)とした場合に
画素位置A(i−1,j−1)、画素位置B(i−1,
j+1)、画素位置C(i+1,j−1)、画素位置D
(i+1,j+1)を参照する。よって、エッジ強調回
路17は画素位置Aでは第1多値化回路11の出力信号
200を、画素位置Bでは第2多値化回路12の出力信
号201を、画素位置Cでは第4多値化回路14の出力
信号203を、画素位置Dでは第5多値化回路15の出
力信号204を、着目画素の画素位置Pでは第3多値化
回路13の出力信号202を参照し、信号205に応じ
て(4)式の演算を行ない強調画像データ110を生成
する。ここで、信号200をAx、信号201をBx、
信号202をPx、信号203をCx、信号204をD
x、信号205をEg、強調画像データ110をOUT
とし、Egの最大値をEmax、制御係数をEPとす
る。また、[]は小数部を切り捨てる整数化処理であ
る。
Next, the edge emphasis circuit 17 will be described with reference to FIG.
This will be described with reference to FIG. FIG. 4 is an explanatory diagram of a reference pixel arrangement when edge enhancement is performed. In FIG. 4, when the target pixel position is P (i, j), the edge emphasis circuit 17 has a pixel position A (i-1, j-1) and a pixel position B (i-1, j).
j + 1), pixel position C (i + 1, j-1), pixel position D
Refer to (i + 1, j + 1). Therefore, the edge emphasizing circuit 17 outputs the output signal 200 of the first multi-valued circuit 11 at the pixel position A, the output signal 201 of the second multi-valued circuit 12 at the pixel position B, and the fourth multi-valued signal at the pixel position C. With reference to the output signal 203 of the circuit 14, the output signal 204 of the fifth multi-value quantization circuit 15 at the pixel position D, and the output signal 202 of the third multi-value quantization circuit 13 at the pixel position P of the pixel of interest, a signal 205 is obtained. Accordingly, the operation of the equation (4) is performed to generate the emphasized image data 110. Here, the signal 200 is Ax, the signal 201 is Bx,
Signal 202 is Px, signal 203 is Cx, signal 204 is D
x, the signal 205 is Eg, and the emphasized image data 110 is OUT
The maximum value of Eg is Emax, and the control coefficient is EP. In addition, [] is an integerization process that rounds down the fractional part.

【0020】 OUT=[((5+W)×Px−Ax−Bx−Cx−Dx)÷(1+W)] W=(1−Eg÷Emax)×EP…(4) 制御係数EPは強調度の変化範囲を制御するもので、大
きくすれば強調度の変化範囲は大きくなり、小さくすれ
ば強調度の変化範囲は小さくなる。係数EPは実験的に
求められるパラメータである。このパラメータEPを設
定することで(4)式のウェイト係数Wの変化量を制御
できる。(4)式からウェイト係数Wに応じた強調度と
強調画像データOUTを生成することができる。(4)
式でたとえば、OUTの最大値を255としたM値画像
データを得るには、OUT>255のときOUT=25
5、OUT<0のときOUT=0にクリップ処理すれば
よい。
OUT = [((5 + W) × Px−Ax−Bx−Cx−Dx) ÷ (1 + W)] W = (1−Eg ÷ Emax) × EP (4) The control coefficient EP is a range in which the degree of emphasis is changed. The larger the change range of the emphasis degree, the smaller the change range of the emphasis degree. The coefficient EP is a parameter obtained experimentally. By setting this parameter EP, it is possible to control the amount of change in the weight coefficient W in the equation (4). The emphasis degree and the emphasized image data OUT corresponding to the weight coefficient W can be generated from the equation (4). (4)
For example, in order to obtain M-value image data in which the maximum value of OUT is 255, OUT = 255 when OUT> 255
5, when OUT <0, clip processing may be performed to OUT = 0.

【0021】次に、特徴量検出回路16の説明を行う。
特徴量として、着目画素近傍のエッジ量を算出する場合
の説明を図5を用いて行う。図5はエッジ量を算出する
ためのフィルタの構成例を示す説明図である。たとえ
ば、Waは主走査方向jのエッジ成分を検出するフィル
タであり、Wbは副走査方向iのエッジ成分を検出する
フィルタである。着目画素の値をP(i,j)とした場
合、着目画素でのエッジ量はたとえば(5)式に基づい
て演算する。ここで、Wbは副走査方向iのエッジ成
分、Waは主走査方向jのエッジ成分であり、Egは合
成値とする。また、ABS(Wa)はWaの絶対値、A
BS(Wb)はWbの絶対値となる演算である。また、
平均値的な処理でなく各行単位、各列単位に差分量を求
め、その絶対値量を計算してエッジ量としてもよい。
Next, the feature amount detection circuit 16 will be described.
The case of calculating the edge amount in the vicinity of the pixel of interest as the feature amount will be described with reference to FIG. FIG. 5 is an explanatory diagram showing a configuration example of a filter for calculating the edge amount. For example, Wa is a filter that detects an edge component in the main scanning direction j, and Wb is a filter that detects an edge component in the sub scanning direction i. When the value of the pixel of interest is P (i, j), the edge amount at the pixel of interest is calculated based on, for example, equation (5). Here, Wb is an edge component in the sub scanning direction i, Wa is an edge component in the main scanning direction j, and Eg is a combined value. Also, ABS (Wa) is the absolute value of Wa, A
BS (Wb) is a calculation that is the absolute value of Wb. Also,
Instead of the average value processing, the difference amount may be obtained for each row and each column, and the absolute value amount may be calculated as the edge amount.

【0022】 Wa=P(i−1,j−1)+2×P(i,j−1)+P(i+1,j−1) −P(i−1,j+1)−2×P(i,j+1)−P(i+1,j+1) Wb=P(i−1,j−1)+2×P(i−1,j)+P(i−1,j+1) −P(i+1,j−1)−2×P(i+1,j)−P(i+1,j+1) Eg=ABS(Wa)+ABS(Wb)…(5) ここで、エッジ量Egの最大値をEmaxと設定した場
合は、Eg>EmaxのときにはEg=Emaxにクリ
ップ処理する。これによって、(4)式のウェイト係数
Wは0からEPまで特徴量の信号205としてのエッジ
量Egに応じて変化する。このウェイト係数Wを用いて
(4)式のように強調画像データOUTを生成すれば、
文字・図形の輪郭領域はエッジ検出量が大きくなり強調
度を強くして強調処理する。また、写真領域などの濃度
変化が小さい領域はエッジ検出量が小さくなり強調度を
弱くして強調処理することができ、いずれにも最適な強
調画像データOUTが得られる。
Wa = P (i-1, j-1) + 2 * P (i, j-1) + P (i + 1, j-1) -P (i-1, j + 1) -2 * P (i, j + 1) ) -P (i + 1, j + 1) Wb = P (i-1, j-1) + 2 * P (i-1, j) + P (i-1, j + 1) -P (i + 1, j-1) -2 * P (i + 1, j) -P (i + 1, j + 1) Eg = ABS (Wa) + ABS (Wb) (5) Here, when the maximum value of the edge amount Eg is set to Emax, when Eg> Emax, Eg = Clip to Emax. As a result, the weight coefficient W in the equation (4) changes from 0 to EP according to the edge amount Eg as the signal 205 of the characteristic amount. If the weighted coefficient W is used to generate the emphasized image data OUT as shown in Expression (4),
In the contour area of the character / graphic, the amount of edge detection becomes large, and the degree of emphasis is increased to perform the emphasis processing. Further, in a region such as a photographic region where the density change is small, the edge detection amount is small, and the degree of enhancement can be weakened to perform the enhancement process, and optimal enhanced image data OUT can be obtained in any case.

【0023】以上、エッジ成分を特徴量とした場合の説
明を行ったが、本発明において特徴量はエッジ成分に限
られるものでなく、文字領域、写真領域、図形領域、輪
郭領域などを識別できる特徴量であれば良い。また、実
施例としては図示してないが、たとえば、濃度勾配法を
用い所定ブロック内の最大濃度レベルと最小濃度レベル
の差を特徴量としても良いし、またパターン判別法を用
い、1次特徴をラプラシアンで求め、これを2値化した
後、ブロック化してパターン情報を検出し、所定参照パ
ターンとの相関度合を特徴量としても良い。また、組み
合わせ法によって所定ブロック内の(最大値−最小値)
とブロック内部の2値化画素の反転回数による領域分布
を作成し、文字領域に属する度合と写真領域に属する度
合を特徴量としても良い。
In the above, the case where the edge component is used as the feature amount has been described, but the feature amount is not limited to the edge component in the present invention, and a character region, a photograph region, a graphic region, a contour region, etc. can be identified. Any characteristic amount will do. Although not shown as an embodiment, for example, the difference between the maximum density level and the minimum density level in a predetermined block may be used as the feature amount using the density gradient method, and the primary feature may be used using the pattern discrimination method. May be obtained by Laplacian, binarized, and then block-formed to detect pattern information, and the degree of correlation with a predetermined reference pattern may be used as the feature amount. In addition, the combination method (maximum value-minimum value)
It is also possible to create an area distribution based on the number of inversions of the binarized pixels inside the block, and use the degree of belonging to the character area and the degree of belonging to the photograph area as the feature amount.

【0024】さらには、大局的な識別法を導入し、直交
変換またはアダマール変換を用い、検出される周波数分
布を特徴量としても良いし、また領域内の画素間で自己
相関を求めて相関度合を特徴量としても良い。いずれの
方法を特徴量としても良い。この特徴量から(4)式の
ウェイト係数Wを変化させることで強調度を変化させる
こととなる。
Further, a global identification method may be introduced, and the detected frequency distribution may be used as a feature quantity by using orthogonal transform or Hadamard transform, or the autocorrelation between pixels in a region may be obtained to determine the degree of correlation. May be used as a feature amount. Either method may be used as the feature amount. By changing the weight coefficient W of the equation (4) from this feature amount, the emphasis degree is changed.

【0025】次に、集積回路チップを用いて集積化を行
う場合の実施例2を図1を用いて説明する。図1におけ
る第1多値化回路11、第2多値化回路12、第3多値
化回路13、第4多値化回路14、第5多値化回路15
はN値画像データを多値化しM値画像(N<M)を得
る。それぞれ得られる多値化信号200〜204を用い
て、特徴量検出回路16からの特徴量の信号205に応
じて(4)式なる演算を行うことでエッジ強調回路17
は強調画像データ110を生成する。この処理部分を点
線領域1とした場合に、点線領域1を同一の集積回路チ
ップ上に形成する例を説明する。本実施例ではN、Mは
特定されるものではないが、たとえば、N=2、M=2
56として以下の説明を行なう。
Next, a second embodiment in which integration is performed using an integrated circuit chip will be described with reference to FIG. The first multi-valued circuit 11, the second multi-valued circuit 12, the third multi-valued circuit 13, the fourth multi-valued circuit 14, and the fifth multi-valued circuit 15 in FIG.
Multivalues the N-valued image data to obtain an M-valued image (N <M). Using the multi-valued signals 200 to 204 obtained respectively, the edge enhancement circuit 17 is operated by performing the operation represented by the equation (4) according to the signal 205 of the feature amount from the feature amount detection circuit 16.
Generates enhanced image data 110. An example in which the dotted line region 1 is formed on the same integrated circuit chip when the processing portion is the dotted line region 1 will be described. Although N and M are not specified in this embodiment, for example, N = 2 and M = 2.
The following description will be given as 56.

【0026】N値画像データからM値画像データ(N<
M)に多値化する際に、使用される遅延メモリ数はN=
2から1ビットの1ライン遅延メモリが実施例2より4
個必要になる。また、多値化信号200〜204はM=
256から信号線の数を多くなるが第1多値化回路1
1、第2多値化回路12、第3多値化回路13、第4多
値化回路14、第5多値化回路15、特徴量検出回路1
6、エッジ強調回路17を同一の集積回路チップ上に形
成することで入出力ピンの削減ができる。
From N-valued image data to M-valued image data (N <
The number of delay memories used when multi-valued in M) is N =
The 1-line delay memory of 2 to 1 bit is 4 from the second embodiment.
I need one. Further, the multilevel signals 200 to 204 have M =
Although the number of signal lines is increased from 256, the first multilevel circuit 1
1, second multi-valued circuit 12, third multi-valued circuit 13, fourth multi-valued circuit 14, fifth multi-valued circuit 15, feature amount detection circuit 1
6. By forming the edge emphasis circuit 17 on the same integrated circuit chip, the number of input / output pins can be reduced.

【0027】入出力ピンは信号ピンのみ記載すれば、入
力ピンはN値画像データ100と副走査遅延データ10
1〜104のそれぞれ1ビットで5ピンとなる。出力ピ
ンは最終の信号110がM値画像データとすることから
8ビットであり、8ピン必要となる。よって、1ビット
の1ラインメモリは4個使用し、入出力ピンとして13
ピンの信号ピンを有する集積回路チップがあればよい。
If only the signal pin is described as the input / output pin, the input pin is the N-value image data 100 and the sub-scanning delay data 10.
Each 1 bit of 1 to 104 has 5 pins. The output pin is 8 bits because the final signal 110 is M-value image data, and 8 pins are required. Therefore, four 1-bit 1-line memories are used, and 13 I / O pins are used.
All that is required is an integrated circuit chip having pin signal pins.

【0028】一方、図1の点線領域1と同様の処理を行
う実施例3を図4、図6を用いて説明する。図6は実施
例3の処理構成例を示すブロック図である。図6におい
て、実施例2と同様にN=2、M=256として以下の
説明を行う。また、第3多値化回路13、特徴量検出回
路16、エッジ強調回路17は実施例2と同様の回路を
用い、エッジ強調回路17は(4)式の演算を行うこと
で強調画像データ110を生成する。ここで、点線領域
1000を同一の集積回路チップ上に形成する例を説明
する。
On the other hand, a third embodiment for performing the same processing as in the dotted line area 1 in FIG. 1 will be described with reference to FIGS. FIG. 6 is a block diagram illustrating a processing configuration example of the third embodiment. In FIG. 6, the following description will be made assuming N = 2 and M = 256 as in the second embodiment. Further, the third multi-value quantization circuit 13, the feature amount detection circuit 16, and the edge enhancement circuit 17 use the same circuits as those in the second embodiment, and the edge enhancement circuit 17 performs the operation of the equation (4) to enhance the emphasized image data 110. To generate. Here, an example in which the dotted line region 1000 is formed on the same integrated circuit chip will be described.

【0029】実施例3において、実施例2と異なるのは
1個の第3多値化回路13を用いて強調画像データ60
0を生成する点であり、N値画像データ400と副走査
遅延データ401,402は第3多値化回路13に入力
され、また副走査遅延データ401〜403は特徴量検
出回路16に入力される。
The third embodiment is different from the second embodiment in that one third multivalued circuit 13 is used to enhance the emphasized image data 60.
This is the point where 0 is generated, and the N-valued image data 400 and the sub-scanning delay data 401 and 402 are input to the third multi-value quantization circuit 13, and the sub-scanning delay data 401 to 403 are input to the feature amount detection circuit 16. It

【0030】N値画像データからM値画像データ(N<
M)に多値化する際に、使用される遅延メモリ数はN=
2から1ビットの1ライン遅延メモリが実施例3より3
個必要となる。入出力ピンは信号ピンのみ記載すれば、
入力ピンはN値画像データ400と副走査遅延データ4
01〜403のそれぞれ1ビットで4ピンとなる。デー
タ遅延用の1ラインメモリ42は第3多値化回路13に
は必要ないが、特徴量検出回路16とエッジ強調回路1
7の着目画素位置を合わせるために使用している。
From N-valued image data to M-valued image data (N <
The number of delay memories used when multi-valued in M) is N =
A 1-line delay memory of 2 to 1 bit is used in the third embodiment according to the third embodiment.
You need one. I / O pins are only signal pins,
Input pin is N-value image data 400 and sub-scan delay data 4
One bit of each of 01 to 403 corresponds to 4 pins. The 1-line memory 42 for data delay is not necessary for the third multi-value quantization circuit 13, but the feature quantity detection circuit 16 and the edge enhancement circuit 1
It is used to align the positions of 7 pixels of interest.

【0031】また、エッジ強調回路17では図4に示す
着目画素位置Pに対して位置A、位置B、位置C、位置
Dの画素位置のデータを参照するので、第3多値化回路
13出力の多値化信号501を1ラインメモリ50、1
ラインメモリ51で遅延させ、多値化データ501、遅
延データ502,503をエッジ強調回路17に入力す
る。ここで、入出力ピンは、多値化信号501の出力信
号および入力信号に対してはM=256より8ビットで
あることからそれぞれ8ピンが必要となる。ただし、出
力信号と入力信号は同じ信号なので出力信号側の8ピン
だけでよい。また、遅延データ502,503に対して
は、入力にそれぞれ8ピンが必要である。最終の信号6
00に対しては、M値画像データとすることから8ビッ
トとなり、8ピンが必要となる。したがって、これらの
合計の32ピンに加えて、N値画像データ400の1ピ
ンと1ラインメモリ40,41,42出力の3ピンとか
ら、入出力信号ピンの総数が36ピンを有する集積回路
チップが必要となる。
Further, since the edge emphasizing circuit 17 refers to the pixel position data of the position A, the position B, the position C and the position D with respect to the target pixel position P shown in FIG. Multi-valued signal 501 of 1 line memory 50, 1
After delaying in the line memory 51, the multi-valued data 501 and the delay data 502 and 503 are input to the edge emphasizing circuit 17. Here, since the input / output pins are 8 bits for the output signal and the input signal of the multi-valued signal 501, 8 pins are required since each bit is 8 bits from M = 256. However, since the output signal and the input signal are the same signal, only 8 pins on the output signal side are required. For the delay data 502 and 503, 8 pins are required for input. Final signal 6
For 00, since it is M-value image data, it becomes 8 bits, and 8 pins are required. Therefore, in addition to the total 32 pins, an integrated circuit chip having a total of 36 input / output signal pins from 1 pin of the N-value image data 400 and 3 pins of the outputs of the 1-line memories 40, 41, 42 is required. Becomes

【0032】実施例3の処理構成例によって、ウェイト
係数Wを用いて(4)式のように強調画像データOUT
を生成すれば、文字・図形の輪郭領域はエッジ検出量が
大きくなり強調度を強くして強調処理する。また、写真
領域などの濃度変化が小さい領域はエッジ検出量が小さ
くなり強調度を弱くして強調処理することができ、いず
れにも最適な強調画像データOUTを得ることができ
る。
According to the processing configuration example of the third embodiment, the weighted image data OUT is expressed by the equation (4) using the weight coefficient W.
Is generated, the edge detection amount increases in the outline area of the character / graphic, and the emphasis degree is strengthened to perform the emphasis processing. Further, in a region such as a photographic region where the density change is small, the edge detection amount becomes small and the enhancement degree can be weakened to perform the enhancement process, and the optimal enhanced image data OUT can be obtained in any case.

【0033】さらに、以上の実施例2、実施例3の説明
から実施例2の処理構成によって集積回路チップを作成
すれば、1ライン遅延を行う遅延メモリの総ビット数は
4/19になり、入出力信号ピンは13/36になる。
したがって、遅延メモリの容量削減と入出力信号ピンの
削減ができる。
Furthermore, if an integrated circuit chip is produced by the processing configuration of the second embodiment from the description of the second and third embodiments above, the total number of bits of the delay memory for delaying by one line is 4/19, The input / output signal pin becomes 13/36.
Therefore, the capacity of the delay memory and the number of input / output signal pins can be reduced.

【0034】実施例2は実施例3に比較して多値化回路
規模は5倍になるが、実施例2の処理構成例のほうが遅
延メモリの容量を含めた総ゲート数が小さくなり、高集
積化および高密度実装を実現することができる。
In the second embodiment, the scale of the multi-valued circuit is five times as large as that in the third embodiment, but the processing configuration example of the second embodiment has a smaller total number of gates including the capacity of the delay memory, which is high. Integration and high-density packaging can be realized.

【0035】また、これら実施例を複写機、プリンタ、
表示装置などに応用することで画像データ容量を削減し
て高品位な出力および表示が実現することができる。カ
ラーの出力装置およびカラーの表示装置に応用すれば、
画質を維持しながら、さらに画像データ容量の削減を行
うことができる。
Further, in these embodiments, a copying machine, a printer,
By applying it to a display device or the like, the image data capacity can be reduced and high-quality output and display can be realized. When applied to color output devices and color display devices,
The image data capacity can be further reduced while maintaining the image quality.

【0036】[0036]

【発明の効果】以上説明したように本発明によれば、入
力したN値画像データ中の特徴量を抽出し、空間フィル
タにより前記N値画像データをM値画像データ(N<
M)に変換し、抽出した前記特徴量に応じて強調係数を
変化させながら前記空間フィルタの出力から強調画像デ
ータを生成するので、文字・図形の輪郭領域は強調度を
強くし、写真領域などの濃度変化が小さい領域は強調度
を弱くして強調処理することができるという効果があ
る。さらに、強調画像データは複数の空間フィルタの出
力から生成するので、遅延メモリの容量削減ができると
いう効果がある。
As described above, according to the present invention, the feature amount in the input N-valued image data is extracted, and the N-valued image data is converted into the M-valued image data (N <
M), and emphasized image data is generated from the output of the spatial filter while changing the emphasis coefficient in accordance with the extracted feature amount, so that the contour area of the character / graphic is strongly emphasized, such as a photograph area. There is an effect that the enhancement degree can be weakened and the enhancement processing can be performed in the region where the change in the density is small. Furthermore, since the emphasized image data is generated from the outputs of the plurality of spatial filters, there is an effect that the capacity of the delay memory can be reduced.

【0037】さらには、入力したN値画像データ中の特
徴量を抽出する抽出手段と、複数の空間フィルタにより
前記N値画像データをM値画像データ(N<M)に変換
する変換手段と、抽出した前記特徴量に応じて強調係数
を変化させながら前記変換手段の複数の空間フィルタの
出力から強調画像データを生成する強調手段とを同一チ
ップ上に形成すると、遅延メモリの容量、集積回路チッ
プの入出力ピンの削減ができるという効果がある。
Further, an extracting means for extracting a feature amount in the input N-valued image data, a conversion means for converting the N-valued image data into M-valued image data (N <M) by a plurality of spatial filters, When the emphasizing means for generating the emphasized image data from the outputs of the plurality of spatial filters of the converting means while changing the emphasizing coefficient according to the extracted feature amount is formed on the same chip, the capacity of the delay memory and the integrated circuit chip The effect is that the number of I / O pins can be reduced.

【0038】その結果、画像中の輪郭部および中間調部
分のいずれにおいても最適な階調変換ができ、低コスト
化ができる優れた階調変換処理方法および装置を実現で
きる。
As a result, it is possible to realize an excellent gradation conversion processing method and apparatus capable of optimal gradation conversion in both the contour portion and the halftone portion in the image and reducing the cost.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の階調変換処理装置の処理構
成を示すブロック図
FIG. 1 is a block diagram showing a processing configuration of a gradation conversion processing apparatus according to an embodiment of the present invention.

【図2】同階調変換処理装置における第3多値化回路の
ブロック図
FIG. 2 is a block diagram of a third multi-value quantization circuit in the same gradation conversion processing device.

【図3】同第3多値化回路における加算回路の加算重み
係数を説明する図
FIG. 3 is a diagram for explaining an addition weighting coefficient of an addition circuit in the third multi-value quantization circuit.

【図4】同階調変換処理装置におけるエッジ強調回路の
参照画素配置を説明する図
FIG. 4 is a diagram illustrating a reference pixel arrangement of an edge enhancement circuit in the gradation conversion processing device.

【図5】同階調変換処理装置における特徴量検出回路で
のエッジ量を算出するためのフィルタ構成例を説明する
FIG. 5 is a diagram illustrating a filter configuration example for calculating an edge amount in a feature amount detection circuit in the same gradation conversion processing device.

【図6】本発明の他の実施例の階調変換処理装置の処理
構成を示すブロック図
FIG. 6 is a block diagram showing a processing configuration of a gradation conversion processing apparatus according to another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 集積回路チップ 11 第1多値化回路 12 第2多値化回路 13 第3多値化回路 14 第4多値化回路 15 第5多値化回路 16 特徴量検出回路 17 エッジ強調回路 DESCRIPTION OF SYMBOLS 1 Integrated circuit chip 11 1st multivalued circuit 12 2nd multivalued circuit 13 3rd multivalued circuit 14 4th multivalued circuit 15 5th multivalued circuit 16 Feature amount detection circuit 17 Edge emphasis circuit

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 入力したN値画像データ中の特徴量を抽
出し、空間フィルタにより前記N値画像データをM値画
像データ(N<M)に変換し、抽出した前記特徴量に応
じて強調係数を変化させながら前記空間フィルタの出力
から強調画像データを生成することを特徴とする階調変
換処理方法。
1. A feature amount in input N-valued image data is extracted, the N-valued image data is converted to M-valued image data (N <M) by a spatial filter, and enhancement is performed according to the extracted feature amount. A gradation conversion processing method, wherein enhanced image data is generated from the output of the spatial filter while changing the coefficient.
【請求項2】 空間フィルタは重み係数もしくは平滑領
域に基づいてN値画像データの着目画像およびその周辺
画素の加算を行なうことを特徴とする請求項1記載の階
調変換処理方法。
2. The gradation conversion processing method according to claim 1, wherein the spatial filter adds the target image of the N-value image data and its peripheral pixels based on the weighting coefficient or the smooth region.
【請求項3】 特徴量として着目画素近傍のエッジ量を
抽出することを特徴とする請求項1記載の階調変換処理
方法。
3. The gradation conversion processing method according to claim 1, wherein an edge amount in the vicinity of the pixel of interest is extracted as the feature amount.
【請求項4】 強調画像データは複数の空間フィルタの
出力から生成することを特徴とする請求項1記載の階調
変換処理方法。
4. The gradation conversion processing method according to claim 1, wherein the emphasized image data is generated from outputs of a plurality of spatial filters.
【請求項5】 入力したN値画像データ中の特徴量を抽
出する抽出手段と、空間フィルタにより前記N値画像デ
ータをM値画像データ(N<M)に変換する変換手段
と、抽出した前記特徴量に応じて強調係数を変化させな
がら前記変換手段の空間フィルタの出力から強調画像デ
ータを生成する強調手段とを備えたことを特徴とする階
調変換処理装置。
5. Extraction means for extracting a feature amount in the input N-valued image data, conversion means for converting the N-valued image data into M-valued image data (N <M) by a spatial filter, and the extracted said A gradation conversion processing device comprising: an emphasis unit that generates emphasized image data from the output of the spatial filter of the conversion unit while changing the emphasis coefficient according to the feature amount.
【請求項6】 空間フィルタは重み係数若しくは平滑領
域に基づいてN値画像データの着目画素およびその周辺
画素の加算を行なうことを特徴とする請求項5記載の階
調変換処理装置。
6. The gradation conversion processing device according to claim 5, wherein the spatial filter adds the pixel of interest of the N-valued image data and its peripheral pixels based on a weighting coefficient or a smooth region.
【請求項7】 抽出手段は特徴量として着目画素近傍の
エッジ量を抽出することを特徴とする請求項5記載の階
調変換処理装置。
7. The gradation conversion processing device according to claim 5, wherein the extraction means extracts an edge amount in the vicinity of the pixel of interest as the feature amount.
【請求項8】 変換手段を複数の空間フィルタによって
構成し、強調手段は複数の空間フィルタの出力から強調
画像データを生成することを特徴とする請求項5記載の
階調変換処理装置。
8. The gradation conversion processing apparatus according to claim 5, wherein the conversion means is composed of a plurality of spatial filters, and the emphasis means generates the emphasized image data from the outputs of the plurality of spatial filters.
【請求項9】 入力したN値画像データ中の特徴量を抽
出する抽出手段と、複数の空間フィルタにより前記N値
画像データをM値画像データ(N<M)に変換する変換
手段と、抽出した前記特徴量に応じて強調係数を変化さ
せながら前記変換手段の複数の空間フィルタの出力から
強調画像データを生成する強調手段とを同一チップ上に
形成したことを特徴とする階調変換処理装置。
9. Extraction means for extracting a feature amount in the input N-valued image data, conversion means for converting the N-valued image data into M-valued image data (N <M) by a plurality of spatial filters, and extraction A gradation conversion processing device, characterized in that the emphasizing means for generating emphasized image data from the outputs of the plurality of spatial filters of the converting means while changing the emphasizing coefficient according to the feature amount are formed on the same chip. .
【請求項10】 空間フィルタは重み係数もしくは平滑領
域に基づいてN値画像データの着目画素およびその周辺
画素の加算を行なうことを特徴とする請求項9記載の階
調変換処理装置。
10. The gradation conversion processing apparatus according to claim 9, wherein the spatial filter adds the pixel of interest of the N-valued image data and its peripheral pixels based on the weighting coefficient or the smoothing area.
【請求項11】 抽出手段は特徴量として着目画素近傍の
エッジ量を抽出することを特徴とする請求項9記載の階
調変換処理装置。
11. The gradation conversion processing device according to claim 9, wherein the extraction means extracts an edge amount in the vicinity of the pixel of interest as the feature amount.
JP43A 1992-11-19 1992-11-19 Gradation conversion processing method and device therefor Pending JPH06164929A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP43A JPH06164929A (en) 1992-11-19 1992-11-19 Gradation conversion processing method and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP43A JPH06164929A (en) 1992-11-19 1992-11-19 Gradation conversion processing method and device therefor

Publications (1)

Publication Number Publication Date
JPH06164929A true JPH06164929A (en) 1994-06-10

Family

ID=17989337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP43A Pending JPH06164929A (en) 1992-11-19 1992-11-19 Gradation conversion processing method and device therefor

Country Status (1)

Country Link
JP (1) JPH06164929A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013172159A1 (en) * 2012-05-15 2013-11-21 シャープ株式会社 Video-processing device, video-processing method, television receiver, program, and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013172159A1 (en) * 2012-05-15 2013-11-21 シャープ株式会社 Video-processing device, video-processing method, television receiver, program, and recording medium
JP2013258682A (en) * 2012-05-15 2013-12-26 Sharp Corp Video processing device, video processing method, television receiver, program, and recording medium
US9275440B2 (en) 2012-05-15 2016-03-01 Sharp Kabushiki Kaisha Image processing device and image processing method

Similar Documents

Publication Publication Date Title
US4941190A (en) Method and system for enhancement of a digitized image
JP2001283219A (en) Template fitting method
JPH05344340A (en) Gradation conversion processing method and device
JPH05268462A (en) Picture processor
JPH06105160A (en) Image controller
EP0685959B1 (en) Image processing apparatus for identifying character, photo and dot images in the image area
EP0501450A2 (en) Apparatus for distinguishing between different areas of an image
JP3380065B2 (en) Region identification device and gradation conversion processing device
JP3026706B2 (en) Image processing device
JPH06164929A (en) Gradation conversion processing method and device therefor
JP2533652B2 (en) Image contour processing method
JP3650766B2 (en) Gradation conversion processing device
JPH03114365A (en) Generation of binary number representation of image and device therefor
JP3245600B2 (en) Image processing device
JP4067538B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2851724B2 (en) Image processing device
JP4035696B2 (en) Line segment detection apparatus and image processing apparatus
JPS60136478A (en) Picture processor
JP2946217B2 (en) Image processing device
KR100490244B1 (en) Error diffusion method using variable threshold value in image processing system
JP3043040B2 (en) Image binarization method
JPS6180964A (en) Picture signal processing method
JP3937645B2 (en) Image processing apparatus and image processing method
JP2677989B2 (en) Pseudo halftone processor
JP2836992B2 (en) Image scaling processor