JPS6313578A - Multivaluing method - Google Patents

Multivaluing method

Info

Publication number
JPS6313578A
JPS6313578A JP61158178A JP15817886A JPS6313578A JP S6313578 A JPS6313578 A JP S6313578A JP 61158178 A JP61158178 A JP 61158178A JP 15817886 A JP15817886 A JP 15817886A JP S6313578 A JPS6313578 A JP S6313578A
Authority
JP
Japan
Prior art keywords
edge
image
signal
data
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61158178A
Other languages
Japanese (ja)
Inventor
Naoto Kawamura
尚登 河村
Yuji Nishigaki
西垣 有二
Katsuto Idei
出井 克人
Yoshinobu Mita
三田 良信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP61158178A priority Critical patent/JPS6313578A/en
Publication of JPS6313578A publication Critical patent/JPS6313578A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE:To obtain a high quality image even when respective types of the processing such as reducing, expanding, gamma transformation, and edge emphasizing with a high grade picture quality by mixing the output of a filter having plural different frequency characteristics. CONSTITUTION:Data 21 of a dither or a density pattern expressed by 0/1 are converted to 8-bit data by a multivaluing converting device 22, and after the data are processed by an image processing circuit 23, a converting circuit 24 executes the converting processing. An edge detecting device (a) of the image processing circuit 23 detects a character, a line drawing, the edge of an image, has a space frequency characteristic in which the network point of a network point image is not detected as an edge, an edge emphasizing device (b) outputs an original image or an edge emphasizing image signal to mix the original image and the edge by a certain ratio, and a smoothing device (c) smoothes the image. A mixer (d) changes a mixing ratio of an edge emphasizing image and a smoothing image and outputs it in accordance with the signal of the edge detecting device (a). The space filter of the edge detecting device (a), the edge emphasizing device (b) and the smoothing device (c) is made into the frequency characteristic to satisfy the special condition.

Description

【発明の詳細な説明】 〔技術分野〕 本発明は画像の変換に於ける前処理装置、特にディザ法
・濃度パターン法等でビット圧縮された画像データを多
値データに変換する多値化方法に関する。
[Detailed Description of the Invention] [Technical Field] The present invention relates to a preprocessing device for image conversion, and particularly to a multi-value conversion method for converting bit-compressed image data using a dither method, density pattern method, etc. into multi-value data. Regarding.

〔従来技術〕[Prior art]

一般に画像をサンプリングし、デジタル化したデータを
レーザ・ビーム・プリンター等のデ羊ジタル・プリンタ
から出力する装置は、デジタル機器の発展により広く普
及しつつある。かかる画像び出される事が多く、画像デ
ータとしては記憶容量の関係から、ディザ法又は濃度パ
ターン法によるビット圧縮された形態が多い。かかる方
法に於いて画像出力をする際、以下の点で大きな問題が
あった。
Generally, devices that sample an image and output the digitized data from a digital printer such as a laser beam printer are becoming widespread due to the development of digital equipment. Such images are often extracted, and the image data is often bit-compressed using a dither method or a density pattern method due to storage capacity. When outputting an image using this method, there are major problems in the following points.

(1) 画像を拡大したとき、ディザ又は濃度パターン
も同時に大きくなり、荒さが目立つようになる。
(1) When an image is enlarged, the dither or density pattern also becomes larger and the roughness becomes more noticeable.

(2) 画像を縮小した時、ディザ又は濃度パターンも
同時に小さくなり、プリンターで 十分階調性を再現できなくなる。
(2) When the image is reduced, the dither or density pattern also becomes smaller, making it impossible for the printer to reproduce sufficient gradation.

(3)画像濃度を変えようとした時、ディザ又は濃度パ
ターン化されたデータからは、任意のカンマ・カーブで
変換できない。
(3) When trying to change the image density, dithered or density patterned data cannot be converted using an arbitrary comma curve.

(4)  エツジ強調等の処理が行えない。(4) Processing such as edge enhancement cannot be performed.

以上の問題点のため、画像を変換して出力する場合、画
質がかなり劣化するのが普通であった。
Because of the above problems, when converting and outputting an image, the image quality usually deteriorates considerably.

〔目的〕〔the purpose〕

本発明は、以上の問題点を除去し、高品位な画質で縮小
・拡大及びγ変換、エツジ強調等の各種処理を行なった
場合にも高質の画像を得ることができる多値化方法の提
供を目的としている。
The present invention eliminates the above-mentioned problems and provides a multi-value conversion method that can obtain high-quality images even when various processes such as reduction/enlargement, γ conversion, and edge enhancement are performed. intended to provide.

〔実施例〕〔Example〕

処理する画像の2値化データはディザ法や濃度パターン
法で2値化されたものとする。2値化は閾値マトリック
スデータと、画像データとの比較により行われる。閾値
マトリックスの形状として、ドツト集中型とドツト分散
型とがあるが、通常ドツト集中型が多く用いられる。か
かる手法は2値化を疑似的な網点として白/黒の2値デ
ータにする。
It is assumed that the binarized data of the image to be processed has been binarized using the dither method or the density pattern method. Binarization is performed by comparing threshold matrix data and image data. There are two types of threshold matrix shapes: a dot concentrated type and a dot dispersed type, but the dot concentrated type is usually used. In this method, binary data is converted into white/black binary data using pseudo halftone dots.

め 本実施例の基本原理は、かかる2値化データ本、処理を
行い、元の多値化信号に直し、変倍等の変換を行なった
後、再びディザ法又は濃度パターン法で2値化するもの
である。
Therefore, the basic principle of this embodiment is to process the binarized data, convert it to the original multi-level signal, perform conversion such as scaling, and then binarize it again using the dither method or density pattern method. It is something to do.

第1図(A)は本実施例の原理図で0/1で表わされた
ディザ又は濃度パターンのデータ21は多値変換器22
により0014 / F F ++の8ビツトデータに
変換される。即ちO→00 r+ 、  l→PI”、
Hとなる。
FIG. 1(A) is a diagram of the principle of this embodiment, and the dither or density pattern data 21 expressed in 0/1 is transferred to the multi-value converter 22.
It is converted into 8-bit data of 0014/FF++. That is, O→00 r+, l→PI”,
It becomes H.

ここでHは16進数を表わず。Here, H does not represent a hexadecimal number.

しかる後、画像処理回路23にて処理を行う。Thereafter, the image processing circuit 23 performs processing.

処理回路23で処理後、変換回路24で変倍処理を行う
。以下、処理回路23の処理方法について説明する。こ
こで画像データ21は前述のドツト集中化のディザ又は
濃度パターン法で2値化された場合で話を進めてい(。
After processing in the processing circuit 23, the conversion circuit 24 performs scaling processing. The processing method of the processing circuit 23 will be explained below. Here, we will proceed with the case where the image data 21 has been binarized using the aforementioned dot concentration dither or density pattern method (.

この時画像データは網点画像となり、今後網点画像デー
タと呼ぶ事にする。
At this time, the image data becomes a halftone image, which will be referred to as halftone image data from now on.

(基本構成)第1図〜第6図 本実施例第1図(ハ)の画像処理回路23の基本構成を
第1図(B)に示す。本画像処理回路は、エツジ検出器
a、エツジ強調器す、スムージング器C2混合器dから
構成される。エツジ検出器aでは、後述の様に文字、線
画、画像のエツジを検出し、網点画像の網点はエツジと
して検出しない空間周波数特性を持たせている。エツジ
強調器すでは、原画像または、原画像とエツジをある比
率で混合したエツジ強調画像信号を出力する。スムージ
ング器Cでは画像の平滑化をおこなう。混合器dでは、
エツジ検出器の信号に応じて、エツジ強調画像と、スム
ージング画像との混合比を変えて出力する。
(Basic Configuration) FIGS. 1 to 6 The basic configuration of the image processing circuit 23 in FIG. 1(C) of this embodiment is shown in FIG. 1(B). This image processing circuit is composed of an edge detector a, an edge enhancer, a smoother C, and a mixer d. The edge detector a detects the edges of characters, line drawings, and images as described later, and the halftone dots of the halftone image are given a spatial frequency characteristic that does not detect them as edges. The edge enhancer outputs an original image or an edge-enhanced image signal obtained by mixing the original image and edges at a certain ratio. The smoother C smoothes the image. In mixer d,
Depending on the signal from the edge detector, the mixing ratio of the edge-enhanced image and the smoothed image is changed and output.

このようにして網点画像データの網点は非エツジ領域と
判定し、スムージングをおこなう。
In this way, the halftone dots of the halftone image data are determined to be non-edge areas, and smoothing is performed.

基本原理は、以上の様にして、入力画像データをスムー
ジングして網点画像データを平均化・平滑化し、濃度値
に比例した多値データに変換するものである。この時ス
ムージングの領域はなるべく大きい方がよい。しかしな
がら解像度が低下するので画像のエツジ部にはそのまま
の信号あるいはエツジ強調した信号を、非エツジ部はス
ムージングを行い多値データを得る。
The basic principle is to smooth the input image data, average and smooth the halftone image data, and convert it into multivalued data proportional to the density value, as described above. At this time, it is preferable that the smoothing area be as large as possible. However, since the resolution is lowered, the edge portions of the image are treated with the same signal or edge-enhanced signals, and the non-edge portions are smoothed to obtain multivalued data.

このような網点画像データの周波数特性は第2図aのよ
うに基本周波数とその高周波にピークをもつ。
The frequency characteristics of such halftone image data have peaks at the fundamental frequency and its high frequencies, as shown in FIG. 2a.

また文字画像、連続調写真画像の周波数特性はそれぞれ
、第2図す、 cのようになる。このような文字、写真
、網点の混合画像に対して、本実施例のエツジ検出器、
エツジ強調器、スムージング器の空間フィルターは次の
ような条件をみたす周波数特性にする。
The frequency characteristics of text images and continuous tone photographic images are as shown in Figure 2, c. For such mixed images of text, photographs, and halftone dots, the edge detector of this embodiment,
The spatial filters of the edge enhancer and smoother should have frequency characteristics that satisfy the following conditions.

条件1.エツジ検出器の空間フィルターのピーク周波数
は、網点画像の第1次高調波周波数より低周波にする。
Condition 1. The peak frequency of the spatial filter of the edge detector is set to be lower than the first harmonic frequency of the halftone image.

条件2.エツジ強調器の空間フィルターのピーク周波数
は、エツジ検出器の空間フィルターのピーク周波数より
高周波にする。
Condition 2. The peak frequency of the spatial filter of the edge enhancer is set to be higher than the peak frequency of the spatial filter of the edge detector.

条件3.スムージング器の空間フィルターの周波数特性
は、網点画像の第1次高調波周波数で充分低下させる。
Condition 3. The frequency characteristics of the spatial filter of the smoother are sufficiently reduced at the first harmonic frequency of the halftone image.

エツジ検出のための空間フィルターには種々のものがあ
るが、ハード回路の規模に影響を与えるマトリックスサ
イズを一定にすると、1次微分フィルターの方が2次微
分フィルターより低周波にピークをもつ。ただし2次微
分フィルターは方向性をもたないが、1次微分フィルタ
ーは方向性があり、少雪 なくとも2方向の傾きの2乗の和の平井根、あるいはそ
の近似式として、少なくとも2方向の傾きの絶対値の和
、あるいは少なくとも2方向の傾きの絶対値の最大値な
どをとる必要がある。また、1次微分の方が2次微分よ
りも点状ノイズに強い。以上のようにエツジ検出器aの
空間フィルターとしては1次微分フィルターの方がよい
There are various types of spatial filters for edge detection, but if the matrix size, which affects the scale of the hardware circuit, is held constant, a first-order differential filter has a peak at a lower frequency than a second-order differential filter. However, the second-order differential filter does not have directionality, but the first-order differential filter does. It is necessary to take the sum of the absolute values of the slopes, or the maximum value of the absolute values of the slopes in at least two directions. Furthermore, the first-order differential is more resistant to point noise than the second-order differential. As described above, it is better to use a first-order differential filter as the spatial filter for the edge detector a.

又、エツジ強調器すの空間フィルターとしては、方向性
がなく、より高周波にピークをもつ2次微分フィルター
の方が1次微分フィルターよりも優れている。
Furthermore, as a spatial filter for an edge enhancer, a second-order differential filter, which has no directionality and has a peak at a higher frequency, is better than a first-order differential filter.

以上のような各種空間フィルターの周波数特性の関係を
簡単のため1次元の高速フーリエ変換(FFT)で計算
した結果を示す。例として入力系のサンプリング間隔が
l / l 6 m mとする。
For simplicity, the relationship between the frequency characteristics of the various spatial filters as described above is calculated using one-dimensional fast Fourier transform (FFT). As an example, assume that the sampling interval of the input system is l/l 6 mm.

マトリックスサイズが5×5の場合、2次微分フィルタ
ー(−1,0,2,O,−1)の1次元FFTを第3図
に、1次微分フィルター(−1,0,0゜0、l)の1
次元FFTを第4図に、別の1次元微分フィルター(−
1,−1,0,1,1)の1次元FFTを第5図に示す
When the matrix size is 5 x 5, the one-dimensional FFT of the second-order differential filter (-1, 0, 2, O, -1) is shown in Figure 3, and the first-order differential filter (-1, 0, 0゜0, l) 1
The dimensional FFT is shown in Figure 4, and another one-dimensional differential filter (-
1, -1, 0, 1, 1) is shown in FIG.

それぞれピークの位置は4 1/mm、  2 1/m
m。
The peak positions are 4 1/mm and 2 1/m, respectively.
m.

2.5 1/mmである。2.5 1/mm.

2種類の1次微分フィルターを比較すると、パルス幅を
大きくした(−1,−1,0,l、  l)の方が優れ
ている。なぜならパルス幅を大きくした方が2番目のピ
ークの強度が小さくなり、またパルス幅を太き(した方
がエツジ領域(この領域にエツジ強調をかける)を幅広
く検出できるからである。
Comparing two types of first-order differential filters, the one with a larger pulse width (-1, -1, 0, l, l) is better. This is because the larger the pulse width, the smaller the intensity of the second peak, and the wider the pulse width, the wider the edge region (edge emphasis applied to this region) can be detected.

エツジ検出を1次微分フィルター(−1,−1,0゜1
、l)にし、エツジ強調を2次微分フィルター(−1゜
0、 2. 0. −1)にすれば、それぞれのピーク
周波数は2.5 1/mm、 4 1/mmで条件2を
満たしている。すなわちエツジ検出により幅広くエツジ
強調をおこなう領域を抽出し、エツジ強調ではエツジが
シャープに出る空間フィルターを使用するのである。
Edge detection is performed using a first-order differential filter (-1, -1, 0°1
, l) and the edge emphasis is set to a second-order differential filter (-1°0, 2.0.-1), the respective peak frequencies are 2.5 1/mm and 4 1/mm, satisfying condition 2. ing. In other words, edge detection is used to extract a wide area for edge enhancement, and edge enhancement uses a spatial filter that produces sharp edges.

次に5×5のスムージングフィルター(1,l。Next, a 5×5 smoothing filter (1, l.

1、 1.  l)ノ1次元FF′Fを第6図に示す。1, 1. The one-dimensional FF'F of l) is shown in FIG.

本実施例はエツジ検出器、エツジ強調器、スムージング
器に前述の条4111〜3のような周波数特性の空間フ
ィルターを用いることにより、画像の平坦部と網点画像
は非エツジ領域と判定しスムージングで平均化し、文字
、線画、画像のエツジ部はエツジ領域と判定し、エツジ
強調する。またエツジ領域と非エツジ領域との境界は混
合器での混合比をエツジ検出器の信号に応じて変えるこ
とにより連続的につなぐ。以上により網点画像データの
多値化データを得る。また空間フィルターのマトリック
スサイズも大きなものを必要としないので、ハード回路
の規模を小さくでき、LSI化にも有利である。
In this embodiment, by using spatial filters with frequency characteristics such as the above-mentioned lines 4111 to 3 in the edge detector, edge enhancer, and smoother, flat parts and halftone dot images are determined to be non-edge areas and smoothed. The edges of characters, line drawings, and images are determined to be edge areas, and the edges are emphasized. Further, the boundary between the edge region and the non-edge region is continuously connected by changing the mixing ratio in the mixer according to the signal from the edge detector. Through the above steps, multivalued data of halftone image data is obtained. Furthermore, since the matrix size of the spatial filter does not need to be large, the scale of the hardware circuit can be reduced, which is advantageous for LSI implementation.

第7図は本発明の実施例の画像処理回路の詳細ブロワ゛
り図で、Slは入力画像信号、■は入力画像信号S1の
1次微分値の絶対値を検出する微分値検出部で第1図a
に対応する。S2は微分値検出部lの出力につながれた
微分信号、2は微分信号S2から制御信号S3と34を
つくる制御信号発生器、S3は制御信号発生器2の出力
で制御信号、S4はやはり制御信号発生器2の出力で制
御信号S3とは相補性の制御信号、3は入力画像信号S
1を平滑化する平滑化処理部で第1図Cに対応する。S
6は平滑化処理部3によって平滑化された平滑化画像信
号、4は平滑化画像信号S6と制御信号S3との算術積
をとる掛は算器、S7は掛は算器4の出力、5は入力画
像信号S1のエツジ部を強調するエツジ強調部、S8は
エツジ強調部5のエツジ信号、S9は外部から与えられ
る定数、6はエツジ信号S8と定数89との算術積をと
る掛は算器、SIOは掛は算器6から出力されるエツジ
信号、7はエツジ信号SIOと入力画像信号Slとの算
術和をとる加算器で、エツジ強調部5、掛は算器6.加
算器7で第1図のエツジ強調器すを構成する。
FIG. 7 is a detailed blower diagram of the image processing circuit according to the embodiment of the present invention, where Sl is an input image signal, and ■ is a differential value detection section that detects the absolute value of the first differential value of the input image signal S1. Diagram a
corresponds to S2 is a differential signal connected to the output of the differential value detector l, 2 is a control signal generator that generates control signals S3 and 34 from the differential signal S2, S3 is the output of the control signal generator 2 and is a control signal, and S4 is also a control signal. The output of the signal generator 2 is a complementary control signal to the control signal S3, and 3 is the input image signal S.
1 corresponds to FIG. 1C. S
6 is a smoothed image signal smoothed by the smoothing processing unit 3; 4 is a multiplier for calculating the arithmetic product of the smoothed image signal S6 and the control signal S3; S7 is the output of the multiplier 4; is an edge enhancement unit that emphasizes the edge portion of the input image signal S1, S8 is an edge signal of the edge enhancement unit 5, S9 is a constant given from the outside, and 6 is an arithmetic product of the edge signal S8 and a constant 89. 7 is an adder which calculates the arithmetic sum of the edge signal SIO and the input image signal Sl; The adder 7 constitutes the edge emphasizing device shown in FIG.

Sllは加算器7の出力であるところのエツジ強調画像
信号、8はエツジ強調画像信号Sllと制御信号S4と
の算術積をとる掛は算器、S12は掛は算器8の出力、
9は出力S7と出力812の算術和をとる加算器、S1
3は加算器9の出力で処理画像信号である。ここで掛は
算器4,8及び加算器9は第1図の混合器dを構成して
いる。
Sll is an edge-enhanced image signal which is the output of the adder 7; 8 is a multiplier for calculating the arithmetic product of the edge-enhanced image signal Sll and the control signal S4; S12 is the output of the multiplier 8;
9 is an adder that takes the arithmetic sum of output S7 and output 812, S1
3 is the output of the adder 9 and is a processed image signal. Here, the multipliers 4 and 8 and the adder 9 constitute the mixer d in FIG.

ここでエツジ強調器l〕に対応するエツジ強調部302
においては、エツジ量(エツジディテクト)検出部5の
出力と前述した制御信号S9との乗算を掛は算器6で行
う。掛は算器6はROM等で構成でき、制御信号S9は
乗算係数そのものでなく、コード化された信号でもかま
わない事はいうまでもない。
Here, an edge emphasizing unit 302 corresponding to the edge emphasizing device l]
In this case, a multiplier 6 multiplies the output of the edge amount (edge detect) detection section 5 and the aforementioned control signal S9. It goes without saying that the multiplication unit 6 can be constructed from a ROM or the like, and the control signal S9 may be a coded signal instead of the multiplication coefficient itself.

画像処理の注目する画素をAとした時に、加算器7によ
り、注目画素とエツジディテクトのある係数倍された値
が加算され注目画素はエツジ強調される。混合部305
においては、エツジ強調部302の出力と平滑化処理3
の出力を適当な比率で混合する回路部で、前段の制御信
号発生部2に入力される微分値検出部1の出力に応じ、
S3.S4が出力される。後述する様に33. S4は
相補性の制御信号であるが、必ずしも限定されない。S
3.S4は制御信号S5により、自由にその特性を選択
し設定する事ができる。掛は算器8においてエツジ強調
部出力はS4によって決められた乗算を行い、掛は算器
4において平滑化処理部出力はS3によって決定される
乗算を行い、掛は算器4,8の出力は加算器9によって
互いに加算され、これが画像処理出力となる。
When the pixel of interest in image processing is A, an adder 7 adds the pixel of interest and a value multiplied by a certain coefficient of edge detection, and edges of the pixel of interest are emphasized. Mixing section 305
In the following, the output of the edge enhancement unit 302 and the smoothing process 3
A circuit unit that mixes the outputs of
S3. S4 is output. 33. As described below. S4 is a complementary control signal, but is not necessarily limited thereto. S
3. The characteristics of S4 can be freely selected and set using the control signal S5. The output of the edge emphasis section is multiplied by S4 in the multiplier 8, the output of the smoothing processing section is multiplied by S3 in the multiplier 4, and the output of the multipliers 4 and 8 is multiplied by the output of the multiplier 8. are added together by the adder 9, and this becomes the image processing output.

第7図のブロック図はまた次式をもって表現することが
できる。
The block diagram of FIG. 7 can also be expressed by the following equation.

まず微分値検出部l及び制御信号発生器2は以下の式l
の如き演算を行う。
First, the differential value detection unit l and the control signal generator 2 are expressed by the following formula l
Perform calculations such as.

一一一一一快l) ここで1は入力画像データ、Eは制御信号S4である。11111) Here, 1 is the input image data, and E is the control signal S4.

5は制御信号S4を最大値1に規格化する規格化関数で
ある。
5 is a normalization function that normalizes the control signal S4 to a maximum value of 1.

加算器7からは以下の如き出力が得られる。The following output is obtained from the adder 7.

Gは加算器7の出力、klは定数信号S9の定数である
。そして平滑化処理部3からは以下の如き出力が得られ
る。
G is the output of the adder 7, and kl is a constant of the constant signal S9. Then, the following output is obtained from the smoothing processing section 3.

Hは平滑化処理部3の出力である。依って、加算器9の
出力S13の値Outは以下の如き式2によって表わせ
る。
H is the output of the smoothing processing section 3. Therefore, the value Out of the output S13 of the adder 9 can be expressed by the following equation 2.

上式に示す〔〕内は画像信号Iとコンボリューションを
とるカーネルである。カーネル*l〜*4は種々の変形
が考えられ、その−例を表2に示す。
The part in [ ] shown in the above equation is a kernel that performs convolution with the image signal I. Kernels *l to *4 can be modified in various ways, examples of which are shown in Table 2.

*1           木2 木3*4 表2 第8図は制御信号発生部2のもつ関数fの特性の例であ
る。
*1 Tree 2 Tree 3 *4 Table 2 FIG. 8 shows an example of the characteristics of the function f of the control signal generating section 2.

E=f (x)   において E = Of o r  O< x < 0.2E=1
.67x −0,33for  0.2<x<0.8E
=l   for  0.8<x<1である。ただし入
出力信号ともθ〜1に規格化して説明する。
E=f (x) where E=Of or O< x < 0.2E=1
.. 67x −0,33for 0.2<x<0.8E
=l for 0.8<x<1. However, both input and output signals will be normalized to θ˜1 for explanation.

第9図及び第1θ図は1次微分によるエツジ検出部l(
以降微分値検出部と呼ぶ)の動作を説明する図で、主走
査1次元にて示している。
FIG. 9 and FIG. 1θ show the edge detection section l (
FIG. 2 is a diagram illustrating the operation of the differential value detection section (hereinafter referred to as a differential value detection section), and is shown in one-dimensional main scanning.

すでに説明しているように微分値検出部1は一種の帯域
通過型フィルタとなっているので、第9図に示す高い周
波数成分をもつ網点画像データのような入力画像信号S
lはカーネル(−1,−1,0゜l、1)で主走査方向
にたたみ込みを行うとその出力信号S2は0になってし
まう。
As already explained, the differential value detection unit 1 is a kind of band-pass filter, so that the input image signal S such as the halftone image data having high frequency components shown in FIG.
When l is convolved in the main scanning direction with a kernel (-1, -1, 0°l, 1), the output signal S2 becomes 0.

一方、比較的低周波の入力画像信号の場合(例えば文字
の縦線等)には、第1θ図に示す如(、同様のたたみ込
みにより、出力信号S2は大きな値をとる。
On the other hand, in the case of a relatively low-frequency input image signal (for example, a vertical line of a character), the output signal S2 takes a large value due to similar convolution as shown in FIG.

ここでガンマ変換を行う制御信号発生部2は第8図に示
すように微分信号S2が0.4より小の場合は制御信号
S3を1にし、制御信号S4を0にする。また微分信号
S2が1.6より大きい場合は制御信号S3を0にし、
制御信号S4を1にする。さらに微分信号S2が0.4
〜1.6の間においては第2図に示すように常に制御信
号S3と制御信号S4の和が1になるように微分信号S
2に応じて変化する。
Here, the control signal generating section 2 that performs gamma conversion sets the control signal S3 to 1 and the control signal S4 to 0 when the differential signal S2 is smaller than 0.4, as shown in FIG. Also, if the differential signal S2 is larger than 1.6, the control signal S3 is set to 0,
Set the control signal S4 to 1. Furthermore, the differential signal S2 is 0.4
~1.6, the differential signal S is set so that the sum of the control signal S3 and the control signal S4 always becomes 1, as shown in FIG.
2.

一方入力画像信号S1は微分値検出部lの入力に接続さ
れていると共に平滑化処理部3とエツジ検出部5の入力
にも同時に接続されている。
On the other hand, the input image signal S1 is connected to the input of the differential value detection section 1, and is also connected to the inputs of the smoothing processing section 3 and the edge detection section 5 at the same time.

第11図は平滑化処理部3の動作を示しており、説明、
のために主走査方向の一次元の例を示している。この場
合カーネルは(1,]、  I、  l、  l)で内
容がすべて1であり5画素の平均を出力するよう構成さ
れているローパスフィルタになっており、入力画像信号
Slは平滑化画像信号S6のようになる。
FIG. 11 shows the operation of the smoothing processing section 3.
For this purpose, a one-dimensional example in the main scanning direction is shown. In this case, the kernel is a low-pass filter (1,], I, l, l) whose contents are all 1 and configured to output the average of 5 pixels, and the input image signal Sl is a smoothed image signal. It will look like S6.

また第12図はエツジ強調部5の動作を示しており、や
はり説明のために主走査方向の一次元を示している。カ
ーネルは(−1,0,2,O,−1)であり良(知られ
た2次微分のエツジ検出特性を有し、出力S8は平坦部
で0、エツジ部で正・負のピークをもつ。
Further, FIG. 12 shows the operation of the edge emphasizing section 5, and also shows one dimension in the main scanning direction for the sake of explanation. The kernel is (-1, 0, 2, O, -1) and is good (it has the known edge detection characteristics of second-order differential, and the output S8 is 0 at the flat part and has positive and negative peaks at the edge part). Motsu.

さらにエツジ信号S8は掛は算器6により定数89倍さ
れ、加算器7によって画像入力信号Slと加算され、エ
ツジ強調信号Sllとなる。尚、図示されていないが入
力画像信号Slに対してエツジ信号SIOは少々遅れる
ので加算器70入力であるエツジ信号SIOと入力画像
信号Slとのタイミングをとるための遅延回路が実際に
は設けられる。
Further, the edge signal S8 is multiplied by a constant 89 by a multiplier 6, and is added to the image input signal Sl by an adder 7, thereby producing an edge emphasis signal Sll. Although not shown, since the edge signal SIO is slightly delayed with respect to the input image signal Sl, a delay circuit is actually provided to adjust the timing between the edge signal SIO, which is input to the adder 70, and the input image signal Sl. .

ところで微分検出部lの出力が大きい、即ちエツジ部で
は制御信号S3は小さく、S4は大きい。逆に微分信号
S2が小さい場合はS3が大きくS4が小さい。また第
8図で述べたように83と84は常にその和が1になる
ようにガンマ変換されている。
By the way, at the edge portion where the output of the differential detection section l is large, that is, the control signal S3 is small and the control signal S4 is large. Conversely, when the differential signal S2 is small, S3 is large and S4 is small. Further, as described in FIG. 8, 83 and 84 are gamma-converted so that their sum always becomes 1.

従って掛は算器4と8の出力の和は微分信号S2が大の
ときエツジ強調信号Sllの成分が多く、S2が小のと
き平滑化信号S6の成分が多くなる様制御される。
Therefore, the sum of the outputs of the multipliers 4 and 8 is controlled so that when the differential signal S2 is large, the edge emphasis signal Sll has a large component, and when S2 is small, the smoothed signal S6 has a large component.

第13図はこの様子を示しており、微分信号S2は入力
画像信号S1のうち周期の短い振動(網点周期に相当す
る)を除く部分でのエツジを検出していることを示して
いる。
FIG. 13 shows this state, and shows that the differential signal S2 detects edges in a portion of the input image signal S1 excluding short-period vibrations (corresponding to the halftone dot period).

図に於いて入力画像データS1は網点画像データ部分(
A)及びライン部分(B)より出来ているとする。
In the figure, the input image data S1 is the halftone image data part (
Suppose that it is made up of A) and line part (B).

1次微分信号S2は(11)の部分で多く発生する。A large amount of the first-order differential signal S2 occurs in the portion (11).

制御信号S4は微分信号S2のガンマ変換したものであ
る。S3は1−84である。平滑化信号s6及びエツジ
強調信号811も図示している。従って処理信号S13
は図の様に網点部分(A)では平滑化信号力、エツジ部
(11)ではエツジ強調信号がそれぞれ多値化されたデ
ータとして出力される。但し、ここで出力信号は最大値
を1に規格化されており、実際は例えば8bit  2
55のデータである(0. 1の2値ではない)。
The control signal S4 is a gamma-converted version of the differential signal S2. S3 is 1-84. A smoothed signal s6 and an edge enhancement signal 811 are also shown. Therefore, the processed signal S13
As shown in the figure, the smoothed signal power is output in the halftone area (A), and the edge emphasis signal is output in the edge area (11) as multivalued data. However, the maximum value of the output signal here is standardized to 1, and in reality, for example, 8 bits 2
55 data (not a binary value of 0.1).

次に第7図の各ブロックについて詳細に説明する。Next, each block in FIG. 7 will be explained in detail.

(微分値検出部l) 第14図は微分値検出部1の詳細回路図である。(Differential value detection unit l) FIG. 14 is a detailed circuit diagram of the differential value detection section 1.

微分値検出部lには第20図の5ラインバツフア301
の出力が入力される。
The differential value detection section l has a 5-line buffer 301 shown in FIG.
The output of is input.

図において306は一次微分器であり、その出力306
−aは、データ部306−cと、正負を示すサイン部3
06− bとに分けられ、サイン部306−bは、セレ
クタ308のセレクト信号に入力され、インバータ30
7によって士、−反転したデータか306−cのデータ
のいずれかをセレクトする事によってデータの絶対値3
08−aが得られる。同様にして1次微分器312の出
力の絶対値がセレクタ311より出力され、加算器30
9により308− aと311−aが加算され、2方向
の一次微分値の和が加算器309より出力される。
In the figure, 306 is a first-order differentiator, and its output 306
-a is a data section 306-c and a sign section 3 indicating positive/negative.
The sign section 306-b is input to the select signal of the selector 308, and the inverter 30
7, the absolute value of the data is 3 by selecting either the inverted data or the data of 306-c.
08-a is obtained. Similarly, the absolute value of the output of the first-order differentiator 312 is output from the selector 311, and the adder 30
9, 308-a and 311-a are added, and the sum of the first-order differential values in two directions is output from the adder 309.

次に第14図の1次微分器306.312を詳細に示し
たブロック図を第15図に示す。
Next, a block diagram showing details of the first-order differentiators 306 and 312 shown in FIG. 14 is shown in FIG. 15.

まず、この1次微分回路の基本動作を説明するために第
15図中のブロックXについて説明する。
First, in order to explain the basic operation of this first-order differentiator circuit, block X in FIG. 15 will be explained.

まず第15図中のすべてのシフトレジスタは図中に示さ
ない画像転送りロックに同期してシフトされる。説明を
簡単にするために乗算器243〜247のすべでの乗算
係数を1とする。タイミングチャート第16図によりt
−3におけるシフトレジスタ230の出力はSn、m−
1+b るシフトレジスタ231の出力はSn、m+Sn、m−
3+Sn、m−2であり、t−1におけるシフトレジス
タ232の出力はSn、m+1+Sn、m十Sn、m−
1+Sn。
First, all shift registers in FIG. 15 are shifted in synchronization with an image transfer lock not shown in the figure. To simplify the explanation, all multiplication coefficients of multipliers 243 to 247 are assumed to be 1. According to timing chart Figure 16, t
The output of the shift register 230 at -3 is Sn,m-
1+b The output of the shift register 231 is Sn, m+Sn, m-
3+Sn, m-2, and the output of the shift register 232 at t-1 is Sn, m+1+Sn, m+Sn, m-
1+Sn.

m−2で、toにおける加算器260の出力はSn、m
+2十Sn、m+、+Sn、m−1−8n、m−1−1
−8n、m−2である。
m-2, the output of adder 260 at to is Sn, m
+20Sn, m+, +Sn, m-1-8n, m-1-1
-8n, m-2.

このようにして主走査方向5画素の加算値をブロックX
にて計算する。ここで、乗負器243〜247の乗算係
数をa、  b、  c、  rl、  eに設定する
ことにより加算器260の出力は、e a Sn、m+
、+d−3n、m+、 +c llSn、m+b ll
Sn、m−1+a * Sn、m−2となる。
In this way, the added value of 5 pixels in the main scanning direction is calculated for block
Calculate by. Here, by setting the multiplication coefficients of the multipliers 243 to 247 to a, b, c, rl, and e, the output of the adder 260 becomes e a Sn, m+
, +d-3n, m+, +c llSn, m+b ll
Sn, m-1+a*Sn, m-2.

同様にしてシフトレジスタ223以降の回路と、シフト
レジスタ233以降の回路が動作する事もわかる。
It can also be seen that the circuits after the shift register 223 and the circuits after the shift register 233 operate in the same manner.

ところで、求める1次微分が式1の*l、  *2の様
な場合に、注目画素が0912日の場合に、n−2ライ
ンとn−1ラインのカーネルの要素は等しく、又n+1
ラインとn+2ラインのカーネルの要素も等しい。故に
画像データはn−2ライン目とn−1ライン目を加算器
231で加算してから式1*1.  *2の様な1次微
分処理を行う事によって回路規模を1/2に縮小できる
。又、n + 1ライン目、n+2ライン目についても
同様である。この様にして加算器400において5ライ
ン分のカーネルに応じた加算値を得る事ができる。
By the way, when the first-order differential to be sought is like *l and *2 in Equation 1, and the pixel of interest is on the 0912th day, the kernel elements of the n-2 line and the n-1 line are equal, and the n+1
The kernel elements of the line and n+2 line are also equal. Therefore, the image data is obtained by adding the (n-2)th line and (n-1)th line using the adder 231, and then using the formula 1*1. By performing first-order differential processing as shown in *2, the circuit scale can be reduced to 1/2. The same applies to the (n+1)th line and (n+2)th line. In this way, the adder 400 can obtain addition values corresponding to the kernels for five lines.

又、238〜252に示すような乗算器はその乗算値が
for−1orOの様に単純な場合には、第17図に示
すように、インバータ291とセレクタ292によって
簡単に構成でき図中SLによって1or−1の切換えを
行い、CLによって0にする事ができる。
In addition, when the multipliers shown in 238 to 252 are as simple as for-1orO, they can be easily constructed with an inverter 291 and a selector 292 as shown in FIG. It can be switched 1 or -1 and set to 0 by CL.

又、式1のカーネル*1の1次微分を求めるには、乗算
器238〜242の乗算係数を1とし、乗算器243〜
247の乗算係数をOとし、乗算器248〜252の乗
算係数を−1とする。
Furthermore, in order to obtain the first derivative of the kernel *1 in Equation 1, the multiplication coefficients of the multipliers 238 to 242 are set to 1, and the multipliers 243 to 242 are set to 1.
The multiplication coefficient of 247 is O, and the multiplication coefficients of multipliers 248 to 252 are -1.

式1のカーネル*2の1次微分を求めるには、乗算器2
42.238. 239. 240. 241の乗算係
数を1.  l、  O,−1,−1とし、乗算器24
3〜247の乗算係数をl、  I、 0. −1. 
−1とし、乗算器248〜252の乗算係数をl、  
l、  O,−1,−1とする。
To find the first derivative of the kernel *2 in Equation 1, use multiplier 2
42.238. 239. 240. The multiplication coefficient of 241 is 1. l, O, -1, -1, and the multiplier 24
Multiplying coefficients from 3 to 247 as l, I, 0. -1.
−1, and the multiplication coefficients of the multipliers 248 to 252 are l,
Let 1, O, -1, -1.

又、表2の*l、  *2の様な1次微分を算出する回
路構成は第18図により実現できるが、第15図と動作
原理は同じであるので乗算器への係数の与え方は省略す
る。
In addition, the circuit configuration for calculating first-order differentials such as *l and *2 in Table 2 can be realized using Fig. 18, but since the operating principle is the same as Fig. 15, the method of giving coefficients to the multiplier is Omitted.

(エツジ強調部5) 次にエツジ強調部5を示したのが第19図である。(Edge emphasis part 5) Next, FIG. 19 shows the edge emphasizing section 5.

第7図に示す入力画像信号Slは第20図に示すように
、イメージデータの連続する5ライン分のデータより成
り、5ラインバツフア301に入力された入力画像デー
タは5ラインバツフアにて、たくわえられた後に5ライ
ン分同時に、出力され図示していない画像転送りロック
に同期して、イメージデータの主走査方向に1画素づつ
出力される。
As shown in FIG. 20, the input image signal Sl shown in FIG. 7 consists of data for 5 consecutive lines of image data, and the input image data input to the 5-line buffer 301 is stored in the 5-line buffer. Thereafter, five lines are output simultaneously, and in synchronization with an image transfer lock (not shown), the image data is output one pixel at a time in the main scanning direction.

また第21図に示す様にイメージエリアの注目領域Sを
さらに拡大して注目する画素データをSn。
Further, as shown in FIG. 21, the region of interest S in the image area is further enlarged and the pixel data of interest is Sn.

mとした時の周辺の画像データについて考える。第19
図のエツジ強調部5には、入力画像データS1のうちn
−2ライン目、n、n+2ライン目の3ライン分の画像
データを入力し、画像処理の注目画素をSn、mとする
Consider the surrounding image data when m. 19th
The edge enhancement unit 5 shown in the figure has n out of the input image data S1.
Image data for three lines, the −2nd line, n, and n+2nd line, are input, and the pixels of interest for image processing are set as Sn and m.

図中201〜211は1ビツトのシフトレジスタである
。画像データSlは、シフトレジスタ201〜203゜
204〜208,209〜211によって、図示してい
ない画像転送りロックに同期してシフトされる。この・
タイミングチャートが第22図である。第22図におい
て、あるタイミングTにおけるシフトレジスタの出力を
第19図中に()で囲んで示す。
In the figure, 201 to 211 are 1-bit shift registers. The image data Sl is shifted by shift registers 201 to 203, 204 to 208, and 209 to 211 in synchronization with an image transfer lock (not shown). this·
The timing chart is shown in FIG. 22. In FIG. 22, the output of the shift register at a certain timing T is shown enclosed in parentheses in FIG.

加算器213はシフトレジスタ203.204.208
.211の出力データ5n−2,m、Sn、m−2、S
n、m+2、Sn+2.mを加算し、加算されたデータ
は乗算器214で一1倍される。注目画素Sn、mはシ
フトレジスタ206から出力され、乗算器212で4倍
され、加算器215で加算されて加算器215からは、
前記式2、第7図に示されるようなエツジディテクト信
号G−3llが出力される。
Adder 213 is shift register 203.204.208
.. 211 output data 5n-2, m, Sn, m-2, S
n, m+2, Sn+2. m is added, and the added data is multiplied by 11 in a multiplier 214. The pixel of interest Sn,m is output from the shift register 206, multiplied by 4 in the multiplier 212, and added in the adder 215.
An edge detect signal G-3ll as shown in Equation 2 and FIG. 7 is output.

尚、n−2ライン目とn+2ライン目のカーネル要素は
同じなのでシフトレジスタ209〜211を省き、n−
2ライン目とn+2ライン目の出力を加算した後、シフ
トレジスタ201に入力しても良い。
In addition, since the kernel elements of the n-2th line and the n+2th line are the same, shift registers 209 to 211 are omitted and the n-
The outputs of the second line and the (n+2)th line may be added and then input to the shift register 201.

又、第18図の回路を用いて乗算器にカーネル*4の値
を入れることによりエツジ強調部5を構成できることも
明らかである。
It is also clear that the edge emphasizing section 5 can be configured by using the circuit shown in FIG. 18 and inputting the value of kernel *4 to the multiplier.

(平滑化処理部3) 次に第7図事情化処理部3のブロックの詳細を第23図
に示す。
(Smoothing Processing Unit 3) Next, details of the blocks of the situation processing unit 3 shown in FIG. 7 are shown in FIG. 23.

画像信号S1は夫々イメージの副走査方向に連続する5
ラインのデータより成り、加算器271により副走査5
画素の加算が行われる。このデータは1ビツト遅延する
為のシフトレジスタ272に入力される。シフトレジス
タ272の出力データは加算器277〜280に入力さ
れる。加算器272ではシフトレジスタ272の出力と
その1画素前のデータが加算される。この加算結果は2
74のシフトレジスタにラッチされた後に278の加算
器で次の画素と加算される。以下同様にして時間T2の
時に加算280からは第24図に示す如<SN、m+2
+SN、m+1−1−3N。
The image signals S1 each have 5 continuous signals in the sub-scanning direction of the image.
It consists of line data, and is processed by an adder 271 for sub-scanning 5
Pixel addition is performed. This data is input to shift register 272 for one bit delay. The output data of shift register 272 is input to adders 277-280. The adder 272 adds the output of the shift register 272 and the data of one pixel before it. The result of this addition is 2
After being latched in 74 shift registers, it is added to the next pixel in 278 adders. Similarly, from the addition 280 at time T2, as shown in FIG.
+SN, m+1-1-3N.

m + S N 、 m −、十S N 、 m −2
が出力される(SN、j=sn−2,j十Sn−、、j
十Sn、j十りn+1 、j十りn+2+D。
m + SN, m -, 10SN, m -2
is output (SN, j = sn-2, j + Sn-, , j
10Sn, j10n+1, j10n+2+D.

こうして注目画素をSn、mとする時に式2の*3に示
される画素合計が加算器280より出力され除算器28
1により合計画素数で、割って平滑化データが得られる
。又、第25図に示すような重みづけをした平滑化をす
る回路が第26図である。動作タイミング等は第23図
と同じであるが、第26図では乗算器351〜355に
より各ラインに重みづけし、又、各列にも乗算器356
〜360により重みづけすることによって第25図の如
き平滑化を行う。
In this way, when the pixel of interest is Sn, m, the pixel sum shown by *3 in equation 2 is output from the adder 280 and the divider 28
Smoothed data is obtained by dividing the total prime number by 1. FIG. 26 shows a circuit that performs weighted smoothing as shown in FIG. 25. The operation timing etc. are the same as in Fig. 23, but in Fig. 26, each line is weighted by multipliers 351 to 355, and a multiplier 356 is also provided in each column.
By weighting by .about.360, smoothing as shown in FIG. 25 is performed.

この平滑化処理部では画像副走査方向にその加算値をす
べて加え合わせてから画像主走査方向に加算しているの
で回路規模が小さくできる。
This smoothing processing section adds all the added values in the image sub-scanning direction and then adds them in the image main scanning direction, so the circuit size can be reduced.

〔効果〕〔effect〕

本発明は以上の様にして、2値の画像データを多値のデ
ータに変換出来たものである。
The present invention is capable of converting binary image data into multi-value data as described above.

従って各種画像処理(例えば変倍、γ変換。Therefore, various image processing (e.g. scaling, γ conversion).

エツジ強調等)を通常の多値データと同等に行う事が出
来る。
(edge enhancement, etc.) can be performed in the same way as normal multivalued data.

本発明に於いて、エツジ強調信号の代りに原信号をとり
入れてもよい。又、2値化データをとり扱う説明であっ
たが、3値(2ビツト)や4値程度の低い多値化度から
8bit程度に拡張する事も同様に出来る。更にドツト
分散型の場合に於いても同様に可能である。
In the present invention, the original signal may be used instead of the edge emphasis signal. Furthermore, although the explanation deals with binary data, it is also possible to expand the degree of multi-leveling from a low degree of 3-level (2-bit) or 4-level to about 8-bit. Furthermore, this is also possible in the case of a dot-dispersed type.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図(A)は本発明の実施例の原理図、第1図(B)
は第1図(A)の処理回路23の基本回路図、第2図は
各種画像のもつ周波数特性図、第3図。 第4図、第5図は各種微分フィルタの周波数特性図、第
6図は平滑化フィルタの周波数特性図、第7図は本実施
例の画像処理ブロック図、第8図は制御信号発生部2の
ガンマ変換特性図、第9図、第1O図は一次微分を行う
微分値検出部lの動作例を示す図、第11図は平滑化処
理部3の動作例を示す図、第12図はエツジ強調部5の
動作例を示す図、第13図は第7図番部の信号波形図、
第14図はエツジ検出部lの詳細回路図、第15図は1
次微分器306.312の詳細ブロック図、第16図は
1次微分器の動作を示すタイミングチャート、第17図
は絶対値の回路図、第18図は1次微分器の他の例の詳
細ブロック図、第19図はエツジ検出部5の詳細ブロッ
ク図、第20図はバッファ回路図、第21図はイメージ
エリアを示す図、第22図はエツジ検出部の動作を示す
図、第23図は平滑化処理部3の詳細ブロック図、第2
4図は平滑化処理部の動作を示す図、第25図は他の平
滑化処理の為のカーネルを示す図、第26図は第25図
の平滑化を行う為のブロック図である。
Figure 1 (A) is a principle diagram of an embodiment of the present invention, Figure 1 (B)
1(A) is a basic circuit diagram of the processing circuit 23, FIG. 2 is a frequency characteristic diagram of various images, and FIG. 3 is a basic circuit diagram of the processing circuit 23 shown in FIG. 4 and 5 are frequency characteristic diagrams of various differential filters, FIG. 6 is a frequency characteristic diagram of a smoothing filter, FIG. 7 is an image processing block diagram of this embodiment, and FIG. 8 is a control signal generation unit 2. FIG. 9 and FIG. 1O are diagrams showing an example of the operation of the differential value detection section l that performs first-order differentiation, FIG. 11 is a diagram showing an example of the operation of the smoothing processing section 3, and FIG. A diagram showing an example of the operation of the edge emphasizing section 5, FIG. 13 is a signal waveform diagram of the numbered part in FIG. 7,
Fig. 14 is a detailed circuit diagram of the edge detection section 1, and Fig. 15 is a detailed circuit diagram of the edge detection section 1.
Detailed block diagram of the order differentiator 306 and 312, Figure 16 is a timing chart showing the operation of the first order differentiator, Figure 17 is the absolute value circuit diagram, and Figure 18 is details of another example of the first order differentiator. 19 is a detailed block diagram of the edge detection section 5, FIG. 20 is a buffer circuit diagram, FIG. 21 is a diagram showing the image area, FIG. 22 is a diagram showing the operation of the edge detection section, and FIG. 23 is a block diagram. is a detailed block diagram of the smoothing processing unit 3, the second
4 is a diagram showing the operation of the smoothing processing section, FIG. 25 is a diagram showing a kernel for other smoothing processing, and FIG. 26 is a block diagram for performing the smoothing shown in FIG. 25.

Claims (1)

【特許請求の範囲】[Claims] (1)2値又は小bit数の多値の画像データを入力し
、それより多bit数の多値データに変換する多値化方
法に於いて、該入力データを、複数の並列におかれた異
った周波数特性を有すフィルターを通過させ、その出力
を混合させる様にした多値化方法。
(1) In a multi-value conversion method that inputs binary or multi-value image data with a small number of bits and converts it into multi-value data with a larger number of bits, the input data is placed in multiple parallel formats. A multilevel conversion method that passes through filters with different frequency characteristics and mixes their outputs.
JP61158178A 1986-07-04 1986-07-04 Multivaluing method Pending JPS6313578A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61158178A JPS6313578A (en) 1986-07-04 1986-07-04 Multivaluing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61158178A JPS6313578A (en) 1986-07-04 1986-07-04 Multivaluing method

Publications (1)

Publication Number Publication Date
JPS6313578A true JPS6313578A (en) 1988-01-20

Family

ID=15665974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61158178A Pending JPS6313578A (en) 1986-07-04 1986-07-04 Multivaluing method

Country Status (1)

Country Link
JP (1) JPS6313578A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0407213A2 (en) * 1989-07-07 1991-01-09 Kabushiki Kaisha Toshiba Image processing apparatus
EP0461903A2 (en) * 1990-06-14 1991-12-18 Canon Kabushiki Kaisha Image processing apparatus using neural network
JPH0557964U (en) * 1991-12-27 1993-07-30 村田機械株式会社 Fax machine
US5454052A (en) * 1992-04-09 1995-09-26 Matsushita Electric Industrial Co., Ltd. Method and apparatus for converting halftone images

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0407213A2 (en) * 1989-07-07 1991-01-09 Kabushiki Kaisha Toshiba Image processing apparatus
EP0461903A2 (en) * 1990-06-14 1991-12-18 Canon Kabushiki Kaisha Image processing apparatus using neural network
US5309525A (en) * 1990-06-14 1994-05-03 Canon Kabushiki Kaisha Image processing apparatus using neural network
JPH0557964U (en) * 1991-12-27 1993-07-30 村田機械株式会社 Fax machine
US5454052A (en) * 1992-04-09 1995-09-26 Matsushita Electric Industrial Co., Ltd. Method and apparatus for converting halftone images

Similar Documents

Publication Publication Date Title
US5231677A (en) Image processing method and apparatus
JPS62216476A (en) Picture processor
JPH03503712A (en) Digital halftone coloring with error diffusion
JPH0613914A (en) Method and apparatus for discrete cosine conversion which does not require multiplication
JP3238392B2 (en) Image processing method
JPH09163162A (en) Image processing method and device
US5006938A (en) Half-tone image generator using white noise source
JPS6313578A (en) Multivaluing method
US6181827B1 (en) Image processing method and apparatus
JPS61157164A (en) Picture processing device
JPS61157169A (en) Picture processing device
JPS61157161A (en) Picture processing device
JPS61157162A (en) Picture processing device
JPS61157168A (en) Picture processing device
JPH0816773A (en) Image processing method
JPS61157160A (en) Picture processing device
JPS61157165A (en) Picture processing device
JPS61157170A (en) Picture processing device
JPS61157163A (en) Picture processing device
JPS61157166A (en) Picture processing device
JPH0451378A (en) Picture processor
JP3146518B2 (en) Image processing device
JPS61157167A (en) Picture processing device
US7085015B2 (en) Inverse halftoning for multi-level halftones
JP4051871B2 (en) Image processing apparatus and image processing method