JPS62118482A - Picture processing method - Google Patents

Picture processing method

Info

Publication number
JPS62118482A
JPS62118482A JP60259548A JP25954885A JPS62118482A JP S62118482 A JPS62118482 A JP S62118482A JP 60259548 A JP60259548 A JP 60259548A JP 25954885 A JP25954885 A JP 25954885A JP S62118482 A JPS62118482 A JP S62118482A
Authority
JP
Japan
Prior art keywords
image
data
processing
halftone
restored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP60259548A
Other languages
Japanese (ja)
Inventor
Masahiko Matsunawa
松縄 正彦
Seiichiro Hiratsuka
平塚 誠一郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP60259548A priority Critical patent/JPS62118482A/en
Publication of JPS62118482A publication Critical patent/JPS62118482A/en
Pending legal-status Critical Current

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To obtain an excellent reproducing picture from a multiplexing picture by restoring an M-coded halftone picture from an N coded picture and applying a prescribed processing to the restored halftone picture to obtain an N'-coded picture. CONSTITUTION:From the N-coded picture data, the M-coded picture data (M>N) is restored, and this M-coded data is made the N'-coded (N>M) data. Namely, an original picture is separated at every block of 2X2 (indicated by a heavy line frame) the number of black picture elements in the respective blocks is counted to obtain density data as shown. Thereby, this density data is obtained by restoring from a binarization picture of 5 levels (5 coded) from 0 to 4.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は画像処理方法に関し、更に詳しくは、復元され
た中間調画像に秤ノ(の画像処理を施すJ:うにした画
情j処理方法に関する。
DETAILED DESCRIPTION OF THE INVENTION (Industrial Application Field) The present invention relates to an image processing method, and more specifically, an image processing method for performing image processing on a restored halftone image. Regarding.

(従来の技術) 画像処理の分野では、画像入力装置(スキI/すともい
う)で原稿画像を読取り、読取った画像データを2値化
することが行われている。近年、画像処理技術の進歩発
展に伴い、画像の記録を行わせたり表示させたりする場
合も、従来のような2値化画像データのみならず、3値
、4値等の画像データを用いることも可能となってきて
いる。例えば、熱転写記録における3値又は4値記録、
インクジェット記録における多値記録、或いはレーザ記
録におけるLD(半導体レーザ)を用いた多値変調記録
等がある。これら多値記録において、熱転写記録の場合
は、3−L法、多値インクシート利用法又はパルス幅変
化乃至は回数変化による方法等があり、インクジェット
記録の場合はドツト径を変化させる方法等がある。
(Prior Art) In the field of image processing, an image input device (referred to as Suki I/Suki) reads a document image and binarizes the read image data. In recent years, with the advancement and development of image processing technology, when recording or displaying images, it is becoming increasingly important to use not only conventional binary image data but also ternary, quaternary, etc. image data. is also becoming possible. For example, three-value or four-value recording in thermal transfer recording,
There are multi-value recording in inkjet recording, multi-value modulation recording using an LD (semiconductor laser) in laser recording, and the like. In these multilevel recordings, in the case of thermal transfer recording, there are methods such as the 3-L method, the method of using a multilevel ink sheet, or the method of changing the pulse width or number of pulses, and in the case of inkjet recording, there are methods such as changing the dot diameter. be.

(発明が解決しようとする問題点) 従来2値又は3値化画像の画像処理(拡大・縮小、1l
Pi調処理1画像強調等)を行う場合には、これらの画
像の1画素当りのレベル数(2又は3)が少ないために
、十分な処理結果を得ることは困難であった。これは通
常、1画素当り6乃至8ビット画像で処理を行い、この
後に画像を2又は3゜4値化するという手順をとってい
たからである。
(Problems to be solved by the invention) Conventional image processing of binary or ternary images (enlargement/reduction, 1l
When performing Pi tone processing (1 image enhancement, etc.), it has been difficult to obtain sufficient processing results because the number of levels (2 or 3) per pixel of these images is small. This is because the procedure is usually to process an image with 6 to 8 bits per pixel, and then to convert the image into 2 or 3° quaternary values.

従って、処理の結果をチェックして不充分な萌には再度
画像処理を行うというよう4【場合、これは特に印刷関
係にd3いてよく起こり得ることであるが、原画像を記
憶しておく必要がある。今、Δ4判画像を20ドッh/
mmの解1碩1σで、1画素当り8ビツト(256階調
)どりるど1画面記憶に必要な記憶容量は 210X297x 16X 16x8 =16(Mバイト) となる。ここで210 x 297は用紙ナイス、16
×16は20ドッ1〜/mmに対応した解像度、8はビ
ット数である。従って、通常用いられるフロッピーディ
スク1枚に格納することは不可能であり、何枚かに分け
て記tII!ざるを4qない。従って、磁気テープや磁
気ディスクを用いざるを得ないが、前者はアクセスタイ
ムが遅いという欠点があり、後者では使い易いけれども
何画面もの記憶ができず使い勝手が悪い。又、両者共に
ドライブ装置まで含めると高価である。一方、最近ダイ
ナミックメモリの容量が増し、且つ価格も安価になって
いるが、前記容量では256にビットメモリが488個
程度必要となり、基板スペース上、又、安いとはいえ以
外に高い価格であり、実用上好ましくない。
Therefore, if you check the processing results and perform image processing again if the image is insufficient, this can often happen especially in printing, but it is necessary to memorize the original image. There is. Now, I am uploading a Δ4 size image for 20 dots/
If the solution for mm is 1 x 1 σ, the memory capacity required to store one screen is 210 x 297 x 16 x 16 x 8 = 16 (M bytes), with 8 bits per pixel (256 gradations). Here 210 x 297 is paper nice, 16
×16 is a resolution corresponding to 20 dots/mm, and 8 is the number of bits. Therefore, it is impossible to store the data on a single floppy disk, which is commonly used, and the data must be stored on several disks. There are 4q of colanders. Therefore, magnetic tape or magnetic disks have to be used, but the former has the disadvantage of slow access time, and the latter, although easy to use, cannot store many screens and is not user-friendly. Furthermore, both are expensive if the drive device is included. On the other hand, recently, the capacity of dynamic memory has increased and the price has become cheaper, but this capacity requires about 488 bit memories for 256, which takes up board space and is expensive even though it is cheap. , which is not practical.

本発明はこのような点に鑑みてなされたものであって、
その目的は、多値(2値〜8値)化画像特に2値、3値
画像から優れた再生画像を得ること、又、原画像を記憶
するためのメモリ容量を減少させることができる画像処
理方法を突環することにある。
The present invention has been made in view of these points, and
The purpose is to obtain excellent reproduced images from multivalued (binary to 8valued) images, especially binary and ternary images, and image processing that can reduce the memory capacity for storing original images. The method lies in cutting the ring.

(問題点を解決するための手段) 前記した問題点を解決する本発明は、N値化画像J:す
M値化中間調画像を復元し、復元した中間調画像に所定
の処理を施してN′値化画像を得るようにしたことを特
徴とするものである。
(Means for Solving the Problems) The present invention, which solves the above problems, restores an N-valued image J: an M-valued halftone image, and performs predetermined processing on the restored halftone image. This method is characterized in that an N'-valued image is obtained.

(作用) 本発明は2値(3,4値)化画像の状態で画像を記憶し
ながら、各種の画像処理が可能な方法を=3− 提供するものである。つJ:す、N値化画像よりM(M
≧N好ましくはMC・N)値化画像を復元し、復元画像
に対し画像処理を施す方法を提供するものである。従っ
て、ワークエリアも含め2枚分の画像メモリが必要とし
ても全容量は2値化画像の場合 210X297x16X16x2 =4(Mバイト) とメモリ容量を従来の1/4にすることが可能である。
(Function) The present invention provides a method capable of performing various types of image processing while storing an image in the form of a binary (3-, 4-value) image. Tsu J: From the N-valued image, M (M
≧N (preferably MC·N) A method is provided for restoring a digitized image and performing image processing on the restored image. Therefore, even if an image memory for two images including the work area is required, the total capacity is 210 x 297 x 16 x 16 x 2 = 4 (M bytes) for binarized images, which is 1/4 of the conventional memory capacity.

従って、ダイナミックメモリを用いるとしても価格を単
純には1/4にすることが可能である。
Therefore, even if dynamic memory is used, the price can be simply reduced to 1/4.

(実施例) 以下、図面を参照して本発明の実施例を詳細に説明する
。ここでは、まず画像の復元方法について説明し、次に
この復元画像を処理する処理方法とN′値化方法につい
て説明する。本例は前記した目的を達成でるために、N
 IFF両像データにす、M値画像データ(M>N)を
復元し、このM値データをN′値(N’ <M)データ
どする。ここで、一般にはM>N、N’であり、NとN
′は記録製同上の制約により通常はN′〕・Nであるが
一般的には等しくてもよいし、大小は異なっていてもよ
い(つまりNとN′の大小の制約がない)。又、通常は
N=2.3.4値程度にとるとが、M>N。
(Example) Hereinafter, an example of the present invention will be described in detail with reference to the drawings. Here, a method for restoring an image will be explained first, and then a method for processing the restored image and a method for converting it into an N' value will be explained. In this example, in order to achieve the above purpose, N
The M value image data (M>N) is restored to IFF double image data, and this M value data is converted into N' value (N'<M) data. Here, generally M>N, N', and N and N
' is normally N']·N due to the above-mentioned restrictions on recording production, but in general they may be equal or may be different in size (that is, there is no restriction on the size of N and N'). Also, normally N=2.3.4 values, but M>N.

N′であれば、この数値上の制約はない。If N', there is no numerical restriction.

(Δ)画像の復元方法 (a)fiI度パターン法による復元 今、第1図に示す2値化画像(原画像)からM値化中間
調画像を復元することを考える。この第1図に示す原画
像は第2図(イ)、(ロ)に示す濃度パターンを用いて
作られたものとする。第1図に示寸原画を図に示すよう
に2×2のブロック(太ワクで示す)毎に区切り、各ブ
ロック内の黒画素数を第2図(ロ)に示すJ:うにして
計数すると、第3図に示1ような濃度データが得られる
(Δ) Image restoration method (a) Restoration using the fiI degree pattern method Now, let us consider restoring an M-valued halftone image from the binarized image (original image) shown in FIG. It is assumed that the original image shown in FIG. 1 was created using the density patterns shown in FIGS. 2(a) and 2(b). The original picture shown in Figure 1 is divided into 2 x 2 blocks (indicated by thick circles) as shown in the figure, and the number of black pixels in each block is calculated as shown in Figure 2 (B). Then, density data as shown in FIG. 3 is obtained.

この11度データを原画の推定値とする。第3図に示す
画像データはOから4までの5レベル(5値)画を、2
値化画像より復元したことになる。
This 11 degree data is used as the estimated value of the original image. The image data shown in Figure 3 consists of 5 levels (5 levels) from O to 4, and 2
This means that it has been restored from the digitized image.

(b)ディザ画像からの復元 第4図は本発明方法の他の実施例を示づ一フローチャー
1−である。以下、このフローヂ+1−1〜に沿って説
明する。2値デイ17” ++lii ffQ (2値
化画像)に対して、ディザマトリクスと同じサイズの走
査開口を用意する(ステーツブ(3) ) 、、ここで
、2値化画像としては、例えば第5図(イ)に示すよう
なものが用いられ、走査量[1として(,1,例えば第
5図(ロ)に示J−ようなL〕のが用いられる。次に走
査開口を1画素ずつずらしト°「がら各走査器[1内の
黒画素数を計数Jる(スフツブ■)。ステップ■の詳細
なフローヂャ−1・を第6図に示71’ flここで、
2値化画像のラインどカラムの関係は、第5図(イ)に
示す通りである。第7図は走査開口が2値化画像」二を
移動していく様子を示1J図である。
(b) Restoration from dithered image FIG. 4 is a flowchart 1- showing another embodiment of the method of the present invention. This flow will be explained below from +1-1. For a binary image, a scanning aperture of the same size as the dither matrix is prepared (state (3)).Here, as a binary image, for example, as shown in FIG. The one shown in (a) is used, and the scanning amount [1 (, 1, for example, L as shown in FIG. 5 (b)]) is used.Then, the scanning aperture is shifted one pixel at a time. The number of black pixels in each scanner is counted (step 1).The detailed flowchart of step 1 is shown in FIG. 6. Here,
The relationship between the lines and columns of the binarized image is as shown in FIG. 5(a). FIG. 7 is a diagram 1J showing how the scanning aperture moves across the binarized image.

図の大枠が走査器1:1である1゜ 走査開口内の黒画素数側数値を順次濃度代表値(811
度レベル)としていく〈ステップ■)。第8図はこのよ
うにして求めた(り元中間調画像例を示す図である。図
の復元画像は淵瓜レベル1から16までの16値に復元
した1elta化画像である。
The large frame of the figure is the scanner 1:1, and the numbers on the black pixel number side within the 1° scanning aperture are sequentially calculated as the representative density values (811
degree level) (step ■). FIG. 8 is a diagram showing an example of the original halftone image obtained in this way. The restored image in the figure is a 1elta image restored to 16 values from level 1 to level 16.

ここでは4×4の走査開口を用いているが、その理由は
、以下の通りである。4×4以上のサイズを用いると画
像のボケが著しくなり、4×4以下の例えば2×2のサ
イズでは解像度が良好になる反面、階調レベルが多くと
れなくなってくるという不具合が生じる。従って、走査
開口のサイズとしては4×4が最適ということになる。
A 4×4 scanning aperture is used here for the following reasons. If a size of 4×4 or more is used, the blur of the image will be significant, and if a size of 4×4 or less, for example, 2×2, the resolution is good, but there will be a problem that many gradation levels cannot be obtained. Therefore, the optimum size of the scanning aperture is 4×4.

但し、記録又は表示の解像度が10ドツト/mm以上で
あれば、記録密度が高くなるに従ってボケは目立ちにく
くなり、より大きなサイズの走査開口を用いることも可
能となる。
However, if the resolution of recording or display is 10 dots/mm or more, the blur becomes less noticeable as the recording density increases, and it becomes possible to use a scanning aperture of a larger size.

(C)走査開口変化法による復元 ここでは2値化又は3値化画像よりディザ法を用いて中
間調画像を復元する方法について説明する。本発明方法
は画像に応じて走査量ロザイズを変えることを特徴とす
るものである。第9図は本発明方法の一実施例を示すフ
ローチャートである。
(C) Restoration using scanning aperture variation method Here, a method of restoring a halftone image from a binarized or ternary image using a dither method will be described. The method of the present invention is characterized in that the scanning amount is changed depending on the image. FIG. 9 is a flow chart showing one embodiment of the method of the present invention.

まず、サイズの異なる複数個のディザマトリクスを予め
用意する(ステップ■)。第10図はこのようイ【各種
のサイズのディザマトリクス例を示す図である。図にお
いて、Gが8×8サイズの最大サイズのディ1f71〜
リクスで、以下、判別順序がF (4x8)→E (8
x4)→r)(4x4)→C(2X4)→B(/I×2
))△(2X2)と続いている。71〜リクスGの揚台
を例にとると、8×8のマトリクスどしては第11図に
示すようにベイヤ形(イ)、網点形(ロ)、高解像網点
形(ハ)等があるが、ここでは(イ)に示すペイV形を
用いた。尚、閾値マトリクスどして第11図(ハ)に示
すような高解像網点形のものを用いる場合のサイズの種
類としては、第12図に示すような判別順序G−F→E
−+DのIJの丈イズが用いられる。
First, a plurality of dither matrices of different sizes are prepared in advance (step 2). FIG. 10 is a diagram showing examples of dither matrices of various sizes like this. In the figure, G is the maximum size di 1f71~8x8 size.
Hereafter, the discrimination order is F (4x8) → E (8
x4)→r)(4x4)→C(2X4)→B(/I×2
)) △(2X2). Taking the lifting platforms of 71 to Rix G as an example, the 8×8 matrix has three types: Bayer type (A), halftone dot type (B), and high-resolution halftone type (H), as shown in Figure 11. ), but here we used the pay V type shown in (a). In addition, when using a high-resolution dot type threshold matrix as shown in FIG. 11(C), the size type is as shown in FIG. 12 in the discrimination order G-F→E.
-+D IJ length is used.

次に、最大のディザマトリクスとディザ画像とを比較し
てm度パターンを得る(ステップ■)。
Next, the largest dither matrix and the dither image are compared to obtain an m-degree pattern (step 2).

まず、大きいサイズのものから判別しているのは、大き
いサイズのマトリクスが選択される可能性が高いことに
基づいている。第13図(イ)はステップ■の動作を示
している。具体的に説明すると、最大間口Gにおいて間
口内のディリ“画像の白画素数をカラン[−シ、閾値の
低い順にディザ画像と同じ数だけ白画素を埋め、残りに
黒画素を埋めて濃度パターンを作成する。第13図(イ
)にこのようにして作成した濃度パターンを示す。次に
、このようにして作成した濃度パターンとディザ画像の
パターンが一致しているかどうかを判断する(ステップ
■)。第13図(イ)を見ると明らかなように不一致で
ある。不一致の場合には、第13図(ロ)に示すように
次に大きいサイズのディザマトリクスFとディザ画像と
を比較して濃度パターンを得る(ステップ■)。濃度パ
ターンが得られたら再度ステップ■を行って該濃度パタ
ーンとディザ画像のパターンが一致しているかどうかを
判断する。今度は図J:り明らかなように両者のパター
ンは一致する。
First, the reason why matrices of large size are discriminated is based on the fact that there is a high possibility that a matrix of large size will be selected. FIG. 13(a) shows the operation of step (2). To be more specific, in the maximum width G, the number of white pixels of the dithered image within the width is calculated by [-shi], fill in the same number of white pixels as the dithered image in descending order of threshold value, and fill in the remaining black pixels to create a density pattern. Figure 13 (a) shows the density pattern created in this way.Next, it is determined whether the density pattern created in this way matches the pattern of the dithered image (step ). It is clear from Figure 13 (a) that they do not match. If there is a discrepancy, compare the dithered image with the dither matrix F of the next largest size as shown in Figure 13 (b). to obtain a density pattern (step 2). Once the density pattern is obtained, step 2 is performed again to determine whether the density pattern matches the pattern of the dithered image. This time, as shown in Figure J: Both patterns match.

両者のパターンが一致したら間口内の白画素数にゲイン
をかけたものを中間調推定値とする(ステップ■)。間
口F内の白画素数は18である。
When the two patterns match, the halftone estimated value is determined by multiplying the number of white pixels in the frontage by a gain (step 2). The number of white pixels within the frontage F is 18.

ゲインを求めるとFX2=Gの関係にあるからゲイン−
2である。従って、白画素数18にゲイン2をかりた3
6が中間調11(定値となる。第13図に示す実施例で
は間口Fを用いた時点でディザ画像と濃度パターンが一
致した。しかしながら、用いるディザ画像にJ:つでは
一番手さい間口までシーケンスが進lυでもディリ“画
像と濃度パターンが一致しない場合がある(ステップ■
)。このような場合には、当該最小ディザマトリクスの
間口内の白画素数にゲインをかG−Jたものを中間調J
fl定値とする(ステップ■)。本発明方法は間口判別
演算が簡単である点でfi刊’CrV)る。又、白画素
数のカウントではなく黒画素数をノjウン1−J゛るよ
うにしてもよい。
When calculating the gain, there is a relationship of FX2=G, so the gain is -
It is 2. Therefore, the number of white pixels is 18 and the gain is 2.
6 becomes halftone 11 (fixed value). In the example shown in FIG. 13, the dithered image and the density pattern matched when width F was used. Even if the image is progressive, the image and the density pattern may not match (step ■
). In such a case, the number of white pixels within the width of the minimum dither matrix plus the gain G-J is used as the halftone J.
Set fl to a constant value (step ■). The method of the present invention is advantageous in that the calculation for determining the frontage is simple. Furthermore, instead of counting the number of white pixels, the number of black pixels may be counted.

以上のようにして2値又は3値画像J:り中間調画像の
復元が可口しである。従って、1ピツ1〜(2値)/D
ot画像J:す4ピッl−(161+ri) /pe1
両像を得ることができ、2植化配録装置ではなく、4値
化記録装置を用いることが可能となる。従って、従来の
2値等の1画素当りの階調レベルの少ない画像データを
生かし、1−1つ近年出始めた多植画像記録装置(熱転
写配録装量、インクジェット記録装置、半導体レーザ記
録装置)によりこの画像を記録することができる。
As described above, the binary or ternary image J: halftone image can be restored easily. Therefore, 1 pit 1~(binary)/D
ot image J: Su4pil-(161+ri) /pe1
Both images can be obtained, and it becomes possible to use a quaternary recording device instead of a dual-image recording device. Therefore, by making use of conventional image data such as binary data with a small gradation level per pixel, multiple image recording devices (thermal transfer recording devices, inkjet recording devices, semiconductor laser recording devices) that have begun to appear in recent years have been developed. ) can record this image.

<d )文字画に対する処理 第14図(イ)に示すような線画の2値化画像にも本発
明を適用することができる。今、第14図(イ)に示t
2値化画像に対して、走査開口法を用いて中間調画像を
復元することを考える。そこで、第14図(ロ)に示す
ような4×4の大きさの走査間口を用いて中間調画像を
復元すると、第15図に示tj;うな中間調画像が復元
される。
<d) Processing for character images The present invention can also be applied to binary images of line drawings as shown in FIG. 14(a). Now, as shown in Figure 14 (a),
Let us consider restoring a halftone image from a binarized image using the scanning aperture method. Therefore, when a halftone image is restored using a scanning width of 4×4 as shown in FIG. 14(b), a halftone image of tj; is restored as shown in FIG. 15.

このにうにして得られた第15図に示す復元画像は、4
×4の走査間口で走査したことによりエツジ部でのボケ
の効果が若干存在する。従って、第15図に示す画像を
2値化すると、第14図(イ)に示J原両よりも凹凸の
少ない画像が得られる筈である。例えば、第15図に示
す復元画像に対して第16図(イ)に示ずような閾値7
1〜リクスを用いて2値化づ−ると第16図(ロ)に示
すような再2値化画像が得られる。第14図(イ)に示
す原2値化画像に比較して凹凸が少なくなっていること
がわかる、。
The restored image shown in FIG. 15 obtained in this way is 4
Due to scanning with a scanning width of x4, there is a slight blurring effect at the edges. Therefore, when the image shown in FIG. 15 is binarized, an image with fewer irregularities than the original image shown in FIG. 14(a) should be obtained. For example, for the restored image shown in FIG. 15, the threshold value 7 shown in FIG.
When binarization is performed using 1 to 6 riks, a re-binarized image as shown in FIG. 16 (b) is obtained. It can be seen that the unevenness is reduced compared to the original binarized image shown in FIG. 14(a).

以上(a )乃至(rl):l、で各種画像復元処理を
説明した。本発明によれば、線画(文字画)、中間調画
を問わず2値、rL/I値画からこれ以上の階調数Mを
もつ画像を復元Mることができる。又、本復元方法la
本例に示したlJ法に限定されるものではない。
Various image restoration processes have been explained above in (a) to (rl):l. According to the present invention, it is possible to restore an image M having a greater number of gradations M from a binary or rL/I value image, regardless of whether it is a line drawing (character drawing) or a halftone image. Also, this restoration method la
The method is not limited to the IJ method shown in this example.

(e )アナログ手法にJ、る復元処理台までの画像処
理法の説明においては、ディジタル画像データを用いて
ディジタル的に処理を行う場合を例にとって説明したが
、同様の画像処理はアナログ手法を用いても実現するこ
とができる。
(e) In the explanation of the image processing method up to the restoration processing platform, which is based on analog method, the case where digital processing is performed using digital image data was explained as an example, but similar image processing can be performed using analog method. It can also be realized by using

第17図、第18図はアナログ手法による画像処理法を
示す図である。第17図は、2値画像(原画像)1の光
学情報をレンズ2で集光して2次元イメージセンサ3に
照射して各素子毎に光電変換された画像信号を得るもの
である。この場合、原画像1のN個の各画素を2次元イ
メージセンサ3の1画素に対応させ、N個の画素の平均
的な値がイメージセンサ3に投影Jるようにする。ここ
で、原画1がnxn(=N)の画素で表わされるものと
し、レンズ2の倍率を1/nに設定しておく必要がある
。即ち、イメージセンサの1画素のデータがM値化画像
の1画素のデータに対応する。
FIGS. 17 and 18 are diagrams showing an image processing method using an analog method. In FIG. 17, optical information of a binary image (original image) 1 is collected by a lens 2 and irradiated onto a two-dimensional image sensor 3 to obtain an image signal photoelectrically converted for each element. In this case, each of the N pixels of the original image 1 is made to correspond to one pixel of the two-dimensional image sensor 3, so that the average value of the N pixels is projected onto the image sensor 3. Here, it is assumed that the original image 1 is represented by nxn (=N) pixels, and the magnification of the lens 2 must be set to 1/n. That is, data of one pixel of the image sensor corresponds to data of one pixel of the M-ary image.

一方、第18図に示す実施例は、イメージセンサ゛とし
て1ライン分のnxlの画素の光電変換素子を用いたリ
ニアイメージセンサ4を用いている。
On the other hand, the embodiment shown in FIG. 18 uses a linear image sensor 4 using photoelectric conversion elements of Nxl pixels for one line as an image sensor.

この実施例では1ライン分の画像の読込みしかできない
ため1ラインの画像の読込みが終了するたびごとに原画
1の方を図の矢印方向に1ラインずつ移動させることが
必要となる。このようにして、2値化画像を中間調画像
に復元した後は、この復元した中間調画像に対しては種
々の画像処理を行うことができる。
In this embodiment, only one line of the image can be read, so it is necessary to move the original image 1 one line at a time in the direction of the arrow in the figure each time one line of the image is finished reading. After the binarized image is restored to a halftone image in this way, various image processing can be performed on the restored halftone image.

第19図は種々の画像処理例を示寸図である。FIG. 19 is a dimensional diagram showing various examples of image processing.

(イ)に示す実施例は、アナログ画像信号を増幅器11
で増幅した後、A/D変換器12でディジタルデータに
変換した後、画像処理回路13で種ノZの画像処理を施
した後、画像データとして出力するものである。画像処
理の例としては、濃度変換や2値化処理等が考えられる
。  (a )に承り実施例では、アナ[1グ画(な!
 4r; ’lを△/D変1β器12でディジタルデー
タに変換した後、ROMI/Iで階調処理を行い、2値
化回路15′r″2値化データに変換し、画像データと
して出力する。ここで、ROM14には例えば非線形の
入出力変換特性のデータが格納されており、2値化回路
15の2値化処理法の例としては1fii度パターン法
やディザマトリクス法が用いられる。
In the embodiment shown in (A), the analog image signal is sent to the amplifier 11.
After amplifying the data, the A/D converter 12 converts the data into digital data, and the image processing circuit 13 performs seed Z image processing, which is then output as image data. Examples of image processing include density conversion and binarization processing. (a) In the example, Ana [1gu drawing (Na!
4r; After converting 'l into digital data with △/D converter 1β unit 12, gradation processing is performed with ROMI/I, converting to binarized data with binarization circuit 15'r'', and output as image data. Here, the ROM 14 stores, for example, data on nonlinear input/output conversion characteristics, and examples of the binarization processing method of the binarization circuit 15 include the 1fii degree pattern method and the dither matrix method.

(ハ)に示づ実施例では、アナログ画像信号をA/D変
換器12でディジタルデータに変換した後、続くフィル
タリング回路1Gでフィルタにかけて、フィルタリング
後のデータを2値化回路15によって2値化データに変
換し、画像データどして出力する。〈二)に示り実扉1
例では、アナ[1グ画像信号をA/D変換器12でディ
ジタルデータに変換する。変換されたディジタルデータ
は、一旦記憶装置17に記憶させる。拡大・縮小回路1
8は、A/D変換器12の出力をそのまま、或いは記憶
装置17に格納されている画像データを読出して拡大処
理又は縮小処理を行う。拡大・縮小回路18で処理が行
われた画像データは、続く2値化回路15で2値化デー
タに変換し、画像データとして出力する。上述の説明で
は2値化処理を行う場合を例にとったが、3値、4値等
の多値化処理を行うようにしてもよい。
In the embodiment shown in (C), an analog image signal is converted into digital data by an A/D converter 12, then filtered by a subsequent filtering circuit 1G, and the filtered data is binarized by a binarization circuit 15. Convert to data and output as image data. Actual door 1 shown in <2)
In the example, an analog image signal is converted into digital data by the A/D converter 12. The converted digital data is temporarily stored in the storage device 17. Enlarge/reduce circuit 1
Reference numeral 8 performs enlargement processing or reduction processing on the output of the A/D converter 12 as it is, or on the image data stored in the storage device 17. The image data processed by the enlargement/reduction circuit 18 is converted into binary data by the subsequent binarization circuit 15, and output as image data. In the above description, the case where binary conversion processing is performed is taken as an example, but multi-level conversion processing such as ternary or quaternary processing may also be performed.

尚、第17図、第18図の実施例においてレンズ2とイ
メージセンサ3,4間にカラーフィルタを取付けてカラ
ーの2値画像を色フィルタで色分解し、各色分解された
2値化画像に対して復元処理を行うようにすることも可
能である。カラーフィルタとしては、例えば第18図に
示す実施例の場合、第20図に示すような光学系を用い
ることが可能である。同図において、(イ)は撮影レン
ズ21の像22を複数個のリレーレンズ23〜26とグ
イクロイックミラー27.27’ を用いて3色に分解
されたものをそれぞれC0D28〜30上に再び結像さ
せるように構成したものである。
In the embodiments shown in FIGS. 17 and 18, a color filter is attached between the lens 2 and the image sensors 3 and 4, and the color binary image is separated by the color filter, and each color is separated into a binary image. It is also possible to perform restoration processing on the data. As a color filter, for example, in the case of the embodiment shown in FIG. 18, it is possible to use an optical system as shown in FIG. 20. In the same figure, (a) shows the image 22 of the photographic lens 21 separated into three colors using a plurality of relay lenses 23 to 26 and the gicroic mirrors 27 and 27', and then redistributed on the C0Ds 28 to 30 respectively. It is configured to form an image.

(ロ)に示す例は、撮影レンズ21と各CCD28〜3
0との間に特殊な形状をなした複数個のプリズム31〜
34を配置して、プリズム31とプリズム32との間及
びプリズム33とプリズム34との間にそれぞれグイク
ロイックミラー27゜27′を配置して3色に分解する
ようにしたものである。
In the example shown in (b), the photographing lens 21 and each CCD 28 to 3 are
0 and a plurality of prisms 31 with special shapes
34, and guichroic mirrors 27° and 27' are arranged between prisms 31 and 32 and between prisms 33 and 34 to separate the colors into three colors.

(ハ)は頂角が鋭角の3つのプリズム35,36.36
’ を、図に示すにうに三角形ABCをなすように嵌合
°uしめ、各プリズムの境界面にグイクロイックミラー
37.38を形成し、3色分解を行うようにしたもので
ある。(ニ)に示す例は、(ハ)に示す例のプリズムを
丁度裏返しにした構成である。各プリズムのtn !1
9にはそれぞれグイクロイックミラー39.40が形成
されている。
(c) shows three prisms with acute apex angles 35, 36.36
' are fitted together to form a triangle ABC as shown in the figure, and gicroic mirrors 37 and 38 are formed on the boundary surfaces of each prism to perform three-color separation. The example shown in (d) has a configuration in which the prism of the example shown in (c) is exactly turned over. tn of each prism! 1
Gychroic mirrors 39 and 40 are formed in each of the mirrors 9 and 9, respectively.

(B)画像の処理方法 (A)ではN値化画像からM値化中間調画像を主として
復元づる方法について説明した。ここでは、復元された
M値化中間調画像を処理する画像処理方法とN′値化処
理方法について説明する。
(B) Image processing method In (A), the method of restoring an M-valued halftone image from an N-valued image was mainly explained. Here, an image processing method and an N'-value processing method for processing the restored M-value halftone image will be described.

(a>階調処理 第8図に示す復元中間調画像(In化画像)に16一 対して、第21図に示すような中間調変換特性曲線に基
づく階調変換を行う。図の横軸は入力、縦軸は出力レベ
ルである。第8図に示す中間調画像が16レベルの階調
を持っていることに対応して、入力、出力レベル共に1
6階調となっている。図のfA、tB、fcは、それぞ
れ階調変換特性曲線である。10曲線では濃度変換はな
く、fA凸曲線高濃度変換用、fBは低濃度変換用であ
る。
(a> Gradation processing The restored halftone image (In image) shown in FIG. 8 is subjected to tone conversion based on the halftone conversion characteristic curve as shown in FIG. 21. is the input, and the vertical axis is the output level.Corresponding to the fact that the halftone image shown in Figure 8 has 16 levels of gradation, both the input and output levels are 1.
There are 6 gradations. fA, tB, and fc in the figure are tone conversion characteristic curves, respectively. There is no concentration conversion in the curve 10, and the fA convex curve is for high concentration conversion, and fB is for low concentration conversion.

例えば、[A曲線を用いた階調変換の場合を例にとると
、入力の゛7″レベルが図より明らかなように’11”
レベルに変換される。即ち、fA凸曲線は濃度が濃くな
る方へ変換されることがわかる。逆にf、曲線では濃度
が低くなる方に変換される。ここでは、fA凸曲線用い
て第8図に示す中間調画像を階調変換すると、第22図
に示すような中間調画像が得られる。第22図に示す中
間調画像を第8図のそれと比較すると淵痕レベルが高く
なっていることがわかる。
For example, in the case of gradation conversion using the A curve, the input level ``7'' becomes ``11'' as is clear from the figure.
converted to level. That is, it can be seen that the fA convex curve is converted to a higher density. Conversely, in the f curve, the density is converted to be lower. Here, when the halftone image shown in FIG. 8 is tone-converted using the fA convex curve, a halftone image as shown in FIG. 22 is obtained. Comparing the halftone image shown in FIG. 22 with that shown in FIG. 8, it can be seen that the level of scratches is higher.

次に、第23図に示す3値化画像から中間調画像復元と
階調処理を同時に行う場合について説明する。尚、第2
3図は網が1部が黒レベル、斜線部が灰レベルの3値化
画像である。今、この3値化画像から第2/I図(イ)
、(ロ)に示づような4×4の濃度パターンを用いて中
間調画filを復ノ1することを考える。第24図(ロ
)の数字はm度しベルを示し、小黒丸は灰色ドツトを、
大黒丸は黒色ドツトを示す。第23図を第2/I図の濃
度パターンを用いて中間調画1((を復元覆ると、第2
5図(イ)のような中間調画像が得られる。
Next, a case where halftone image restoration and gradation processing are performed simultaneously from the ternary image shown in FIG. 23 will be described. Furthermore, the second
Figure 3 is a ternarized image in which one part of the mesh is at a black level and the shaded part is at a gray level. Now, from this ternary image, Figure 2/I (a)
, (b) Let us consider reproducing a halftone image fil using a 4×4 density pattern as shown in (b). The numbers in Figure 24 (b) indicate m-degree bells, and the small black circles indicate gray dots.
Large black circles indicate black dots. If you restore the halftone image 1 ((() by using the density pattern of Figure 2/I in Figure 23, the second
A halftone image as shown in Figure 5 (a) is obtained.

この時の復元レベルを1−どすると L=[灰色ドツト個数×W +黒色ドツト個数XWe ] X (1/WB >と表
わされる。ここで、W、Weは重み係数で、W  = 
1 、We−2である。上式よりW とWBの重みを変
化させると、復元と同時に階調処理も可能となることが
わかる。(1)式を次のJ:うに変形づる。
If the restoration level at this time is reduced by 1, it is expressed as L = [number of gray dots x W + number of black dots XWe]
1, We-2. From the above equation, it can be seen that by changing the weights of W and WB, gradation processing becomes possible at the same time as restoration. Transform equation (1) into the following J: sea urchin.

L= (W  /WB)X灰色ドツト個数+黒色ドツト
個数 (2)式より、W  /WBを1/2より大きくすると
高11に、小さくすると低濃度に復元される。
From the formula (2), L=(W/WB)Xnumber of gray dots+number of black dots.If W/WB is made larger than 1/2, the density is restored to high 11, and if it is made smaller, the density is restored to low.

例えばW  /W日日−34とすると、第25図(ロ)
に示すように復元される。(イ)の場合と比較して、高
濃度側ヘシフトしていることがわかる。
For example, if W /W day day - 34, Figure 25 (b)
It is restored as shown in . It can be seen that compared to case (a), there is a shift to the higher concentration side.

第26図【J、この階調変換特性を示す図で横軸が原画
の階調レベル、縦軸が階調側の階調レベルである。fA
はW  /VANs = 1/ 2のfBはW /Wa
=3/4のそれぞれ変換特性を示している。
FIG. 26 [J] is a diagram showing this gradation conversion characteristic, in which the horizontal axis is the gradation level of the original image, and the vertical axis is the gradation level on the gradation side. fA
is W /VANs = 1/2 fB is W /Wa
= 3/4 respectively.

fBの方がfAよりも高濃度に変換されることがわかる
。尚、本例は濃度パターンのみならず、3値ディザ画像
からの復元時にも適用することができることは勿論であ
る。
It can be seen that fB is converted to a higher concentration than fA. It goes without saying that this example can be applied not only to density patterns but also to restoration from ternary dithered images.

(b)拡大・縮小処理 次に、復元中間調画像の拡大・縮小の方法について説明
する。拡大・縮小の場合、画面サイズ一定で画素データ
数が異なるため、画素間隔を異ならせる必要がある。第
27図は拡大・縮小時の画素位置を示す図で、(イ)は
4/3倍に拡大時の、(ロ)は3/4倍に縮小「、′l
のぞれぞれ画素裂断を示している。何れの場合し×印が
等倍時の画素位置を、○印が変倍時の画素位置を示して
いる。拡大時には画素間隔が等倍時に比べて狭くなり、
縮小時には画素間隔が等18時に比べて広くなる。
(b) Enlarging/reducing processing Next, a method of enlarging/reducing the restored halftone image will be explained. In the case of enlargement/reduction, the screen size is constant but the number of pixel data varies, so it is necessary to vary the pixel interval. Figure 27 is a diagram showing pixel positions during enlargement/reduction, (A) is when enlarged to 4/3 times, (B) is reduced to 3/4 times.
Each shows pixel tearing. In either case, the x mark indicates the pixel position when the magnification is the same, and the ○ mark indicates the pixel position when the magnification is changed. When enlarging, the pixel spacing becomes narrower than when it is at full magnification.
At the time of reduction, the pixel interval becomes wider than when it is equal to 18.

ここで、拡大・縮小の方法としてはいくつか考えられる
が、大きく (イ)変倍画素位置に最も近い等倍時画素のデータを変
倍画素データとする方法(最隣接法等)(0)変倍画素
を囲む周囲の等倍時画素データより論理又は数値演算に
J:り求める方法(9分割。
Here, there are several methods of enlarging/reducing, but the main ones are (a) a method in which the data of the pixel at the same magnification that is closest to the pixel position of the magnification is used as the pixel data of the magnification (nearest neighbor method, etc.) (0) A method of calculating logic or numerical calculations from the same-magnification pixel data surrounding a variable-magnification pixel (9 divisions).

論理和、投影、補強法等) の2つに分()られる。logical sum, projection, reinforcement method, etc.) It is divided into two parts.

(ロ)では原画像の画素密度が高ければあまり問題ない
が10ドッ1−前後のように非常に低い時には特に黒画
本部での凹凸が拡大時に目立ってくる。一方、処理が非
常に簡Illである。(ロ)は(イ)に比べて画像劣化
は小さいが、処理が複郭になり易くなるという欠点があ
る。第28図は第8図に示す復元画像を4/3倍に拡大
した画像例を示J−図である。第29図は第15図に示
す線画の復元画像を4/3倍に拡大した画像例を示す図
である。以上、画像の拡大の場合を例にとって説明した
が、画像の縮小も同様にして行うことができる。
In (b), if the pixel density of the original image is high, there is not much of a problem, but when it is very low, such as around 10 dots, the unevenness especially in the black area becomes noticeable when enlarged. On the other hand, the processing is very simple. (B) has less image deterioration than (B), but has the disadvantage that processing tends to become complex. FIG. 28 is a J-diagram showing an example of an image obtained by enlarging the restored image shown in FIG. 8 to 4/3 times. FIG. 29 is a diagram showing an example of an image obtained by enlarging the restored image of the line drawing shown in FIG. 15 by 4/3 times. The above description has been given using an example of image enlargement, but image reduction can also be performed in the same manner.

以上のように本発明によれば、拡大・縮小が可能である
が、拡大・縮小方法としては本例に限定されるものでは
ない。本発明では、一度中間調画像に戻してから拡大・
縮小を行うため′に、従来2(又は3.4)値中間調画
像を変倍した時に出現したモアレの問題を解決すること
が可能である。
As described above, according to the present invention, enlargement/reduction is possible, but the method of enlargement/reduction is not limited to this example. In the present invention, once the image is restored to a halftone image, it is enlarged and
In order to perform reduction, it is possible to solve the moiré problem that conventionally appears when scaling a 2 (or 3.4) value halftone image.

(C)画像強調処理 今、第15図に示す復元画像に対して画像強調を行い、
ボケを修正してみる。画像強調法としては、ディジタル
フィルタ等のいくつかの方法がある。ここでは、エツジ
強調について説明する。エツジ強調のディジタルフィル
タとしては、N=2の場合の[1,8]、N=3の場合
の[1,a。
(C) Image enhancement processing Now, image enhancement is performed on the restored image shown in FIG.
I'll try to fix the blur. As image enhancement methods, there are several methods such as digital filters. Here, edge enhancement will be explained. The digital filter for edge emphasis is [1,8] when N=2, and [1,a when N=3.

1]なる1次元のフィルタがある。1次元フィル夕とし
ては、その他にN−5,7等のフィルタが考えられる。
1] is a one-dimensional filter. Other possible one-dimensional filters include filters such as N-5 and N-7.

尚、aは空間周波数特性を決定する定数で、用途別に a=1.2    ローバスフィルり a=Q      バンドカッ1へフィルりa −−1
,−2バイパスフィルタ と定められている。ここで、バイパスフィルタ用の定数
をエツジ強調に用いる。
Note that a is a constant that determines the spatial frequency characteristics, and depending on the application, a = 1.2 Low bass fill a = Q Fill to band cut 1 a − -1
, -2 bypass filter. Here, a constant for the bypass filter is used for edge enhancement.

2次元のフィルタとして(31、第30図に示ずJ:う
なものが用いられる。このうら、(イ)はX軸方向バイ
パスフィルタ、(ロ)はX、Y軸方向バイパスフィルタ
、(ハ)、(ニ)G31ボク修正用フイルタで、(ニ)
の定数aとしてはa≦−12が望ましい。ここでは、第
15図に示づ復元画像に対して第31図に示すフィルタ
を適用すると、フィルタリング後の画像(ま第32図に
示1jj:うなちのとなる。尚、この図において、第1
5図の外側をOとし、計算結果ににる負の値もOどして
いる。
As a two-dimensional filter, (31, not shown in Figure 30) is used.Of these, (A) is a bypass filter in the X-axis direction, (B) is a bypass filter in the X- and Y-axis directions, and (C) is a bypass filter in the X- and Y-axis directions. , (d) G31 with my correction filter, (d)
The constant a is preferably a≦−12. Here, when the filter shown in FIG. 31 is applied to the restored image shown in FIG. 15, the filtered image (also shown in FIG. 32:
The outside of Figure 5 is set to O, and negative values that appear in the calculation results are also set to O.

このように、線画に画像強調処理を施すとエツジ部が特
に強調される。一方、ディジタルフィルタとしでは、本
例で用いたもののみならず各種のフィルタを用いること
ができる。又、(A)の(d )で示した画像復元の方
法ではボケが目立ちやすいという不具合があるが、ここ
で説明した画像強調処理による改善を施すことにより良
好な画像を得ることができる。
In this way, when image enhancement processing is applied to a line drawing, edges are particularly emphasized. On the other hand, as the digital filter, not only the one used in this example but also various types of filters can be used. Furthermore, although the image restoration method shown in (d) of (A) has a problem in that the blur is easily noticeable, it is possible to obtain a good image by improving it by the image enhancement processing described here.

尚、前述したような画像強調を行うに際し、画像復元と
同時に画像強調を行うことも可能である。
Note that when performing image enhancement as described above, it is also possible to perform image enhancement simultaneously with image restoration.

この場合には、第15図に示す画像(こ対し、第33図
に示すようなフィルタリング処理を施せばよい。
In this case, the image shown in FIG. 15 may be subjected to filtering processing as shown in FIG. 33.

(d>多値化処理 第32図に示す復元画像を閾値マトリクスを用いて再2
値化することができる。例えば第34図(イ)に示す閾
値マトリクスを用いて2値化すると、第34図(ロ)に
示す2値化画像が得られる。
(d>Multi-level conversion processing The restored image shown in Fig. 32 is re-doubled using a threshold matrix.
It can be converted into value. For example, when the image is binarized using the threshold matrix shown in FIG. 34(a), a binarized image shown in FIG. 34(b) is obtained.

尚、第15図に示づ一原画を第35図(イ)に示す閾値
マトリクスを用いて2値化すると、第35図(ロ)に示
ずような2値化画像が得られる。このように、再2値化
画像は第14図(イ)に示す原2値化画像に比べて斜線
部の凹凸が目立たなくなるという特徴を右している。第
3/I図(ロ)のΔ部は、画像強調時のフィルタリング
時に第15図の外側を仝てOとしたことに対する悪影響
が出て再現性不良の部分である。
Incidentally, when the original image shown in FIG. 15 is binarized using the threshold matrix shown in FIG. 35(a), a binarized image as shown in FIG. 35(b) is obtained. In this way, the re-binarized image has the characteristic that the unevenness in the shaded area is less noticeable compared to the original binarized image shown in FIG. 14(a). The Δ portion in FIG. 3/I (b) is a portion with poor reproducibility due to the adverse effect of setting the outside of FIG. 15 to O during filtering during image enhancement.

第36図は第29図に示1線両の中間調画像を第35図
(イ)に示す閾値マトリクスを用いて2値化した2値化
画像を示り゛。一般に、2値化画像を再2値化する場合
には、原2値化画像の黒領域部に凹凸があると拡大11
・1にはこの凹凸が通常は拡大されて再現されてしまう
。本発明方法の場合には、第14図(イ)と第36図を
比較してみるとわかるように凹凸が軽減されて拡大され
ている。
FIG. 36 shows a binarized image obtained by binarizing the single-line and both halftone images shown in FIG. 29 using the threshold matrix shown in FIG. 35(a). Generally, when re-binarizing a binarized image, if there are irregularities in the black area of the original binarized image, the enlargement will be
・This unevenness is usually enlarged and reproduced in 1. In the case of the method of the present invention, as can be seen by comparing FIG. 14(a) and FIG. 36, the unevenness is reduced and enlarged.

このことからも本発明方法の利点が明らかである。This also makes clear the advantages of the method of the present invention.

次に、3値化の場合について説明する。第32図に示す
画像を第37図(イ)、(ロ)に示す閾値を用いて3値
化する。(イ)は白−灰の、(ロ)は灰−黒のそれぞれ
閾値マトリクスを用いている。
Next, the case of ternarization will be explained. The image shown in FIG. 32 is ternarized using the threshold values shown in FIGS. 37(a) and 37(b). (a) uses white-gray threshold matrices, and (b) uses gray-black threshold matrices.

これら閾値を用いると、i11度レベし■O〜6のレベ
ル、■6〜10のレベル、■10〜16のレベルの3値
化データを得ることができる。第37図(ハ)はこのよ
うにして得られた3値化画像を示J゛。図において、斜
線部は灰レベル、網かけ部は黒レベル、その他は白レベ
ルである。第38図(ハ)に示す3値化画像は、第32
図に示す原画像を第38図(イ)、(ロ)に示す閾値マ
トリクスを用いて3値化した3値化画像である。第37
図(ハ)と第38図(ハ)を比較すると、第37図(ハ
)の方が灰−黒閾値が高く灰レベルが出やすくなってい
るにも拘わらず、第38図(ハ)よりも灰レベルが少な
い。これは第32図が画像強調されているからである。
By using these threshold values, it is possible to obtain ternarized data of i11 degree level: (1) level from 0 to 6, (2) level from 6 to 10, and (2) level from 10 to 16. FIG. 37(c) shows the ternarized image obtained in this manner. In the figure, the shaded area is the gray level, the shaded area is the black level, and the other areas are the white level. The ternarized image shown in FIG. 38(c) is
This is a ternarized image in which the original image shown in the figure is ternarized using the threshold matrix shown in FIGS. 38(a) and 38(b). 37th
Comparing Figure 38(C) with Figure 38(C), even though Figure 37(C) has a higher gray-black threshold and the gray level is more likely to appear, it is better than Figure 38(C). The ash level is also low. This is because the image in FIG. 32 is emphasized.

次に、第22図に示す階調処理画像を、組織的ディザ法
を用いて2値化することを述べる。第22図に示す(前
述の如く第5図の2値画像から第8図の復元画像を得て
これから得たもの)中間調画像を第39図(イ)に示す
4×4の閾値マトリクスを用いて2値化すると、第39
図(ロ)に示すような2値化画像が得られる。第5図(
イ)に示す2値化画像よりも、中間調に復元した後、階
調処理を行った第39図(1])に示1 bのの方が高
濃度になっていることがわかる。尚、2舶化のみならず
3値化、4値化等の多値化を行うことができることは勿
論である。
Next, we will describe how the gradation-processed image shown in FIG. 22 is binarized using the systematic dither method. The halftone image shown in FIG. 22 (obtained from the restored image in FIG. 8 from the binary image in FIG. 5 as described above) is converted into a 4×4 threshold matrix shown in FIG. 39 (a). When binarized using
A binarized image as shown in Figure (b) is obtained. Figure 5 (
It can be seen that the image 1b shown in FIG. 39 (1), which was restored to halftone and then subjected to gradation processing, has a higher density than the binarized image shown in b). Note that it is of course possible to perform not only two-value conversion but also multi-value conversion such as three-value conversion and four-value conversion.

第22図に示寸階調処理画像を第40図(イ)。FIG. 22 shows the gradation-processed image shown in FIG. 40 (a).

(ロ)に示す濃度パターンを用いて3値化すると、第4
1図に示すJ:うな3値化画像を得ることができる。第
40図(イ)は白−灰の濃度パターン、第40図(ロ)
は灰−黒の濃度パターンを示す。
When ternarized using the density pattern shown in (b), the fourth
It is possible to obtain a 3-valued image shown in Figure 1. Figure 40 (a) is the white-gray density pattern, Figure 40 (b)
shows a gray-black density pattern.

(e )パターン変化処理 本発明によれば、原2値化画像又は多値化画像の中間調
表現方法を変えることが可能である。ここでは原画とし
て2値化画像の場合を例にとって説明する。中間調画像
の表現方法(再多値化)としては、以下のJ:うなもの
が考えられる。
(e) Pattern change processing According to the present invention, it is possible to change the halftone expression method of an original binary image or a multivalued image. Here, an example will be explained in which a binarized image is used as the original image. As a method of expressing a halftone image (re-multilevel conversion), the following J: method can be considered.

イの■ 組織的ディジ法によるN 1iCt化画像(原画)−M
l的化画像→ランダムディ1f法によるN′値化画像こ
こでランダムディ+7’法としては、例えば平均誤差法
や最小2乗法等が考えられる。
■ N1iCt image (original image) by systematic digital method -M
l-valued image→N'-valued image by random D1f method Here, as the random D+7' method, for example, the average error method or the least squares method can be considered.

その■ 組織的ディザ法によるN値化画像(原画)→M値化画像
→相織的ディザ法によるN′値化画像この場合、原画が
ベイヤ(B ayer)形ディザ法の場合、再2値化画
像は網点パターン法による方法等が考えられる。
■ N-valued image (original image) by systematic dithering → M-valued image → N'-valued image by reciprocal dithering In this case, if the original image is Bayer dithering, For the converted image, a method such as a halftone pattern method can be considered.

その■ 組織的ディザ法によるN値化画像(原画)→M値値化画
像製濃度パターン法よるN′値化画像以上例として3つ
の場合について説明したが、復元が可能ならばこの逆の
処理も又成立する。例として、第42図に示すような復
元画像を考える。
■ N-valued image (original image) by systematic dithering → M-valued image N'-valued image by density pattern method The above three cases were explained as examples, but if restoration is possible, the reverse process can be used. It also holds true. As an example, consider a restored image as shown in FIG.

この復元画像は、第43図に示す4×4のベイヤ形ディ
ザマドトリクスを用いて2値化した画像データから復元
したものである。この第42図に示す復元画像を第44
図(イ)に示す4×4の網点形ントリクス或いは第43
図に示すマトリクスサイズを変えた第44図(ロ)に示
す2×2のペイV形ディザマトリクスを用いて再2値化
すると、それぞれ第45図(イ)、(ロ)に示す2値化
画像が得られる。このにうに本発明によれば、用途に応
じて多値化方法、多値化パターンを変えることができる
。又1本発明の中間調表現方法は、前述した■〜■の方
法に限定されるものではない。
This restored image is restored from image data that has been binarized using a 4×4 Bayer dither matrix shown in FIG. The restored image shown in FIG.
The 4×4 halftone matrix shown in Figure (a) or the 43rd
When re-binarization is performed using the 2×2 pay V-shaped dither matrix shown in FIG. 44 (b) with different matrix sizes shown in the figure, the binarization shown in FIGS. 45 (a) and (b), respectively. An image is obtained. According to the present invention, the multi-value quantization method and multi-value quantization pattern can be changed depending on the application. Furthermore, the halftone expression method of the present invention is not limited to the methods (1) to (4) described above.

(f)3値ディザ画像の処理 第46図のような3値デイザFIN像を2X2の走査開
口を用いて1画素ずつ移動させ、走査開口内の黒画素数
、装置素数を計数し、黒画素−2,素置素=1の重みを
つりで多値化画像が復元する。
(f) Processing of ternary dithered image The ternary dithered FIN image as shown in Fig. 46 is moved pixel by pixel using a 2x2 scanning aperture, and the number of black pixels and device pixels within the scanning aperture are counted. A multivalued image is restored by changing the weight of −2 and elementary element = 1.

この結果、第47図に示すJ:うな多値化画像が復元さ
れる。このにうにして求めた多値化画像に対して第48
図(イ)に示η゛J:うな閾値マトリクスを用いて2値
化を行うと、第48図(ロ)に示すような2値化画像が
(りられる。尚、2値化処理ではなく3値化用閾値を用
いてa値化画像を1qるJ−うにしてもよい。又、閾h
n71〜リクスもディヂではなく濃度パターン法を用い
てもJ:い。例えば第47図の復元原像に対して第49
図(イ)に示づような濃度パターンを用いて、3値化即
ち第47図の1画素の値に対して2×2の3値マトリク
スによって表現すると、第49図(ロ)に示すような3
値化画像が得られる。
As a result, the J:Una multivalued image shown in FIG. 47 is restored. For the multivalued image obtained in this way,
When binarization is performed using the threshold matrix η゛J: shown in Figure (a), a binarized image as shown in Figure 48 (b) is obtained. The a-valued image may be reduced by 1q using the threshold for ternarization.Also, the threshold h
Even if n71-Rikus uses the density pattern method instead of Didi, J: Yes. For example, for the restored original image in Figure 47,
When the density pattern shown in Figure (a) is used to ternarize, that is, the value of one pixel in Figure 47 is expressed by a 2 x 2 ternary matrix, the result is as shown in Figure 49 (B). Na 3
A valued image is obtained.

((+)カラー画像に対する処理 これまでモノクロ画像に対する画像処理方法を種々説明
してきたが、同様のことはカラー画像に対しても行うこ
とができる。即ち、カラー画像を例えば3原色信号R,
G、Bに色分離したものとする。各原色信号R,G、B
についてはそれぞれモノクロ画像と同じように考えるこ
とができるので、今まで説明した画像処理方法及びこれ
から説明する画像処理方法が全て適用できる。第50図
((+) Processing for color images Various image processing methods for monochrome images have been explained up to now, but the same can be done for color images as well. In other words, for example, if a color image is processed using three primary color signals R,
It is assumed that the colors are separated into G and B. Each primary color signal R, G, B
can be considered in the same way as monochrome images, so all of the image processing methods described up to now and the image processing methods described below can be applied. Figure 50.

第51図はカラー画像に対する本発明方法の適用例を示
すフローチャートである。先ず、第50図について説明
する。
FIG. 51 is a flowchart showing an example of application of the method of the present invention to color images. First, FIG. 50 will be explained.

カラー原稿をカラー撮像系でR,G、83原色に色分解
する(ステップ■)。色分解の方法としては、例えばR
,G、Bフィルタでカラー原稿情報を色分解することが
考えられる。次に色分解されたR、G、B信号に対し、
各信号毎に2値化処理を行う(ステップ■)。2値化処
理の方法としては、前述し1.:種々の閾値マI〜リク
スを用いて2値化する方法が考えられる。2値化処理に
より得られlζ2値化画像データを記憶させる(ステッ
プ■)。尚、記憶さUるに際しては生データのまま記憶
させてもよい()、符i化圧縮して記憶さけてもよい。
A color original is color-separated into R, G, and 83 primary colors using a color imaging system (step 2). As a color separation method, for example, R
, G, and B filters may be used to separate the color document information into colors. Next, for the color-separated R, G, and B signals,
Binarization processing is performed for each signal (step ■). The method of binarization processing is as described above in 1. : Binarization methods can be considered using various threshold matrices. The lζ binarized image data obtained by the binarization process is stored (step ■). Note that when storing the raw data, the raw data may be stored as is, or the data may be encoded and compressed before being stored.

符弓化圧縮して記憶さし!るどメモリの節約ができる。Compress and store in memory! can save memory.

記憶された画像データを読出して復元化処理を行う(ス
テップ■)。19元化処理法としては、2値化画像を所
定の人ささのブロックに分割して各ブロック内の黒画素
数を4数する方法や、走査間口を1画素り゛つ順次移F
IJさ1!て当該走査量口内の黒画素数を計数する方法
が考えられる。次に復元化された中門S!!I 1il
ii像に対(ノーC色補正等の画像処理を行い、Y、M
、Ci!ii像を得る(ステップ■)。
The stored image data is read out and restored (step 2). 19-dimensional processing methods include dividing the binarized image into blocks of a predetermined size and increasing the number of black pixels in each block to 4, and sequentially shifting the scanning width one pixel at a time.
IJsa1! One possible method is to count the number of black pixels within the scanning amount. Next is the restored Chumon S! ! I 1il
ii image is subjected to image processing such as color correction (no C color correction), Y, M
, Ci! ii Obtain an image (step ■).

色補正法としては、通常の方法を用いてよい。画像処理
の他の種類としては、例えば画像強調1画像の拡大・縮
小、γ変換等が考えられる。このJ:うにして得られ/
、:Y、M、C11ji像信号をプリンタ等の画像出力
装胃に入力してやればカラー画像を再生することができ
る。
As the color correction method, a normal method may be used. Other types of image processing may include, for example, image enhancement, enlarging/reducing one image, and γ conversion. This J: Obtained by /
, :Y, M, C11ji image signals can be input to an image output device such as a printer to reproduce a color image.

第51図に示すフローヂャートは、R,G、B信号に変
換した後、叩Y、M、C信号に変換するものである。そ
の後のシーケンスは第50図に示づ−それど同様である
ので、説明は省略する。第50図、第51図のようにカ
ラー画像では通常のモノクロ画像と異なり、R,G、B
各々の撮像信号により通常色分解される。従ってデータ
量がモノクロの3倍のデータとなる。又、記録の時にY
The flowchart shown in FIG. 51 is for converting into R, G, and B signals and then converting into hit Y, M, and C signals. The subsequent sequence is shown in FIG. 50 - it is the same, and the explanation will be omitted. As shown in Figures 50 and 51, color images differ from normal monochrome images in that R, G, B
Each image signal is normally separated into colors. Therefore, the amount of data is three times that of monochrome data. Also, when recording
.

M、 C,Blackと4色で考えると必要なデータは
4倍となる。従ってカラー画像を記憶しようとするとデ
ータ量が多く、メモリ容量という面で大きな問題となっ
ていた。例えば、△4(210X297111+11>
サイズの画像を各々16ドツト/n+mで撮像づるとデ
ータ量は。
If we consider four colors, M, C, and Black, the required data will be four times as large. Therefore, when attempting to store a color image, the amount of data is large, posing a major problem in terms of memory capacity. For example, △4(210X297111+11>
If each size image is captured at 16 dots/n+m, the amount of data will be:

210X297X16X16X3 (R,G、B)=4
7900160(ビット)”=約6Mバイト必要である
。従って現状のレベルではデータを格納するのは大変で
あり、磁気ディスクや磁気テープを使用せざるを得ない
。一方、本発明の復元法を用いると、2値化後に記憶し
Iことして6MbN=748にパイ1〜ですむ。又、2
圃化データを例えばコード化しlごとηると、これより
容量は少なくなり非常に有効である。記録表示的には画
像を符号化し、2値データどして表示、又は中間調画像
として表示したり、又これから色補正等の処理を行いY
、M、C又はY、 M、 C,Black(に号を作り
、2値又は3.4値化して記録することも可能である(
Y、M、C又はY、M、C,Bl!信号を求めてから第
51図のJ:うに記憶しても良いことは勿論である)。
210X297X16X16X3 (R,G,B)=4
7900160 (bits)" = approximately 6 Mbytes is required. Therefore, at the current level, it is difficult to store data, and magnetic disks or magnetic tapes must be used. On the other hand, the restoration method of the present invention is used. Then, after binarization, it is memorized and 6MbN = 748, which requires only 1. Also, 2
For example, if the cultivation data is coded and η is encoded for each l, the capacity will be smaller than this, which is very effective. In terms of recording and display, the image is encoded and displayed as binary data or as a halftone image, or it can be processed by color correction etc.
, M, C or Y, M, C, Black (It is also possible to create a number and record it as a binary or 3.4 value (
Y, M, C or Y, M, C, Bl! Of course, it is also possible to obtain the signal and then store it as shown in J: in Fig. 51).

尚、本発明で示した画像処理方法は本発明例のみに限定
されず、これ以外の処理又は処理方式が適用可能である
。又、本発明の画像復元方法も本発明例に限定されるも
のではなく、且つ光学的に(処理も)行ってもにい。
Note that the image processing method described in the present invention is not limited to the example of the present invention, and other processes or processing methods can be applied. Further, the image restoration method of the present invention is not limited to the example of the present invention, and may also be performed optically (processing).

(発明の効果) 以上詳細に説明したように、本発明によれば、N値化画
像→M舶化(復元処理)→画像処理→N’1rff化処
理 を施寸ことにより、多値化画像データ(2〜8値)特に
2値、3値化画像データに対して優れた再生画像が19
られる。
(Effects of the Invention) As described in detail above, according to the present invention, by performing the N-ary image → M conversion (restoration processing) → image processing → N'1 rff conversion process, the multi-value image 19 excellent reproduction images for data (2 to 8 values), especially binary and ternary image data
It will be done.

更に具体的には ■2 (3,4>値画像に対して階調処理9画像強調を
施すことが可能であり、且つ又、中間調画像の変倍時に
生じるモアレを解決することが可能となる。
More specifically, ■2 (It is possible to perform gradation processing 9 image enhancement on 3, 4> value images, and it is also possible to solve moiré that occurs when changing the magnification of halftone images. Become.

■22値像より3値、4値等の画像を得ることが可能な
ために1階調レベルに乏しい画像データを、記録レベル
数の多い装置等を用いて記録。
■It is possible to obtain 3-value, 4-value, etc. images rather than 22-value images, so image data that lacks one gradation level can be recorded using a device that has a large number of recording levels.

表示が可能となる。Display becomes possible.

■2値線画を拡大した場合、斜線の凹凸が目立つという
問題があるが、−炭中間調画像に戻して拡大を行うため
に、又再度多値化を行うこととあわせ拡大時の凹凸増大
を防ぐことが可能となる。
■When enlarging a binary line drawing, there is a problem that the unevenness of the diagonal lines stands out, but in order to return to a charcoal halftone image and enlarge it, we need to perform multilevel conversion again and reduce the increase in unevenness during enlargement. It is possible to prevent this.

0画像を復元することにより、原N値化画像と同じ又t
、t 巽なったN′値化方式/パターンを用いることが
可能である。これにより、印刷等への用途で有効になる
。又、網パターン、角度変化。
By restoring the 0 image, the same or t
, t It is possible to use a different N' value conversion method/pattern. This makes it effective for applications such as printing. Also, the net pattern and angle change.

線数変化処理が可能となる。Line number change processing becomes possible.

■N値例えば2値化画像を記憶しておき、この画像に対
し各種画像処理を施すことが可能であるために、従来の
ように例えば256値画像を記憶しておく必要がなく、
記憶容量節約(低価格化)という面で非常に有利となる
■N value Since it is possible to store, for example, a binary image and perform various image processing on this image, there is no need to store, for example, a 256-value image as in the past.
This is very advantageous in terms of saving storage capacity (lowering the price).

【図面の簡単な説明】[Brief explanation of drawings]

第1図乃至第3図は本発明方法の説明図、第4図は本発
明方法の一実施例を示すフローチャート、第6図、第9
図、第50図、第51図は本発明方法の他の実施例を示
づフ[1−チャート、第5図。 第7図、第8図、第10図〜第49図は本発明方法の説
明図である。 1・・・2値化画像   2・・・レンズ3・・・2次
元イメージセン1) 4・・・リニアイメージヒンリー 11・・・増幅器    12・・・Δ/D変換器13
・・・画像処理回路 14・・・ROM15・・・2値
化回路 16・・・フィルタリング回路 17・・・記憶装置   18・・・拡大・縮小回路特
許出願人  小西六写真工業株式会社代  理  人 
  弁理士  井  島  藤  治外1名 多年2開 (イ)           (ロ) 第3図 第4図 スタート ■ 2(1141ZM″゛7°″′”0サイズの走査開
口を用意する 走査開口杢1画素ず) ■   ずらしながら各開口内の 黒画素数を計数する ■                 ベルとしてぃく
第5図 (イ) −〉カラム 4x4  走査開口 痢6図 χロ 第21図 第22図 第23図 第24図 (イ) (ロ) へへヘ へぐへ III     l    l 第33図 竿32図 納35函 (イ)           (ロ) 21化 第36図 第37図 (イ)    (ロ)        (ハ)痢38図 (イ)    (ロ)        (ハ)第 (イ) 2イi1イとA騨ビ直 第40図 (イ)       (ロ) 白−灰        灰−男 39図 (ロ) )ヒ曲イ稔 第41図 31化画像 餉与42区く 奢り凌 多年 (イ) 【すA 第43図 44図 (ロ) マトリクス 角噂 (イ) 4×4 網点形 第46図 3偏見画 45図 (ロ) 2×2デ′イザマトリクス 第47図 復元面 角筈48図 (イ)        (ロ) 第49図 (イ)             (ロ)第50図
1 to 3 are explanatory diagrams of the method of the present invention, FIG. 4 is a flowchart showing an embodiment of the method of the present invention, and FIGS. 6 and 9
Figures 50 and 51 are diagrams showing other embodiments of the method of the present invention. FIGS. 7, 8, and 10 to 49 are explanatory diagrams of the method of the present invention. 1... Binarized image 2... Lens 3... Two-dimensional image sensor 1) 4... Linear image Hinley 11... Amplifier 12... Δ/D converter 13
...Image processing circuit 14...ROM 15...Binarization circuit 16...Filtering circuit 17...Storage device 18...Enlargement/reduction circuit Patent applicant Roku Konishi Photo Industry Co., Ltd. Agent
Patent Attorney Fuji Ijima 1 off-site person 2 years of practice (A) (B) Fig. 3 Fig. 4 Start ■ 2 (1141ZM"゛7°"'"0 size scanning aperture prepared Scanning aperture 1 pixel) ) ■ Count the number of black pixels in each aperture while shifting ■ Belt Dictionary Figure 5 (A) -> Column 4x4 Scanning Diarrhea 6 Figure χ B Figure 21 Figure 22 Figure 23 Figure 24 (I) ) (B) Hehehe Heguhe III l l Fig. 33 Rod 32 Fig. 35 boxes (A) (B) 21st Fig. 36 Fig. 37 (A) (B) (C) Diarrhea Fig. 38 (A) ) (B) (C) No. (A) 2i i1 A and A-Bi Nao Fig. 40 (A) (B) White - Gray Gray - Male Fig. 39 (B) ) Hi-Kokui Minoru Fig. 41 Fig. 31 Image enhancement 42 areas Kusara Ryo Tanen (A) Figure 43 Figure 44 (B) Matrix angle rumor (A) 4x4 Halftone dot shape Figure 46 Figure 3 Prejudice image 45 (B) 2x2 de 'Izamatrix Figure 47 Restored surface angle figure 48 (A) (B) Figure 49 (A) (B) Figure 50

Claims (2)

【特許請求の範囲】[Claims] (1)N値化画像よりM値化中間調画像を復元し、復元
した中間調画像に所定の処理を施してN′値化画像を得
るようにしたことを特徴とする画像処理方法。
(1) An image processing method characterized in that an M-valued halftone image is restored from an N-valued image, and a predetermined process is performed on the restored halftone image to obtain an N'-valued image.
(2)前記整数N、M、N′の間に M≧N、M≧N′ なる関係をもたせるようにしたことを特徴とする特許請
求の範囲第1項記載の画像処理方法。
(2) The image processing method according to claim 1, wherein the integers N, M, and N' are set to have the following relationships: M≧N, M≧N'.
JP60259548A 1985-11-18 1985-11-18 Picture processing method Pending JPS62118482A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60259548A JPS62118482A (en) 1985-11-18 1985-11-18 Picture processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60259548A JPS62118482A (en) 1985-11-18 1985-11-18 Picture processing method

Publications (1)

Publication Number Publication Date
JPS62118482A true JPS62118482A (en) 1987-05-29

Family

ID=17335640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60259548A Pending JPS62118482A (en) 1985-11-18 1985-11-18 Picture processing method

Country Status (1)

Country Link
JP (1) JPS62118482A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03112270A (en) * 1989-09-27 1991-05-13 Canon Inc Image processor
JPH03192969A (en) * 1989-12-22 1991-08-22 Canon Inc Picture processor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03112270A (en) * 1989-09-27 1991-05-13 Canon Inc Image processor
JPH03192969A (en) * 1989-12-22 1991-08-22 Canon Inc Picture processor

Similar Documents

Publication Publication Date Title
JPH045305B2 (en)
US6002493A (en) Method for reproducing an image
JPS62114378A (en) Image processing method
JPS62114377A (en) Image processing method
JPS62118482A (en) Picture processing method
JPH0730752A (en) Image area discriminating device
JP2821806B2 (en) Color image information processing method
JP3584329B2 (en) Image forming device
JPS62114379A (en) Image processing method
JP3373874B2 (en) Image processing device
JP3611697B2 (en) Multilevel image binarization method
JP2913867B2 (en) Color image processing method
JP3089688B2 (en) Image information processing method
JP3780664B2 (en) Image processing apparatus and image processing method
JPS62118481A (en) Picture processing method
JP2635306B2 (en) Image processing device
JPH0457274B2 (en)
JP2835736B2 (en) Image binarization control method
JPS60136476A (en) Picture processor
JPH03219774A (en) Picture processor
JP3304463B2 (en) Image forming device
JPS61288567A (en) Method for estimating halftone picture of dither picture
JPS61288568A (en) Method for estimating halftone picture of binary picture
JP3104263B2 (en) Color image processing method
JPH06225122A (en) Image forming device