JPH0451374A - Picture processor - Google Patents

Picture processor

Info

Publication number
JPH0451374A
JPH0451374A JP2161901A JP16190190A JPH0451374A JP H0451374 A JPH0451374 A JP H0451374A JP 2161901 A JP2161901 A JP 2161901A JP 16190190 A JP16190190 A JP 16190190A JP H0451374 A JPH0451374 A JP H0451374A
Authority
JP
Japan
Prior art keywords
data
picture
image
output
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2161901A
Other languages
Japanese (ja)
Inventor
Yukari Shimomura
下村 ゆかり
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2161901A priority Critical patent/JPH0451374A/en
Priority to US07/713,312 priority patent/US5309525A/en
Priority to EP91305365A priority patent/EP0461903B1/en
Priority to DE69127510T priority patent/DE69127510T2/en
Publication of JPH0451374A publication Critical patent/JPH0451374A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

PURPOSE:To much more accurately reproduce an original multivalued picture by executing a discrimination processing of a character thinning part or a picture part and respective restoration processings of the character thinning part and the picture part in the restoration processing of the multivalued picture from a binarized picture by means of different neural networks. CONSTITUTION:A latch 102 latches data on seven picture elements at every data of seven lines from a line buffer 101. Data of 49 bits of 7X7 is inputted to an area judgement neuro chip 103. The neuro chip 103 outputs '0' when data is judged to be a halftone picture and output '1' when it is judged to be a thinning part. Data of 25 bits is inputted to both a multivalueing neuro chip for picture 105 and a multivalueing neuro chip for thinning part 106 through a latch 104. The neuro chips 105 and 106 output multivalued data of eight bits. A selector 107 is controlled by the neuro chip 103 and outputs data of the neuro chip 105 when it is the halftone picture and data of the neuro chip 106 when it is the thinning part.

Description

【発明の詳細な説明】 本発明は、2値化画像から、元の多値画像を復元処理す
る画像処理装置に関するものである。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to an image processing device that restores an original multivalued image from a binarized image.

[従来の技術] 従来、2値化画像から、元の多値画像を復元処理する方
法としては、矩形の平滑化フィルタ回路を用いるか、ま
たは、そのフィルタの処理結果をROMまたRAMに、
LUTとして持つことにより行なわれている。3x3の
フィルタから得たLUTにより多値化する装置の例を第
7図に示す。
[Prior Art] Conventionally, as a method for restoring an original multivalued image from a binarized image, a rectangular smoothing filter circuit is used, or the processing results of the filter are stored in a ROM or RAM.
This is done by having it as an LUT. FIG. 7 shows an example of a device that performs multi-value conversion using an LUT obtained from a 3×3 filter.

同図において、701は例えば、FIFO等で構成され
たラインバッファであり、図示しない画像入力装置より
の2値データの入力を受けて、3ラスタライン分のデー
タが蓄えられる。7.02は、ラインバッファ701か
らの3ラインのデータをライン毎に3画素のデータをラ
ッチするデータラッチである。従って、このデータラッ
チ702からは、3×3のウィンドウの2値画像データ
が得られる。この3×3の9ビツトのデータは、例えば
、ROM形式のLUT703のアドレスとして与えられ
る。LUT703は、平滑化フィル夕の出力により決定
されたもので、入力データに対して、256階調(8ピ
ッl−、)の多値データを出力する。
In the figure, 701 is a line buffer configured with, for example, a FIFO or the like, which receives input of binary data from an image input device (not shown) and stores data for three raster lines. 7.02 is a data latch that latches three lines of data from the line buffer 701 and three pixels of data for each line. Therefore, binary image data of a 3×3 window is obtained from this data latch 702. This 3×3 9-bit data is given, for example, as an address of a ROM-format LUT 703. The LUT 703 is determined by the output of the smoothing filter, and outputs multivalued data of 256 gradations (8 pips) for input data.

[発明が解決しようとする課題] しかしながら、上述の方法では、例えば、第8図(a)
に示す3×3の平滑化フィルタで処理をすると、中間調
画像部分は、比較的良好に多値化されるが、文字細線部
等の、濃度の差が激しいエツジ部分においては、ぼけが
生じる。第8図(a)に示す3×3の平滑化フィルタで
エツジ部分を処理した様子を第9図に示す。一方、第8
図(b)のような、細線部に強くするために注目画素に
重点をおいた平滑化フィルタで処理する場合は、上述の
ぼりは解消されるが、中間調部分に2値画像特有の粒状
性が強く残り、背景や人間の肌等のなだらかな部分に濃
度の差ができてしまう。第8図(b)に示す3X3の平
滑化フィルタで中間調部分を処理した様子を第1O図に
示す。
[Problems to be Solved by the Invention] However, in the above method, for example, as shown in FIG.
When processed using the 3×3 smoothing filter shown in the figure, halftone image parts are multivalued relatively well, but edge parts where there is a large difference in density, such as thin character lines, become blurred. . FIG. 9 shows how the edge portion is processed using the 3×3 smoothing filter shown in FIG. 8(a). On the other hand, the 8th
If processing is performed using a smoothing filter that focuses on the pixel of interest in order to strengthen thin line areas, as shown in Figure (b), the above-mentioned blurring will be eliminated, but the graininess peculiar to binary images will occur in the halftone areas. remains strong, resulting in differences in density in smooth areas such as the background and human skin. FIG. 1O shows how the halftone portion is processed by the 3×3 smoothing filter shown in FIG. 8(b).

その解決策として、領域を判別して、細線部と画像部と
を別々に多値化するという方法が考えられるが、2値画
像データからの領域分離方法は、未だ確立されていない
のが現状である。
A possible solution to this problem is to distinguish the regions and perform multi-value processing on the thin line part and the image part separately, but the method for separating regions from binary image data has not yet been established. It is.

[課題を解決するための手段] 上記課題を解決するために、本発明の画像処理装置は、
2値画像データを入力する入力手段と、入力された2値
画像データについて、文字細線部であるか画像部である
かをニューラルネットワクによって判別する判別手段と
、文字細線部に対する多値復元処理を、ニューラルネッ
トワークにより行なう第1の多値化手段と、画像部に対
する多値復元処理を、ニューラルネットワークにより行
なう第2の多値化手段と、前記判別手段の判別結果に基
づいて、前記第1または第2の多値化手段によって多値
復元処理するように制御する制御手段とを具える。
[Means for Solving the Problems] In order to solve the above problems, the image processing device of the present invention has the following features:
An input means for inputting binary image data, a discriminating means for determining whether the input binary image data is a thin character line portion or an image portion using a neural network, and a multi-value restoration process for the thin character line portion. , a first multi-value conversion means that performs multi-value restoration processing on the image portion using a neural network, and a second multi-value conversion means that performs multi-value restoration processing on the image portion using a neural network, and control means for controlling the second multi-value conversion means to perform multi-value restoration processing.

[作用] 本発明によれば、入力された2値化画像から多値画像を
推定するために、文字細線部と画像部との領域の判別を
ニューラルネジ1〜ワークを用いて行ない、’I’ll
別結果に基づいて、文字細線部と画像部とそれぞれに対
応して設けられたニューラルネットワークによる多値化
手段で多値化される。
[Operation] According to the present invention, in order to estimate a multivalued image from an input binarized image, the area between the thin character line part and the image part is discriminated using the neural screw 1 to work, and 'I 'll
Based on the separate results, multi-value conversion is performed by multi-value conversion means using a neural network provided corresponding to the thin character line portion and the image portion, respectively.

[実施例コ 第1図は、本発明の1実施例を示すブロック図である。[Example code] FIG. 1 is a block diagram showing one embodiment of the present invention.

第1図において、1はFIFO1a〜ldで構成された
ラインバッファであり、図示しない画像入力装置よりの
2値デークの入力を受けて、4ラスタライン分のデータ
が蓄えられるものとする。
In FIG. 1, reference numeral 1 denotes a line buffer composed of FIFOs 1a to 1d, which receives a binary data input from an image input device (not shown) and stores data for four raster lines.

2は、ラインバッファ101からの4ラインのデータを
ライン毎に4画素のデータをラッチするデータラッチで
ある。従って、このデータラッチ2からは、4×4のウ
ィンドウの2値画像データが得られる。
2 is a data latch that latches 4 lines of data from the line buffer 101 and 4 pixels of data for each line. Therefore, from this data latch 2, binary image data of a 4×4 window is obtained.

この4X4の16ビツトのデータは、ROM形式の変換
テーブル3のアドレスとして与えられる。変換テーブル
3は、後述するように、ニューラルネットワークによっ
て決定されたもので、入力データに対して、256階調
(8ビット)の多値データを出力する。
This 4×4 16-bit data is given as an address of the conversion table 3 in ROM format. The conversion table 3 is determined by a neural network, as will be described later, and outputs multi-value data of 256 gradations (8 bits) for input data.

以上の各部の制御は、不図示のCPUによって行なわれ
る。
Control of each section described above is performed by a CPU (not shown).

先ず、ニューラルネットワークを用いた2値化方式の推
定と、ニューラルネットワークを用いた多値化処理につ
いて説明する。
First, estimation of a binarization method using a neural network and multi-value processing using a neural network will be explained.

先ず、パックプロパゲーション型ニューラルネットワー
クにおける一般的な学習の手順を第2図(a)を例とし
て説明する。
First, a general learning procedure in a pack propagation neural network will be explained using FIG. 2(a) as an example.

第2図(a)に示されたニューラルネットワークでは、
入力層201にューロン数ii)からの出力(i−ou
t)204が、1層よりなる中間層202にューロン数
jj)に入力され、中間層202からの出力(j−ou
t)205が出力層203にューロン数kk)に入力さ
れ、出力層203からは、出力(k−out)206が
出力される。また、207は、理想出力(1deal−
out )である。
In the neural network shown in Figure 2(a),
In the input layer 201, the output (i-ou
t) 204 is input to the intermediate layer 202 consisting of one layer as the number of neurons jj), and the output from the intermediate layer 202 (j-ou
t) 205 is inputted to the output layer 203 as the number kk), and the output layer 203 outputs an output (k-out) 206. In addition, 207 is the ideal output (1deal-
out).

ニューラルネットワークでは、入力データと、それに対
する理想出力(1deal−out )とを用意し、こ
れと出力(k−out)206との比較により、中間層
における結合強度WJI [j、L iil(図中の2
08)、出力層における結合強度W8゜[kk、 ju
l  (図中の209)を決定する。
In the neural network, input data and an ideal output (1deal-out) for the input data are prepared, and by comparing this with the output (k-out) 206, the connection strength WJI [j, Liil (in the figure) in the intermediate layer is determined. 2
08), coupling strength W8゜[kk, ju
Determine l (209 in the figure).

上述のニューラルネットワークによる学習手順を、第2
図(b)のフローチャートを用いて更に詳細に説明する
The learning procedure using the neural network described above is
This will be explained in more detail using the flowchart shown in FIG.

先ず、ステップ5401で、重み係数(結合強度) W
JI [jj、 iil 、 WkJ[kk、 jjl
の初期値を与える。ここでは、学習過程での収束を考慮
して、−0,5〜+0.5の範囲の値を選択する。
First, in step 5401, the weighting coefficient (coupling strength) W
JI [jj, iil, WkJ[kk, jjl
Give the initial value of . Here, a value in the range of -0.5 to +0.5 is selected in consideration of convergence during the learning process.

次に、ステップ5402で学習用の入力データ1−ou
t(i)を選択し、ステップ5403でこのデータ1−
out(i)を入力層にセットする。また、ステップ5
404で、入力データ1−out(i)に対する理想出
力(ideal−out)を用意する。
Next, in step 5402, the learning input data 1-ou
t(i), and in step 5403 this data 1-
Set out(i) to the input layer. Also, step 5
At 404, an ideal output (ideal-out) for the input data 1-out(i) is prepared.

そこで、ステップ5405で、中間層の出力j−out
(j)を求める。
Therefore, in step 5405, the intermediate layer output j-out
Find (j).

先ず、入力層よりのデータ1out(i)に中間層の重
み係数W J Iを掛け、その総和SumvJを、Su
mFJ=ΣW J l [jj、 iil * 1−o
ut(i)により計算し、次に、このSumrtにsi
gmoid関数を作用させて、j番目の中間層の出力j
−out(j)を、 によって計算する。
First, data 1out(i) from the input layer is multiplied by the weighting coefficient W J I of the intermediate layer, and the summation SumvJ is expressed as Su
mFJ=ΣW J l [jj, il * 1-o
ut(i), and then add si to this Sumrt.
By applying the gmoid function, the output j of the j-th hidden layer is
−out(j) is calculated by

次に、ステップ8406で、出力層の出力に−out(
k)を求める。この手順はステップ8406と同様であ
る。
Next, in step 8406, -out(
Find k). This procedure is similar to step 8406.

すなわち、中間層からの出力j−out(j)に出力層
の重み係数W kJを掛け、その総和Sum−を、Su
mrk=ΣW、 [kk、 jjl * j−out(
j)により計算し、次に、この5Lllllrkにsi
gmoid関数を作用させて、k番目の中間層の出力に
−out (k)を、 によって計算する。なお、この出力値は正規化されてい
る。
That is, the output j-out(j) from the intermediate layer is multiplied by the weighting coefficient W kJ of the output layer, and the sum Sum- is expressed as Su
mrk=ΣW, [kk, jjl * j-out(
j), and then add si to this 5Lllllrk.
By applying the gmoid function, −out (k) is calculated on the output of the k-th hidden layer as follows. Note that this output value has been normalized.

次に、ステップ5407では、以上により得られた出力
に−out(k)と、ステップ5404で用意した理想
出力1deal−out(k)とを比較し、出力層の教
師信号teach−k (k)として、teach−k
(k) = (ideal−out(k) −k−ou
t(k))*に−out(k)傘(1−k−out(k
)lを求める。ここで、k−out(k)*(1−k−
out(k))は、sigmoid関数に−out(k
lの微分の意義を有する。
Next, in step 5407, the output obtained above -out(k) is compared with the ideal output 1deal-out(k) prepared in step 5404, and the teacher signal teach-k (k) of the output layer is As, teach-k
(k) = (ideal-out(k) -k-ou
-out(k) umbrella (1-k-out(k
) Find l. Here, k-out(k)*(1-k-
out(k)) is the sigmoid function −out(k
It has the meaning of differentiation of l.

次に、ステップ5408で、出力層の重み係数の変化幅
ΔWkJ[kk、 jjlを、△W、 [kk、 jj
l =β*j−out(j)*teach−k(k)+
α*△WllJ[kk、 jj ] により計算する。ここで、αは安定化定数、βは学習定
数と呼ばれる定数であり、急激な変化を押える役割を果
たしている。
Next, in step 5408, the variation width of the weighting coefficient of the output layer ΔWkJ[kk, jjl, ΔW, [kk, jj
l = β*j-out(j)*teach-k(k)+
Calculate by α*ΔWllJ[kk, jj]. Here, α is a stabilizing constant, and β is a constant called a learning constant, which plays the role of suppressing sudden changes.

ステップ5409では、この変化幅に基づいて、重み係
数WkJ[kk、 julを、WkJ[kk、jul 
=WkJ[kk、 jul+ΔW、 [kk、 jjl と、更新する。すなわち学習を行なう。
In step 5409, the weighting coefficients WkJ[kk, jul and WkJ[kk, jul
=WkJ[kk, jul+ΔW, [kk, jjl] Update. In other words, learn.

次に、ステップ5410で、中間層の教師信号teac
h−j (j)を計算する。そのために、先ず、Sum
++J=Σteach−k(k)* wk、 [jj、
 iilに基づいて、出力層から、中間層の各素子への
逆方向の寄与を計算する。次にこのSumllJから、
中間層の教師信号teach−j (j)を以下の式に
より演算する。
Next, in step 5410, the intermediate layer teacher signal teac
Calculate h−j (j). For that purpose, first, Sum
++J=Σteach−k(k)*wk, [jj,
Based on ii, calculate the inverse contribution from the output layer to each element of the intermediate layer. Next, from this SumllJ,
The intermediate layer teaching signal teach-j (j) is calculated using the following equation.

teach−j (j) = j−out(j)*(1
−j−out(j))*Sums、。
teach-j (j) = j-out(j)*(1
-j-out(j))*Sums,.

次に、ステップ5411で、中間層の重み係数の変化幅
△WJI [jj+ H]を、△WJ+ [jj、 i
il =β*1−out(i)*teach−j (j
)+α*△WJI [jj+ iil により計算する。
Next, in step 5411, the change width △WJI [jj+H] of the weighting coefficient of the intermediate layer is calculated as △WJ+[jj, i
il = β*1-out(i)*teach-j (j
)+α*△WJI [calculated by jj+ iil.

ステップ5412では、この変化幅に基づいて、重み係
数WJI [jj、 iilを、WJI [jj、11
] =WJl [jj+ 111+△WJI [jj、
 iil と、更新する。すなわち学習を行なう。
In step 5412, the weighting coefficient WJI [jj, iil is changed to WJI [jj, 11
] = WJl [jj+ 111+△WJI [jj,
il and update. In other words, learn.

こうして、ステップ8401〜412により、1組の入
力データとこれに対する理想出力とから、重み係数W、
1とWlとが1回学習された。
In this way, in steps 8401 to 412, the weighting coefficient W,
1 and Wl were learned once.

ステップ5413では、以上のような学習が全データに
ついて行なわれたかを調べ、ステップ5414では、重
み係数が十分に収束するだけの所定の回数の学習が行な
われたかを調べ、未だの場合は、ステップ8401〜4
12を繰り返す。
In step 5413, it is checked whether the above learning has been performed on all the data, and in step 5414, it is checked whether learning has been performed a predetermined number of times to sufficiently converge the weighting coefficients. 8401-4
Repeat step 12.

以上がパックプロパゲーション法に基づいたニューラル
ネットワークの学習手順の説明である。
The above is an explanation of the neural network learning procedure based on the pack propagation method.

以上述べた学習は、処理のための準備段階であり、実際
の処理では、求められた重み係数だけを用いることにな
る。
The learning described above is a preparatory stage for processing, and in actual processing, only the determined weighting coefficients will be used.

次に、以上述べた「学習」を、本実施例において、文字
細線部と画像部との領域分離のためのニューラルネット
ワークに対して行なう場合の説明をする。
Next, a case where the above-mentioned "learning" is performed on a neural network for region separation between thin character line parts and image parts in this embodiment will be explained.

先ず、入力データは注目画素を中心とする2個画像デー
タの7×7のウィンドウ内の画素の値(それぞれ0また
は1)である。
First, the input data is the value of a pixel (0 or 1, respectively) within a 7×7 window of two pieces of image data centered on the pixel of interest.

従って、入力層のニューロン数は49個、出力層のニュ
ーロン数は、領域が細線部のとき1、画像部のときOと
なるフラグであるので1個、中間層のニューロン数は、
任意であるが、本実施例では25個とする。
Therefore, the number of neurons in the input layer is 49, the number of neurons in the output layer is 1 when the area is a thin line part, and 1 because the flag is O when it is an image area, and the number of neurons in the intermediate layer is:
Although it is arbitrary, the number is set to 25 in this embodiment.

一方、理想出力としては、マツプを用意する。On the other hand, as the ideal output, a map is prepared.

このマツプは、例えば、第3図(b)のような元の多値
画像にエツジ検出フィルタを掛けて得たマツプ、または
、第3図(c)のように、人工的に領域を指定したマツ
プなどが考えられる。
This map is, for example, a map obtained by applying an edge detection filter to the original multivalued image as shown in Figure 3(b), or a map obtained by artificially specifying areas as shown in Figure 3(c). Possible examples include maps.

また、入力データの選び方としては、学習画素をランダ
ムに選び、その画素を中心とする7×7のウィンドウを
設けてこれを与えるものとする。
Furthermore, as for how to select input data, a learning pixel is selected at random, and a 7×7 window centered on that pixel is provided.

以」二を用いて、前述の学習手順を値が収束するまで繰
り返し、収束したときの重み係数を領域分離のパラメー
タに決定する。
Using the above, the above-described learning procedure is repeated until the values converge, and the weighting coefficient at the time of convergence is determined as the region separation parameter.

分離処理の実行時には、0〜1.0の値を、しきい値を
05としてそれ以上を細線部、それ未満を画像とする。
When performing the separation process, a threshold value of 05 is set for a value between 0 and 1.0, and anything above that is considered a thin line part, and anything below that is considered an image.

次に、多値変換のための重み係数を得るためには、入力
データとして2個画像、理想出力として多値画像、また
、前述のごときマツプを用意する。
Next, in order to obtain weighting coefficients for multi-value conversion, two images are prepared as input data, a multi-value image is used as ideal output, and a map as described above is prepared.

本実施例では、細線部に対する場合と、画像部に対する
場合のどちらの場合も、多値変換するのに、注目画素を
中心とする5×5のウィンドウ内の25個のデータを使
用する。
In this embodiment, 25 pieces of data within a 5×5 window centered on the pixel of interest are used for multi-value conversion both for the thin line portion and for the image portion.

従って、入力層のニューロン数は25個、出力層のニュ
ーロン数は、中間調の値1個なので1個、中間層のニュ
ーロン数は、任意であるが、本実施例では15個とする
Therefore, the number of neurons in the input layer is 25, the number of neurons in the output layer is 1 because there is one halftone value, and the number of neurons in the intermediate layer is arbitrary, but in this embodiment, it is 15.

先ず、細線部、画像部それぞれに対する重み係数に、−
〇、5〜0.5のO以外の乱数値を初期値として与えて
おく。
First, the weighting coefficients for the thin line part and the image part are -
〇, a random value other than O from 5 to 0.5 is given as an initial value.

入力データは、前述と同様、注目画素をランダムに選び
、その画素を中心とする5×5のウィンドウを設しプで
これを与えるものとする。
As described above, the input data is given by randomly selecting a pixel of interest and setting a 5×5 window centered on that pixel.

理想出力には、その注目画素に対応する位置にある多値
画像の値D(0〜255)を、0および1は出にくいた
め、第6図に示すように、i、deal−output
= D / 255 X O,8+0.1によって変換
し、セットする。
For the ideal output, the value D (0 to 255) of the multivalued image located at the position corresponding to the pixel of interest is given as 0 and 1, so as shown in Fig. 6, i, deal-output
Convert and set by = D / 255 X O, 8 + 0.1.

そして、その注目画素に対応する位置にあるマツプの値
を参照して、それが1であれば細線部の重み係数、0で
あれば中間調部の重み係数を使って1つの出力を得る。
Then, referring to the value of the map at the position corresponding to the pixel of interest, if the value is 1, the weighting coefficient of the thin line part is used, and if it is 0, the weighting coefficient of the halftone part is used to obtain one output.

その出力と理想出力の差から教師信号を得て、重み係数
を更新する。
A teacher signal is obtained from the difference between the output and the ideal output, and the weighting coefficients are updated.

以上の手順を繰り返して、細線部、中間調部のそれぞれ
に対する多値変換の重み係数(パラメタ)が得られる。
By repeating the above procedure, weighting coefficients (parameters) for multi-value conversion for each of the thin line part and the halftone part are obtained.

以上を用いて、前述の学習手順を値が収束するまで繰り
返し、収束したときの重み係数を領域分離のパラメータ
に決定する。
Using the above, the above-described learning procedure is repeated until the values converge, and the weighting coefficient at the time of convergence is determined as the parameter for region separation.

第1図は、本発明の1実施例を示すブロック図である。FIG. 1 is a block diagram showing one embodiment of the present invention.

第1図において、101は、例えばFIFO等で構成さ
れたラインバッファであり、図示しない画像入力装置よ
りの2値データの入力を受けて、7ラスタライン分のデ
ータが蓄えられるものとする。
In FIG. 1, reference numeral 101 denotes a line buffer composed of, for example, a FIFO or the like, which receives input of binary data from an image input device (not shown) and stores data for seven raster lines.

102は、ラインバッファ101からの7ラインのデー
タのライン毎に、7画素のデータをラッチするデータラ
ッチである。従って、このデータラッチ102からは、
7×7のウィンドウの2値画像データが得られる。
A data latch 102 latches seven pixel data for each seven lines of data from the line buffer 101. Therefore, from this data latch 102,
Binary image data of a 7×7 window is obtained.

この7×7の49ビツトのデータは、領域判定回路10
3に人力される。領域判定回路103は、中間調画像と
判定するとO1細線部と判定すると1を出力する。この
出力値113は、セレクタ107の選択制御信号となる
This 7×7 49-bit data is sent to the area determination circuit 10.
3 will be done manually. The area determination circuit 103 outputs 1 if it determines that the image is a halftone image and if it determines that it is an O1 thin line portion. This output value 113 becomes a selection control signal for the selector 107.

また、ラインバッファ101の出力の内、中央お5ライ
ンは、注目画素を中心とした25ビツトのデータなイ共
糸合し、その25ビツトのデータは、中間調画像用多値
化回路105、細線部用画像用多値化回路106の双方
に入力され、多値化回路114.115のそれぞれは、
8ビツトの多値デク1個を出力する。その出力は、とも
に、セレクタ107に人力され、前述の領域判定回路1
03からの制御信号113により制御され、領域判定の
結果が、中間調画像だったら多値化回路114の出力デ
ータ、細線部だったら多値化回路115の出力データを
出力する。
Further, among the outputs of the line buffer 101, the central five lines are 25-bit data centered on the pixel of interest, and the 25-bit data is transferred to the halftone image multi-value conversion circuit 105, It is input to both the multi-value conversion circuit 106 for images for thin line portions, and each of the multi-value conversion circuits 114 and 115
Outputs one 8-bit multivalue deck. Both outputs are inputted manually to the selector 107, and the above-mentioned area determination circuit 1
If the result of area determination is a halftone image, the output data of the multi-value conversion circuit 114 is output, and if the result of area determination is a thin line part, the output data of the multi-value conversion circuit 115 is output.

以上の各部の制御は、不図示のCPUによって行なわれ
る。
Control of each section described above is performed by a CPU (not shown).

また、2値多値変換において、領域分離の重み係数の学
習のためには、注目画素を中心とする5×5のウィンド
ウによって実行してもよい。これによれば、精度は少し
落ちるが、処理速度を速くすることができる。逆に、ウ
ィンドウサイズを大きくすることも可能である。また、
多値化においても、対象となる領域毎にウィンドウサイ
ズを変えてもよ(、例えば、中間調で7×7、細線部で
5×5としてもよい。
Furthermore, in binary multivalue conversion, learning of weighting coefficients for region separation may be performed using a 5×5 window centered on the pixel of interest. According to this, the accuracy decreases a little, but the processing speed can be increased. Conversely, it is also possible to increase the window size. Also,
Even in multi-value conversion, the window size may be changed for each target area (for example, it may be 7x7 for halftones and 5x5 for thin line areas).

また、上記実施例では、マツプを用いて、細線部と中間
調画像部の両方の重み係数の学習を、1度で行なってい
るが、細線部のみ、中間調画像のみの画像データを別々
に用意して学習するようにしてもよい。
In addition, in the above embodiment, the weighting coefficients for both the thin line part and the halftone image part are learned at once using the map, but the image data of only the thin line part and only the halftone image part are learned separately. You may also prepare and study it.

また、2つの領域の境界部分の多値化の不自然さを解消
するために、細線部の多値化に使用する重み係数を得る
のに、細線部ばかりでなく、中間調も同時に学習させた
重み係数を使用してもよい。
In addition, in order to eliminate the unnaturalness of multilevel conversion at the boundary between two areas, in order to obtain the weighting coefficients used for multilevel conversion of thin line areas, not only the thin line areas but also the intermediate tones are trained at the same time. Weighting factors may also be used.

[発明の効果] 以上説明した如(、本発明によれば、入力された2値化
画像から多値画像を推定するために、文字細線と画像部
との領域の判別をニューラルネ・ソトワークを用いて行
ない、判別結果に基づいて、文字細線部と画像部とそれ
ぞれに対応して設けられた多値化部で多値化されること
により、文字細線部は、エツジが保存されたまま多値化
され、中間調画像では、2値化によって発生した粒状性
が取り除かれて多値化される。
[Effects of the Invention] As explained above, according to the present invention, in order to estimate a multivalued image from an input binarized image, neural network software is used to discriminate between thin character lines and image areas. Based on the discrimination results, the thin character line parts are converted into multi-value data while preserving the edges. In the halftone image, graininess caused by binarization is removed and the image is multi-valued.

従って、元の多値画像を、かなり正確に再現することが
できる。
Therefore, the original multivalued image can be reproduced fairly accurately.

また、文字細線部と画像部との、領域判別も、ニューラ
ルネットワークにより行なうため、フィルタによる処理
と異なり、ドツトの位置関係や、連結等の情報を含んだ
領域判別となるため、かなり正確に行なうことができる
In addition, because the area discrimination between thin character lines and image areas is performed using a neural network, unlike processing using a filter, the area discrimination includes information such as the positional relationship of dots and connections, so it is quite accurate. be able to.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、実施例の画像処理装置の構成図、第2図(a
)は、ニューラルネットワークの概念図、 第2図(b)は、ニューラルネットワークの学習手順の
フローチャートである。 第3図(a)〜(C)は、領域分離の学習を説明する図
、 第4図は、2値データの例を示す図、 第5図(a)〜(c)は、多値化の学習を説明する図、 第6図は、多値データと、理想出力データの関係を示す
図、 第7図は、従来の2値多値変換のための装置の例を示す
図、 第8図(a)、(b)は、平滑化フィルタの例を示す図
、 第9図は、エツジ部の多値化の例を示す図、第10図は
、中間調部の多値化の例を示す図である。 ・・・ラインバッファ ・・・データラッヂ ・・・領域判定ニューロデツプ ・・・画像用多値化ニューロチップ ・・・細線部用多値化ニューロデツプ ・・・セレクタ (α) Cb) (C) 際 N 口 (HJ− 水 7ギ昂葛転 つ 図 (の) <b>
FIG. 1 is a configuration diagram of an image processing apparatus according to an embodiment, and FIG.
) is a conceptual diagram of the neural network, and FIG. 2(b) is a flowchart of the learning procedure of the neural network. Figures 3 (a) to (C) are diagrams explaining the learning of region separation, Figure 4 is a diagram showing an example of binary data, and Figure 5 (a) to (c) are diagrams illustrating the learning of region separation. FIG. 6 is a diagram showing the relationship between multi-value data and ideal output data. FIG. 7 is a diagram showing an example of a conventional device for binary-to-multi-value conversion. Figures (a) and (b) are diagrams showing an example of a smoothing filter, Figure 9 is a diagram showing an example of multi-value conversion of the edge part, and Figure 10 is an example of multi-value conversion of the halftone part. FIG. ...Line buffer...Data ledge...Region judgment neurodeep...Multi-level neurochip for images...Multi-level neurodeep for thin line areas...Selector (α) Cb) (C) Border N mouth (HJ-Water 7 Gyakuzutsutsu Figure (of) <b>

Claims (1)

【特許請求の範囲】 2値化画像データから、多値画像データを復元する画像
処理装置であって、 2値画像データを入力する入力手段と、 入力された2値画像データについて、文字細線部である
か画像部であるかをニューラルネットワークによって判
別する判別手段と 文字細線部に対する多値復元処理を、ニューラルネット
ワークにより行なう第1の多値化手段と、 画像部に対する多値復元処理を、ニューラルネットワー
クにより行なう第2の多値化手段と、前記判別手段の判
別結果に基づいて、前記第1または第2の多値化手段に
よって多値復元処理するように制御する制御手段とを有
することを特徴とする画像処理装置。
[Scope of Claim] An image processing device for restoring multivalued image data from binary image data, comprising: an input means for inputting binary image data; a first multi-value conversion means that performs multi-value restoration processing on the character fine line portion using a neural network; A second multi-value conversion means performed by a network, and a control means for controlling the first or second multi-value restoration processing to be performed by the first or second multi-value conversion means based on the determination result of the determination means. Characteristic image processing device.
JP2161901A 1990-06-14 1990-06-19 Picture processor Pending JPH0451374A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2161901A JPH0451374A (en) 1990-06-19 1990-06-19 Picture processor
US07/713,312 US5309525A (en) 1990-06-14 1991-06-11 Image processing apparatus using neural network
EP91305365A EP0461903B1 (en) 1990-06-14 1991-06-13 Image processing apparatus using neural network
DE69127510T DE69127510T2 (en) 1990-06-14 1991-06-13 Image processing system with neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2161901A JPH0451374A (en) 1990-06-19 1990-06-19 Picture processor

Publications (1)

Publication Number Publication Date
JPH0451374A true JPH0451374A (en) 1992-02-19

Family

ID=15744171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2161901A Pending JPH0451374A (en) 1990-06-14 1990-06-19 Picture processor

Country Status (1)

Country Link
JP (1) JPH0451374A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6388220B1 (en) 1999-03-11 2002-05-14 Alps Electronic Co., Ltd. Illuminated switching device for stabilized illumination to translucent portion of knob
JP2016153984A (en) * 2015-02-20 2016-08-25 株式会社デンソーアイティーラボラトリ Neural network processor, neural network processing method, detection device, detection method, and vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6388220B1 (en) 1999-03-11 2002-05-14 Alps Electronic Co., Ltd. Illuminated switching device for stabilized illumination to translucent portion of knob
JP2016153984A (en) * 2015-02-20 2016-08-25 株式会社デンソーアイティーラボラトリ Neural network processor, neural network processing method, detection device, detection method, and vehicle

Similar Documents

Publication Publication Date Title
EP0461903B1 (en) Image processing apparatus using neural network
US6983068B2 (en) Picture/graphics classification system and method
US5495542A (en) Binary to multi-level image restoration using neural network
JPH05344340A (en) Gradation conversion processing method and device
JPH03256178A (en) Picture/character area identifying system for image processor
US6947597B2 (en) Soft picture/graphics classification system and method
TW200541311A (en) Segmentation method and system for scanned documents
JPH04188283A (en) Method and device for processing picture
JPH0451374A (en) Picture processor
JPH0981723A (en) Image processor
JP2810497B2 (en) Image processing device
JP2859377B2 (en) Image processing method and image processing apparatus using neural network
JPS60136478A (en) Picture processor
JP2000175032A (en) Image processing unit
JPH0730757A (en) Image data processor
JP2778669B2 (en) Halftone area detection method
JP2001119577A (en) Image processor
JPH06152947A (en) Image processor
JPH0451376A (en) Picture processor
JPH053542A (en) Image area discriminating device
JPH0490680A (en) Picture binarizing method
JPH01137378A (en) Picture processing system
JPH11136513A (en) Picture processor
JPH08251403A (en) Device for discriminating attribute of image area
JPH09247450A (en) Image processing unit