JP2859377B2 - Image processing method and image processing apparatus using neural network - Google Patents

Image processing method and image processing apparatus using neural network

Info

Publication number
JP2859377B2
JP2859377B2 JP2153935A JP15393590A JP2859377B2 JP 2859377 B2 JP2859377 B2 JP 2859377B2 JP 2153935 A JP2153935 A JP 2153935A JP 15393590 A JP15393590 A JP 15393590A JP 2859377 B2 JP2859377 B2 JP 2859377B2
Authority
JP
Japan
Prior art keywords
learning
image data
image
neural network
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2153935A
Other languages
Japanese (ja)
Other versions
JPH0447471A (en
Inventor
ゆかり 下村
順一 宍塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2153935A priority Critical patent/JP2859377B2/en
Priority to US07/713,312 priority patent/US5309525A/en
Priority to DE69127510T priority patent/DE69127510T2/en
Priority to EP91305365A priority patent/EP0461903B1/en
Publication of JPH0447471A publication Critical patent/JPH0447471A/en
Application granted granted Critical
Publication of JP2859377B2 publication Critical patent/JP2859377B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、二値画像から多値画像への復元処理あるい
は像域分離処理に適した画像処理方法に関し、特に、ニ
ューラルネットワークを用いて作成した変換テーブルを
用いる画像処理方法に関する。また、本発明は、その変
換テーブルを組み込んだ画像処理装置に関する。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method suitable for restoration processing from a binary image to a multivalued image or image area separation processing, and more particularly, to an image processing method using a neural network. The present invention relates to an image processing method using a converted table. The present invention also relates to an image processing device incorporating the conversion table.

[従来の技術] 画像処理にテーブルを使用することは、その高速性,
装置の小型性故に一般的に良くしられている。
[Prior art] The use of a table for image processing requires high speed,
It is generally better because of the small size of the device.

上記の例えば2値画像から多値中間調を復元するよう
な画像処理においては、従来、2値画像に平滑化フイル
ターをかけるのに相当する変換テーブルを作成して、こ
の平滑化フィルタに代用することが行われている。ま
た、多値画像からの領域分離処理としての画像処理に代
用されるテーブル決定では、エツジ検出フイルターの機
能を行なうテーブルを利用していた。一方、2値画像か
らの領域分離については、今のところ提案されているも
のはないのが現状である。
In image processing for restoring a multi-value halftone from a binary image, for example, a conversion table equivalent to applying a smoothing filter to a binary image is conventionally created and used in place of the smoothing filter. That is being done. Further, in determining a table to be used for image processing as a region separation process from a multi-valued image, a table that performs the function of an edge detection filter has been used. On the other hand, at present, there is no proposal for segmentation from a binary image.

[発明が解決しようとしている課題] しかし、これらの従来技術におけるテーブルを用いた
画像処理では、そのテーブルに格納されているデータの
決定時に、人間の予想によるフイルターを使用するため
に、実際の出力は最適なものとは言えなかつた。
[Problems to be Solved by the Invention] However, in the image processing using a table in these conventional techniques, when a data stored in the table is determined, a filter expected by a human is used, so that an actual output is used. Is not the best one.

[課題を解決するための手段及びその作用] 本発明は、この従来技術の欠点を解決するために考え
られたもので、二値画像から多値画像への復元処理、そ
して像域分離処理のための変換テーブルの決定をニュー
ラルネツトを用いて行う画像処理方法及びそのテーブル
を備えた画像処理装置を提供することを目的とする。
Means for Solving the Problems and Action Thereof The present invention has been conceived in order to solve the drawbacks of the related art, and has been developed for restoration processing from a binary image to a multi-valued image and image area separation processing. To provide an image processing method for determining a conversion table for use by using neural nets and an image processing apparatus having the table.

上記課題を達成するために、本発明の、 入力の二値画像データを変換テーブルに入力して多値
画像データに復元する画像処理方法は、 学習用の二値画像データと理想出力とを用意する工程
と、 前記学習用の二値画像データと理想出力とを、ニュー
ラルネットワークに入力して、このネットワークのニュ
ーロン間の画像復元に適した結合係数を学習する工程
と、 学習後のニューラルネットワークに入力の二値画像デ
ータを入力して、その出力を得ることにより、この入力
の二値画像データを入力とし前記ネットワークの出力を
出力とする変換テーブルを決定する工程と、 この変換テーブルで前記ニューラルネットワークを置
き換える工程とからなることを特徴とするニューラルネ
ットを用いたことを特徴とする。
In order to achieve the above object, an image processing method according to the present invention for inputting binary image data to a conversion table and restoring the binary image data into multivalued image data includes preparing binary image data for learning and an ideal output. Inputting the binary image data for learning and the ideal output to a neural network, and learning a coupling coefficient suitable for image restoration between neurons in the network; and Inputting binary image data and obtaining an output thereof, thereby determining a conversion table having the input binary image data as an input and an output of the network as an output; And a step of replacing the network.

同じく、上記課題を達成するための本発明の、 入力画像データを変換テーブルを用いて像域分離する
画像処理方法は、 学習用の入力画像データと対応する像域分離結果を表
す理想出力とを用意する工程と、 前記学習用の画像データと理想出力とを、ニューラル
ネットワークに入力して、このネットワークのニューロ
ン間の像域分離に適した結合係数を学習する工程と、 学習後のニューラルネットワークに入力画像データを
入力して、その出力を得ることにより、この入力画像デ
ータを入力とし前記ネットワークの出力を出力とする変
換テーブルを決定する工程と、 この変換テーブルで前記ニューラルネットワークを置
き換える工程とからなることを特徴とするニューラルネ
ットを用いたことを特徴とする。
Similarly, the image processing method of the present invention for achieving the above-mentioned object and performing image area separation of input image data using a conversion table includes the following steps: input image data for learning and an ideal output representing a corresponding image area separation result. Preparing; and inputting the learning image data and the ideal output to a neural network, and learning a coupling coefficient suitable for image area separation between neurons of the network. A step of inputting the input image data and obtaining an output thereof, thereby determining a conversion table for inputting the input image data and outputting the output of the network, and a step of replacing the neural network with the conversion table. A neural network is used.

上述の本発明の画像処理方法は、ニューラルネットワ
ークの学習を利用して、変換テーブルの構成を決定す
る。ニューラルネットワークの学習では、いろいろなパ
ターンを解いて、答(理想出力)と比較して「学習」し
ていくという経験をつみ、答との誤差が収束した時の値
を決定値とするため、どのパターンにも最適な値が得ら
れる。そして、それをテーブルとして決定することによ
り、速いスピードで良い処理結果が得られるのである。
The above-described image processing method of the present invention uses the learning of the neural network to determine the configuration of the conversion table. In the learning of neural networks, in order to gain the experience of "learning" by solving various patterns and comparing with the answer (ideal output), the value when the error from the answer converges is determined value. The optimum value is obtained for every pattern. Then, by determining it as a table, a good processing result can be obtained at a high speed.

かくして、請求項1にかかる画像処理方法は二値画像
から多値画像への復元処理に有効であり、請求項2にか
かる画像処理方法は像域分離に有効である。尚、前記学
習の手法の1つとして、例えば、バックプロパゲーショ
ン法がある。
Thus, the image processing method according to the first aspect is effective for restoration processing from a binary image to a multi-valued image, and the image processing method according to the second aspect is effective for image area separation. One of the learning methods is, for example, a back propagation method.

また、上記課題を達成するための本発明の画像処理装
置は上記方法を適用して作成したテーブルを備える。
Further, an image processing apparatus according to the present invention for achieving the above object includes a table created by applying the above method.

[実施例] 以下添付図面を参照して本発明に係る実施例を詳細に
説明する。
Embodiment An embodiment according to the present invention will be described below in detail with reference to the accompanying drawings.

この実施例では、一例として、2値画像データから多
値画像データを推定するためのテーブルを決定するのに
ニユーラルネツトのバツクプロパゲーシヨン法を使用す
る。また、二値画像データから多値画像データを復元す
る際の参照領域を示すウインドとして、例として、3×
3の大きさを採用する。
In this embodiment, as an example, the back propagation method of the neural net is used to determine a table for estimating multi-valued image data from binary image data. As a window indicating a reference area when restoring multi-valued image data from binary image data, for example, 3 ×
Adopt a size of 3.

第1図は、この3×3を参照領域とした実施例の画像
処理装置の構成を示すブロツク図である。同図におい
て、図示されていない画像入力装置によつて原稿より読
み取られた画像データは3ラインバツフア101へ入力さ
れる。この3ラインバツフア101は画像の垂直方向に連
続する3ラインのデータが記憶される。3ラインの内、
同じ水平位置の左端から右端までのデータが順次クロツ
クに同期して遅延素子(ラッチ)群102に対して出力さ
れる。すると、このラッチ群102には、第2A図に示され
るような水平,垂直方向に3×3の小領域内のデータが
ラツチされる。ラッチ群102は9個のラッチからなり、
各ラッチの出力はROM103のアドレス入力となる。ROM103
は、前もって、二値→多値変換用のデータを記憶するテ
ーブルとなっている。このテーブルによる二値→多値変
換では、第2A図の9個の二値画素から、この小ブロツク
の中央画素に対応する位置(第2B図に示す)の画素とし
ての画像データが、ROM103から出力される。この多値画
像データとして、本実施例では、一例として8ビツト
(256階調)を採用した。
FIG. 1 is a block diagram showing the configuration of an image processing apparatus according to an embodiment in which this 3 × 3 is used as a reference area. In the figure, image data read from a document by an image input device (not shown) is input to a three-line buffer 101. The three-line buffer 101 stores data of three lines continuous in the vertical direction of the image. Of the three lines,
Data from the left end to the right end of the same horizontal position is sequentially output to the delay element (latch) group 102 in synchronization with the clock. Then, data in a 3 × 3 small area is latched in the latch group 102 in the horizontal and vertical directions as shown in FIG. 2A. The latch group 102 includes nine latches,
The output of each latch becomes the address input of the ROM 103. ROM103
Is a table for storing data for binary to multi-value conversion in advance. In the binary-to-multivalue conversion using this table, image data as pixels at the position (shown in FIG. 2B) corresponding to the central pixel of this small block is read from the ROM 103 from the nine binary pixels in FIG. 2A. Is output. In this embodiment, 8 bits (256 gradations) are adopted as the multi-valued image data, for example.

本実施例のROM103が記憶するテーブルデータを決定す
るのにニユーラルネツトワークを使用する。即ち、ニュ
ーラルネツトワークにおいてROM103の記憶データの学習
を行なうのである。ニユーラルネツトそのものの考え方
は、例えば、「ニユーラルネツトをパターン認識,信号
処理,知識処理に使う」(日経エレクトロニクス;1987
年8月10日)等に詳しく説明されている。
The neural network is used to determine the table data stored in the ROM 103 of this embodiment. That is, learning of the data stored in the ROM 103 is performed in the neural network. The idea of the neural net itself is, for example, "using the neural net for pattern recognition, signal processing, and knowledge processing" (Nikkei Electronics; 1987
August 10).

第3図は、この学習のためのニユーラルネツトの1実
施例の構成を示すブロツク図である。同図のニューラル
ネツトワークは、一般的にM×Nの大きさの参照ブロツ
クに対応できるように記されている。301は入力層i
を、302は中間層jを、303は出力層kを各々示す。従っ
て、上記第2A図の大きさの参照ブロツクが本実施例の装
置に適用される場合には、入力層iとして9個のニュー
ロンが、中間層として9個のニューロンが、出力層とし
て1個のニューロンが必要となる。各ニューロンは、不
図示の複数の加算器及び乗算器、除算器からなる。第3
図において、各ニューロンを接続する実線はデータの入
出力方向を示す。例えば、中間層の1番目のニューロン
は、入力層の全てのニューロンと結合している。入力層
iと中間層間jの結合の強度はWjiで表わされ、中間層
jと出力層k間の結合強度はWkjで表わされる。
FIG. 3 is a block diagram showing the configuration of one embodiment of the neural net for this learning. The neural network shown in the figure is generally written so as to correspond to a reference block having a size of M × N. 301 is the input layer i
, 302 indicates an intermediate layer j, and 303 indicates an output layer k. Therefore, when the reference block having the size shown in FIG. 2A is applied to the apparatus of this embodiment, nine neurons are used as the input layer i, nine neurons are used as the intermediate layer, and one neuron is used as the output layer. Neurons are needed. Each neuron includes a plurality of adders, multipliers, and dividers (not shown). Third
In the figure, a solid line connecting each neuron indicates a data input / output direction. For example, the first neuron in the hidden layer is connected to all neurons in the input layer. The coupling strength between the input layer i and the intermediate layer j is represented by Wji , and the coupling strength between the intermediate layer j and the output layer k is represented by Wkj .

第3図を用いて、テーブルデータを学習するための手
順を簡単に説明する。先ず、学習データとして、多値画
像データと、この多値画像データを所定の二値化処理に
より二値化データに変換したものを用意する。元の多値
画像データは理想出力として、教師信号(teach信号)
を生成するために使用される。即ち、結合強度Wji,Wkj
を初期的に適当に決定してから、この初期値に基づいて
結合されたネツトワークに、学習データとして上記二値
画像データを入力し、出力の多値画像データ(kout)を
得る。この出力と前記理想出力としての原多値画像デー
タとを比較し、この比較から教師信号(teach)を生成
する。この過程を第3図では、の過程として示し
ている。この教師信号から、バックプロパゲーション法
により、学習しながら前記Wji,Wkjを修正していく。こ
の過程は、第3図では、として示されている。こ
の学習を繰返すと、結合強度Wji,Wkjは、二値多値変
換(復元)に適切なものとして修正されていく。
A procedure for learning table data will be briefly described with reference to FIG. First, multi-valued image data and data obtained by converting the multi-valued image data into binary data by a predetermined binarization process are prepared as learning data. The original multi-valued image data is used as an ideal output as a teacher signal (teach signal).
Used to generate That is, the bond strengths W ji and W kj
Is appropriately determined initially, and then the binary image data is input as learning data to a network connected based on the initial values, and output multi-valued image data (kout) is obtained. This output is compared with the original multi-valued image data as the ideal output, and a teacher signal (teach) is generated from the comparison. This process is shown as a process in FIG. This teacher signal, the back propagation method, the W ji while learning, will modify the W kj. This process is shown in FIG. By repeating this learning, the connection strengths W ji and W kj are modified as appropriate for the binary-to-multi-valued conversion (restoration).

このようにして、結合強度が決定され固定されると、
第3図のニューラルネツトワークは、二値多値変換
(復元)に適切なシステムとして機能する。
In this way, once the bond strength is determined and fixed,
The neural network of FIG. 3 functions as a system suitable for binary-to-multilevel conversion (restoration).

次に、第4図に示すようなシステムで、ROM103の書き
込みを行なう。即ち、第4図のROM書き込みシステムに
おいて、3×3=9ビツトの所定の二値データを、順次
発生して、第3図のネツトワークに入力し、その出力を
ROM書き込みデータとしてROM103に書き込むのである。
上記所定の二値データは疑似の二値画像データである。
そして、このようにして書き込んだROMを第1図のROM10
3として使用する。
Next, the ROM 103 is written in the system as shown in FIG. That is, in the ROM writing system of FIG. 4, predetermined binary data of 3 × 3 = 9 bits are sequentially generated, input to the network of FIG. 3, and the output thereof is output.
The data is written to the ROM 103 as ROM write data.
The predetermined binary data is pseudo binary image data.
Then, the ROM written in this manner is stored in the ROM 10 of FIG.
Use as 3.

第5図はこの学習の為のフローチヤートである。ステ
ツプS402では、入力層と中間層の結びつきの強さを示す
重み係数Wji、中間層と出力層の結びつきの強さを示す
重み係数Wkjに初期値を与える部分である。初期値とし
て、学習過程の収束を考慮して、−0.5〜+0.5の範囲の
値を選択する。ステツプS404では、学習用の入力データ
のなかから、任意の位置の画素を注目画素(第2A図の*
で示した位置)として選択する。ステツプS404〜ステツ
プS406は、ニューラルネツトワークへの入出力データの
セットの手順である。即ち、ステツプS406では、この注
目画素を中心とする3×3領域内の画像データiout
(i)(ここで、i=1〜9)を、入力層にセットす
る。また、ステツプS408では、前記注目画素に対応する
理想出力としての多値画像データ(ideal_out)を用意
する。ステツプS410は、与えられた変換係数に基づき出
力kout(k)を計算する手順を示している。
FIG. 5 is a flowchart for this learning. In step S402, the initial value is given to the weight coefficient W ji indicating the strength of the connection between the input layer and the intermediate layer and the weight coefficient W kj indicating the strength of the connection between the intermediate layer and the output layer. As the initial value, a value in the range of -0.5 to +0.5 is selected in consideration of the convergence of the learning process. In step S404, a pixel at an arbitrary position is selected from the learning input data as a pixel of interest (* in FIG. 2A).
(The position indicated by). Steps S404 to S406 are procedures for setting input / output data to the neural network. That is, in step S406, the image data iout in the 3 × 3 area centered on the target pixel is set.
(I) (where i = 1 to 9) is set in the input layer. In step S408, multivalued image data (ideal_out) is prepared as an ideal output corresponding to the target pixel. Step S410 shows a procedure for calculating the output kout (k) based on the given transform coefficient.

即ち、入力層からのデータiout(i)に中間層の係数
Wjiを掛け、その総和SumFjを、 により計算し、次にj番目の中間層の出力jout(j)
を、0/1値に正規化するためにsigmoid関数を用いて、 によって計算する。ここでSumFjのFは前向き(Forwar
d)を意味する。同様にして、中間層から出力層への出
力値koutは次のようにして求める。まず、初めに出力層
の係数Wkjを用い、中間層からの出力値jout(j)とに
より積の総和を求めその値SumFkを得る。
That is, the data iout (i) from the input layer is added to the coefficient of the intermediate layer.
Multiplied by the W ji, and the sum Sum Fj, , And then the output jout (j) of the j-th hidden layer
Using the sigmoid function to normalize Calculate by Here, F of Sum Fj is positive (Forwar
means d). Similarly, the output value kout from the intermediate layer to the output layer is obtained as follows. First, using the coefficient W kj of the output layer, the sum of the products is obtained from the output value jout (j) from the intermediate layer to obtain the value Sum Fk .

次に、0/1に正規化するためにsigmoid関数を用いて、 に従って出力層kの出力kout(k)を得る。 Next, using the sigmoid function to normalize to 0/1, To obtain the output kout (k) of the output layer k.

こうして、1組のサンプルデータについてのFORWARD
方向の計算を終了する。以下は、BACKWARDの演算、即
ち、上記入力と理想出力の組から成るのサンプルデータ
からの学習により結合強度を補正するための手順であ
る。
Thus, FORWARD for a set of sample data
End the calculation of the direction. The following is the procedure for correcting the coupling strength by calculating the BACKWARD, that is, learning from the sample data consisting of the pair of the input and the ideal output.

そこで、ステツプS412で、初期値(ステツプS402でセ
ット)のWji,Wkjから計算した出力値koutと、予め用意
してある理想出力ideal_out(k)とを比較する。即
ち、この比較により、出力層の教師信号teach_k(k)
を、 teach_k(k)={ideal_out(k)−kout(k)} *kout(k)*{1−kout(k)} ……(5) によって計算する。(5)式中のkout(k)*{1−ko
ut(k)}はsigmoid関数の微分値の意義を有する。次
に、ステツプS414で、出力層の結合度の変化幅△W
kj(k,j)を求める。即ち、 △Wkj(k,j)=β*jout(j)*teach_k(k) +α*△Wkj(k,j) ……(6) を計算する。尚、α,βは固定値の係数で、この実施例
では、0.5とした。ステツプS415では、この変化幅△Wkj
(k,j)に基づいて、中間層と出力相関の結合度Wkj(k,
j)を更新する。即ち、学習する。
Therefore, at step S412, compares W ji of the initial value (set in step S402), the output value kout calculated from W kj, and an ideal output ideal_out (k) that is prepared in advance. That is, by this comparison, the teacher signal teach_k (k) of the output layer is obtained.
Is calculated as: teach_k (k) = {ideal_out (k) −kout (k)} * kout (k) * {1−kout (k)} (5) Kout (k) * {1-ko in the equation (5)
ut (k)} has a significance of a differential value of the sigmoid function. Next, in step S414, the width of change of the coupling degree of the output layer △ W
Find kj (k, j). That is, ΔW kj (k, j) = β * jout (j) * teach_k (k) + α * △ W kj (k, j) (6) Note that α and β are coefficients of fixed values, and are set to 0.5 in this embodiment. In step S415, this variation width △ W kj
Based on (k, j), the degree of coupling W kj (k,
j) is updated. That is, it learns.

Wkj(k,j)=△Wkj(k,j)+Wkj(k,j) ……(7) 次に、ステツプS416で、中間層の教師信号teach_j
(j)を計算する。即ち、先ず、 に基づいて、中間層の各ニューラルにおける、出力層か
らのBACKWARD方向の寄与を演算する。そして、この寄与
を、次式に従ってsigmoid関数の微分値を用いて正規化
することにより、中間層の教師信号teach_j(j)を演
算する。
W kj (k, j) = △ W kj (k, j) + W kj (k, j) (7) Next, in step S416, the teacher signal teach_j of the intermediate layer
Calculate (j). That is, first, , Calculate the contribution in the BACKWARD direction from the output layer in each neural of the hidden layer. Then, this contribution is normalized by using the differential value of the sigmoid function according to the following equation to calculate the teacher signal teach_j (j) of the intermediate layer.

teach_j(j)=jout(j)*{1−jout(j)}*S
umBj ……(9) 尚、(9)式のteach_j(j)は中間層における理想
信号としての意義を有する。
teach_j (j) = jout (j) * {1-jout (j)} * S
um Bj (9) Note that teach_j (j) in equation (9) has significance as an ideal signal in the intermediate layer.

次に、ステツプS418で、この教師信号teach_j(j)
を用いて、中間層の結合度の変化幅△Wji(j,i)を演算
する。即ち、 △Wji(j,i)=β*iout(i)*teach_j(j) +α*△Wji(j,i) ……(10) そして、ステツプS420では結合度Wji(j,i)を更新す
る。即ち、 Wji(j,i)=Wji(j,i)+△Wji(j,i) ……(11) である。
Next, in step S418, the teacher signal teach_j (j)
Is used to calculate the change width △ W ji (j, i) of the coupling degree of the intermediate layer. That is, ΔW ji (j, i) = β * iout (i) * teach_j (j) + α * △ W ji (j, i) (10) Then, in step S420, the coupling degree W ji (j, i) ) To update. That is, W ji (j, i) = W ji (j, i) + W ji (j, i) (11)

こうして、1つの注目画素の理想多値画像データidea
l_outと、これに対応する二値画像データであって、対
応位置周りの9画素の二値画像データとから、結合度W
jiとWkjとが学習され、ステツプS422では、このような
操作を、全注目画素(全組のサンプリングデータ)につ
いて行なったかを調べ、全組のサンプリングデータにつ
いて実行するまでステツプS404〜ステツプS420の手順を
繰返す。
Thus, the ideal multivalued image data idea of one pixel of interest
From l_out and the corresponding binary image data, that is, the binary image data of 9 pixels around the corresponding position, the connection degree W
ji and W kj are learned, and it is checked in step S422 whether such an operation has been performed for all the target pixels (all sets of sampling data), and until steps S404 to S420 have been executed for all sets of sampling data. Repeat the procedure.

全組のサンプリングデータについての学習を1回だけ
行なったのでは精度が低いと考えられるので、ステツプ
S424での判断により、この精度が高くなったと考えられ
るまで、ステツプS404〜ステツプS422の処理を繰返す。
It is considered that the accuracy is low if the learning for all sets of sampling data is performed only once.
Until it is determined in S424 that the accuracy has increased, the processing of steps S404 to S422 is repeated.

尚、ステツプS404で指定される注目画素は、シーケン
シヤルでなくランダムに指定される方がよい。
It is preferable that the target pixel specified in step S404 be specified randomly instead of sequentially.

こうして、第4図におけるニューラルネツトワーク内
の結合定数が二値多値変換に最適なように決定され
る。
In this way, the coupling constant in the neural network in FIG. 4 is determined so as to be optimal for the binary / multivalue conversion.

第4図のROMデータ決定装置においては、第1図実施
例に示した変換装置では、参照領域の大きさを3×3に
設定しているから、29=512個の入力パターンが考えら
れる。そこで、このような512通りのパターンを第4図
の装置に順に入力して、その出力をROMデータとする。
但し、第4図のニューラルネツトワークの出力の上位8
ビツトをROMデータとする。8ビツトとしたのは、復元
されるべき多値画像データを256(=28)階調と設定し
たためである。
In the ROM data determination device shown in FIG. 4, since the size of the reference area is set to 3 × 3 in the conversion device shown in FIG. 1, 2 9 = 512 input patterns can be considered. . Therefore, such 512 patterns are sequentially input to the apparatus shown in FIG. 4, and the output is used as ROM data.
However, the top 8 of the output of the neural network in FIG.
Bits are assumed to be ROM data. The reason why the number of bits is set to 8 is that the multi-valued image data to be restored is set to 256 (= 2 8 ) gradations.

以上説明したテーブルROMデータの決定方法は2値多
値変換だけに限らず、領域分離にも応用できる。特に2
値画像からの領域分離は従来例がないために有効であ
る。
The method of determining table ROM data described above can be applied not only to binary-to-multilevel conversion but also to area separation. Especially 2
Region separation from a value image is effective because there is no conventional example.

その領域分離への適用例を、第6図,第7図を用いて
以下に説明する。
An example of the application to the area separation will be described below with reference to FIGS. 6 and 7.

第6A図の例は、画像中に、原画が文字領域であった画
像部分と原画が写真領域(中間調画像領域)であった画
像部分とが含まれている場合に、この文字領域(第6A図
では斜線で示された部分)と写真領域とを分離しなが
ら、夫々の画質に適した復元処理を行なうというもので
ある。第6B図は、二値画像中に、原画が文字領域であっ
た二値画像部分と原画が写真領域(中間調画像領域)で
あった二値画像部分と、原画が文字とも写真とも区別が
できない領域であった二値画像部分が含まれている場合
に、この文字領域(第6B図では斜線で示された部分)と
写真領域と、これら2種類の画質の中間的な性質の画像
(第6B図では交叉線によって表わされている)とを互い
に分離しながら、夫々の画質に適した復元処理を行なう
というものである。第7図は、かかる二値→多値変換処
理装置のブロツク構成図である。但し、第6A図のような
入力画像データを対象とするときは、ROM202は不要とな
るであろう。
FIG. 6A shows an example in which an image includes an image portion in which the original image is a character region and an image portion in which the original image is a photograph region (halftone image region). In FIG. 6A, a restoring process suitable for each image quality is performed while separating a photographic area from a shaded area. FIG. 6B shows that, in the binary image, the binary image portion in which the original image was a character region and the binary image portion in which the original image was a photographic region (halftone image region) are distinguished from both a character and a photograph. When a binary image portion that is an area that cannot be included is included, the character area (the area indicated by hatching in FIG. 6B) and the photographic area, and an image having an intermediate characteristic between these two types of image quality ( (Represented by cross lines in FIG. 6B) while performing restoration processing suitable for each image quality. FIG. 7 is a block diagram of the binary to multi-value conversion processing device. However, when targeting input image data as in FIG. 6A, the ROM 202 will not be required.

第7図において、文字画像用ROM201や中間画像用ROM2
02や写真画像用ROM203は、第1図〜第5図等で説明した
ROMデータの作成方法により作成したROMデータを有して
いる。但し、各々のROMデータを作成するに際し、「理
想出力」として夫々、前もって用意した文字画像、写真
画像、中間画像の画像データを使用することは言うまで
もない。
In FIG. 7, ROM 201 for character images and ROM 2 for intermediate images
02 and the photographic image ROM 203 have been described with reference to FIGS.
It has ROM data created by the method of creating ROM data. However, it goes without saying that when creating each ROM data, the image data of the character image, the photographic image, and the intermediate image prepared in advance are used as the “ideal output”.

領域分離用のROMのデータを作成するためには、第8
図に示したようなシステムを用いる。即ち、学習の際
に、第8図に示すROM作成システムのように、ニューラ
ルネツトワークに対する二値入力として、第6A図または
第6B図の例のような二値画像を用いる。また、分離信号
の論理値として、文字領域をたとえば“2"、中間画像領
域には“1"、写真画像にはゼロという値を割り付けた上
で、第6A図または第6B図の例の画素位置に対応する上記
分離信号のマップを、理想出力として、ニューラルネツ
トワークに入力する。第6A図の画像例に対応するマップ
は例えば、第9図のようになる。このような学習によ
り、ROM204のデータが確定する。そして、このROM204の
出力は、入力の二値画像データの値に応じて、最適な分
離信号(0,1,2のいずれか1つ)である。セレクタ205
は、この分離信号を受けて、ROM201〜ROM203のいずれか
1つの出力を選択する。
In order to create ROM data for area separation,
A system as shown in the figure is used. That is, at the time of learning, as in the ROM creation system shown in FIG. 8, a binary image as shown in FIG. 6A or 6B is used as a binary input to the neural network. Also, as a logical value of the separation signal, for example, a character area is assigned a value of “2”, an intermediate image area is assigned a value of “1”, and a photographic image is assigned a value of zero. A map of the separation signal corresponding to the position is input to the neural network as an ideal output. A map corresponding to the image example of FIG. 6A is, for example, as shown in FIG. Through such learning, the data in the ROM 204 is determined. The output of the ROM 204 is an optimal separation signal (one of 0, 1, and 2) according to the value of the input binary image data. Selector 205
Receives the separation signal and selects one of the outputs of the ROM 201 to the ROM 203.

尚、上記領域分離への適用例では、領域分離信号のた
めの理想出力は、人間が前もって判断した論理値を用い
ていた。学習がより正確になるからである。理想出力を
得るためのマニュアル以外の手法として、多値原画像を
フイルタリングして、エツジ検出して、エツジ部を文字
領域とする方法がある。この変形手法によると、前記実
施例と同様に学習させ、M×Nの参照領域内の入力から
出力を得、それを理想出力に近づけるように重み係数
(結合係数)を更新していき、収束した重み係数の値か
ら2(MXN)の入力パターンに対するテーブルを得るように
することもできる。
In the above example of application to the area separation, the ideal output for the area separation signal uses a logical value determined in advance by a human. This is because learning becomes more accurate. As a method other than the manual method for obtaining the ideal output, there is a method of filtering the multivalued original image, detecting edges, and setting the edge portion to a character area. According to this modification method, learning is performed in the same manner as in the above embodiment, an output is obtained from an input in an M × N reference area, and a weight coefficient (coupling coefficient) is updated so as to approach an ideal output. A table for 2 (MXN) input patterns can be obtained from the weight coefficient values obtained.

[発明の効果] 以上説明したように、第1項に係る本発明の画像処理
方法によれば、ニューラルネットワークの学習機能を利
用して、その学習に基づいて二値から多値への画像復元
用の変換テーブルのデータを決定するので、従来のテー
ブル決定より優れている。
[Effects of the Invention] As described above, according to the image processing method of the present invention according to the first aspect, the image restoration from binary to multi-valued based on the learning using the learning function of the neural network. It is superior to the conventional table determination because the data of the conversion table is determined.

また、第2項に係る画像処理方法によれば、ニューラ
ルネットワークの学習機能を利用して、その学習に基づ
いて像域分離用の変換テーブルのデータを決定するの
で、従来のテーブル決定より優れている。
Further, according to the image processing method according to the second aspect, since the data of the conversion table for image area separation is determined based on the learning using the learning function of the neural network, it is superior to the conventional table determination. I have.

第3項に係る画像処理方法によれば、学習用二値画像
データはm×nの大きさであり、理想出力はその二値画
像の原多値画像である。多値画像が二値化された場合に
は、原画像の情報は所定の大きさの画素ブロックに拡散
されるから、学習時における、ニューラルネットワーク
の学習用の入力データをこの画素ブロックとして表現さ
れる二値画像データを用いることにより、二値画像から
多値画像の復元が正確になる。
According to the image processing method of the third aspect, the binary image data for learning has a size of m × n, and the ideal output is an original multivalued image of the binary image. When the multi-valued image is binarized, the information of the original image is diffused into pixel blocks of a predetermined size, so that the input data for learning of the neural network at the time of learning is expressed as this pixel block. By using the binary image data, the restoration of the multi-valued image from the binary image becomes accurate.

第4項に係る画像処理方法によれば、前記ニューラル
ネットワークの学習はバックプロパゲーション法によ
る。バックプロパゲーション法による学習は高速であ
る。
According to the image processing method of the fourth aspect, the learning of the neural network is based on a back propagation method. Learning by the back propagation method is fast.

第5項に係る画像処理方法によれば、学習用画像デー
タはm×nの大きさであり、理想出力は少なくとも学習
前に決定された領域信号である。これにより、領域分離
のための画像処理のためのテーブルのデータの作成時
に、ニューラルネットワークの学習が利用されたことと
なり、領域分離の精度が向上する。
According to the image processing method of the fifth aspect, the learning image data has a size of m × n, and the ideal output is at least an area signal determined before learning. As a result, the learning of the neural network is used at the time of generating the data of the table for the image processing for the region separation, and the accuracy of the region separation is improved.

また、第6項の画像処理装置によれば、上記画像処理
方法を適用して作成したテーブルを備えるので、画像処
理装置自体が小型化される。
Further, according to the image processing device of the sixth aspect, since the image processing device includes the table created by applying the image processing method, the size of the image processing device itself is reduced.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明を3×3のウインドの場合に適用した実
施例の装置の構成を示すブロツク図、 第2A図,第2B図は、夫々、入力の二値画像データと理想
出力として多値画像データを示すとともに、互いの対応
関係をも示す図、 第3図は、本実施例のテーブルROMのデータの決定の際
に用いられるニューラルネツトワークの構成を示すブロ
ツク図、 第4図は、ネツトワークの結合定数が決定した後におけ
る、ROMデータを作成するための装置構成を示すブロツ
ク図、 第5A図,第5B図は、学習のための第3図ネツトワーク内
で行なわれる制御手順のフローチヤート、 第6A図,第6B図は、本発明を異なる画質が混在する画像
に対する画像処理に適用する場合における、画像処理RO
Mデータ及び領域分離ROMデータを決定するためにニュー
ラルネツトワークに入力される入力画像データを説明す
る図、 第7図は本発明を異なる画質が混在する画像に対する画
像処理に適用した場合の画像処理装置の構成を示すブロ
ツク図、 第8図は領域分離用のROMのデータを作成するための装
置を構成を示すブロツク図、 第9図は領域分離ROMを作成する際の、理想出力となる
べき入力信号をマップとして示した図である。 図中、 101……3ラインバツフア、102……ラッチ群、103……
二値→多値変換用ROM、200……入力端子、201……文字
画像処理用ROM、202……中間画像用、203……写真画像
処理用ROM、204……領域分離用ROM、205……セレクタ、
301……入力層、302……中間層、303……出力層であ
る。
FIG. 1 is a block diagram showing the configuration of an apparatus according to an embodiment in which the present invention is applied to a 3 × 3 window, and FIGS. 2A and 2B are diagrams each showing input binary image data and ideal output as multiple outputs. FIG. 3 is a block diagram showing a configuration of a neural network used in determining data of a table ROM according to the present embodiment. FIG. 5 is a block diagram showing the configuration of an apparatus for creating ROM data after the coupling constant of the network is determined. FIGS. 5A and 5B are control procedures performed in the network for learning in FIG. FIGS. 6A and 6B show image processing RO in the case where the present invention is applied to image processing for images having different image qualities.
FIG. 7 is a view for explaining input image data input to a neural network to determine M data and area separation ROM data. FIG. 7 shows image processing when the present invention is applied to image processing for images having different image qualities. FIG. 8 is a block diagram showing the structure of the device, FIG. 8 is a block diagram showing the structure of a device for creating ROM for area separation, and FIG. 9 is an ideal output when creating a region separation ROM. FIG. 3 is a diagram showing an input signal as a map. In the figure, 101 ... 3 line buffer, 102 ... latch group, 103 ...
ROM for binary to multi-level conversion, 200 ... Input terminal, 201 ... ROM for character image processing, 202 ... ROM for intermediate image, 203 ... ROM for photo image processing, 204 ... ROM for area separation, 205 ... …selector,
301 ... input layer, 302 ... intermediate layer, 303 ... output layer.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭62−107573(JP,A) 特開 昭63−184880(JP,A) 特開 平2−72491(JP,A) 特開 平2−215276(JP,A) 特開 平3−273761(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06T 1/00 - 1/40 H04N 1/40 - 1/409──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-62-107573 (JP, A) JP-A-63-184880 (JP, A) JP-A-2-72491 (JP, A) JP-A-2- 215276 (JP, A) JP-A-3-273761 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G06T 1/00-1/40 H04N 1/40-1/409

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】入力の二値画像データを変換テーブルに入
力して多値画像データに復元する画像処理方法におい
て、 学習用の二値画像データと理想出力とを用意する工程
と、 前記学習用の二値画像データと理想出力とを、ニューラ
ルネットワークに入力して、このネットワークのニュー
ロン間の画像復元に適した結合係数を学習する工程と、 学習後のニューラルネットワークに入力の二値画像デー
タを入力して、その出力を得ることにより、この入力の
二値画像データを入力とし前記ネットワークの出力を出
力とする変換テーブルを決定する工程と、 この変換テーブルで前記ニューラルネットワークを置き
換える工程とからなることを特徴とするニューラルネッ
トを用いた画像処理方法。
1. An image processing method for inputting binary image data into a conversion table and restoring the binary image data into multi-valued image data, comprising the steps of: preparing binary image data for learning and an ideal output; Inputting the binary image data and the ideal output to a neural network and learning a coupling coefficient suitable for image restoration between neurons of the network; and inputting the binary image data to the neural network after the learning. A step of determining a conversion table that inputs the binary image data of the input and obtains an output thereof, and that outputs the output of the network as an input; and replacing the neural network with the conversion table. An image processing method using a neural network.
【請求項2】入力画像データを変換テーブルを用いて像
域分離する画像処理方法において、 学習用の入力画像データと対応する像域分離結果を表す
理想出力とを用意する工程と、 前記学習用の画像データと理想出力とを、ニューラルネ
ットワークに入力して、このネットワークのニューロン
間の像域分離に適した結合係数を学習する工程と、 学習後のニューラルネットワークに入力画像データを入
力して、その出力を得ることにより、この入力画像デー
タを入力とし前記ネットワークの出力を出力とする変換
テーブルを決定する工程と、 この変換テーブルで前記ニューラルネットワークを置き
換える工程とからなることを特徴とするニューラルネッ
トを用いた画像処理方法。
2. An image processing method for image area separation of input image data using a conversion table, comprising the steps of: preparing input image data for learning and an ideal output representing a corresponding image area separation result; Inputting the image data and the ideal output to a neural network and learning a coupling coefficient suitable for image area separation between neurons of the network; and inputting the input image data to the neural network after the learning. Obtaining the output thereof, and determining a conversion table that receives the input image data as an input and outputs the output of the network as an output; and replacing the neural network with the conversion table. Image processing method using
【請求項3】前記学習用二値画像データはm×nの大き
さを有し、前記理想出力は前記学習用二値画像の原多値
画像である事を特徴とする請求項1に記載のニューラル
ネットを用いた画像処理方法。
3. The learning binary image data according to claim 1, wherein said learning binary image data has a size of m × n, and said ideal output is an original multi-valued image of said learning binary image. Image processing method using a neural network.
【請求項4】前記ニューラルネットワークの学習はバッ
クプロパゲーション法による事を特徴とする請求項1乃
至3のいずれかに記載のニューラルネットを用いた画像
処理方法。
4. The image processing method using a neural network according to claim 1, wherein the learning of the neural network is performed by a back propagation method.
【請求項5】前記学習用入力画像データはm×nの大き
さを有し、前記理想出力は少なくとも学習前に決定され
た領域信号である事を特徴とする請求項2に記載のニュ
ーラルネットを用いた画像処理方法。
5. The neural network according to claim 2, wherein the learning input image data has a size of m × n, and the ideal output is at least a region signal determined before learning. Image processing method using
【請求項6】請求項1または2に記載の画像処理方法を
適用して作成したテーブルを備える画像処理装置。
6. An image processing apparatus comprising a table created by applying the image processing method according to claim 1 or 2.
JP2153935A 1990-06-14 1990-06-14 Image processing method and image processing apparatus using neural network Expired - Fee Related JP2859377B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2153935A JP2859377B2 (en) 1990-06-14 1990-06-14 Image processing method and image processing apparatus using neural network
US07/713,312 US5309525A (en) 1990-06-14 1991-06-11 Image processing apparatus using neural network
DE69127510T DE69127510T2 (en) 1990-06-14 1991-06-13 Image processing system with neural network
EP91305365A EP0461903B1 (en) 1990-06-14 1991-06-13 Image processing apparatus using neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2153935A JP2859377B2 (en) 1990-06-14 1990-06-14 Image processing method and image processing apparatus using neural network

Publications (2)

Publication Number Publication Date
JPH0447471A JPH0447471A (en) 1992-02-17
JP2859377B2 true JP2859377B2 (en) 1999-02-17

Family

ID=15573297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2153935A Expired - Fee Related JP2859377B2 (en) 1990-06-14 1990-06-14 Image processing method and image processing apparatus using neural network

Country Status (1)

Country Link
JP (1) JP2859377B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2978672B2 (en) * 1993-01-28 1999-11-15 株式会社東芝 Recording device
JP6942203B2 (en) * 2018-01-16 2021-09-29 オリンパス株式会社 Data processing system and data processing method

Also Published As

Publication number Publication date
JPH0447471A (en) 1992-02-17

Similar Documents

Publication Publication Date Title
CN113240580B (en) Lightweight image super-resolution reconstruction method based on multi-dimensional knowledge distillation
CN111292264B (en) Image high dynamic range reconstruction method based on deep learning
EP0449516B1 (en) Image processing using neural network
JP3184092B2 (en) Image processing method
CN108416753B (en) Image denoising algorithm based on non-parametric alternating direction multiplier method
EP0461903B1 (en) Image processing apparatus using neural network
JPH0737087A (en) Picture processor
CN111383173B (en) Baseline-based image super-resolution reconstruction method and system
CN111861886B (en) Image super-resolution reconstruction method based on multi-scale feedback network
CN111047543A (en) Image enhancement method, device and storage medium
CN110866922B (en) Image semantic segmentation model and modeling method based on reinforcement learning and migration learning
KR101888647B1 (en) Apparatus for classifying image and method for using the same
JP2859377B2 (en) Image processing method and image processing apparatus using neural network
CN115526891B (en) Training method and related device for defect data set generation model
JPH0981723A (en) Image processor
CN115346091A (en) Method and device for generating Mura defect image data set
JPH0620048A (en) Image processor
JP2863072B2 (en) Image gradation conversion method and image processing device
JP2810497B2 (en) Image processing device
JPH0447474A (en) Picture processing system using neural network
JP3303253B2 (en) Pattern matching method and apparatus
JP2891505B2 (en) Halftone image restoration method
JPH0447470A (en) Picture processing system using neural net and picture processing device using the system
KR100269152B1 (en) Image segmentation method using fuzzy membership function
Qiu Image Reconstruction of Tang Sancai Figurines Based on Artificial Intelligence Image Extraction Technology Based on Ration

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees