JPH02165285A - Pattern recognition device - Google Patents

Pattern recognition device

Info

Publication number
JPH02165285A
JPH02165285A JP63319525A JP31952588A JPH02165285A JP H02165285 A JPH02165285 A JP H02165285A JP 63319525 A JP63319525 A JP 63319525A JP 31952588 A JP31952588 A JP 31952588A JP H02165285 A JPH02165285 A JP H02165285A
Authority
JP
Japan
Prior art keywords
pattern
layer
data
output
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63319525A
Other languages
Japanese (ja)
Inventor
Yuuri Oowada
大和田 有理
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP63319525A priority Critical patent/JPH02165285A/en
Publication of JPH02165285A publication Critical patent/JPH02165285A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To accurately recognize a pattern only by a pattern input by inputting 1 or 0 binary data to an input layer and using data from an output layer and the 1 or 0 binary data corresponding to the character pattern of a JIS code as educator data in a hierarchical network composed of three layers, which are the input layer, an intermediate layer, and the output layer. CONSTITUTION:A three-layer laminated neutral network having the input layer, the intermediate layer, and the output layer is composed of a unit 11 called as a neutron model, a synapse tie-branch 12 having a weight coefficient, an arithmetic part to multiply the weights of internal connections with each other and obtain the sum of the products, and a threshold value processing part to generate one output. Further, the pattern recognition device is composed of an interface part 21 to designate the number of units and the number of the times of learning for each layer, a network generating part 22, a pattern input part 23 to read in input data and the educator data, a learning execution part 24 to update the weight of each layer, a parameter setting part 25 to set the learning, a weight retaining part 26, a recognizing part 27, and a result display part 28.

Description

【発明の詳細な説明】 〔概   要〕 階層型ニューラルネットワークによるパターン認識装置
に関し、 階層型ニューラルネットワークを用いて不完全なパター
ンを完全なパターンに再生するパターン認識装置を提供
することを目的とし、 入力層、中間層、出力層の3層構造のネットワークを生
成するネットワーク生成手段と、2次元配列されたパタ
ーンの各要素を1次元配置した入力層の各ユニットに入
力させ、中間層を介して出力層から得られる出力データ
と教師データとの差を計算しその差が小さくなるように
バックプロパゲーション法アルゴリズムに従って前記各
層間の結合の重みを決定する学習演算手段と、前記学習
演算の結果として前記ネットワーク間の結合の重みを保
存する保存手段と、認識時に前記重み保存手段から結合
の重みをロードし、認識したいパターンを前記入力層の
各ユニットに入力し、得られた出力層からの出力データ
と教師データとの差よりその差が小さい教師データに対
応するパターンを認識パターンとして出力する認識手段
とを有する階層型ニューラルネットワークを用いてパタ
ーン認識を行うように構成する。
[Detailed Description of the Invention] [Summary] Regarding a pattern recognition device using a hierarchical neural network, an object of the present invention is to provide a pattern recognition device that reproduces an incomplete pattern into a complete pattern using a hierarchical neural network. A network generating means that generates a network with a three-layer structure of an input layer, a middle layer, and an output layer, and inputting each element of a two-dimensionally arranged pattern to each unit of a one-dimensionally arranged input layer, and passing it through the middle layer. learning calculation means for calculating the difference between the output data obtained from the output layer and the training data and determining the weight of the connection between the respective layers according to a backpropagation algorithm so that the difference becomes small; a storage means for storing connection weights between the networks; and a storage means for loading the connection weights from the weight storage means at the time of recognition, inputting a pattern to be recognized to each unit of the input layer, and outputting from the obtained output layer. The present invention is configured to perform pattern recognition using a hierarchical neural network having recognition means for outputting a pattern corresponding to teacher data whose difference is smaller than the difference between the data and the teacher data as a recognition pattern.

〔産業上の利用分野] 本発明は曖昧性を伴うパターンを完全パターンに再生す
る認識装置に係り、更に詳しくは階層型ニューラルネッ
トワークによるパターン認識装置に関する。
[Industrial Application Field] The present invention relates to a recognition device that reproduces a pattern with ambiguity into a complete pattern, and more particularly to a pattern recognition device using a hierarchical neural network.

生物の脳や神経と同様に簡単な処理を実行するニューロ
ンを相互に結合して認識や連想等の複雑な処理を実行す
るニューロコンピュータが注目され、そのニューロコン
ピュータを実現するための基本回路網はニューラルネッ
トワークと呼ばれている。ニューラルネットワークでは
、計算機や記憶等の処理を超並列で行い、ソフトウェア
の使用を避け、その代わりにネット内のニューロン間の
結合の重みを自動調整して学習し、自己組織化すること
により重みを決定し、その後の認識や連想を行うもので
ある。
Neurocomputers, which perform complex processing such as recognition and association by interconnecting neurons that perform simple processing, similar to the brains and nerves of living things, are attracting attention, and the basic circuit network to realize such neurocomputers is It's called a neural network. Neural networks perform computer and memory processing in massively parallel fashion, avoid the use of software, and instead automatically adjust the weights of the connections between neurons in the network, learn, and self-organize to adjust the weights. Decisions are made, and subsequent recognition and associations are made.

〔従来の技術〕[Conventional technology]

従来のパターン認識においては、パターンの特徴を抽出
したり、抽出によって出来た参照パターンを記憶し、与
えられたパターンとの照合を行うためにノイマン型計算
機を用いて行っていた。
In conventional pattern recognition, a Neumann computer is used to extract the features of a pattern, store a reference pattern created by the extraction, and match it with a given pattern.

〔発明が解決しようとする課題] 従来のパターン認識においては、パターンの特徴抽出に
膨大なプログラムと時間を必要とし、さらに認識用の辞
書を作成するのに人間が介在していたため、入力ミス等
による辞書データの誤りが存在し、従ってパターンが辞
書にマツチングしない場合には認識不可能となる場合が
生じるという問題点があった。さらにパターンの一部が
破損したり、パターンにノイズがある場合等の不完全な
パターンの入力に対して辞書にある完全なパターンを引
き出すことが難しく、不完全情報を完全情報に再生する
という連想処理を行うことが出来ないという問題点を生
じていた。
[Problems to be solved by the invention] Conventional pattern recognition requires a huge amount of program and time to extract the features of a pattern, and also requires human intervention to create a dictionary for recognition, resulting in input errors etc. There is a problem in that there are errors in the dictionary data, and therefore, if the pattern does not match the dictionary, it may become unrecognizable. Furthermore, it is difficult to retrieve a complete pattern from a dictionary when an incomplete pattern is input, such as when a part of the pattern is damaged or there is noise in the pattern. This has caused the problem that processing cannot be performed.

本発明は階層型ニューラルネットワークを用いて不完全
なパターンを完全なパターンに再生することを目的とす
る。
The present invention aims to reproduce an incomplete pattern into a complete pattern using a hierarchical neural network.

〔課題を解決するための手段〕[Means to solve the problem]

第1図は本発明の原理構成図である。 FIG. 1 is a diagram showing the principle configuration of the present invention.

本発明は階層型ニューラルネットを用いて、−パターン
の認識を行うもので、ネットワーク生成手段1は、入力
層、中間層、出力層の3層構造のネットワークを生成し
、学習演算手段2は、2次元配列されたパターンの各要
素を1次元配置した入力層の各ユニットに入力させ、中
間層を介して出力層から得られる出力データと教師デー
タとの差を計算しその差が小さくなるようにバックプロ
パゲーション法アルゴリズムに従って前記各層間の結合
の重みを決定する。また、保存手段3は、学習演算の結
果として前記ネットワーク間の結合の重みを保存し、認
識時に前記重み保存手段3から結合の重みをロードし、
認識したいパターンを前記入力層の各ユニットに入力し
、認識手段4は、得られた出力層からの出力データと教
師データとの差よりその差が小さい教師データに対応す
るパターンを認識パターンとして出力する。
The present invention uses a hierarchical neural network to recognize -patterns, and the network generation means 1 generates a network with a three-layer structure of an input layer, an intermediate layer, and an output layer, and the learning calculation means 2 Each element of the two-dimensionally arranged pattern is input to each unit of the one-dimensionally arranged input layer, and the difference between the output data obtained from the output layer via the intermediate layer and the training data is calculated and the difference is minimized. Then, the weights of the connections between the layers are determined according to a backpropagation algorithm. Further, the storage means 3 stores the weights of the connections between the networks as a result of the learning calculation, and loads the weights of the connections from the weight storage means 3 at the time of recognition,
A pattern to be recognized is input to each unit of the input layer, and the recognition means 4 outputs a pattern corresponding to the teacher data whose difference is smaller than the difference between the output data from the output layer obtained and the teacher data as a recognition pattern. do.

〔作   用〕[For production]

本発明では入力層、中間層、出力層の3層の階層型ニュ
ーラルネットワークにおい:、l又は0で表される2値
データを入力Nf)各ユニットに入力し、出力層から出
力される出力データとJISコードの文字パターンに対
応するl又は0の2値データを教師データとして、その
出力データとの誤差が小さくなるように各層のユニット
間の結合の重みを変えて学習し、認識時に認識したいパ
ターンの入力データを与えて出力される出力データと教
師データの誤差が小さい場合に入力したパターンを認識
したとする。
In the present invention, in a hierarchical neural network having three layers: an input layer, a middle layer, and an output layer, binary data represented by , l or 0 is input to each unit, and output data is output from the output layer. I would like to learn by changing the weights of connections between units in each layer so that the error with the output data is small, using binary data of l or 0 corresponding to the character pattern of the JIS code as training data, and recognize it at the time of recognition. It is assumed that the input pattern is recognized when the error between the input data of the pattern and the output data outputted and the teacher data is small.

〔実  施  例〕〔Example〕

第2図は本発明に用いられる階層型ニューラルネットワ
ークの構成図である。同図において、11は形式ニュー
ロンモデルと呼ばれるユニ・ント、12は重み係数を有
するシナラプス結合の技である。階層型ニューラルネッ
トワークは入力層、中間層、出力層の3層構造であるが
、中間層が複数である場合もある。各ユニットは複数の
それぞれの入力に対して、それぞれの内部結合の重みを
乗じてこれらの積和を求める積和演算部と、更に闇値処
理を施して1つの出力を行う闇値処理部とを持っている
FIG. 2 is a block diagram of a hierarchical neural network used in the present invention. In the figure, 11 is a unit called a formal neuron model, and 12 is a synalapse connection technique having weighting coefficients. A hierarchical neural network has a three-layer structure of an input layer, a middle layer, and an output layer, but there may be a plurality of middle layers. Each unit includes a product-sum operation section that multiplies each of the plurality of inputs by the weight of each internal connection and calculates the sum of these products, and a dark value processing section that further performs dark value processing and outputs one output. have.

第3図は、本発明に用いられるユニットの構成図である
。同図のユニットにおいて、実行される演算は次式で示
される。
FIG. 3 is a configuration diagram of a unit used in the present invention. In the unit shown in the figure, the calculation executed is shown by the following equation.

Xj、=ΣyいWih−θ。Xj,=ΣyWih−θ.

ypi=f h  : i   : p   : θi : W、h: (Xpt) h層のユニット番号 i層のユニット番号 入カバターン番号 i層のi番目のユニットの閾値 h−i層間の内部結合の重み xp、:h層の各ユニットからi層の1番ユニットへの
入力の積和 yph:Pパターン入力に対するh層の出力)’pi:
Pパターン入力に対するi層の出力f :闇値処理関数 上式で示される演算を各層におけるユニットが実行する
。学習処理においては入力データに対する出力データで
教師データとの誤差が小さくなるようにネット上の重み
を決定する。闇値関数としては以下の関数すなわち、シ
グモイド関数を用いる。
ypi=f h: i: p: θi: W, h: (Xpt) Unit number of layer h Unit number of layer i Cover turn number Threshold of the i-th unit of layer i h - Weight of internal connection between layer i xp , : sum of products of inputs from each unit of h layer to the 1st unit of i layer yph: output of h layer for P pattern input)'pi:
Output f of layer i in response to P pattern input: Dark value processing function Units in each layer execute the operation shown by the above formula. In the learning process, the weights on the net are determined so that the error between the input data and the output data with the teacher data is small. The following function, ie, the sigmoid function, is used as the darkness value function.

f  (x)=1/ (1+exp  (−x))この
階層型ニューラルネットワークにおける学習処理、すな
わちバックプロパゲーション方式を簡単に説明する。闇
値処理関数、すなわちシグモイド関数はXで偏微分する
と次の式になる。
f (x)=1/ (1+exp (-x)) The learning process in this hierarchical neural network, ie, the backpropagation method, will be briefly explained. When the dark value processing function, that is, the sigmoid function is partially differentiated with respect to X, it becomes the following equation.

ベクトルとの誤差、すなわち Ep=1/2  Σ (ypJ−d9J)2E=ΣEp 但し、 EpSP番目パターン入力に対する誤差ベクトルE :
全パターン入力に対する誤差ベクトルの総和 dp」’P番目パターン入力に対するj層j番目ユニッ
トへの教師データ バックプロパゲーション方式による学習アルゴリズムで
は最急降下法の考え方を用いて重みδWjl(1)の更
新を反復することにより、Eの極小値に収束させるよう
にしている。そのため、重み係数の更新量は、次式で示
される。
Error from the vector, that is, Ep = 1/2 Σ (ypJ - d9J) 2E = ΣEp However, EpThe error vector E for the SP-th pattern input:
The sum of error vectors for all pattern inputs dp'''In the learning algorithm using the back propagation method of training data to the j-th layer and the j-th unit for the P-th pattern input, the weight δWjl (1) is repeatedly updated using the steepest descent method. By doing so, E is converged to the minimum value. Therefore, the update amount of the weighting coefficient is expressed by the following equation.

最適な重み探索のアルゴリズムは重みの初期値を与え、
教師入力ベクトルとネットワークの出力ここでεとαは
制御パラメータである。すなわちバックプロパゲーショ
ン方式では、重みの値が出力データと教師データとの誤
差が最小になるように決定されている。すなわち、階層
型ニューラルネットワークでは、入力データと教師デー
タとの組をパターンとして繰り返し与えることにより、
ユニット間の結合の重みを自動調整して学習し、学習後
の重みを用いて、人力データ、すなわち不完全情報を与
えれば、対応した出力データ、すなわち完全情報を再生
することが可能となる。従ってパターンを読み取る機械
等にこの階層型ニューラルネットワークを組み込むこと
によってプログラムすることなくパターン認識を行うこ
とが可能となる。
The optimal weight search algorithm gives initial values of weights,
Teacher input vector and network output where ε and α are control parameters. That is, in the backpropagation method, the weight values are determined so that the error between the output data and the teacher data is minimized. In other words, in a hierarchical neural network, by repeatedly giving a set of input data and training data as a pattern,
By automatically adjusting and learning the weights of connections between units, and using the learned weights to provide human data, that is, incomplete information, it becomes possible to reproduce the corresponding output data, that is, complete information. Therefore, by incorporating this hierarchical neural network into a machine that reads patterns, it becomes possible to perform pattern recognition without programming.

第4図(a)は本発明のパターン認識装置の構成図、第
4図(b)はパターン認識の各部の手順を示す図である
。同図において、21は各層のユニット数の指定や学習
回数の指定を行うインタフェース部、22はネットワー
クを生成するネットワーク生成部、23は人力データと
教師データを読み込むパターン入力部、24は中間層の
データ及び出力データを求め、出力データと教師データ
の差によって中間層と出力層の重み、及び入力層と中間
層の重みを更新する学習演算部、25は学習に関するパ
ラメータを設定するパラメータ設定部、26は入力層と
中間層の重みを保存し、さらに中間層と出力層の重みを
保存する重み保存部、27は入力データを与え、中間層
のデータと出力データを求め、認識する認識部、28は
出力データを表示する結果表示部である。ユーザはコマ
ンドを入力すると階層型ネットワークの各層のユニット
数、学習のパラメータ、学習回数の指定等がコマンドに
従い、ネットワークを形成する。次に入力データとそれ
に対する教師データとの組を与え、バックプロパゲーシ
ョン法アルゴリズムを用いて学習が始まる。予め指定さ
れた回数を学習し終わると、学習を終了し、ユニット間
の結合の重みが決定される。この重みを保存する。認識
時では認識したいパターンの入力データをネットワーク
に与えるとネットワークでは各ユニット間の結合の重み
を用いて出力データを表示する。
FIG. 4(a) is a block diagram of the pattern recognition apparatus of the present invention, and FIG. 4(b) is a diagram showing the procedure of each part of pattern recognition. In the figure, 21 is an interface section for specifying the number of units in each layer and the number of learning times, 22 is a network generation section for generating a network, 23 is a pattern input section for reading human data and teacher data, and 24 is an intermediate layer section. a learning calculation unit that obtains data and output data and updates the weights of the intermediate layer and the output layer and the weights of the input layer and the intermediate layer based on the difference between the output data and the teacher data; 25 is a parameter setting unit that sets parameters related to learning; 26 is a weight storage unit that stores the weights of the input layer and the intermediate layer, and further stores the weights of the intermediate layer and the output layer; 27 is a recognition unit that receives input data and calculates and recognizes the intermediate layer data and output data; 28 is a result display section that displays output data. When a user inputs a command, the number of units in each layer of the hierarchical network, learning parameters, number of learning times, etc. are specified according to the command, and a network is formed. Next, a set of input data and corresponding training data is given, and learning begins using a backpropagation algorithm. When learning is completed a pre-specified number of times, the learning is terminated and the weights of connections between units are determined. Save this weight. During recognition, when input data of a pattern to be recognized is given to the network, the network displays output data using the weight of connections between each unit.

第5図は8×8ドツトに描かれるアルファベットを認識
するパターン認識装置の実施例図である。
FIG. 5 is an embodiment of a pattern recognition device that recognizes alphabets drawn on 8×8 dots.

同図において、31は8×8ドツトの入力データ、32
は64個のユニット数から構成される入力層、33は1
3個のユニット数を有する中間層、34は26個のユニ
ット数からなる出力層である。教師データは出力層のユ
ニット数と同じ26文字分用意され、入力データに対す
る回答のところを値lとし、その他はOとする。第5図
に示される8×8ドツトの文字はアルファヘットのAと
いう文字であり、Aに対応するところが1、そうでない
部分が0となっている。64ドツトの各ドツトの0閾値
パターンは入力層32にある64個のニューロンのそれ
ぞれに入力される。中間層33のユニット数は、般に入
力層32のユニット数、或いは出力層34のユニット数
より少ない数、ここでは13個にしている。出力層34
のユニット数は26でこれはアルファベットのAからZ
に対応している。この例では学習時に入力されるパター
ンはAというアルファベットの文字の完全情報が入力さ
れ、この入力データに対する出力層のデータは初期重み
の値に対する出力データであるため、アルファベットA
に対応する出力層の一番上のユニットのみが1でそれ以
外はOになる教師データと同じ信号ではない信号が出力
され、この出力データと1番上が1であってそれ以外は
Oである教師データとの誤差がすなわち、最小値誤差が
計算され、その誤差が最小になるように入力層32と中
間層33との間の重み係数並びに中間層と出力層との間
の重み係数がバックプロパゲーション方式に従って決定
される。このように定まった重み係数のみ保存部に記憶
される。認識時には入力層に入力される入力データには
学習時にいれた完全情報ではなく、不完全なすなわちノ
イズが含まれるAという文字であるとする。このような
場合でも学習時に定めた重み係数に従って、ノイズのあ
るドツトに対応する入力が入った場合でもそれに対応す
る重み係数は小さく、抑制されてノイズが除去されるこ
とになる。従って不完全情報は完全情報に直され、その
結果が出力データとして出力されるため、教師データと
の差は非常に小さくなってパターンマツチングが実行さ
れることになる。
In the same figure, 31 is input data of 8×8 dots, 32
is an input layer consisting of 64 units, 33 is 1
The intermediate layer has a number of units of 3, and 34 is the output layer that has a number of units of 26. The teacher data is prepared for 26 characters, which is the same as the number of units in the output layer, and the answer to the input data is set to the value l, and the others are set to O. The 8×8 dot character shown in FIG. 5 is an alpha-headed character A, and the part corresponding to A is 1, and the other part is 0. The zero threshold pattern for each of the 64 dots is input to each of the 64 neurons in the input layer 32. The number of units in the intermediate layer 33 is generally smaller than the number of units in the input layer 32 or the number of units in the output layer 34, and is 13 here. Output layer 34
The number of units is 26, which is the alphabet from A to Z.
It corresponds to In this example, the pattern input during learning is the complete information of the letter A, and the output layer data for this input data is the output data for the initial weight value, so the alphabet A
Only the top unit of the output layer corresponding to is 1 and the others are O. A signal that is not the same as the teacher data is output, and this output data and the top unit are 1 and the others are O. The error with certain teacher data, that is, the minimum value error, is calculated, and the weighting coefficient between the input layer 32 and the intermediate layer 33 and the weighting coefficient between the intermediate layer and the output layer are calculated so that the error is minimized. Determined according to the backpropagation method. Only the weighting coefficients determined in this manner are stored in the storage unit. It is assumed that during recognition, the input data input to the input layer is not the complete information entered during learning, but is the character A, which is incomplete, that is, contains noise. Even in such a case, even if an input corresponding to a noisy dot is received, the corresponding weighting coefficient will be small and the noise will be suppressed and removed according to the weighting coefficient determined during learning. Therefore, incomplete information is converted into complete information and the result is output as output data, so that pattern matching is executed with the difference from the teacher data becoming very small.

第6図は本発明のパターン認識装置によるアルファベッ
トの文字パターンとそれに対応する教師データとの実施
例図である。同図において、1番上はAという文字の入
力データとそれに対応する教師データであり、教師デー
タは26ビツトの情報でもっとも左が1すなわちアルフ
ァベットAを表現している。その次のデータはBという
データに対する入力と教師データであるので2番目のビ
ットに1がたった教師データが示されている。第3番目
はCというアルファベットでそれに対応する教師データ
は3ビツト目が1であるデータとなっている。また次の
パターンはDという文字であり、それに対応する教師デ
ータは4番目が1となっている信号である。第5番目は
Eという文字でありそれに対応する教師データは5番目
に1がたっているパターンである。
FIG. 6 is a diagram showing an example of alphabetic character patterns and corresponding teacher data by the pattern recognition device of the present invention. In the figure, at the top is the input data of the letter A and the corresponding teacher data.The teacher data is 26-bit information, and the leftmost one represents 1, that is, the alphabet A. The next data is the input and teacher data for data B, so the teacher data with 1 in the second bit is shown. The third letter is the alphabet C, and the corresponding teacher data is data in which the third bit is 1. The next pattern is the letter D, and the teacher data corresponding to it is a signal in which the fourth position is 1. The fifth character is the letter E, and the corresponding teacher data is a pattern in which the fifth character is 1.

第7図(a)、 (b)は本発明の認識装置を用いた場
合の認識結果である。同図(a)において、入力データ
はパターンAという文字の完全情報である。左側はOl
パターンで、右側はそれに対応する2値データを明確に
表現したものである。41は出力データであり、この場
合、出力は教師データとほぼ同じ値になっている。すな
わち、0から1までの間の値が示されているが、1番左
のAに対応する電圧値が0.901で1番大きく、それ
以外はほとんど0に近い値が出力されている。この入力
データはAが最も近いパターンであるが、その次はPと
GとNでありPに対応するところの出力データは0.0
6位置でGに対応するところは、0.058 、Hに対
応するところは0.053となっている。従って類似性
の近いものから順番にいうとA、P、G、Hの順序にな
っている。これが完全なパターンAに対応する本発明の
認識結果である。
FIGS. 7(a) and 7(b) show recognition results using the recognition device of the present invention. In the figure (a), the input data is complete information of a character named pattern A. On the left is Ol
The pattern on the right is a clear representation of the corresponding binary data. 41 is output data, and in this case, the output has almost the same value as the teacher data. That is, although values between 0 and 1 are shown, the voltage value corresponding to the leftmost A is the largest at 0.901, and the other values are mostly close to 0. In this input data, A is the closest pattern, but the next ones are P, G, and N, and the output data corresponding to P is 0.0
The value corresponding to G at position 6 is 0.058, and the value corresponding to H is 0.053. Therefore, in descending order of similarity, the order is A, P, G, and H. This is the recognition result of the present invention corresponding to the complete pattern A.

第7図ら)はこれに対してノイズの入ったAという文字
のパターンである。左側は入力データ42である。右側
はそれを黒と白で明確にしたパターンであり、Aという
文字にノイズの入った形になっている。このような不完
全情報を認識時に本発明のパターンLy2識装置に入力
した場合の出力結果が電圧値として示されている。この
場合、ノイズが入っているためにAに対応する電圧値は
0.772であり、先の完全なパターンに対する電圧値
0.901よりは低くなっている。しかし、他のアルフ
ァベットに対応するところの出力電圧値よりはかなり高
い電圧値となっている。またAというアルファベットに
対応する出力線以外の出力電圧値が比較的高ぐなってい
るのはMに対応するところで0゜236■、その次はR
で0.059 V、その次がして0゜052■である。
In contrast, Fig. 7 et al.) is a pattern of the letter A with noise. The left side is input data 42. On the right is a clear pattern of this in black and white, with the letter A mixed with noise. The output result when such incomplete information is input to the pattern Ly2 recognition device of the present invention at the time of recognition is shown as a voltage value. In this case, since noise is included, the voltage value corresponding to A is 0.772, which is lower than the voltage value of 0.901 for the previous complete pattern. However, the voltage value is considerably higher than the output voltage values corresponding to other alphabets. Also, the output voltage value of the output line other than the output line corresponding to the alphabet A is relatively high at 0°236■ corresponding to M, and the next one is R
The voltage is 0.059 V, and the next voltage is 0°052■.

従って類似性の高い順序にA、M、R,Lとなっている
Therefore, the order of similarity is A, M, R, and L.

第8図は本発明のパターン認識装置を用いたひらがなの
人出力関係図である。同図において51は入力データで
、16X16のドツトパターンとしてひらがなが与えら
れ、入力Ji52のユニット数は256中間層53のユ
ニット数をlOとし、出力層54のユニット数を16と
している。この場合の教師データは入力データに対する
JISコード、16進、そしてlまたはOで表している
FIG. 8 is a human output relationship diagram of hiragana using the pattern recognition device of the present invention. In the figure, reference numeral 51 denotes input data in which hiragana is given as a 16×16 dot pattern, the number of units in the input Ji 52 is 256, the number of units in the intermediate layer 53 is IO, and the number of units in the output layer 54 is 16. In this case, the teacher data is expressed in JIS code, hexadecimal, and l or O for input data.

第8図の入力データの文字は「あ」という文字に対応し
たパターンであり、それに対する教師データはJISコ
ード2422で示されるパターンで001001000
0100010である。従ってこの入力データを入れた
場合に出力データが教師データすなわ?)JISコード
2422になるように重み係数が泡定されている。そし
て認識を行うことになる。
The character of the input data in Figure 8 is a pattern corresponding to the character "a", and the teacher data for it is a pattern shown in JIS code 2422, 001001000.
It is 0100010. Therefore, if we enter this input data, will the output data be the teacher data? ) The weighting coefficient is determined to be JIS code 2422. Then recognition will take place.

第9図(a)、 (b)、 (1:)は本発明のパター
ン認識装置によるひらがなの文字パターンの実施例図で
ある。
FIGS. 9(a), (b), and (1:) are examples of hiragana character patterns produced by the pattern recognition device of the present invention.

同図(a)図は小さい「あ」とおおきな「あ」のパター
ンであり、それに対応する教師データはそれぞれJIS
コードの「あ」に対応するパターンが示されている。同
図(b)は小さい「い」と大きな「い」に対する入力デ
ータと教師データである。同図(C)は小さな「う」と
大きな「う」の文字の入力データパターンとそれに対応
する教師データで同じ「う」であるならば「う」であっ
ても教師データのパターンは下位ビット側でやや異なっ
ている。
Figure (a) shows a pattern of a small “A” and a large “A”, and the corresponding training data is JIS.
A pattern corresponding to the chord "a" is shown. Figure (b) shows input data and teacher data for small "i" and large "i". The same figure (C) shows the input data pattern of small "U" and large "U" characters and the corresponding teacher data.If they are the same "U", even if it is "U", the pattern of the teacher data is the lower bit The sides are slightly different.

第9図(d)、 (e)は本発明のパターン認識装置に
よるひらがなの認識結果である。同図(d)は完全情報
であり、パターン「あ」という文字の入力データとその
2値画像であり、認識した結果の出力電圧が示されてい
る。この場合、教師データと同じ情報が出力されている
。すなわち、0010010000100010という
2値に対する電圧値が示されている。同図(e)はこれ
に対して不完全な情報として与えられるパターン「あJ
であってノイズが含まれている。このような不完全なパ
ターンが入力された場合でも本発明では不完全情報が完
全情報に再生され、その出力電圧は完全情報に対応する
教師データのパターンとほぼ同じ電圧値になっている。
FIGS. 9(d) and 9(e) show the results of hiragana recognition by the pattern recognition device of the present invention. The figure (d) shows complete information, which is the input data of the character pattern "A" and its binary image, and shows the output voltage as a result of recognition. In this case, the same information as the teacher data is output. That is, the voltage value for the binary value 0010010000100010 is shown. In the same figure (e), the pattern “AJ” is given as incomplete information.
It contains noise. Even when such an incomplete pattern is input, the present invention reproduces the incomplete information into complete information, and the output voltage has almost the same voltage value as the pattern of teacher data corresponding to the complete information.

すなわち、出力電圧は0010010000、11.0
0001.00.1となっており、0.1■の分だけや
や異なる出力電圧がでているが、これは2値電圧として
はほぼ教師データのO位置パターンに対応しているため
、パターン「あ」という文字として認識されている。
That is, the output voltage is 0010010000, 11.0
0001.00.1, and the output voltage is slightly different by 0.1■, but as a binary voltage, this almost corresponds to the O position pattern of the teacher data, so the pattern " It is recognized as the character ``A''.

第10図(a)は本発明のパターン認識の学習手順の機
能ブロック図である。コマンドが入力(Sl)されると
32において、ネットワークを生成する。
FIG. 10(a) is a functional block diagram of the pattern recognition learning procedure of the present invention. When a command is input (Sl), a network is generated at 32.

ネットワーク生成時には入力層、中間層、出力層の間の
各層の結合の重みは、未決定である。S3において記憶
するべきパターンと教師データを入力する。S4におい
てバックプロパゲーション法に従って学習処理を行う。
At the time of network generation, the connection weights of each layer among the input layer, intermediate layer, and output layer are undetermined. In S3, the pattern to be stored and the teacher data are input. In S4, learning processing is performed according to the backpropagation method.

すなわち、入力データに従う出力データと教師データと
の差をとり、その最小2乗誤差が最小になるように逆伝
播して、各層の重みを決定する。そしてS5において重
みが決定する。S6においてこの重みを保存するかどう
かを判定し、保存する場合にはS7において重みを保存
して学習処理を終わる。もし重みを保存する必要がなけ
れば、学習処理が終了する。
That is, the difference between the output data according to the input data and the teacher data is taken, and the weight of each layer is determined by back-propagating the difference so that the least squares error is minimized. Then, the weights are determined in S5. In S6, it is determined whether or not to save this weight, and if it is, the weight is saved in S7 and the learning process ends. If there is no need to save the weights, the learning process ends.

第10図[有])は本発明のパターン認識装置の認識処
理に対する機能ブロック図である。認識時には学習処理
で定まった重みを記憶部からロード(S11)する。ロ
ードした重みをネットワークの各対応する枝に割当て、
312において認識した文字パターンを入力する。31
3においてネットワーク上で出力データを算出し、出力
される出力データが教師データとほぼ同じパターンであ
るならば、その教師データに対応するパターンが認識し
た結果となり、S14においてこの出力データを表示し
、終了する。
FIG. 10 is a functional block diagram for recognition processing of the pattern recognition device of the present invention. At the time of recognition, the weights determined by the learning process are loaded from the storage unit (S11). Assign the loaded weights to each corresponding branch of the network,
In step 312, the recognized character pattern is input. 31
In step 3, output data is calculated on the network, and if the output data to be outputted has almost the same pattern as the teacher data, the pattern corresponding to the teacher data is the recognized result, and in step S14, this output data is displayed, finish.

〔発明の効果〕〔Effect of the invention〕

以上説明したように、本発明によればユーザはパターン
の特徴抽出のための辞書やプログラムラ作成することな
く、パターンを入力するだけでパターン認識を行うこと
ができる。さらに、文字の一部の欠陥やノイズに対する
許容度は高く、正確なパターン認識を行うことができる
As described above, according to the present invention, a user can perform pattern recognition simply by inputting a pattern without creating a dictionary or program for extracting pattern features. Furthermore, it has a high tolerance for defects and noise in parts of characters, and can perform accurate pattern recognition.

また、この階層型ニューラルネットワークにおいて、中
間層のユニット数が少ないと、ネットワーク内の結合は
少な(なり、学習時間が早く効率がよい。また、必要と
する記憶容量も少なくて済む。
In addition, in this hierarchical neural network, if the number of units in the intermediate layer is small, there will be fewer connections within the network (this will result in faster learning times and higher efficiency. Also, the required storage capacity will be smaller).

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の原理構成図、 第2図はバックプロパゲーション法の説明図、第3図は
第2図における各ユニットの構成図、第4図(a)は本
発明のパターン認識装置の構成図、第4図ら)はパター
ン認識装置の各部の手順を示す図、 第5図は8×8ドツトに描かれるアルファベントを認識
するパターン認識装置の実施例図、第6図は本発明のパ
ターン認識装置によるアルファベットの文字パターンと
それに対応する教師データとの実施例図、 第7図(a)、 (b)は本発明の認識装置を用いた場
合の認識結果を示す図、 第8図は本発明のパターン認識装置を用いたひらがなの
入出力関係図、 第9図(a)〜(C)は本発明のパターン認識装置によ
るひらがなの文字パターンの実施例図、 第9図(d)、 (e)は本発明のパターン認識装置に
よるひらがなの認識結果を示す図、 第10図(a)、 (b)はそれぞれ学習手順と認識手
順を示すフローチャートである。 l・・・ネットワーク生成手段、 2・・・学習演算手段、 ・保存手段、 ・認識手段。
Figure 1 is a diagram of the principle of the present invention; Figure 2 is an explanatory diagram of the backpropagation method; Figure 3 is a diagram of the configuration of each unit in Figure 2; Figure 4(a) is the pattern recognition device of the present invention. 4, etc.) are diagrams showing the procedures of each part of the pattern recognition device, FIG. 5 is an example diagram of a pattern recognition device that recognizes alpha vents drawn on 8×8 dots, and FIG. 6 is a diagram showing the method of the present invention. FIGS. 7(a) and 7(b) are diagrams showing recognition results when the recognition device of the present invention is used. The figure is a hiragana input/output relationship diagram using the pattern recognition device of the present invention, Figures 9(a) to (C) are examples of hiragana character patterns using the pattern recognition device of the present invention, and Figure 9(d) ) and (e) are diagrams showing the results of hiragana recognition by the pattern recognition device of the present invention, and FIGS. 10(a) and (b) are flowcharts showing the learning procedure and recognition procedure, respectively. l...Network generation means, 2...Learning calculation means, - Storage means, - Recognition means.

Claims (1)

【特許請求の範囲】 1)入力層、中間層、出力層の3層構造のネットワーク
を生成するネットワーク生成手段(1)と、 2次元配列されたパターンの各要素を1次元配置した入
力層の各ユニットに入力させ、中間層を介して出力層か
ら得られる出力データと教師データとの差を計算しその
差が小さくなるようにバックプロパゲーション法アルゴ
リズムに従って前記各層間の結合の重みを決定する学習
演算手段(2)と、 前記学習演算の結果として前記ネットワーク間の結合の
重みを保存する保存手段(3)と、認識時に前記重み保
存手段(3)から結合の重みをロードし、認識したいパ
ターンを前記入力層の各ユニットに入力し、得られた出
力層からの出力データと教師データとの差よりその差が
小さい教師データに対応するパターンを認識パターンと
して出力する認識手段(4)とを有する階層型ニューラ
ルネットワークを用いてパターン認識を行うことを特徴
とするパターン認識装置。 2)前記出力データは文字パターンに対応する標準コー
ドに対応する2値情報を用いることを特徴とする請求項
1記載のパターン認識装置。 3)前記出力データは前記結合の重みに従ってあるパタ
ーンに対して1次元配置したコードであることを特徴と
する請求項1記載のパターン認識装置。 4)前記出力データは、前記結合の重みに従ってあるパ
ターンに対する1つの出力ユニットのみに値を有するこ
とを特徴とする請求項1記載のパターン認識装置。
[Claims] 1) Network generation means (1) for generating a network with a three-layer structure of an input layer, an intermediate layer, and an output layer; and an input layer in which each element of a two-dimensionally arranged pattern is arranged one-dimensionally. Calculates the difference between the output data obtained from the output layer through the intermediate layer and the teacher data, and determines the weight of the connection between each layer according to the backpropagation algorithm so that the difference is small. a learning calculation means (2); a storage means (3) for storing connection weights between the networks as a result of the learning calculation; recognition means (4) for inputting a pattern into each unit of the input layer and outputting a pattern corresponding to the teacher data whose difference is smaller than the difference between the output data from the output layer obtained and the teacher data as a recognition pattern; A pattern recognition device characterized by performing pattern recognition using a hierarchical neural network. 2) The pattern recognition device according to claim 1, wherein the output data uses binary information corresponding to a standard code corresponding to a character pattern. 3) The pattern recognition device according to claim 1, wherein the output data is a code arranged one-dimensionally for a certain pattern according to the weight of the connection. 4) The pattern recognition device according to claim 1, wherein the output data has a value in only one output unit for a certain pattern according to the weight of the connection.
JP63319525A 1988-12-20 1988-12-20 Pattern recognition device Pending JPH02165285A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63319525A JPH02165285A (en) 1988-12-20 1988-12-20 Pattern recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63319525A JPH02165285A (en) 1988-12-20 1988-12-20 Pattern recognition device

Publications (1)

Publication Number Publication Date
JPH02165285A true JPH02165285A (en) 1990-06-26

Family

ID=18111207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63319525A Pending JPH02165285A (en) 1988-12-20 1988-12-20 Pattern recognition device

Country Status (1)

Country Link
JP (1) JPH02165285A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0729010A (en) * 1993-07-13 1995-01-31 Nec Corp Shape classification device
JP2005346471A (en) * 2004-06-03 2005-12-15 Canon Inc Information processing method and apparatus
WO2020162136A1 (en) * 2019-02-08 2020-08-13 コベルコ建機株式会社 Damage estimation device and machine learning device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0729010A (en) * 1993-07-13 1995-01-31 Nec Corp Shape classification device
JP2005346471A (en) * 2004-06-03 2005-12-15 Canon Inc Information processing method and apparatus
JP4641389B2 (en) * 2004-06-03 2011-03-02 キヤノン株式会社 Information processing method and information processing apparatus
WO2020162136A1 (en) * 2019-02-08 2020-08-13 コベルコ建機株式会社 Damage estimation device and machine learning device
JP2020128656A (en) * 2019-02-08 2020-08-27 コベルコ建機株式会社 Damage estimation device and machine learning device

Similar Documents

Publication Publication Date Title
Chauvin et al. Backpropagation: theory, architectures, and applications
Guyon Applications of neural networks to character recognition
WO2022134391A1 (en) Fusion neuron model, neural network structure and training and inference methods therefor, storage medium, and device
US5245696A (en) Evolution and learning in neural networks: the number and distribution of learning trials affect the rate of evolution
Feng et al. A fuzzy deep model based on fuzzy restricted Boltzmann machines for high-dimensional data classification
JPH06509195A (en) Distributed comparison neural network
EP0526504B1 (en) Artificial neural device
Liu et al. Decoder choice network for metalearning
Mulligan et al. Dog breed identification with a neural network over learned representations from the xception cnn architecture
JP2760145B2 (en) Knowledge information processing device
Ida Deep neural networks
JPH02165285A (en) Pattern recognition device
Li et al. A capsule-unified framework of deep neural networks for graphical programming
JP3171897B2 (en) Knowledge information processing device
Chen et al. Static correlative filter based convolutional neural network for visual question answering
CN116562358B (en) Construction method of image processing Gabor kernel convolutional neural network
JP3303253B2 (en) Pattern matching method and apparatus
JPH04501327A (en) pattern transfer neural network
Hoya Review of the Two Existing Artificial Neural Network Models—Multilayer Perceptron and Probabilistic Neural Networks
Abir et al. Handwritten Bangla character recognition to braille pattern conversion using image processing and machine learning
Auda Cooperative modular neural network classifiers.
Karade et al. Handwritten Character Recognition Using Feed-Forward Neural Network Models
JPH07113917B2 (en) Neural network, control method thereof, and arithmetic unit for neural network
Li et al. Fuzzy multi-objective sparse feature learning
Castillo et al. Introduction to Neural Networks