JPH0329064A - Pattern recognizing device - Google Patents

Pattern recognizing device

Info

Publication number
JPH0329064A
JPH0329064A JP1164847A JP16484789A JPH0329064A JP H0329064 A JPH0329064 A JP H0329064A JP 1164847 A JP1164847 A JP 1164847A JP 16484789 A JP16484789 A JP 16484789A JP H0329064 A JPH0329064 A JP H0329064A
Authority
JP
Japan
Prior art keywords
data
output
weight
pattern
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1164847A
Other languages
Japanese (ja)
Inventor
Yoshihisa Otsuka
喜久 大塚
Akira Nunoki
布木 明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobe Steel Ltd
Original Assignee
Kobe Steel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobe Steel Ltd filed Critical Kobe Steel Ltd
Priority to JP1164847A priority Critical patent/JPH0329064A/en
Publication of JPH0329064A publication Critical patent/JPH0329064A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To facilitate the weight correcting calculation by inputting the simplified data to a neural network and approximating the simplified data to the teacher data in accordance with an error between the output data of the neural network and the teacher data. CONSTITUTION:In a teaching step, the final target teacher data is computed into the simple data for calculation of the simplified data. This simplified data is inputted to a neural network 2 to obtain the output data. An arithmetic control part 4 functions to approximate the simplified data to the final target teacher data in accordance with an error between the obtained output data and the final target teacher data. A memory 3 stores the teacher data as well as the weight given to each coupling part 6 which connects the neurons 5 when the coincidence is obtained between the final target teacher data and the simplified data. Then an input port 4c transfers the pattern data between the part 4 and the outside of a pattern recognizing device. In such a constitution, the weight correcting calculation is facilitated and no extension of the network 2 is needed.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、パターン入力データと装置内に格納された複
数の教師データとを比較参照し、パターン入力データを
何れかの教師データに特定するパターン認識装置に関す
る. 〔従来技術〕 人の脳は約140r!!個のニューロン(脳細胞)から
構成され、各ニューロンがシナプス結合によりネットワ
ークを横或していることはよく知られている.更に、脳
は前記ネットワークの結合状態を変化させることにより
記憶・学習を行っていると考えられている.特にパター
ン認識に関して人の脳は非常に優れ、その情報処理形態
は闇値演算による並列処理に基づくものであり、その記
憶形態は連想形式であるとされている.これらのネソト
ワークを数学的にモデル化したものに衆知のバーセプト
ロンが挙げられる。更に近年において、ハード面の性能
向上による超多重並列処理の実現及び記憶容量の大幅な
増大化等を背景に、多数のニューロンよりなるネノトワ
ーク(以下、ニューラルネットワークという)のモデル
によるパターン認識処理を計算機で実現しようとする試
みがなされつつある. 第8図にニューロンの生物疑似モデルを示し、第9図に
その数学モデルを示す.5.はニューロンのモデル、6
1は軸索のモデル、10Lはシナブス結合のモデルであ
る.ニューロン5の数学モデルは、第9図に示すように
、前記生物疑似モデルのシナスブ結合10,に相当する
連結部6のニューロン5との結合部にて重み付け処理R
のなされた、各パターン入力データXがニューロン5内
に入力される.そして、前記重み付け後のバターン入力
データは総和処理Sがなされた後に闇値処理Tが施され
る。前記闇値処理Tでは通常ングモイド関数等のS字関
数が用いられる。そして、闇値処理された値yがニュー
ロンの出力値として後続のニューロン5に向けて出力側
の連結部6へ出力される。
[Detailed Description of the Invention] [Industrial Application Field] The present invention compares and refers pattern input data with a plurality of teacher data stored in a device, and specifies the pattern input data as one of the teacher data. Regarding pattern recognition devices. [Prior art] The human brain is approximately 140 r! ! It is well known that the brain is composed of individual neurons (brain cells), and each neuron forms a network through synaptic connections. Furthermore, the brain is thought to perform memory and learning by changing the connection state of the network. The human brain is particularly good at pattern recognition, and its information processing form is based on parallel processing using dark value calculations, and its memory form is said to be associative. The well-known berseptron is a mathematical model of these networks. Furthermore, in recent years, against the backdrop of the realization of massively multiplexed parallel processing due to improvements in hardware performance and the significant increase in memory capacity, computer-based pattern recognition processing using a model of a neural network (hereinafter referred to as a neural network) consisting of a large number of neurons has been developed. Attempts are being made to realize this. Figure 8 shows a biological model of a neuron, and Figure 9 shows its mathematical model. 5. is a neuron model, 6
1 is a model of an axon, and 10L is a model of synaptic connections. As shown in FIG. 9, the mathematical model of the neuron 5 is subjected to a weighting process R at the connection part of the connection part 6 with the neuron 5, which corresponds to the synaptic connection 10 of the biological pseudo model.
Each pattern input data X is input into the neuron 5. The weighted pattern input data is then subjected to a summation process S and then subjected to a dark value process T. In the dark value processing T, an S-shaped function such as a ngmoid function is usually used. Then, the value y subjected to the dark value processing is outputted to the output side connecting section 6 toward the subsequent neuron 5 as the output value of the neuron.

このようなニューラル不ソl・ワークのモデルとしては
、ネノトワーク横造の違い或いはパターン記憶方式の違
いから自動連想型のものとバクーン連想型のものとに大
別される. 前記自動連想型のネ,トワークは、ここでは図示しない
が、入力ニューロンと出力ニューロンとが共通でネント
ワーク内の全てのニューnンが相互に接続されると共に
複数のパターンデータをネットワーク内に格納し入力パ
ターンに最も近似したパターンデータを出力するネノト
ワークであって、パターンデークを教示させるステノブ
では似通った入力パターンを識別するようにニューロン
間の結合の強さを変えるようにしている.このようなネ
ソトワークは組合せ問題のR通化や曖昧情?の連想に優
れているとされる. 一方、パターン連想型のニューラルネントワーク2■は
、第10図に示すように、複数のニューロン5が入力層
.中間層,入力層に階層化され、入力層から出力層に向
けて連結部6を介して層間のニューロン5が接続されて
いる.更に、同一層内のニューロン5同志は接続されず
、入力層のニューロン5と出力層のニエーロン5とは独
立しているといった特徴がある。
These models of neural insolence work can be broadly divided into automatic association type and Bakun association type based on the difference in the horizontal construction of neural work or the difference in pattern memory method. Although not shown here, the automatic associative network has a common input neuron and an output neuron, all neurons in the network are interconnected, and multiple pattern data are stored in the network. It is a neurotower that outputs pattern data that is most similar to the input pattern, and the stenowork that teaches the pattern data changes the strength of the connections between neurons in order to distinguish between similar input patterns. Is this kind of network work an R-commandation of combinatorial problems or ambiguity? It is said to be excellent at associating things. On the other hand, in the pattern-associative neural network 2■, as shown in FIG. 10, a plurality of neurons 5 are connected to the input layer. It is hierarchically divided into an intermediate layer and an input layer, and neurons 5 between the layers are connected via a connecting part 6 from the input layer to the output layer. Furthermore, the neurons 5 in the same layer are not connected, and the neurons 5 in the input layer and the neurons 5 in the output layer are independent.

前記パターン連想型のニューラルネットワーク2aにお
ける学習ではパックブロパゲーション(逆伝搬法)アル
ゴリズムを適用したものがよく知られている.以下、こ
のバンクブロパゲーシうンアルゴリズムを用いたニュー
ラルネットワークに付き説明する. 前記バックブロパゲーションアルゴリズムは1986年
に公開されたもので、システムの運用に先立って、先ず
パターンの教示ステップを必要とし、入力層のニューロ
ン5に教示データを与えなければならない,即ち、入力
層の各ニューロン5に学旨用のパターン入力データXを
与えると、この信号は前記各ニューロン5で変換される
.続いて、中間層の各二エーロン5に伝達され、最後に
出力層の各ニューロン5からパターン出力データyとし
て出力される(矢印F)。
In learning in the pattern associative neural network 2a, it is well known that a pack propagation algorithm is applied. Below, we will explain the neural network using this bank propagation algorithm. The backbropage algorithm was published in 1986, and prior to system operation, it first requires a pattern teaching step, and teaching data must be given to neurons 5 in the input layer. When each neuron 5 is given a pattern input data X for academic purposes, this signal is converted by each neuron 5. Subsequently, it is transmitted to each neuron 5 in the intermediate layer, and finally output as pattern output data y from each neuron 5 in the output layer (arrow F).

各層のそれぞれのニューロン5への入力に際して連結部
6で各信号に瑣みが付加されるのは先述した通りである
。そして、前記出力層からの出力値と予め設定された望
ましい出力値とが比較され、その差を減少するように、
出力層と中間層との間の結合の強さ(重み)が変更され
る。この徂みの変更は、ニューラルネソトワーク2,の
信号伝搬方向(矢印F)を遡る方向に(矢印M)収束す
るまで順次繰り返される。
As described above, the coupling section 6 adds a dwarf to each signal upon input to each neuron 5 of each layer. Then, the output value from the output layer and a preset desired output value are compared, and the difference is reduced.
The strength (weight) of the coupling between the output layer and the hidden layer is changed. This range change is sequentially repeated until the signal propagation direction (arrow F) of the neural network 2 converges in the backward direction (arrow M).

このように、前記バンクブロパゲーンゴンアルゴリズム
によるニューラルネノI・ワーク2aは、得られた出力
yと望ましい出力Aとの差がOに近づくまでニューロン
5間の結合の強さを繰り返し変えるものであって、この
手法によれば、分類したいデータを抽出してパターンデ
ータとし、更に?師データとして分類結果の代表値を設
定することによりデータ群の任意のデータがどの代表値
に近い値を出力するかを調べることによっ゛ζデータの
分類をなすことができる。
In this way, the neural node I work 2a based on the bank-propagating algorithm repeatedly changes the strength of the connections between the neurons 5 until the difference between the obtained output y and the desired output A approaches O. According to this method, the data to be classified is extracted and made into pattern data, and then... By setting the representative value of the classification result as master data, it is possible to classify the ζ data by checking which representative value any data in the data group outputs a value close to.

又、前記ニューラルネントワーク21に対し、その入力
特徴を変えたものとして、第H図に示すようなニューラ
ルネノトワーク2bが挙げられる.即ち、入力特徴をテ
ンソルや三角関数を用いて拡大すること、例えば図中入
力値X1に対し、χ.を変数とするIt数の三角関数も
同時に入力することにより、学習効率を大幅に向上させ
ようとするものである. このように、バンクプロバゲーションアルゴリズムによ
るパターン連想型のニューラルネットワーク2■,2b
は、ネットワーク内にパターン認識機能や知識処理機能
を教え込むことが可能で、バーセブトロンが不得手とす
る線形分離処理を威すことのできないパターン入力デー
タをも確実に処理することができるといった点で有用な
ものである. [発明が解決しようとする課題] ところが、士記したようなニューラル不,トワーク21
を具備してなるパターンL2識装置では、教師データに
よる対象パターンが複雑であると、教示のステノプにお
いて、前記重み修正のためのf4′JX繰り返し回数が
多く必要であったり、又重みの修正を繰り返しても、例
えば重みに対する誤差のポテンシャルが多峰性であるよ
うな場合に局所最適値に陥って、前記教示データに近い
出力をi:¥ることかできないといった問題がある.即
ち、データによっては容易に収束する場合と収束しない
場合がある. 又、ニューラルネットワーク2I,を具備してなるもの
であれば、ネットワーク自体が複雑になることから、演
算量が増加するとともにハードの部品点数を多く必要と
するものであった。
Further, as a version of the neural network 21 with different input characteristics, there is a neural network 2b shown in FIG. That is, expanding the input feature using a tensor or trigonometric function, for example, for the input value X1 in the figure, χ. By simultaneously inputting the trigonometric function of the It number as a variable, the learning efficiency is greatly improved. In this way, pattern associative neural networks 2■, 2b using bank propagation algorithms
It is possible to inculcate pattern recognition functions and knowledge processing functions into the network, and it is possible to reliably process pattern input data that cannot be affected by linear separation processing, which is a weak point of the Versebutron. It is useful. [Problems to be solved by the invention] However, neural dysfunction and twerking21 as described above
In the pattern L2 recognition device equipped with the above, if the target pattern according to the teacher data is complex, it may be necessary to repeat the f4'JX a large number of times for the weight correction in the teaching step, or it may be necessary to repeat the weight correction. Even if it is repeated, there is a problem that, for example, if the error potential for the weight is multimodal, it will fall into a local optimum value and will be unable to produce an output close to the teaching data. In other words, depending on the data, it may converge easily or it may not. Further, if the neural network 2I is provided, the network itself becomes complicated, which increases the amount of calculations and requires a large number of hardware components.

したがって、本発明の目的とするところは、対象パター
ンが複雑であっても、ニューラルネントワーク中のニュ
ーロン数を増加させることなく、重み修正計算の収束を
可能にしたり、あるいは高速化することのできるパター
ン認識装置を提供することにある. 〔課題を解決するための手段〕 上記目的を達或するために、本発明が採用する主たる手
段は、データの入力部,演算部および出力部を有する1
又は複数の情報処理部、ならびに該情報処理部の出力部
と入力部を連結するとともに該出力部よりの出力情報に
重みを付加して前記入力部に伝達するための連結部を具
備してなるパターン認識装置において、予め設定された
目標教師データを記億するメモリ手段と、入力データを
前記パターン認識装置に入力し演算することにより、そ
の出力データが予め設定された初期目標教示データに近
接もしくは一致するまで重みを変えつつ学習して、近接
もしくは一致した際の前記連結部の各々の重みを決定す
る第1重み決定手段と、前記初期目標教師データを少な
くとも1回以上段階的に変更して最終目標教師データに
近づけるとともに各段階における出力データが各段階に
おける目標教師データと近接もしくは一致するまで前記
重みを変えつつ学習することによって前記出力データが
最終目標教示データに近接もしくは一致した際の最終重
みを決定する第2重み決定手段とを具備してなる点を要
旨とするパターン認識装置である. 〔作用〕 本発明に係るパターン認識装置では、該パターン認識装
置にパターンを教示する際に、先ず予め設定されメモリ
手段に格納された最終目標教示データが、演算しやすく
簡素化された初期目標教師データに変更して設定される
.そして、前記パターン認識装置に入力データが入力さ
れ、得られた出力データが前記初期目標教示データと比
較参照され、それぞれが近接若しくは一致するまで前記
重みを繰り返し変更して学習され、前記出力データが初
期目標教師データに近接若しくは一致した際の前記連結
部の各々の重みが第1重み決定手段により決定される。
Therefore, an object of the present invention is to enable convergence or speed up weight correction calculations without increasing the number of neurons in the neural network even if the target pattern is complex. The objective is to provide a pattern recognition device. [Means for Solving the Problems] In order to achieve the above object, the main means adopted by the present invention is a system having a data input section, a calculation section, and an output section.
or a connecting section for connecting a plurality of information processing sections and an output section and an input section of the information processing sections, and for adding weight to output information from the output section and transmitting the weighted information to the input section. The pattern recognition device includes a memory means for storing preset target teaching data, and input data is input to the pattern recognition device and is operated so that the output data is close to or close to the preset initial target teaching data. a first weight determining means that performs learning while changing the weight until a match is made, and determines the weight of each of the connected parts when they are close or match; and stepwise changing the initial target teacher data at least once or more. By learning while changing the weights until the output data at each stage approaches or matches the target teaching data at each stage, the final result when the output data approaches or matches the final target teaching data This pattern recognition device is characterized in that it includes a second weight determining means for determining weights. [Operation] In the pattern recognition device according to the present invention, when teaching a pattern to the pattern recognition device, first, the final goal teaching data set in advance and stored in the memory means is converted into an initial target teacher that is simplified and easy to calculate. The data is changed and set. Then, the input data is input to the pattern recognition device, the obtained output data is compared with the initial target teaching data, and learning is performed by repeatedly changing the weights until they are close to or coincide with each other, and the output data is The first weight determining means determines the weight of each of the connecting portions when the connecting portion is close to or coincides with the initial target teacher data.

次に、前記初期目標教師データが少なくとも1回以上段
階的に前記最終目標教師データに近似して設定され、前
記それぞれの段階毎の目標教師データに近接若しくはー
・致するように上記した処理が同様になされ、最終的に
前記出力データが最終目標教師データと近接若しくは一
致したときに前記連結部の各々の最終的な重みが第2重
み決定手段により決定される.それにより、重み修正計
算が容易になり、ネットワークを増加させる必要もない
. 〔実施例〕 以下、添付した図面を参照しつつ本発明を具体化した実
施例につき説明し、本発明の理解に供する.ここに第1
図は本発明の一実施例に係るパターン認!Ii装置を示
すブロック構威図、第2図は同パターン認識装置に具備
されたニエーラルネッl・ワークを示す概念図、第3図
は同ニューラルネットワークをfl或する情報処理と連
結部を示す概略構造図、第4図は同二エーラルネッ1・
ワークへの入力データと該入力データに対応する教師デ
ータとの関係を示すグラフ、第5図は同パターン認識装
置による重み修正計算が収束する状態を説明するために
用いられる誤差と重みとの関係を示すグラフ、第6図は
第4図に破線で表した簡略化パターンデータを実線で表
した最終目標教師データに近付ける時のパターン上の各
点の変化を示す図表、第7図は第6図における各ステン
ブ毎の計算の収束に要したループ回数を示すグラフであ
る.尚、下記する実施例は、本発明の技術的範囲を限定
する性格のものではない. 本実施例に係るパターン認識装置1は、第1図に示すよ
うに、バノクブ口パゲーションアルゴリズムを用いてパ
ターンElmを行うパターン連想型のニヱーラルネソト
ワーク2と、常時は該ニューラルネットワーク2ヘパタ
ーン入力データを与えると共に、教示ステップ時には最
終目標教師データを簡素なデータに演算して簡素化デー
タを算出し、該簡素化データを前記ニューラルネットワ
ーク2へ入力し得られた出力データと前記最終目標教師
データとの誤差の値に応じて前記簡素化データを最終目
標教師データに近づける演算制御部4と、前記簡素化デ
ータと最終目標教師データとを一致させた時のニューロ
ン5間を連結する各連結部6に付与された重みと前記最
終目標教師データとを記憶するメモリ3と、前記演算制
御部4と装置外部との間でパターンデータのやりとりを
行う入力ボート4cとから構戒されている.前記ニュー
ラルネットワーク2は、第2図に示すように、入力層が
2個のニューロン5から、中間層が12個のニューロン
5から、出力層が1個のニューロン5からそれぞれなり
、それぞれの層間は連結部6により連結されている. そして、前記ニューロン5(情報処理部)は、第3図に
示すように、連結部6に接続され、重み付けされた連結
部6からのパターン入力データを入力させる入力部7と
、該入力部7に入力された重み付け後のそれぞれのパタ
ーン入力データを総和させ、得られた総和値に閾値処理
を施して、前記総和値がニューロン5毎に予め設定され
た閾値を超えたときに興奮(出力)するようになした演
X部8と、該演算部8が興奮したときにデータ処理方向
(矢印F)下流側の層にあるニューロン5にパターン出
力データyを出力する出力部9とからなっている.そし
て、前記演算部8は、前記教示ステンブ時において一重
みを変更して決定し、重みの学習を前記データ処理方向
の上流側の層毎に順次遡って行うことは言うまでもない
Next, the initial target teacher data is set to approximate the final target teacher data in at least one step or more, and the above-described process is performed so that the initial target teacher data approaches or approaches the target teacher data at each stage. Similarly, when the output data is close to or coincides with the final target teacher data, the final weight of each of the connected parts is determined by the second weight determining means. As a result, weight correction calculation becomes easy and there is no need to increase the number of networks. [Examples] Examples embodying the present invention will be described below with reference to the attached drawings to provide an understanding of the present invention. here the first
The figure shows pattern recognition according to an embodiment of the present invention! 2 is a conceptual diagram showing the neural network included in the pattern recognition device, and FIG. 3 is a schematic structure showing the information processing and connection parts of the neural network. Fig. 4 shows the same two eral net 1.
A graph showing the relationship between the input data to the workpiece and the teacher data corresponding to the input data, and FIG. 5 is the relationship between the error and the weight used to explain the state in which the weight correction calculation by the pattern recognition device converges. Figure 6 is a graph showing the changes in each point on the pattern when the simplified pattern data shown by the broken line in Figure 4 approaches the final target teacher data shown by the solid line. This is a graph showing the number of loops required to converge the calculation for each stem in the figure. The examples described below are not intended to limit the technical scope of the present invention. As shown in FIG. 1, the pattern recognition device 1 according to the present embodiment includes a pattern associative neural network 2 that performs pattern Elm using the Banokubu pagination algorithm, and a neural network 2 that is always connected to the neural network 2. At the same time, in the teaching step, the final target teacher data is calculated into simplified data to calculate simplified data, and the simplified data is inputted to the neural network 2, resulting in output data and the final target. A calculation control unit 4 that brings the simplified data closer to the final target teacher data according to the error value with respect to the teacher data, and a neuron 5 that connects the simplified data and the final target teacher data when the simplified data matches the final target teacher data. It is monitored by a memory 3 that stores the weights assigned to the connection unit 6 and the final target teacher data, and an input port 4c that exchanges pattern data between the arithmetic and control unit 4 and the outside of the device. .. As shown in FIG. 2, the neural network 2 has an input layer consisting of two neurons 5, an intermediate layer consisting of 12 neurons 5, and an output layer consisting of one neuron 5. They are connected by a connecting part 6. As shown in FIG. 3, the neuron 5 (information processing section) includes an input section 7 that is connected to the connection section 6 and receives weighted pattern input data from the connection section 6; The weighted pattern input data input to the neuron 5 are summed up, the resulting summation value is subjected to threshold processing, and when the summation value exceeds a threshold set in advance for each neuron 5, excitement (output) is generated. It consists of an operation section 8 configured to do the following: and an output section 9 that outputs pattern output data y to the neuron 5 in the downstream layer in the data processing direction (arrow F) when the operation section 8 is excited. There is. It goes without saying that the arithmetic unit 8 changes and determines one weight during the teaching process, and performs weight learning sequentially for each layer on the upstream side in the data processing direction.

上記したように構威されるパターン認識装置Iにおいて
、第4図中に点a − tを結んだ実線で示すパターン
データAを認識させる場合には、先ずパターンデータA
(最終目標教師データ)に近似する簡略化パターンデー
タB(初期目標教師データ)が前記演算制御部4によっ
て設定される。かかる簡略化パターンデータBは予めメ
モリ3に格納されていてもよい.前記簡略化パターンデ
ータBは後記する学習における収束が能率良く行われる
ように適当に定めればよく、この場合には、図中の点a
  −i’を結んだ破線で示すものが設定されている.
ここで、ニューラルネットワーク2中の入力層における
ニューロン5の内のーっ5,には、便宜上変化しない値
として常に1の値が入力される.無論、必要に応して適
当な規則に従った値を入力してもよい,そして、前記ニ
ューラルネットワーク2へのパターン入力データはそれ
ぞれのパターンaziに対応する値であって、ここでは
0.1〜0.9の値で示される. 次に、前記ニューラルネットワーク2による学習の第1
ステップとして、前記パターン入力データXを前記パタ
ーン認識装it1に入力し、出力データyを演算する.
この時、前記出力データyが予め設定された前記初期目
標教師データBに近づけるように前記重みを修正する学
習(演X)を行う.この学習を全ての入力データに対し
、繰り返し行い、全ての出力データと対応する初期教師
データが、近接若しくは一致した際の前記連結部6にて
付与された重みを初llIJ!重みとして採用する.即
ち、前記演算制御部4と前記演算制御部8とにより初期
重みが決定されるまでのm能を実現するのが第1重み決
定手段である. 例えば、入力層のニューロン5にパターン入力データX
として0.lが入力されると、前記パターン入力データ
x(0.1)は演算部8にて所定の演算式で演算された
後にその演算値が連結部6を介してそれぞれ中間層のそ
れぞれのニューロン5に伝達される.この際、連結部6
において、前記演:I{aに或る重みが付加される. そして、中間層のニューaン5の入力部7を経て、重み
の付加された演算値が演算部8に入力され、前記総和処
理及び前記閾値処理によって演算される.この中間層の
それぞれの;ユーロン5で算出された演X値は、出力部
9に接続された連結部6を介して出力層のニューロン5
に伝達され、前記入力層のニューロン5から中間層のニ
ューロン5に伝達された際と同様に、重み付け・総和・
閾値処理がなされ、その演算値が出力データyとして出
力層の二二一・ロン5の出力部9から出ノjされる. そして、前記出力データyとパターン入力データX(0
.1)に対応する初期目標教師データB(0.8)とが
比較され、アンマンチの場合には、先ず出力層と中間層
の間の連結部6における重みが変更され、次に中間層と
入力層の間の連結6における重みが変更される.そして
、再度前記手順に基づく処理が行われ、パターン入力デ
ータx(0.l)に対応する出力データyが初期目標教
示データB(0.8)に近づくように各連結部6の重み
を変える. 続いて、次のパターン入力データx(0.2)について
、パターン入力データx(0.1.)においてなされた
と同様の処理が行われる.このとき、パターン入力デー
タx(0.1)において得られた各連結部6の重みが当
初用いられる.以下、同様にパターン入力データXが0
.3, 0.4, ・, 0.8,0.9の場合におい
ても、前記した処理が実行される.このようなパターン
入力データXがO.l〜0.9までなされる繰り返し処
理は、最終的に全てのパターン入力データXについて、
それぞれに対応する出力データyが初期目標教師データ
Bに近接もくしは一致するまで実行される. このような学習は、全ての出力データyが対応する初期
目標教師データBと近接若しくは一致した時点で終了し
、第6図の表中に示すステップ1が完了し、そのときの
重みが演算部8により決定される.又、この場合に要し
たループ回数Nは、第7図の図中に31で示すように、
誤差F. < 0. 01を収束判定条件として約5万
回弱であった.以上が第1ステップの処理であり、その
ときのニューラルネットワーク2のニューロン5間の結
合の強さを示す各連結部6の重みが演算部8により決定
され、メモリ3に格納される. 次に、初回の初期目標教師データBを最終目標教師デー
タAに任意量近づけた2段階目の初期目標教師データが
設定される. ここでは、a点とa′点,C点とC′点.i点とi′点
の値がそれぞれ異なっているので、a点,c′点 i/
点の初期教師データBを最終目標教師データA(a点0
.2.c点0.2,i点0.8)にそれぞれ0. 1ず
つ近づけた値と、前回の初期目標教師データBの残りの
値とでもって今回の初期目標教師データが設定される. 尚、前記任意量が大きすぎる場合には、重み修正計算が
収束しないことがあり、逆に小さすぎるとニエーラルネ
ットワーク2全体として演算量が膨大なものになるので
初期目標教師データBと最終目標教示データAとの差に
応じて適当に決定すればよい.又、ここでは、入力デー
タx(0.1.0.3  0.9)に対応するそれぞれ
の初期目標教師データBのみを変更したが、これに限ら
ず他の入力データXに対応する初期目標教師データBを
適当量加減してもよく、初期目標教師データBが全体と
して最終目標教師データAに近づくように調整させれば
よい. 今回の初期目標教師データが設定されると、それぞれの
入力データx(0.1〜0.9)について前回のステッ
プ1と同様の処理がなされ、出力データyが今回の初期
目標教師データに近接若しくは一致するまで各重みを変
更して学習される(第6図ステップ2).尚、今回のル
ープ回数Nは約3.5万回であった(第7図32). 以下、上記したステップl及びステップ2と同様の処理
が段階的に実行される.本実施例では.ステンブ7まで
の処理がなされた(第6図のステップ3〜ステップ7及
び第7図の53〜S7).ここでステンブ7では、目標
としていた最終目標教師データAについて前記したよう
な学習がなされ、全部のパターン入力データx (0.
 1−0. 9 )に対応したそれぞれの出力データy
が最終r1+=教師データAに近接若しくは一致すれば
、全ての教示ステンプが完了する.従って、教示のステ
ップ2〜ステップ7において達威される機能を実現する
のが第2重み決定手段である. 上記した一連の学習によって求められた各連結部6の重
みがパターンデータAを認識するための最終的な「重み
」とL7てメモリ3に格納されて用いられる.12It
ち、前記重みが連結部6に設定されたニューラルネット
ワーク2は、全個数若しくは任意の個数のパターン入力
データXが入力層のニューロン5に入力され、得られた
出力データyが最終目標教師データAに一致すれば、パ
ターンAを認識する.更に、各種・多数のパターンデー
タについて、前記重みを設定し、ニューラルネントワー
ク2の結合の強さを変えておけば、或るパターン入力デ
ータに対する出力データと教師データとが比較され、何
れのパターンであるかをlmすることができる. 上記したように、本実施例に係るパターン認識装置Iは
、パターンデータが収束しにくい複雑なものであっても
、第7図に示す曲線Hのようにステップ毎にパターンデ
ータを収束させることができ、そのときのループ回数N
も多くを必要としない。因みに、バックプロバゲーシタ
ンアルゴリズムのみを用いた従来パターン認識装置では
、曲線Gで示すように、大きな誤差Eのまま収束判定条
件E<0.01に到達することなく収束しなかった。
In the pattern recognition device I configured as described above, when recognizing the pattern data A shown by the solid line connecting points a-t in FIG.
Simplified pattern data B (initial target teacher data) that approximates (final target teacher data) is set by the arithmetic control section 4. Such simplified pattern data B may be stored in the memory 3 in advance. The simplified pattern data B may be appropriately determined so that convergence in learning to be described later is performed efficiently.In this case, point a in the figure
-i' is set as shown by the broken line.
Here, for convenience, a value of 1 is always input to 5 of the neurons 5 in the input layer of the neural network 2 as a value that does not change. Of course, values according to appropriate rules may be input as necessary, and the pattern input data to the neural network 2 is a value corresponding to each pattern azi, which is 0.1 here. It is indicated by a value of ~0.9. Next, the first learning by the neural network 2
As a step, the pattern input data X is input to the pattern recognition device it1, and output data y is calculated.
At this time, learning (operation X) is performed to modify the weights so that the output data y approaches the preset initial target teacher data B. This learning is repeated for all input data, and the weights given by the connection unit 6 when all the output data and the corresponding initial teacher data are close to each other or coincide with each other are calculated as the first llIJ! Adopt as weight. That is, the first weight determining means realizes m functions until the initial weights are determined by the arithmetic control section 4 and the arithmetic control section 8. For example, pattern input data X to neuron 5 of the input layer
as 0. When l is input, the pattern input data x (0.1) is calculated by a predetermined calculation formula in the calculation unit 8, and the calculated value is sent to each neuron 5 of the intermediate layer via the connection unit 6. It is transmitted to At this time, the connecting part 6
In , a certain weight is added to the expression I{a. Then, the weighted calculation value is inputted to the calculation unit 8 via the input unit 7 of the intermediate layer New A 5, and is calculated by the summation processing and the threshold processing. The operation X value calculated in each of the intermediate layers;
The weighting, summation, and
Threshold processing is performed, and the calculated value is output from the output section 9 of the 221-ron 5 in the output layer as output data y. Then, the output data y and the pattern input data X (0
.. 1) is compared with the initial target training data B (0.8), and in the case of unmanifold, first the weight in the connection part 6 between the output layer and the hidden layer is changed, and then the weight in the connection part 6 between the output layer and the input layer is changed. The weights in connections 6 between layers are changed. Then, the process based on the above procedure is performed again, and the weight of each connecting part 6 is changed so that the output data y corresponding to the pattern input data x (0.l) approaches the initial target teaching data B (0.8). .. Subsequently, the same processing as that performed on the pattern input data x (0.1.) is performed on the next pattern input data x (0.2). At this time, the weight of each connection part 6 obtained in the pattern input data x (0.1) is initially used. Similarly, pattern input data X is 0 below.
.. 3, 0.4, . . , 0.8, 0.9, the above process is also executed. If such pattern input data X is O. The iterative processing performed from l to 0.9 finally yields for all pattern input data X,
The process is executed until the corresponding output data y approaches or matches the initial target teacher data B. Such learning ends when all the output data y are close to or coincide with the corresponding initial target teacher data B, and step 1 shown in the table of FIG. 6 is completed, and the weights at that time are Determined by 8. Also, the number of loops N required in this case is as shown by 31 in FIG.
Error F. <0. Using 01 as the convergence judgment condition, it took just under 50,000 times. The above is the process of the first step, and the weight of each connection section 6 indicating the strength of the connection between the neurons 5 of the neural network 2 at that time is determined by the calculation section 8 and stored in the memory 3. Next, a second stage of initial target teacher data is set in which the initial target teacher data B is brought closer to the final target teacher data A by an arbitrary amount. Here, point a and point a', point C and point C'. Since the values of point i and point i' are different, point a, point c' i/
The initial teacher data B at point is converted to the final target teacher data A (point a 0
.. 2. 0.2 at point c and 0.8 at point i, respectively. The current initial target teacher data is set using the value that is brought closer by 1 and the remaining value of the previous initial target teacher data B. Note that if the arbitrary amount is too large, the weight correction calculation may not converge, and if it is too small, the calculation amount for the neural network 2 as a whole will be enormous, so the initial target teacher data B and the final It may be determined appropriately depending on the difference from the target teaching data A. In addition, here, only the initial target teacher data B corresponding to the input data x (0.1.0.3 0.9) is changed, but this is not limited to changing the initial target corresponding to other input data X. The teacher data B may be adjusted by an appropriate amount, and the initial target teacher data B may be adjusted so as to approach the final target teacher data A as a whole. Once this initial target teacher data is set, the same processing as in the previous step 1 is performed for each input data x (0.1 to 0.9), and the output data y is close to the current initial target teacher data. Otherwise, the weights are learned by changing each weight until they match (Step 2 in Figure 6). Note that the number of loops N this time was approximately 35,000 times (Figure 7, 32). Thereafter, the same processes as Step 1 and Step 2 described above are executed step by step. In this example. Processing up to stencil 7 has been completed (steps 3 to 7 in FIG. 6 and 53 to S7 in FIG. 7). Here, in Step 7, the above-described learning is performed on the final target teacher data A, and all pattern input data x (0.
1-0. 9) Each output data y corresponding to
If it is close to or coincides with the final r1+=teacher data A, all teaching steps are completed. Therefore, the second weight determining means realizes the functions achieved in steps 2 to 7 of teaching. The weight of each connection part 6 obtained through the above-described series of learning is stored in the memory 3 and used as the final "weight" L7 for recognizing the pattern data A. 12It
In the neural network 2 in which the weights are set in the connection unit 6, all or any number of pattern input data X are input to the neurons 5 of the input layer, and the obtained output data y is the final target teacher data A. If it matches, pattern A is recognized. Furthermore, by setting the weights and changing the strength of the connections in the neural network 2 for various and large numbers of pattern data, the output data for a certain pattern input data and the teacher data can be compared, and which pattern You can lm whether it is. As described above, the pattern recognition device I according to this embodiment can converge the pattern data step by step as shown by the curve H shown in FIG. 7 even if the pattern data is complex and difficult to converge. possible, and the number of loops at that time N
You don't need much either. Incidentally, in the conventional pattern recognition device using only the backpropagation algorithm, as shown by the curve G, the convergence criterion condition E<0.01 was not reached with a large error E and the convergence was not achieved.

この発明では、前記パターン入力データXと初期目標教
師データBが用いられ、行き威り最終目標教師データが
用いられることはない.それは、複雑なデータ、例えば
多峰性のデータCを当初より用いれば、第5図に示すよ
うに、誤差Eを最小限にするときの重みWの解を得るた
めに、演算開始点mから真の最適点Pに到達するように
演算が繰り返されても、局所最適点nに至った時にあた
かも収束したかのような判断がなされ、局所最適点n以
下の誤差で収束することのない場合があるからである. そこで、データCに近似するデータDを設定し、データ
Cの演算開始点mに対応するデータDの演算開始点qか
ら演算を繰り返し、データDの最適解である点rを求め
る.そして、前記点rに対応するデータCの点0に戻り
、再度演算を繰り返すと、データCにおける最適解であ
る点Pを求めることができる.以上は、本発明の概要の
一部を抽象的に説明したものである. 上記した実施例では、実質的にパターンデータXを入力
できる入力層のニューロン5はひとつであったが、所定
の数、例えばパターン入力データの個数分(上記実施例
では9個)配設してもよい。
In this invention, the pattern input data X and the initial target teacher data B are used, and the final target teacher data is not used. If complex data, for example multimodal data C, is used from the beginning, as shown in Fig. Even if the calculation is repeated to reach the true optimal point P, when the local optimal point n is reached, it is judged as if it had converged, and the process does not converge with an error less than the local optimal point n. This is because there is. Therefore, data D that approximates data C is set, and the calculation is repeated from the calculation start point q of data D that corresponds to the calculation start point m of data C, to find the point r that is the optimal solution for data D. Then, by returning to point 0 of data C corresponding to the point r and repeating the calculation again, point P, which is the optimal solution for data C, can be found. The above is an abstract explanation of a part of the outline of the present invention. In the above-mentioned embodiment, there is one neuron 5 in the input layer that can substantially input the pattern data Good too.

又、中間層のニューロン5はなくてもよく、逆に中間層
を複数層としても構わない。
Furthermore, the neurons 5 in the intermediate layer may be omitted, and conversely, the intermediate layer may have a plurality of layers.

更に、上記実施例のニエ五ラルネントワーク2では、連
結部6が上下層のニューロン5を連結している、入力層
と出力層のそれぞれのニューロン5を直接連結したもの
であってもよく、1のニュ一ロン5の入力部7と出力部
9とを自己連結したもの(第3図2点鎖線6′)も採用
することができる. そして、本実施例において、重み修正計算の収束判定条
件として誤差E<0.01の条件を用いたが、それに限
定されるものではなく、任意の収束判定条件でも適用で
きることを付記しておく.〔発明の効果〕 本発明によれば、データの入力部,演算部および出力部
を有する1又は複数の情報処理部、ならびに該情報処理
部の出力部と入力部を連結するとともに該出力部よりの
出力情報に重みを付加して前記入力部に伝達するための
連結部を具備してなるパターン認識装置において、予め
設定された目標教師データを記憧するメモリ手段と、入
力データを前記パターン認識装置に入力し演算すること
により、その出力データが予め設定された初期目標教示
データに近接もしくは一致するまで重みを変えつつ学習
して、近接もしくは一致した際の前記連結部の各々の重
みを決定する第1重み決定手段と、前記初期目標教師デ
ータを少なくとも1回以上段階的に変更して最終目標教
師データに近づけるとともに各段階における出力データ
が各段階における目標教師データと近接もしくは一致す
るまで前記重みを変えつつ学習することによって前記出
力データが最終目標教示データに近接もしくは一致した
際の最終重みを決定する第2重み決定手段とを具備して
なることを特徴とするパターン認識装置であるから、必
要以上にニューラルネットワークを増大させることなく
、重み修正計算を確実且つ高速に収束させることができ
る。
Furthermore, in the neural network 2 of the above embodiment, the connecting part 6 connects the neurons 5 of the upper and lower layers, and may be one in which the neurons 5 of the input layer and the output layer are directly connected, It is also possible to adopt a structure in which the input section 7 and output section 9 of the neuron 5 of No. 1 are self-connected (as shown by the two-dot chain line 6' in Fig. 3). In this embodiment, the condition of error E<0.01 was used as the convergence judgment condition for the weight correction calculation, but it should be noted that the condition is not limited to this and any convergence judgment condition can be applied. [Effects of the Invention] According to the present invention, one or more information processing sections each having a data input section, a calculation section, and an output section, and an output section and an input section of the information processing section are connected, and a A pattern recognition device comprising a connection section for adding weight to output information of and transmitting it to the input section, comprising a memory means for storing preset target teacher data, and a memory means for storing the input data to the pattern recognition section. By inputting the data into the device and performing calculations, learning is performed while changing the weight until the output data approaches or matches the preset initial target teaching data, and determines the weight of each of the connected parts when the output data approaches or matches the initial target teaching data set in advance. a first weight determining means for changing the initial target teacher data stepwise at least once or more to bring it closer to the final target teacher data, and changing the initial target teacher data at least once until the output data at each stage is close to or coincides with the target teacher data at each stage. This is a pattern recognition device characterized by comprising a second weight determining means that determines a final weight when the output data is close to or coincides with the final target teaching data by learning while changing the weight. , it is possible to reliably and quickly converge weight correction calculations without increasing the neural network more than necessary.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例に係るパターン認識装置を示
すブロック構成図、第2図は同パターン認識装置に具備
されたニューラルネットワークを示す概念図、第3図は
同ニューラルネットワークを横威する情報処理と連結部
を示す概略構造図、第4図は同ニューラルネットワーク
への入力データと該入力データに対応する教師データと
の関係を示すグラフ、第5図は同パターン認識装置によ
る重み修正計算が収束する状態を説明するために用いら
れる誤差と重みとの関係を示すグラフ、第6図は第4図
に破線で表した簡略化パターンデータを実線で表した最
終目標教師データに近付ける時のパターン上の各点の変
化を示す図表、第7図は第6図における各ステンブ毎の
計算の収束に要したループ回数を示すグラフ、第8図は
ニューロンと連結部との結合状態を示す概念図、第9図
は前記ニューロン及び連結部の数学モデルを示す説明図
、第10図はバックブロバゲーシゴンアルゴリズムによ
るニューラルネットワークの演算処理概要を示す状態説
明図、第1l図は別のニューラルネットワークの例を示
すネットワーク構戒図である.〔符号の説明〕 l・・・パターン認識装置 22a,2b・・・ニューラルネットワーク3・・・メ
モリ 4・・・演算制I1部(第1及び第2重み設定手段)5
.5,・・・ニエーロン(情報処理部)6.6′・・・
連結部 7・・・入力部 8・・・演算部(第1及び第2重み決定手段)9・・・
出力部
FIG. 1 is a block configuration diagram showing a pattern recognition device according to an embodiment of the present invention, FIG. 2 is a conceptual diagram showing a neural network included in the pattern recognition device, and FIG. 3 is a block diagram showing the neural network installed in the pattern recognition device. Figure 4 is a graph showing the relationship between the input data to the neural network and the teacher data corresponding to the input data, and Figure 5 is the weight correction by the pattern recognition device. A graph showing the relationship between error and weight used to explain the state in which calculation converges. Figure 6 shows when the simplified pattern data shown by the broken line in Figure 4 approaches the final target teacher data shown by the solid line. Figure 7 is a graph showing the number of loops required for convergence of calculation for each stem in Figure 6, Figure 8 shows the connection state between neurons and connections. Conceptual diagram, Figure 9 is an explanatory diagram showing the mathematical model of the neuron and the connection part, Figure 10 is a state diagram showing an outline of the calculation processing of the neural network based on the backblowing algorithm, and Figure 1l is an explanatory diagram showing the mathematical model of the neuron and the connection part. This is a network configuration diagram showing an example of a network. [Explanation of symbols] l...Pattern recognition devices 22a, 2b...Neural network 3...Memory 4...Arithmetic system I1 section (first and second weight setting means) 5
.. 5,... Nieron (Information Processing Department) 6.6'...
Connecting unit 7...Input unit 8...Calculating unit (first and second weight determining means) 9...
Output section

Claims (1)

【特許請求の範囲】[Claims] (1)データの入力部、演算部および出力部を有する1
又は複数の情報処理部、ならびに該情報処理部の出力部
と入力部を連結するとともに該出力部よりの出力情報に
重みを付加して前記入力部に伝達するための連結部を具
備してなるパターン認識装置において、 予め設定された目標教師データを記憶するメモリ手段と
、 入力データを前記パターン認識装置に入力し演算するこ
とにより、その出力データが予め設定された初期目標教
示データに近接もしくは一致するまで重みを変えつつ学
習して、近接もしくは一致した際の前記連結部の各々の
重みを決定する第1重み決定手段と、 前記初期目標教師データを少なくとも1回以上段階的に
変更して最終目標教師データに近づけるとともに各段階
における出力データが各段階における目標教師データと
近接もしくは一致するまで前記重みを変えつつ学習する
ことによって前記出力データが最終目標教示データに近
接もしくは一致した際の最終重みを決定する第2重み決
定手段とを具備してなることを特徴とするパターン認識
装置。
(1) 1 having a data input section, a calculation section, and an output section
or a connecting section for connecting a plurality of information processing sections and an output section and an input section of the information processing sections, and for adding weight to output information from the output section and transmitting the weighted information to the input section. A pattern recognition device includes a memory means for storing preset target teaching data, and input data is inputted to the pattern recognition device and calculated so that the output data is close to or coincides with the preset initial target teaching data. a first weight determining means that learns while changing the weight until the first weight is determined, and determines the weight of each of the connected parts when they are close or coincident; The final weight when the output data approaches or matches the final target teaching data by learning while changing the weights until the output data at each stage approaches or matches the target teaching data at each stage. A pattern recognition device comprising second weight determining means for determining.
JP1164847A 1989-06-27 1989-06-27 Pattern recognizing device Pending JPH0329064A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1164847A JPH0329064A (en) 1989-06-27 1989-06-27 Pattern recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1164847A JPH0329064A (en) 1989-06-27 1989-06-27 Pattern recognizing device

Publications (1)

Publication Number Publication Date
JPH0329064A true JPH0329064A (en) 1991-02-07

Family

ID=15801052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1164847A Pending JPH0329064A (en) 1989-06-27 1989-06-27 Pattern recognizing device

Country Status (1)

Country Link
JP (1) JPH0329064A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5708727A (en) * 1992-03-19 1998-01-13 Fujitsu Limited Neuroprocessing service

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5708727A (en) * 1992-03-19 1998-01-13 Fujitsu Limited Neuroprocessing service
US5999922A (en) * 1992-03-19 1999-12-07 Fujitsu Limited Neuroprocessing service

Similar Documents

Publication Publication Date Title
International Neural Network Society (INNS), the IEEE Neural Network Council Cooperating Societies et al. BFGS optimization for faster and automated supervised learning
US5832466A (en) System and method for dynamic learning control in genetically enhanced back-propagation neural networks
Castellano et al. An iterative pruning algorithm for feedforward neural networks
US5606646A (en) Recurrent neural network-based fuzzy logic system
Juang A TSK-type recurrent fuzzy network for dynamic systems processing by neural network and genetic algorithms
Lee et al. Identification and control of dynamic systems using recurrent fuzzy neural networks
US5214746A (en) Method and apparatus for training a neural network using evolutionary programming
US4914603A (en) Training neural networks
Murtagh Multilayer perceptrons for classification and regression
US4912655A (en) Adjusting neural networks
US4912647A (en) Neural network training tool
Kapanova et al. A genetic approach to automatic neural network architecture optimization
US4912649A (en) Accelerating learning in neural networks
US11676026B2 (en) Using back propagation computation as data
Meybodi et al. New learning automata based algorithms for adaptation of backpropagation algorithm parameters
US4912652A (en) Fast neural network training
US4912654A (en) Neural networks learning method
US6965885B2 (en) Self-organizing feature map with improved performance by non-monotonic variation of the learning rate
US4912653A (en) Trainable neural network
CN111382840A (en) HTM design method based on cyclic learning unit and oriented to natural language processing
Pearson et al. Evolving neural networks using the “Baldwin effect”
CN109886405A (en) It is a kind of inhibit noise based on artificial neural network structure&#39;s optimization method
Simard et al. Analysis of recurrent backpropagation
Kim A design of CMAC-based fuzzy logic controller with fast learning and accurate approximation
JPH0329064A (en) Pattern recognizing device