JP3389684B2 - Learning method of neural network - Google Patents

Learning method of neural network

Info

Publication number
JP3389684B2
JP3389684B2 JP16047094A JP16047094A JP3389684B2 JP 3389684 B2 JP3389684 B2 JP 3389684B2 JP 16047094 A JP16047094 A JP 16047094A JP 16047094 A JP16047094 A JP 16047094A JP 3389684 B2 JP3389684 B2 JP 3389684B2
Authority
JP
Japan
Prior art keywords
teacher data
unit
output
category
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP16047094A
Other languages
Japanese (ja)
Other versions
JPH0830573A (en
Inventor
志津夫 永島
嘉宏 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP16047094A priority Critical patent/JP3389684B2/en
Publication of JPH0830573A publication Critical patent/JPH0830573A/en
Application granted granted Critical
Publication of JP3389684B2 publication Critical patent/JP3389684B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、階層型のニューラルネ
ットワークに係り、特にパターン認識のための出力層構
成とバックプロパゲーションによる学習処理に関する。 【0002】 【従来の技術】階層型ニューラルネットワークは、例え
ば、音声認識における音声データから音素列に変換する
処理を行い、この結果を使ってDTW(動的計画法、D
Pマッチング法)で単語識別を行うという離散単語認識
システムに利用される。従来の階層型ニューラルネット
ワークの例を図4に示す。 【0003】ユニット(ニューロン)が入力層Sと中間
層A及び出力層Rのそれぞれ独立な3層に分離される。
入力層Sは、多数個のニューロンモデルから成り、識別
しようとする入力パターンの数値情報を各ユニットの入
力とし、神経信号に変換する。 【0004】中間層Aは、多数個のニューロンモデルか
ら成り、入力層Sのすべてのユニットと結合荷重Wをも
って結合される。 【0005】出力層Rは、識別するカテゴリに1対1に
対応する数のニューロンモデルから成り、中間層Aのす
べてのユニットと結合荷重をもって結合される。 【0006】この構成において、出力パターンには、そ
の入力パターンに対応する正解を得るため、入力パター
ンを与えたときの出力パターンが教師信号(期待出力)
と一致するようにネットワークの各結合荷重を変化させ
るパターン変換処理がなされる。 【0007】このパターン変換処理において、出力パタ
ーンと教師信号との誤差を求め、出力層から入力層へ逆
方向へ誤差を伝播させ、この誤差に応じた量だけ各ユニ
ット間の荷重を調整し、再度に入力パターンを与えて出
力パターンと教師信号の誤差を求めるというバックプロ
パゲーション式学習を行う。 【0008】 【発明が解決しようとする課題】従来のニューラルネッ
トワークにおいて、実用的な問題を取り扱う場合、カテ
ゴリー間のデータの境界があいまいであるとき、また、
カテゴリー内のデータの特徴のバラツキが大きいときな
ど、1ユニットで1つのカテゴリーを代表させることに
無理が生じることが多い。このため、音素識別など認識
対象が複雑化するに伴って認識率が低下する。 【0009】本発明の目的は、複雑な認識対象に対する
認識能力を高めるニューラルネットワークの学習方法
提供することにある。 【0010】 【課題を解決するための手段】本発明は、前記課題の解
決を図るため、入力層と中間層及び出力層を有し、前記
出力層は1つの認識カテゴリーに対して複数のユニット
が設けられ、各層間は記憶装置に格納されている結合荷
重を有して結合される階層型のニューラルネットワーク
を、バックプロパゲーションの規則に基づいて前記結合
荷重と教師データから前記結合荷重の修正量を決定して
前記記憶装置に格納されている結合荷重を書き換えるこ
とによって学習させるニューラルネットワークの学習方
法であり、ある認識カテゴリーXに設定しようとする教
師データが1か否かをチェックする手順と、前記チェッ
クで教師データが1でなければ当該認識カテゴリーXの
ユニットに与える教師データを0とする手順と、教師デ
ータが1の認識カテゴリーのユニットのうち、最大出力
になるユニットか否かをチェックする手順と、最大出力
でないユニットにはその出力をそのまま教師データとす
る手順と、最大出力になるユニットには教師データを1
にする手順とを有することを特徴とする。 【0011】 【作用】認識対象のカテゴリー毎に複数のユニットを用
意した多重化出力層構成とし、バックプロパゲーション
式学習に際して与える教師データは、入力パターンに対
して正解にならないカテゴリーの各ユニットに与える教
師データを0とし、入力パターンに対して正解になるカ
テゴリーの各ユニットのうち、最大値をもつユニットの
みに教師データを与え、他のユニットにはその出力をそ
のまま教師データとして与える。これにより、カテゴリ
ー間の境界を明確にした学習を可能にする。 【0012】 【実施例】図1は、本発明の一実施例を示す階層型ネッ
トワーク構成図である。本実施例のネットワークが従来
の階層型ニューラルネットワークと異なる部分は、従来
の構成では出力層の各ユニットが認識対象のカテゴリー
に1対1で対応させるのに対し、本実施例では各カテゴ
リーA,B,C毎に複数(図示では3)のユニットを用
意する。 【0013】これらユニット中、最大の出力値をもつユ
ニットに属するカテゴリーを認識結果とするのは従来と
同じ手法にされる。 【0014】本実施例の構成において、ニューラルネッ
トの学習は、基本的にはバックプロパゲーション法によ
るが、多重化された出力ユニットに対してはユニットの
識別表現の分化が生じ易くするよう、誤差の計算プロセ
スを図2に示すアルゴリズムとする。 【0015】図2において、破線ブロックは、各カテゴ
リーA,B,Cに対する教師データ変更処理を示す。あ
るカテゴリーXに設定しようとする教師データが1か否
かをチェックし(ステップS1)、1でなければ当該カ
テゴリーXのユニットに与える教師データを0とする
(ステップS2)。 【0016】教師データが1のカテゴリーについては、
当該カテゴリーのユニットのうち、最大出力になるユニ
ットか否かをチェックし(ステップS3)、最大出力で
ないユニットにはその出力をそのまま教師データとする
(ステップS4)。カテゴリー内で最大出力のユニット
には教師データ1を与える(ステップS5)。すなわ
ち、学習を行わない。 【0017】これら教師データの変更処理は、すべての
カテゴリーA,B,Cについて行われる。図3は、教師
データの変更例を示し、カテゴリーA,B,Cの出力値
がそれぞれ図示の値になり、また、教師データとしてカ
テゴリーAに1を、他のカテゴリーB,Cに0を与える
場合を示す。 【0018】カテゴリーB,Cについては教師データが
0になるため、ステップS1、S2の経路から、これら
のカテゴリーには教師データに0を与える。 【0019】カテゴリーAには教師データが1になるた
め、その3つのユニットのうちの最大出力にならないユ
ニットにはその出力0.1,0.5を教師データとし(ス
テップS3、S4)、最大出力になるユニットには1の
教師データを与える(ステップS3、S5)。 【0020】図2に戻って、各カテゴリーのそれぞれの
ユニットに与える教師データの変更処理を終了した後、
これら教師データを使って通常のバックプロパゲーショ
ン学習アルゴリズムによる学習を行う(ステップS
6)。 【0021】したがって、本実施例によれば、カテゴリ
ーを複数のユニットとする多重ユニット構成とし、学習
には入力カテゴリー以外のカテゴリーにはそのユニット
の教師データの全てを0にし、正解になるカテゴリーに
はその最大値になるユニットの教師データを1にし、他
のユニットは出力値を教師データとする。 【0022】これにより、1つのカテゴリーに属してい
ながら他のカテゴリーとの境界があいまいで、識別が従
来難しかったケースでも、出力ユニットの多重化により
学習が無理なく進み、良好なパターン識別が期待でき
る。 【0023】本実施例に基づく実験例として、ニューラ
ルネットにより音声データから音素識別を行い、この音
素識別結果を使ってDTWで単語識別を行った結果、音
素識別能力及び単語識別能力も向上した。 【0024】この実験に使用したニューラルネットは、
出力層を23ユニット(多重出力では23×2ユニット
とした)であり、その認識結果を従来型のものと対比さ
せて以下の表1に示す。 【0025】 【表1】 【0026】この表からも、従来型ニューラルネットが
誤認識しているカテゴリー14番の音素データに対し、
本発明になる多重出力型では正しい結果を得ている。 【0027】 【発明の効果】以上のとおり、本発明によれば、認識対
象のカテゴリー毎に複数のユニットを用意した多重化出
力層構成とし、バックプロパゲーション式学習に際して
与える教師データは、入力パターンに対して正解になら
ないカテゴリーの各ユニットに与える教師データを0と
し、入力パターンに対して正解になるカテゴリーの各ユ
ニットのうち、最大値をもつユニットのみに教師データ
を与え、他のユニットにはその出力をそのまま教師デー
タとして与えるようにしたため、カテゴリー間の境界を
明確にした学習を可能にし、複雑な識別対象にも良好な
パターン識別ができる効果がある。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a hierarchical neural network, and more particularly to an output layer configuration for pattern recognition and a learning process by back propagation. 2. Description of the Related Art Hierarchical neural networks, for example, perform a process of converting speech data in speech recognition into a phoneme sequence, and use the result to perform DTW (Dynamic Programming, D
It is used in a discrete word recognition system that performs word identification by the P matching method. FIG. 4 shows an example of a conventional hierarchical neural network. A unit (neuron) is separated into an input layer S, an intermediate layer A, and an output layer R, each of which is independent of three layers.
The input layer S is composed of a number of neuron models, and converts numerical information of an input pattern to be identified into each unit and converts it into a neural signal. [0004] The intermediate layer A is composed of a large number of neuron models and is connected to all units of the input layer S with a connection weight W. [0005] The output layer R is composed of a number of neuron models corresponding to the categories to be identified on a one-to-one basis, and is connected to all the units of the intermediate layer A with a connection weight. In this configuration, in order to obtain a correct answer corresponding to the input pattern, the output pattern when the input pattern is given is a teacher signal (expected output).
A pattern conversion process for changing each connection weight of the network so as to coincide with is performed. In this pattern conversion processing, an error between the output pattern and the teacher signal is obtained, the error is propagated in the reverse direction from the output layer to the input layer, and the load between the units is adjusted by an amount corresponding to the error. The back-propagation type learning is performed in which an input pattern is given again and an error between the output pattern and the teacher signal is obtained. [0008] In the conventional neural network, when dealing with practical problems, when the boundaries of data between categories are ambiguous,
In many cases, it is difficult to represent one category by one unit, for example, when the characteristics of the data in the category vary greatly. Therefore, the recognition rate decreases as the recognition target such as phoneme identification becomes more complicated. An object of the present invention is to provide a neural network learning method for improving the ability to recognize a complex recognition target. [0010] Means for Solving the Problems The present invention, in order to solve the above problems, comprises an input layer and the intermediate layer and output layer, wherein
Output layer consists of multiple units for one recognition category
Is provided, and the coupling load stored in the storage device is provided between each layer.
Layered Neural Network Connected with Weight
Based on the rules of back propagation
Determine the correction amount of the connection weight from the load and teacher data
The connection weight stored in the storage device can be rewritten.
Learning method of neural network trained by
A procedure for checking whether the teacher data to be set to a certain recognition category X is 1 or not, and if the teacher data is not 1 in the above check, the teacher data to be given to the unit of the recognition category X is set to 0 A procedure for checking whether the teacher data is a unit having the maximum output among the units of one recognition category, a procedure for using the output as it is as the teacher data for a unit having a non-maximum output, 1 unit of teacher data
And having a procedure to. In a multiplexed output layer configuration in which a plurality of units are prepared for each category to be recognized, back propagation is performed.
The teacher data given at the time of the expression learning corresponds to the input pattern.
Teaching to each unit of the category that does not give a correct answer
The master data is set to 0, and the answer is correct for the input pattern.
Of the units in the category, the unit with the largest value
Only the teacher data, and the output to other units.
It is given as teacher data as it is. This enables learning with clear boundaries between categories. FIG. 1 is a diagram of a hierarchical network configuration showing an embodiment of the present invention. The difference between the network of the present embodiment and the conventional hierarchical neural network is that in the conventional configuration, each unit of the output layer corresponds to the category to be recognized on a one-to-one basis, whereas in the present embodiment, each category A, A plurality (three in the figure) of units are prepared for each of B and C. In these units, the category belonging to the unit having the largest output value is used as the recognition result in the same manner as in the prior art. In the configuration of the present embodiment, the learning of the neural network is basically performed by the back propagation method. However, an error is generated in the multiplexed output unit so that the unit identification expression is easily differentiated. Is an algorithm shown in FIG. In FIG. 2, broken line blocks indicate teacher data change processing for each of the categories A, B, and C. It is checked whether or not the teacher data to be set to a certain category X is 1 (step S1), and if it is not 1, the teacher data given to the unit of the category X is set to 0 (step S2). For the category where the teacher data is 1,
It is checked whether or not the unit of the category has the maximum output (step S3), and the output of the unit having the non-maximum output is directly used as the teacher data (step S4). The teacher data 1 is given to the unit having the maximum output in the category (step S5). That is, no learning is performed. The process of changing the teacher data is performed for all categories A, B, and C. FIG. 3 shows a modification example of the teacher data, in which the output values of the categories A, B, and C become the illustrated values, and 1 is given to the category A and 0 is given to the other categories B and C as the teacher data. Show the case. Since the teacher data is 0 for the categories B and C, 0 is given to the teacher data for these categories from the paths of steps S1 and S2. Since the teacher data is 1 in the category A, the unit which does not have the maximum output among the three units has the output 0.1 and 0.5 as the teacher data (steps S3 and S4), One unit of teacher data is given to the unit to be output (steps S3 and S5). Returning to FIG. 2, after completing the process of changing the teacher data given to each unit of each category,
Learning is performed by using a normal back propagation learning algorithm using these teacher data (step S
6). Therefore, according to the present embodiment, a multi-unit configuration in which a category is composed of a plurality of units is set. For learning other than the input category, all the teacher data of the unit are set to 0, and Sets the teacher data of the unit having the maximum value to 1, and sets the output values of the other units as the teacher data. In this way, even in a case where the boundary between one category and another category is ambiguous and identification is difficult in the past, learning can proceed smoothly by multiplexing output units, and good pattern identification can be expected. . As an experimental example based on this embodiment, phoneme identification was performed from speech data using a neural network, and word identification was performed with the DTW using the phoneme identification results. As a result, the phoneme identification ability and word identification ability were also improved. The neural net used in this experiment is
The output layer has 23 units (23 × 2 units in the multiplex output), and the recognition results are shown in Table 1 below in comparison with those of the conventional type. [Table 1] From this table, it can be seen that for the 14th category of phoneme data which the conventional neural network misrecognizes,
In the multiple output type according to the present invention, a correct result is obtained. As described above, according to the present invention, a multiplexed output layer configuration in which a plurality of units are prepared for each category to be recognized is used for back propagation type learning.
If the teacher data given is correct for the input pattern
The teacher data given to each unit of the category without
Of each category that is correct for the input pattern.
Of the knits, only the unit with the maximum value is teacher data
Output to other units as is for teacher data.
Since it is provided as a data , it is possible to perform learning in which boundaries between categories are clarified, and there is an effect that good pattern identification can be performed even for a complicated identification target.

【図面の簡単な説明】 【図1】本発明の一実施例を示すニューラルネットワー
ク構成図。 【図2】実施例における誤差の計算アルゴリズム。 【図3】実施例における教師データの与え方の例。 【図4】従来の階層型ニューラルネットワーク構成図。 【符号の説明】 S…入力層 A…中間層 R…出力層
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a configuration diagram of a neural network showing one embodiment of the present invention. FIG. 2 is an algorithm for calculating an error in the embodiment. FIG. 3 is an example of how to give teacher data in the embodiment. FIG. 4 is a configuration diagram of a conventional hierarchical neural network. [Description of Signs] S: input layer A: intermediate layer R: output layer

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 G06G 7/60 G06K 9/62 - 9/72 G06T 1/40 G06T 7/00 - 7/60 G10L 15/00 - 17/00 JSTファイル(JOIS) CSDB(日本国特許庁) INSPEC(DIALOG)Continued on the front page (58) Fields investigated (Int.Cl. 7 , DB name) G06N 1/00-7/08 G06G 7/60 G06K 9/62-9/72 G06T 1/40 G06T 7/00-7 / 60 G10L 15/00-17/00 JST file (JOIS) CSDB (Japan Patent Office) INSPEC (DIALOG)

Claims (1)

(57)【特許請求の範囲】 【請求項1】 入力層と中間層及び出力層を有し、前記
出力層は1つの認識カテゴリーに対して複数のユニット
が設けられ、各層間は記憶装置に格納されている結合荷
重を有して結合される階層型のニューラルネットワーク
を、バックプロパゲーションの規則に基づいて前記結合
荷重と教師データから前記結合荷重の修正量を決定して
前記記憶装置に格納されている結合荷重を書き換えるこ
とによって学習させるニューラルネットワークの学習方
法であり、 ある認識カテゴリーXに設定しようとする教師データが
1か否かをチェックする手順と、 前記チェックで教師データが1でなければ当該認識カテ
ゴリーXのユニットに与える教師データを0とする手順
と、 教師データが1の認識カテゴリーのユニットのうち、最
大出力になるユニットか否かをチェックする手順と、 最大出力でないユニットにはその出力をそのまま教師デ
ータとする手順と、 最大出力になるユニットには教師データを1にする手順
とを有することを特徴とするニューラルネットワークの
学習方法
(57) [Claims 1 further comprising an input layer and the intermediate layer and output layer, wherein
Output layer consists of multiple units for one recognition category
Is provided, and the coupling load stored in the storage device is provided between each layer.
Layered Neural Network Connected with Weight
Based on the rules of back propagation
Determine the correction amount of the connection weight from the load and teacher data
The connection weight stored in the storage device can be rewritten.
Learning method of neural network trained by
A procedure for checking whether or not the teacher data to be set to a certain recognition category X is 1. If the teacher data is not 1 in the above check, the teacher data to be given to the unit of the recognition category X is set to 0 A procedure to check whether the teacher data is a unit having the maximum output among the units of the recognition category of one, a procedure to use the output as it is as the teacher data for a unit which is not the maximum output, the neural network is in the unit, characterized in that it comprises a procedure for the teacher data to 1
Learning method .
JP16047094A 1994-07-13 1994-07-13 Learning method of neural network Expired - Fee Related JP3389684B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16047094A JP3389684B2 (en) 1994-07-13 1994-07-13 Learning method of neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16047094A JP3389684B2 (en) 1994-07-13 1994-07-13 Learning method of neural network

Publications (2)

Publication Number Publication Date
JPH0830573A JPH0830573A (en) 1996-02-02
JP3389684B2 true JP3389684B2 (en) 2003-03-24

Family

ID=15715652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16047094A Expired - Fee Related JP3389684B2 (en) 1994-07-13 1994-07-13 Learning method of neural network

Country Status (1)

Country Link
JP (1) JP3389684B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785013B2 (en) * 1991-05-14 1995-09-13 川崎製鉄株式会社 Method for determining surface grade of steel sheet
JPH05135000A (en) * 1991-07-04 1993-06-01 Fujitsu Ltd Pattern learning system
JPH07120349B2 (en) * 1991-09-19 1995-12-20 株式会社エイ・ティ・アール視聴覚機構研究所 Neural network learning method and apparatus using the same

Also Published As

Publication number Publication date
JPH0830573A (en) 1996-02-02

Similar Documents

Publication Publication Date Title
US5095443A (en) Plural neural network system having a successive approximation learning method
US5687286A (en) Neural networks with subdivision
JPH08227408A (en) Neural network
CN111428871B (en) Sign language translation method based on BP neural network
JPH05158910A (en) Training method for neural network and classifying apparatus of neural network
US5519805A (en) Signal processing arrangements
JP3389684B2 (en) Learning method of neural network
US5201026A (en) Method of architecting multiple neural network and system therefor
JP2000172662A (en) Learning method for neural network
JP3303253B2 (en) Pattern matching method and apparatus
JPH0652139A (en) Data structure for neural network
JPH01241667A (en) Dynamic neural network to have learning mechanism
JP3491317B2 (en) Construction method of feedforward neural network
JPH01232464A (en) Neural net constituting method
JPH0652140A (en) Data structure for neural network
JPH09138786A (en) Learning device for neural network
JPH0752439B2 (en) Neural network with dynamic programming function
CN117711572A (en) Psychological adjustment information determining method and device, storage medium and computer equipment
JPH0883261A (en) Neuro arithmetic unit
Kufudaki et al. 43. ASSOCIATIVE NEURAL NETWORKS WITH THRESHOLD-CONTROLLED ATTENTION
JPH0581226A (en) Method for learning neural circuit network and device using the method
JPH0342767A (en) Learning system for neurocircuit network
JP3343626B2 (en) Neural networks for fuzzy inference
CN113609304A (en) Entity matching method and device
Ito et al. A neural network model of memory system using hippocampus

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080117

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090117

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees