JP2736361B2 - Neural network configuration method - Google Patents

Neural network configuration method

Info

Publication number
JP2736361B2
JP2736361B2 JP63058032A JP5803288A JP2736361B2 JP 2736361 B2 JP2736361 B2 JP 2736361B2 JP 63058032 A JP63058032 A JP 63058032A JP 5803288 A JP5803288 A JP 5803288A JP 2736361 B2 JP2736361 B2 JP 2736361B2
Authority
JP
Japan
Prior art keywords
network
output
group
neural network
units
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63058032A
Other languages
Japanese (ja)
Other versions
JPH01232464A (en
Inventor
達雄 松岡
洋 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP63058032A priority Critical patent/JP2736361B2/en
Publication of JPH01232464A publication Critical patent/JPH01232464A/en
Application granted granted Critical
Publication of JP2736361B2 publication Critical patent/JP2736361B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 「産業上の利用分野」 この発明は、パターン認識に用いられ、バックプロパ
ゲーションにより学習を行うニューラルネットの構成法
に関するものである。
Description: TECHNICAL FIELD The present invention relates to a method of constructing a neural network used for pattern recognition and learning by back propagation.

「従来の技術」 識別対象の各特徴量(ベクトル)をニューラルネット
に入力させて、バックプロパゲーションにより学習を行
って入力が属するカテゴリー(パターン)を識別するこ
とが行われている。
2. Description of the Related Art Conventionally, feature amounts (vectors) to be identified are input to a neural network, and learning is performed by back propagation to identify a category (pattern) to which the input belongs.

第1図にバックプロパゲーションにより学習を行うニ
ューラルネットの構成例を示す。入力層、隠れ層、出力
層間にユニットは互いに結合しており、各結合は各々重
みを持っている。バックプロパゲーションでは、所望の
出力値との誤差をもとに所望の値を出力するように結合
の重みを学習する。
FIG. 1 shows an example of the configuration of a neural network that performs learning by back propagation. The units are connected to each other between the input layer, the hidden layer, and the output layer, and each connection has a weight. In the back propagation, the weight of the connection is learned so as to output a desired value based on an error from a desired output value.

まず、各結合の重みの値をランダムに設定し、入力と
その入力に対する所望の出力を与える。次に、入力層、
隠れ層、出力層の方向に、入力に対する出力を決定して
いく。入力層のユニットは入力値をそのまま出力値とす
る。隠れ層、出力層のユニットは下位層の複数のユニッ
トの出力値とユニット間の結合の重みの加重総和を入力
値とする。隠れ層、出力層の各ユニットは入力値を非線
形関数(sigmoid関数など)により変換して出力値を出
力する。次に、出力層のユニットの出力と所望の出力の
誤差を評価する。この評価関数の値を小さくするように
各ユニットのしきい値、結合の重みを更新する。
First, the weight value of each connection is set at random, and an input and a desired output for the input are given. Next, the input layer,
The output for the input is determined in the direction of the hidden layer and the output layer. The units in the input layer use the input values as output values as they are. For the units of the hidden layer and the output layer, the input values are the weighted sum of the output values of the plurality of units of the lower layer and the weight of the connection between the units. Each unit of the hidden layer and the output layer converts an input value by a non-linear function (such as a sigmoid function) and outputs an output value. Next, the error between the output of the unit in the output layer and the desired output is evaluated. The threshold value of each unit and the weight of the connection are updated so as to reduce the value of this evaluation function.

以上の手順で評価値は十分小さくなるまで学習を繰り
返す。(バックプロパゲーションについては文献“Para
llel Distributed Processing",Rumelhart,McClelland,
and PDP Research Group,The MIT Press,1986に詳し
い。) 1回の学習における計算量は、結合の数(入力層、隠
れ層、出力層のユニット数をそれぞれI,J,Kとした時、
I×J+J×K)に比例する。従って、各層のユニット
数I,J,Kが大きくなれば、計算量も増大する。
Learning is repeated by the above procedure until the evaluation value becomes sufficiently small. (For information on back propagation, see Para
llel Distributed Processing ", Rumelhart, McClelland,
and PDP Research Group, The MIT Press, 1986. The amount of computation in one learning is the number of connections (when the number of units in the input, hidden, and output layers is I, J, and K, respectively,
I × J + J × K). Therefore, if the number of units I, J, K of each layer increases, the amount of calculation also increases.

識別対象のカテゴリー数が多い実際の識別問題に、こ
の従来のニューラルネットの構成を適用する場合には、
識別対象のカテゴリー数に対応して出力層のユニット数
が増加する。また、カテゴリー数を増加した場合には高
い識別率を得るためには隠れ層のユニット数も増加しな
ければならない。入力層のユニット数は、扱う特徴量に
より異なるが、カテゴリー数を増加すれば、やはりより
多くの特徴量が必要となるため入力層のユニット数も増
加する必要がある。従って、結合の数は、識別対象のカ
ゲゴリー数の増加に対して二〜三乗のオーダーで増加す
る。結合の数が増加すると、評価値が十分小さい値に集
束するまでの学習回数が増加する傾向がある。
When applying this conventional neural network configuration to an actual identification problem with a large number of categories to be identified,
The number of units in the output layer increases according to the number of categories to be identified. When the number of categories is increased, the number of units in the hidden layer must be increased in order to obtain a high identification rate. The number of units in the input layer varies depending on the feature quantity to be handled. However, if the number of categories is increased, more feature quantities are required, so the number of units in the input layer also needs to be increased. Therefore, the number of bonds increases in the order of two or three to the increase in the number of lizards to be identified. As the number of connections increases, the number of times of learning until the evaluation value converges to a sufficiently small value tends to increase.

以上のように識別対象のカテゴリー数が大きい場合に
は、評価値が集束するまでの計算量、すなわち学習時間
が膨大となり、現実的でなくなる。また、計算時間を現
実的なものとするために隠れ層のユニット数、入力層の
ユニット数を小さな値に抑えると、十分な識別性能が得
られなくなるという欠点があった。
As described above, when the number of categories to be identified is large, the amount of calculation required until the evaluation values converge, that is, the learning time becomes enormous, which is not realistic. Further, if the number of units in the hidden layer and the number of units in the input layer are suppressed to small values in order to make the calculation time realistic, there is a disadvantage that sufficient discrimination performance cannot be obtained.

この発明の目的は、ニューラルネットを識別対象の多
い識別に適用する場合に学習時間を短縮し、また、識別
性能を向上させることにある。
An object of the present invention is to reduce the learning time and improve the discrimination performance when a neural network is applied to discrimination with many discrimination targets.

「課題を解決するための手段」 この発明は識別対象を予め幾つかのグループに分け、
そのグループの識別を行うネットワークと、グループ内
の個々の識別対象を識別する小規模なネットワークとを
設け、それぞれ独立に学習をした上で各ネットワーク毎
に識別を行い、次にグループを識別するニューラルネッ
トの出力結果とグループ内の識別を行うニューラルネッ
トの出力結果の両者から識別結果を決定することを最も
主要な特徴とする。従来の方式とは、複数の独立な規模
の小さいネットワークにより学習、識別を行い、その結
果を総合して識別結果を決定することが異なる。
"Means for Solving the Problems" The present invention divides identification targets into several groups in advance,
A network for identifying the group and a small-scale network for identifying individual objects to be identified in the group are provided. After learning independently, identification is performed for each network. The most important feature is to determine the discrimination result from both the output result of the net and the output result of the neural net for discriminating the group. The difference from the conventional method is that learning and identification are performed by a plurality of independent small-scale networks, and the results are integrated to determine an identification result.

「実施例」 第2図はこの発明の説明図である。Aはグループを識
別するネットワーク、B1〜Bnはグループ毎のネットワ
ークで、本図ではそれぞれ隠れ層を一層としている。A,
B1〜Bnとも、入力データの特徴量に対応した数の入力
ユニットを持つ。本図では、A,B1〜Bnの入力ユニット
をすべて共通化しているが、入力ユニットは非線形変換
を行わない単なる端子であり、入力ユニット数は直接計
算量とは関係ないため特に共通である必要はない。各ネ
ットワークとも、隠れ層のユニット数は予備検討などに
より適宜決定する。Aはネットワークは各グループに対
応したn個の出力ユニットを持ち、B1〜Bnは各グルー
プ内の要素に対応した数の出力ユニットを持つ。A,B1
nの出力ユニットの出力値は判定回路に入力されてい
る。
FIG. 2 is an explanatory view of the present invention. A is a network for identifying a group, B 1 to B n are networks for each group, and each layer has a hidden layer in FIG. A,
Each of B 1 to B n has the number of input units corresponding to the feature amount of the input data. In this figure, the input units A, B 1 to B n are all common, but the input units are simply terminals that do not perform nonlinear conversion. No need to be. In each network, the number of units in the hidden layer is appropriately determined by preliminary examination and the like. In A, the network has n output units corresponding to each group, and B 1 to B n have the number of output units corresponding to the elements in each group. A, B 1
The output value of the output unit of Bn is input to the determination circuit.

このネットワークにおいて、まず学習の際には、Aは
すべての学習用データを用いてグループを識別するよう
に所望の出力のパターンをAの出力ユニットに設定しな
がらバックプロパゲーションにより学習する。B1〜Bn
は各グループ内のカテゴリーに属する学習用データだけ
を用いてグループ内のカテゴリーを識別するように、同
じくバックプロパゲーションにより学習する。判定回路
は学習時には動作しない。次に、識別の際には、学習の
終了したA,B1〜Bnに試験用データを入力し、Aの出力
結果とB1〜Bnの出力結果から判定回路において識別結
果を判定する。判定回路では、Aの出力ユニットのう
ち最大の活性値(出力値)を示したユニットに対応する
サブネットワーク(B1〜Bn)を選択し、そのサブネッ
トワークの出力ユニットのうち最大の活性値を示したユ
ニットに対応するカテゴリーを識別結果とする、B1
〜Bnの各出力値と、それぞれのサブネットワークに対
応するAの出力値との積を評価し、その最大値により識
別結果を判定する、等の判定方法により識別結果を決定
する。
In this network, at the time of learning, A first learns by back propagation while setting a desired output pattern in the output unit of A so as to identify a group using all learning data. B 1 to B n
Learns by back propagation similarly so as to identify the category in the group using only the learning data belonging to the category in each group. The judgment circuit does not operate during learning. Next, at the time of identification, test data is input to A, B 1 to B n for which learning has been completed, and the identification result is determined by the determination circuit from the output results of A and the output results of B 1 to B n. . The determination circuit selects a sub-network (B 1 to B n ) corresponding to a unit having the maximum active value (output value) among the output units of A, and selects the maximum active value among the output units of the sub-network. B 1 is a category corresponding to the unit indicating
Bn and the output value of A corresponding to each subnetwork are evaluated, and the identification result is determined by a determination method such as determining the identification result based on the maximum value.

以下にこの発明のニューラルネット構成法を音声の子
音認識に適用した例を示す。
An example in which the neural network construction method of the present invention is applied to consonant recognition of speech will be described below.

実施例1 特定話者が発声した、母音/a/が後続する単音節の14
子音/b,d,g,p,t,k,z,s,h,m,n,w,y,r/を識別対象として
認識実験を行った。入力データは音声始端から8フレー
ムの16次LPCケプストラム係数(12kHzサンプリング、16
msハミング窓、フレーム周期8ms)である。
Example 1 A monosyllable 14 uttered by a specific speaker and followed by a vowel / a /
Recognition experiments were performed using consonants / b, d, g, p, t, k, z, s, h, m, n, w, y, r /. The input data consists of 16th-order LPC cepstrum coefficients (12 kHz sampling, 16
ms hamming window, frame period 8 ms).

第3図に本実験に適用したネットワークの構成を示
す。ネットワークはグループの識別をAのネットワーク
と各グループ内の識別を行うB1〜Bn(n:複数の要素を
持つグループの数。グループ内の要素は1の場合もあ
る。)のサブネットワークからなる。実験では、グルー
プ数を7とし、またA,B1〜Bnとも3層のネットワーク
とした。Aのネットワークの隠れ層のユニット数は30と
した。また、B1〜Bnの隠れ層のユニット数はグループ
内の識別率が最大となる数に選んだ。本実験では従来の
音声学的知見に基づき、調音様式の同じもの、すなわち
/z/,/s,h/,/b,d,g/,/p,t,k/,/w,y/,/m,n/,/r/をグルー
プとして用いた。
FIG. 3 shows the configuration of the network applied to this experiment. The network identifies the group from the A network and the sub-networks of B 1 to B n (n: the number of groups having a plurality of elements. The number of elements in the group may be 1) which identifies each group. Become. In the experiment, the number of groups was set to seven, and A, B 1 to B n were all three-layer networks. The number of units in the hidden layer of the network A was 30. The number of units in the hidden layers B 1 to B n was selected so that the identification rate within the group was maximized. In this experiment, based on conventional phonetic knowledge, the same articulatory style,
/ z /, / s, h /, / b, d, g /, / p, t, k /, / w, y /, / m, n /, / r / were used as a group.

各ネットワークとも結合の重み、ユニットのしきい値
を、非線形関数としてsigmoid関数を用いて、バックプ
ロパゲーションにより学習した。Aのネットワークは14
子音のデータを用いて、B1〜Bnのサブネットワークは
各グループ内のデータのみを用いて学習した。
For each network, the weight of the connection and the threshold of the unit were learned by back propagation using the sigmoid function as a nonlinear function. A's network is 14
Using the consonant data, the sub-networks B 1 to B n were learned using only the data in each group.

この時、所望の出力値と実際の出力値との誤差が予め
定めたしきい値以下に集束するまでの各ネットワークの
学習回数は、Aのネットワークが約9000×14回(14はカ
テゴリー数、以下同様)、サブネットワークは、/s,h/
が150×2回、/b,d,g/が2400×3回、/p,t,k/が1200×
3回、/w,y/が140×2回、/m,n/が2300×2回であっ
た。これを計算量の評価値となる結合数と学習回数の積
の総和に直すと約51485万で、グループ分けせずに前音
節を一つのニューラルネットで学習した場合の約65604
万より小さく、学習量すなわち学習時間が少なく済ん
だ。
At this time, the number of times of learning of each network until the error between the desired output value and the actual output value converges below a predetermined threshold value is about 9000 × 14 times for the network of A (14 is the number of categories, The same applies to the following), and the subnetwork is / s, h /
Is 150 × 2 times, / b, d, g / is 2400 × 3 times, / p, t, k / is 1200 ×
Three times, / w, y / was 140 × 2 times, and / m, n / was 2300 × 2 times. When this is converted into the sum of the product of the number of connections and the number of times of learning, which is the evaluation value of the calculation amount, it is about 514.85 million, which is about 65604 when the previous syllable is learned by one neural network without grouping.
Less than 10,000 and less learning amount, that is, less learning time.

識別では、出力ユニットのなかで最大の活性値を示し
たものを識別結果と定義した。ある入力データを与えた
時、Aの出力によりその入力データが属するグループを
決定し、B1〜Bnのうち当該グループに対応するサブネ
ットワークを選択する。そして選択されたサブネットワ
ークの出力により最終的な識別結果を決定した。サブネ
ットワークの選択はAの出力結果でB1〜Bnの出力にゲ
ートをかけることで実現した。また、要素が一つだけの
グループが最大の活性値を示した場合はAの出力をその
まま識別結果とした。
In the discrimination, the one having the largest activity value among the output units was defined as the discrimination result. When given input data, a group to which the input data belongs is determined based on the output of A, and a sub-network corresponding to the group is selected from B 1 to B n . Then, the final identification result was determined based on the output of the selected sub-network. The selection of the sub-network was realized by gating the outputs of B 1 to B n in the output result of A. When the group having only one element showed the maximum activity value, the output of A was directly used as the identification result.

識別率は第4図に示す通りとなり、グループ分けせず
に全音節を一つのニューラルネットで識別した場合の識
別率92.5%より高く95.7%であった。
The discrimination rate was as shown in FIG. 4. The discrimination rate was 95.7%, higher than 92.5% when all syllables were discriminated by one neural network without grouping.

実施例2 グループの設定方法としてニューラルネットの隠れ層
の発火状態からグループを設定する方法を用いて実施例
1と同様の実験を行った。つまりこの方法では、まず14
子音をグループに分けることなく、識別するニューラル
ネットを学習、構成した。その時の隠れ層のユニット数
を30とした。次にそのニューラルネットに学習用データ
を入力データとして入力し、出力値を計算し、最大の活
性値を示したものが入力データのカテゴリーと一致した
時の隠れ層の発火状態を30次元のベクトルとし、このよ
うにして得た格子音と対応するベクトル間のユークリッ
ド距離を求め、このユークリッド距離が近い子音を同一
グループとするようにクラスタリングを行ってグループ
を設定した。このグループは第5図のように分かれた。
このグループ分けに対して実施例1と同様にAのネット
ワーク、B1〜B7のサブネットワークについて学習を行
ってニューラルネットワークを構成した。このニューラ
ルネットワークを用いた識別率はやはりグループ分けせ
ずに一つのニューラルネットで識別した場合より高く9
5.0%であった。
Example 2 An experiment similar to that of Example 1 was performed using a method of setting a group based on the firing state of a hidden layer of a neural network as a group setting method. In other words, in this method, first, 14
Learning and constructing a neural network for identifying consonants without dividing them into groups. The number of units in the hidden layer at that time was set to 30. Next, the learning data is input to the neural network as input data, the output value is calculated, and the firing state of the hidden layer when the one showing the maximum activity value matches the category of the input data is a 30-dimensional vector. Then, the Euclidean distance between the lattice sound obtained in this way and the corresponding vector was obtained, and a group was set by performing clustering so that the consonants having a short Euclidean distance were put into the same group. This group was divided as shown in FIG.
For this grouping, learning was performed on the network A and the sub-networks B 1 to B 7 in the same manner as in the first embodiment to form a neural network. The discrimination rate using this neural network is also higher than when discriminating using one neural network without grouping.
5.0%.

このグループの設定に際し、隠れ層が複数の場合には
(隠れ層の数)×(各層のユニット数)のマトリクスと
考え、そのマトリクスのクラスタリングにより隠れ層の
発火状態に近いものを同一グループとしてグループ分け
を行う。
In setting this group, when there are a plurality of hidden layers, a matrix of (the number of hidden layers) × (the number of units of each layer) is considered. Divide.

「発明の効果」 以上説明したように、識別対象をグループ分けし、グ
ループを識別するネットワークと、各グループ内の識別
を行う複数の独立な規模の小さいネットワークとにより
学習、識別を行い、その結果を総合して識別結果を決定
することにより、一つのニューラルネットにより全対象
を同時に識別する場合より識別性能を向上できるという
利点がある。また、大規模なネットワークの学習が不要
となり学習量を削減することができる利点がある。
[Effects of the Invention] As described above, learning and identification are performed by a network that divides identification targets into groups and identifies groups, and a plurality of independent small-scale networks that perform identification within each group. By determining the identification result by integrating the above, there is an advantage that the identification performance can be improved as compared with the case where all the objects are identified simultaneously by one neural network. In addition, there is an advantage that learning of a large-scale network is not required and the amount of learning can be reduced.

さらに、識別対象すべてを一つのニューラルネットで
学習、識別した時の隠れ層のユニットの発火状態をベク
トルまたはマトリクスと考え、そのベクトルまたはマト
リクスのクラスタリングにより隠れ層の発火状態の近い
ものを同一グループとしてグループ分けを行うことによ
り、先験的知識を用いなくとも統計的にグループ分けが
行える利点がある。
In addition, all of the objects to be identified are learned by one neural network, and the firing state of the hidden layer unit when it is identified is considered as a vector or matrix, and those with similar firing states of the hidden layer are grouped as the same group by clustering the vector or matrix. By performing grouping, there is an advantage that grouping can be performed statistically without using a priori knowledge.

【図面の簡単な説明】[Brief description of the drawings]

第1図は従来のニューラルネットの構成を示す図、第2
図はこの発明のニューラルネットの構成を示す図、第3
図は実施例のニューラルネットの構成を示す図、第4
図、及び第5図はそれぞれ実施例の結果を示す図であ
る。
FIG. 1 is a diagram showing the configuration of a conventional neural network, and FIG.
The figure shows the configuration of the neural network of the present invention.
The figure shows the configuration of the neural network of the embodiment.
FIG. 5 and FIG. 5 are diagrams each showing the result of the example.

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】所望の出力値と実際の出力値との誤差に従
って入力層、隠れ層、出力層の間の結合の重みを変化さ
せるアルゴリズムにより所望の値を出力するように学習
してニューラルネットを構成する方法において、 識別対象を幾つかのグループに分け、そのグループの識
別を行う第1ネットワークと、グループ内の個々の識別
対象を識別する第2ネットワークとを用い、 上記第1、第2ネットワークをそれぞれ個別に学習を
し、 識別の際はまず各ネットワーク毎に識別を行い、次にグ
ループを識別するニューラルネットの出力結果とグルー
プ内の識別を行うニューラルネットの出力結果の両者か
ら識別結果を決定することを特徴とするニューラルネッ
ト構成方法。
1. A neural network which learns to output a desired value by an algorithm for changing a weight of a connection between an input layer, a hidden layer, and an output layer according to an error between a desired output value and an actual output value. The method comprises: dividing an identification target into several groups, using a first network for identifying the group, and a second network for identifying individual identification targets in the group; Each network is individually trained. At the time of identification, identification is first performed for each network, and then the identification result is obtained from both the output result of the neural network that identifies the group and the output result of the neural network that identifies the group. Is determined.
【請求項2】識別対象すべてを一つのニューラルネット
で学習、識別し、その時の隠れ層のユニットの発火状態
を隠れ層のユニット数の次元のベクトル、または隠れ層
が複数の場合には(隠れ層の数)×(各層のユニット
数)のマトリクスとし、そのベクトルまたはマトリクス
のクラスタリングにより、隠れ層の発火状態の近いもの
を同一グループとして上記グループ分けを行うことを特
徴とする請求項1に記載のニューラルネット構成方法。
(2) All the objects to be identified are learned and identified by one neural network, and the firing state of the units of the hidden layer at that time is expressed by a vector of the dimension of the number of units of the hidden layer, or when there are a plurality of hidden layers (hidden). 2. The method according to claim 1, wherein a matrix of (number of layers) .times. (Number of units of each layer) is used, and the groups of vectors or matrices having similar firing states are classified into the same group by clustering the vectors or the matrix. Neural net construction method.
JP63058032A 1988-03-11 1988-03-11 Neural network configuration method Expired - Lifetime JP2736361B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63058032A JP2736361B2 (en) 1988-03-11 1988-03-11 Neural network configuration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63058032A JP2736361B2 (en) 1988-03-11 1988-03-11 Neural network configuration method

Publications (2)

Publication Number Publication Date
JPH01232464A JPH01232464A (en) 1989-09-18
JP2736361B2 true JP2736361B2 (en) 1998-04-02

Family

ID=13072606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63058032A Expired - Lifetime JP2736361B2 (en) 1988-03-11 1988-03-11 Neural network configuration method

Country Status (1)

Country Link
JP (1) JP2736361B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2643593B2 (en) * 1989-11-28 1997-08-20 日本電気株式会社 Voice / modem signal identification circuit
US5155801A (en) * 1990-10-09 1992-10-13 Hughes Aircraft Company Clustered neural networks
JPH07230299A (en) * 1994-02-17 1995-08-29 Sanyo Electric Co Ltd Voice recognition device
JPH10306744A (en) * 1998-04-06 1998-11-17 Hitachi Ltd Controller
JP7374829B2 (en) * 2020-03-24 2023-11-07 株式会社東芝 Neural network analysis device, neural network analysis method and program

Also Published As

Publication number Publication date
JPH01232464A (en) 1989-09-18

Similar Documents

Publication Publication Date Title
US5095443A (en) Plural neural network system having a successive approximation learning method
Berthold et al. Boosting the performance of rbf networks with dynamic decay adjustment
US6038338A (en) Hybrid neural network for pattern recognition
EP0333798B1 (en) Apparatus for pattern recognition
Tóth Convolutional deep maxout networks for phone recognition
AU655235B2 (en) Signal processing arrangements
JP3521429B2 (en) Speech recognition device using neural network and learning method thereof
KR20010002997A (en) A selective attention method using neural networks
JP2736361B2 (en) Neural network configuration method
JPH0540497A (en) Speaker adaptive voice recognizing device
Zaki et al. CNN: a speaker recognition system using a cascaded neural network
Asokan et al. Classification of Melakartha ragas using neural networks
JPH11265197A (en) Voice recognizing method utilizing variable input neural network
Gramß Fast algorithms to find invariant features for a word recognizing neural net
JP2654686B2 (en) neural network
JPH05204399A (en) Unspecified speaker's phoneme recognition method
Mohanty et al. Recognition of voice signals for Oriya language using wavelet neural network
Lawrence et al. The gamma MLP-using multiple temporal resolutions for improved classification
Bennani et al. Validation of neural net architectures on speech recognition tasks
Peeling et al. Isolated digit recognition using the multi-layer perceptron
JP2743418B2 (en) Learning method
Tabarabaee et al. Isolated word recognition using a hybrid neural network
Ambikairajah et al. Neural networks for speech recognition
Salmela et al. Isolated spoken number recognition with hybrid of self-organizing map and multilayer perceptron
KR950013117B1 (en) Korean separate word recognition system using time delaying n eural network

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090116

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090116

Year of fee payment: 11