JPH06203004A - ニューラルネットワークモデルの学習方法 - Google Patents
ニューラルネットワークモデルの学習方法Info
- Publication number
- JPH06203004A JPH06203004A JP4360151A JP36015192A JPH06203004A JP H06203004 A JPH06203004 A JP H06203004A JP 4360151 A JP4360151 A JP 4360151A JP 36015192 A JP36015192 A JP 36015192A JP H06203004 A JPH06203004 A JP H06203004A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- neural network
- network model
- neuron
- input data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
(57)【要約】
【目的】 ニューラルネットワークモデルをバックプロ
パゲーションにより学習する方法において、誤認識率数
を減少させて認識率を向上させると共に、学習の収束を
向上させる。 【構成】 バックプロパゲーションにより学習させる
際、学習途中や学習がある程度進んだ時点で正しい出力
ニューロンが発火しない入力データがある場合、その入
力データに対して新しく出力ニューロンが作られる(ス
テップS23,24,25)、そして、その入力データ
の教師データに、この新しく作成した出力ニューロンが
割り当てられて再度バックプロパゲーションで学習が行
われる。このように、ばらついた入力データを別々のカ
テゴリに収容することで、学習の収束性が向上し、ま
た、学習終了後のニューラルネットワークにより認識さ
せた場合には正解率が向上する。
パゲーションにより学習する方法において、誤認識率数
を減少させて認識率を向上させると共に、学習の収束を
向上させる。 【構成】 バックプロパゲーションにより学習させる
際、学習途中や学習がある程度進んだ時点で正しい出力
ニューロンが発火しない入力データがある場合、その入
力データに対して新しく出力ニューロンが作られる(ス
テップS23,24,25)、そして、その入力データ
の教師データに、この新しく作成した出力ニューロンが
割り当てられて再度バックプロパゲーションで学習が行
われる。このように、ばらついた入力データを別々のカ
テゴリに収容することで、学習の収束性が向上し、ま
た、学習終了後のニューラルネットワークにより認識さ
せた場合には正解率が向上する。
Description
【0001】
【産業上の利用分野】本発明は、バックプロパゲーショ
ン法(誤差逆向き伝播学習法)によるニューラルネット
ワークモデルの学習方法に関する。
ン法(誤差逆向き伝播学習法)によるニューラルネット
ワークモデルの学習方法に関する。
【0002】
【従来の技術】近年、人間に近い能力を持つ情報処理シ
ステムを実現するという目的からニューロの研究がなさ
れてきている。ニューロは、人間の脳を手本とした並列
分散処理システムであり、学習する能力を有している。
ステムを実現するという目的からニューロの研究がなさ
れてきている。ニューロは、人間の脳を手本とした並列
分散処理システムであり、学習する能力を有している。
【0003】ニューロのネットワークは、一般的には図
6に示すようにユニット(ニューロンモデル)を互いに
シナプス結合により接続したものである。これは特に相
互結合型のネットワークと呼ばれる。各ユニットの結合
の強さは学習により変化させることができ、また、各ユ
ニットは並列に動作することができる。
6に示すようにユニット(ニューロンモデル)を互いに
シナプス結合により接続したものである。これは特に相
互結合型のネットワークと呼ばれる。各ユニットの結合
の強さは学習により変化させることができ、また、各ユ
ニットは並列に動作することができる。
【0004】従来の3層型ニューラルネットワークは図
6に示すような構成になっており、このニューラルネッ
トワークを認識に用いる場合、入力層は入力データの特
徴パラメータのポイント数がl個のニューロンから成
り、中間層は入力データの特徴パラメータのポイント数
がm個のニューロンから成る。また、出力層は認識対象
の種類数(カテゴリー数)n個のニューロンから成る。
そして、入力層と中間層は重みWlmで結合しており、中
間層と出力層は重みWmnで結合している。
6に示すような構成になっており、このニューラルネッ
トワークを認識に用いる場合、入力層は入力データの特
徴パラメータのポイント数がl個のニューロンから成
り、中間層は入力データの特徴パラメータのポイント数
がm個のニューロンから成る。また、出力層は認識対象
の種類数(カテゴリー数)n個のニューロンから成る。
そして、入力層と中間層は重みWlmで結合しており、中
間層と出力層は重みWmnで結合している。
【0005】図7は上記ニューラルネットワークをバッ
クプロパゲーション法(中間層がある3層以上のネット
ワークに拡張した学習法)により学習させるためのフロ
ーチャートである。
クプロパゲーション法(中間層がある3層以上のネット
ワークに拡張した学習法)により学習させるためのフロ
ーチャートである。
【0006】まず、ステップS1で重みの初期値を設定
し、ステップS2でエラーカウントのリセットを行う。
そして、ステップS3で入力層データのセットを行う。
次いで、ステップS4で一つのデータについて前向き計
算を行い、発火する出力層ニューロンを求める。この場
合、本来発火すべき出力層ニューロンがどれかを教師信
号として与える。
し、ステップS2でエラーカウントのリセットを行う。
そして、ステップS3で入力層データのセットを行う。
次いで、ステップS4で一つのデータについて前向き計
算を行い、発火する出力層ニューロンを求める。この場
合、本来発火すべき出力層ニューロンがどれかを教師信
号として与える。
【0007】そして、ステップS5で正しいニューロン
が発火しているか否かの判定を行い、正しいニューロン
が発火していない場合はステップS6で出力値が正解に
近づく様に重みWlm,Wmnを変更する。そして、ステッ
プS7でエラーカウントを1つインクリメントした後、
ステップS8へ進む。
が発火しているか否かの判定を行い、正しいニューロン
が発火していない場合はステップS6で出力値が正解に
近づく様に重みWlm,Wmnを変更する。そして、ステッ
プS7でエラーカウントを1つインクリメントした後、
ステップS8へ進む。
【0008】ステップS8では全てのデータが入力され
たか否かの判定を行い、全て入力されていない場合には
ステップS3に戻る。そして、ステップS3からステッ
プS7までの動作を全ての入力データについて行った
後、最終的に全ての入力データに対して正しく出力層ニ
ューロンを発火させる様に、ステップS2からステップ
S8までの過程を繰り返す毎にデータを入力し、重みの
変更を行う。
たか否かの判定を行い、全て入力されていない場合には
ステップS3に戻る。そして、ステップS3からステッ
プS7までの動作を全ての入力データについて行った
後、最終的に全ての入力データに対して正しく出力層ニ
ューロンを発火させる様に、ステップS2からステップ
S8までの過程を繰り返す毎にデータを入力し、重みの
変更を行う。
【0009】
【発明が解決しようとする課題】ところで、上述した従
来のニューラルネットワークモデルの学習方法にあって
は、出力層のニューロン数がカテゴリ数に固定されてい
るので、同じカテゴリの入力データが異なる特徴を有す
る場合、これを同一の対応する出力層ニューロンが発火
する様に重みの変更をしなければならないので、学習の
収束性が悪くなったり、あるいは学習が収束しなかった
りするという問題点があった。
来のニューラルネットワークモデルの学習方法にあって
は、出力層のニューロン数がカテゴリ数に固定されてい
るので、同じカテゴリの入力データが異なる特徴を有す
る場合、これを同一の対応する出力層ニューロンが発火
する様に重みの変更をしなければならないので、学習の
収束性が悪くなったり、あるいは学習が収束しなかった
りするという問題点があった。
【0010】たとえ学習が収束した場合であっても、一
つの出力層ニューロンに対応するカテゴリの特徴の範囲
が広くなるので、特徴が似たカテゴリがある場合、誤認
識が発生しやすくなる。
つの出力層ニューロンに対応するカテゴリの特徴の範囲
が広くなるので、特徴が似たカテゴリがある場合、誤認
識が発生しやすくなる。
【0011】そこで本発明は、誤認識率数を減少させて
認識率を向上させることができると共に、学習の収束を
向上させることができるニューラルネットワークモデル
の学習方法を提供することを目的としている。
認識率を向上させることができると共に、学習の収束を
向上させることができるニューラルネットワークモデル
の学習方法を提供することを目的としている。
【0012】
【課題を解決するための手段】上記目的達成のため、請
求項1記載の発明によるニューラルネットワークモデル
の学習方法は、ニューラルネットワークモデルを誤差逆
向き伝播学習により学習する方法において、入力データ
に対して正しい出力ニューロンが発火しない場合、新し
くニューロンを作成し、再度誤差逆向き伝播学習により
学習することを特徴とする。
求項1記載の発明によるニューラルネットワークモデル
の学習方法は、ニューラルネットワークモデルを誤差逆
向き伝播学習により学習する方法において、入力データ
に対して正しい出力ニューロンが発火しない場合、新し
くニューロンを作成し、再度誤差逆向き伝播学習により
学習することを特徴とする。
【0013】また、請求項2記載の発明によるニューラ
ルネットワークモデルの学習方法は、ニューラルネット
ワークモデルを誤差逆向き伝播学習により学習する方法
において、学習量が所定量以上になった場合、新しくニ
ューロンを作成し、再度誤差逆向き伝播学習により学習
することを特徴とする。
ルネットワークモデルの学習方法は、ニューラルネット
ワークモデルを誤差逆向き伝播学習により学習する方法
において、学習量が所定量以上になった場合、新しくニ
ューロンを作成し、再度誤差逆向き伝播学習により学習
することを特徴とする。
【0014】また、請求項3記載の発明によるニューラ
ルネットワークモデルの学習方法は、ニューラルネット
ワークモデルを誤差逆向き伝播学習により学習する方法
において、学習回数が所定回数以上になった場合、新し
くニューロンを作成し、再度誤差逆向き伝播学習により
学習することを特徴とする。
ルネットワークモデルの学習方法は、ニューラルネット
ワークモデルを誤差逆向き伝播学習により学習する方法
において、学習回数が所定回数以上になった場合、新し
くニューロンを作成し、再度誤差逆向き伝播学習により
学習することを特徴とする。
【0015】また、請求項4記載の発明によるニューラ
ルネットワークモデルの学習方法は、請求項1、請求項
2又は請求項3いずれかの項記載のニューラルネットワ
ークモデルの学習方法において、前記新しく作成したニ
ューロンが出力ニューロンである場合、入力データの教
示データにその新しく作成した出力ニューロンを割り当
てるようにした。
ルネットワークモデルの学習方法は、請求項1、請求項
2又は請求項3いずれかの項記載のニューラルネットワ
ークモデルの学習方法において、前記新しく作成したニ
ューロンが出力ニューロンである場合、入力データの教
示データにその新しく作成した出力ニューロンを割り当
てるようにした。
【0016】
【作用】本発明では、バックプロパゲーションにより学
習させる際、学習途中や学習がある程度進んだ時点(学
習量が所定量以上になった時点または学習回数が所定回
数以上になった時点)で正しい出力ニューロンが発火し
ない入力データがある場合、その入力データに対して新
しく出力ニューロンが作られる、そして、その入力デー
タの教師データに、この新しく作成した出力ニューロン
が割り当てられて再度バックプロパゲーションで学習が
行われる。
習させる際、学習途中や学習がある程度進んだ時点(学
習量が所定量以上になった時点または学習回数が所定回
数以上になった時点)で正しい出力ニューロンが発火し
ない入力データがある場合、その入力データに対して新
しく出力ニューロンが作られる、そして、その入力デー
タの教師データに、この新しく作成した出力ニューロン
が割り当てられて再度バックプロパゲーションで学習が
行われる。
【0017】したがって、学習途中や学習がある程度進
んだ時点で出力ニューロンを分裂増加させ、ばらついた
データを別々のカテゴリに収容することにより、学習の
収束性が向上する。また、学習終了後のニューラルネッ
トワークにより認識させた場合には正解率が向上する。
んだ時点で出力ニューロンを分裂増加させ、ばらついた
データを別々のカテゴリに収容することにより、学習の
収束性が向上する。また、学習終了後のニューラルネッ
トワークにより認識させた場合には正解率が向上する。
【0018】
【実施例】以下、図面を参照して本発明の一実施例につ
いて説明する。第1実施例 図1〜図3は本発明に係るニューラルネットワークモデ
ルの学習方法の第1実施例を説明するためのフローチャ
ートである。
いて説明する。第1実施例 図1〜図3は本発明に係るニューラルネットワークモデ
ルの学習方法の第1実施例を説明するためのフローチャ
ートである。
【0019】この学習方法は次の三つの過程からなる。 第1過程:学習過程(図1のステップS10〜ステップ
S18) 第2過程:分裂過程(図2のステップS19〜ステップ
S25) 第3過程:再学習過程(図3のステップS26〜ステッ
プS34)
S18) 第2過程:分裂過程(図2のステップS19〜ステップ
S25) 第3過程:再学習過程(図3のステップS26〜ステッ
プS34)
【0020】概略すれば、第1の過程で従来のバックプ
ロパゲーション法により学習し、第2の過程で第1の過
程で学習したニューラルネットワークで正しい出力ニュ
ーロンが発火しないニューロンに対して新しい出力ニュ
ーロンを作成する。そして、第3の過程では第2過程で
作った新しいニューラルネットワークをバックプロパゲ
ーション法で学習する。
ロパゲーション法により学習し、第2の過程で第1の過
程で学習したニューラルネットワークで正しい出力ニュ
ーロンが発火しないニューロンに対して新しい出力ニュ
ーロンを作成する。そして、第3の過程では第2過程で
作った新しいニューラルネットワークをバックプロパゲ
ーション法で学習する。
【0021】<第1の過程>まず、ステップS10で、
従来の3層ニューラルネットワークと同様に、入力デー
タのパラメータ数の入力層lと、任意の中間層mと、カ
テゴリ数に等しいn個のニューロンとを設定し、その結
合の重みを乱数により初期設定する。次いで、ステップ
S11で誤り数をカウントするエラーカウントをリセッ
トする。そして、ステップS12でニューラルネットワ
ークに入力データを一つ入れた後、ステップS13で前
向き計算により各々の出力層ニューロンの発火状態を計
算する。
従来の3層ニューラルネットワークと同様に、入力デー
タのパラメータ数の入力層lと、任意の中間層mと、カ
テゴリ数に等しいn個のニューロンとを設定し、その結
合の重みを乱数により初期設定する。次いで、ステップ
S11で誤り数をカウントするエラーカウントをリセッ
トする。そして、ステップS12でニューラルネットワ
ークに入力データを一つ入れた後、ステップS13で前
向き計算により各々の出力層ニューロンの発火状態を計
算する。
【0022】次いで、ステップS14で、教師データと
出力層ニューロンの発火状態を比較し、正解の出力ニュ
ーロンが最大の発火をしているか否かの判定を行い、正
解の出力ニューロンが最大の発火をしていると判断した
場合、2位以下のニューロンの出力に比べて正解の出力
ニューロンの出力が十分に大きいか否かの判定を行う。
出力層ニューロンの発火状態を比較し、正解の出力ニュ
ーロンが最大の発火をしているか否かの判定を行い、正
解の出力ニューロンが最大の発火をしていると判断した
場合、2位以下のニューロンの出力に比べて正解の出力
ニューロンの出力が十分に大きいか否かの判定を行う。
【0023】ステップS14における条件を満たす場合
は、設定した重みで正しい出力ニューロンが発火してい
るので、重みの変更せずステップS15に進む。これに
対してステップS14における条件を満たさない場合
は、ステップS16で出力層ニューロンの出力値が正解
に近づく様に重みの計算を変更する。そして、重み計算
の変更後、ステップS17でエラーカウントを1インク
リメントする。この後、ステップS15に進む。
は、設定した重みで正しい出力ニューロンが発火してい
るので、重みの変更せずステップS15に進む。これに
対してステップS14における条件を満たさない場合
は、ステップS16で出力層ニューロンの出力値が正解
に近づく様に重みの計算を変更する。そして、重み計算
の変更後、ステップS17でエラーカウントを1インク
リメントする。この後、ステップS15に進む。
【0024】ステップS15では、全てのデータが入力
されたか否かの判定を行い、全てのデータが入力されて
いないと判断すると、ステップS12に戻り、全ての入
力データについて上記ステップS12〜17の処理を行
う。そして、全てのデータが入力されたと判断すると、
ステップS18に進む。
されたか否かの判定を行い、全てのデータが入力されて
いないと判断すると、ステップS12に戻り、全ての入
力データについて上記ステップS12〜17の処理を行
う。そして、全てのデータが入力されたと判断すると、
ステップS18に進む。
【0025】ステップS18では、全ての入力データに
ついて一通り学習させた時点でステップS17でカウン
トしたエラーカウント数のチェックを行う。すなわち、
エラーカウント数がαよりも小さいか否かの判定を行
う。この判定において、エラーカウント数がαよりも小
さくなければ、小さくなるまでステップS11〜ステッ
プS17を繰り返し行い学習させる。そして、エラー数
がαより小さくなったら学習がある程度進んだ(学習量
が所定量以上になった)と判断し、<分裂過程>に移
る。
ついて一通り学習させた時点でステップS17でカウン
トしたエラーカウント数のチェックを行う。すなわち、
エラーカウント数がαよりも小さいか否かの判定を行
う。この判定において、エラーカウント数がαよりも小
さくなければ、小さくなるまでステップS11〜ステッ
プS17を繰り返し行い学習させる。そして、エラー数
がαより小さくなったら学習がある程度進んだ(学習量
が所定量以上になった)と判断し、<分裂過程>に移
る。
【0026】<第2過程>まず、ステップS19,20
で上記<学習過程>のステップS12、13と同様に一
つの入力データについて、ニューラルネットワークの出
力層ニューロンの値を計算する。次いで、ステップS2
1では、ステップS20で計算した出力ニューロンの出
力値が上記<学習選択>のステップS14と同様の条件
で正解か否かを判定する。正解であると判断すると何も
せずにステップS22に進み、不正解であると判断する
とステップS23に進む。
で上記<学習過程>のステップS12、13と同様に一
つの入力データについて、ニューラルネットワークの出
力層ニューロンの値を計算する。次いで、ステップS2
1では、ステップS20で計算した出力ニューロンの出
力値が上記<学習選択>のステップS14と同様の条件
で正解か否かを判定する。正解であると判断すると何も
せずにステップS22に進み、不正解であると判断する
とステップS23に進む。
【0027】ステップS23に進むと、分裂カテゴリの
設定を行う。そして、ステップS24で入力層データの
教師信号に新カテゴリの設定を行う。これらステップS
23,24の処理は、後述するステップS25での出力
ニューロンの増設時に、その入力に対する新しい出力ニ
ューロンを増設する様に設定しておくための処理であ
り、また、その入力データの教師信号が新しく作る出力
ニューロンとなるように設定するための処理でもある。
ステップS24の処理の終了後、ステップS25に進
む。
設定を行う。そして、ステップS24で入力層データの
教師信号に新カテゴリの設定を行う。これらステップS
23,24の処理は、後述するステップS25での出力
ニューロンの増設時に、その入力に対する新しい出力ニ
ューロンを増設する様に設定しておくための処理であ
り、また、その入力データの教師信号が新しく作る出力
ニューロンとなるように設定するための処理でもある。
ステップS24の処理の終了後、ステップS25に進
む。
【0028】ステップS25では全てのデータが入力さ
れたか否かの判定を行い、全てのデータが入力されてい
ないと判断すると、ステップS19に戻り、全ての入力
データについて上記ステップS19〜14の処理を行
う。そして、全てのデータが入力されたと判断すると、
ステップS25に進む。
れたか否かの判定を行い、全てのデータが入力されてい
ないと判断すると、ステップS19に戻り、全ての入力
データについて上記ステップS19〜14の処理を行
う。そして、全てのデータが入力されたと判断すると、
ステップS25に進む。
【0029】ステップS25では、上記ステップS2
3,24で設定された出力ニューロンを増設し、新しい
中間層→出力層の結合を作成する。この処理を行った後
<分裂過程>を終了し、<再学習過程>に移行する。
3,24で設定された出力ニューロンを増設し、新しい
中間層→出力層の結合を作成する。この処理を行った後
<分裂過程>を終了し、<再学習過程>に移行する。
【0030】<再学習過程>まず、ステップS26で上
記第1過程(<学習過程>)のステップS10の処理と
同様に入力層→中間層、中間層→出力層の結合の重みを
全て乱数発生により初期設定を行う。そして、ステップ
S27〜ステップS33で上記第1過程のステップS1
1〜ステップS17の処理と同様に全てのデータを順に
入力し、重みの計算変更およびエラーのカウントを行
う。これらの処理を行った後、ステップS34に進み、
エラー数をチェックする。エラーがあった場合、上記ス
テップS27〜ステップS33でさらに重みの変更(学
習)を行い、エラーがなくなるまで繰り返す。エラーが
無くなったら学習を終了する。
記第1過程(<学習過程>)のステップS10の処理と
同様に入力層→中間層、中間層→出力層の結合の重みを
全て乱数発生により初期設定を行う。そして、ステップ
S27〜ステップS33で上記第1過程のステップS1
1〜ステップS17の処理と同様に全てのデータを順に
入力し、重みの計算変更およびエラーのカウントを行
う。これらの処理を行った後、ステップS34に進み、
エラー数をチェックする。エラーがあった場合、上記ス
テップS27〜ステップS33でさらに重みの変更(学
習)を行い、エラーがなくなるまで繰り返す。エラーが
無くなったら学習を終了する。
【0031】第2実施例 次に、図4は本発明に係るニューラルネットワークモデ
ルの学習方法の第2実施例を説明するためのフローチャ
ートである。
ルの学習方法の第2実施例を説明するためのフローチャ
ートである。
【0032】この第2実施例は、その第1過程(<学習
過程>)の一部が異なるだけで、その他の過程は上記第
1実施例の各過程(<分裂過程>、<再学習過程>)と
同一である。したがって、異なる点についてのみ説明す
る。
過程>)の一部が異なるだけで、その他の過程は上記第
1実施例の各過程(<分裂過程>、<再学習過程>)と
同一である。したがって、異なる点についてのみ説明す
る。
【0033】第1実施例では、学習過程から分裂過程に
移る条件をエラー数で判定したが、入力データにバラツ
キが大きい場合、最初に設定したニューロン数では学習
の収束性が悪くなり、分裂過程に移る条件のエラー数で
も学習が進まなくなることがある。また、逆に収束性の
良い場合も第1実施例では出力層を分裂させてしまうこ
とがある。
移る条件をエラー数で判定したが、入力データにバラツ
キが大きい場合、最初に設定したニューロン数では学習
の収束性が悪くなり、分裂過程に移る条件のエラー数で
も学習が進まなくなることがある。また、逆に収束性の
良い場合も第1実施例では出力層を分裂させてしまうこ
とがある。
【0034】そこで、第2実施例は上記場合を回避でき
るようにしたもので、図4に示す学習過程のステップS
35,36で、同過程のステップS11〜ステップS1
8の学習ループ回数をチェックし、その回数がある回数
β以上になった場合(学習回数が所定回数以上になった
場合)に分裂過程に移り、出力層ニューロンを増設して
再学習させる。これにより、β回以下の学習ループで学
習が収束するものについて分裂させることなく、学習を
終了させることができる。また、収束性の悪いものに対
しては収束性を良くすることができる。なお、上記実施
例では、分裂過程、学習過程を一回としたが、この各過
程を複数回行っても良い。
るようにしたもので、図4に示す学習過程のステップS
35,36で、同過程のステップS11〜ステップS1
8の学習ループ回数をチェックし、その回数がある回数
β以上になった場合(学習回数が所定回数以上になった
場合)に分裂過程に移り、出力層ニューロンを増設して
再学習させる。これにより、β回以下の学習ループで学
習が収束するものについて分裂させることなく、学習を
終了させることができる。また、収束性の悪いものに対
しては収束性を良くすることができる。なお、上記実施
例では、分裂過程、学習過程を一回としたが、この各過
程を複数回行っても良い。
【0035】応用例 次に、応用例について説明する。図5はニューラルネッ
トワークを音声認識に応用した一例を示すブロックであ
る。この図において、1は音声を電気信号に変換するマ
イクロフォン、2はマイクロフォン1から出力されるア
ナログ信号をディジタル信号に変換するA/D変換部、
3はFFT等の音声分析計算により音声特徴を抽出する
音声分析/特徴抽出部である。
トワークを音声認識に応用した一例を示すブロックであ
る。この図において、1は音声を電気信号に変換するマ
イクロフォン、2はマイクロフォン1から出力されるア
ナログ信号をディジタル信号に変換するA/D変換部、
3はFFT等の音声分析計算により音声特徴を抽出する
音声分析/特徴抽出部である。
【0036】4は音声分析/特徴抽出部3で得られる音
声信号が何であるかを示す教師信号を記憶するための音
声/教師信号メモリである。この音声/教師信号メモリ
4に外部より供給される教師信号と、音声分析/特徴抽
出部3により抽出された音声特徴とが書き込まれる。5
はスイッチであり、ニューラルネットワーク6の入力層
に与える音声特徴データを、音声分析/特徴抽出部3の
出力と、音声/教師信号メモリ4の出力との間で切り換
える。
声信号が何であるかを示す教師信号を記憶するための音
声/教師信号メモリである。この音声/教師信号メモリ
4に外部より供給される教師信号と、音声分析/特徴抽
出部3により抽出された音声特徴とが書き込まれる。5
はスイッチであり、ニューラルネットワーク6の入力層
に与える音声特徴データを、音声分析/特徴抽出部3の
出力と、音声/教師信号メモリ4の出力との間で切り換
える。
【0037】ニューラルネットワーク6は、3層の階層
型ニューラルネットワークであり、これを音声認識に応
用する場合、入力層は音声特徴のパラメータ数、出力層
は認識対象となる語彙集になる。例えば、認識対象が
『赤』、『橙』、『黄』、『緑』、『青』、『紫』の6
語彙だとすると、出力層はそれぞれの語彙に対応させた
6個になる。
型ニューラルネットワークであり、これを音声認識に応
用する場合、入力層は音声特徴のパラメータ数、出力層
は認識対象となる語彙集になる。例えば、認識対象が
『赤』、『橙』、『黄』、『緑』、『青』、『紫』の6
語彙だとすると、出力層はそれぞれの語彙に対応させた
6個になる。
【0038】次に、動作について説明する。ニューラル
ネットワーク6を学習させる<学習過程>と、学習が終
了したニューラルネットワーク6で認識させる<認識過
程>とからなる。
ネットワーク6を学習させる<学習過程>と、学習が終
了したニューラルネットワーク6で認識させる<認識過
程>とからなる。
【0039】<学習過程>まず、マイクロフォン1より
入力された学習させるための音声がA/D変換部2でデ
ィジタル信号に変換された後、音声分析特徴抽出部3で
その音声特徴が抽出される。この音声特徴と、その音声
が何であるかの教師信号のそれぞれが音声特徴教師メモ
リ4に書き込まれ、学習するデータ群が作られる。
入力された学習させるための音声がA/D変換部2でデ
ィジタル信号に変換された後、音声分析特徴抽出部3で
その音声特徴が抽出される。この音声特徴と、その音声
が何であるかの教師信号のそれぞれが音声特徴教師メモ
リ4に書き込まれ、学習するデータ群が作られる。
【0040】例えば、『赤』と発声した場合、その音声
から音声分析特徴抽出部3で求められた音声特徴とそれ
が『赤』のものだという教師信号とが音声特徴教師メモ
リ4に書き込まれる。同様にして、他の色の音声もその
音声特徴と教師信号とが音声特徴教師メモリ4に書き込
まれる。上記処理ではスイッチ5はA側に設定されてい
る。上記処理終了後、スイッチ5がB側に設定されて、
このデータ群が繰り返しニューラルネットワーク6に与
えられ、学習が行われる。
から音声分析特徴抽出部3で求められた音声特徴とそれ
が『赤』のものだという教師信号とが音声特徴教師メモ
リ4に書き込まれる。同様にして、他の色の音声もその
音声特徴と教師信号とが音声特徴教師メモリ4に書き込
まれる。上記処理ではスイッチ5はA側に設定されてい
る。上記処理終了後、スイッチ5がB側に設定されて、
このデータ群が繰り返しニューラルネットワーク6に与
えられ、学習が行われる。
【0041】<認識過程>スイッチ5がA側に設定さ
れ、ニューラルネットワーク6の入力層に、発声した音
声からマイクロフォン1→A/D変換部2→音声分析特
徴抽出部3で抽出した音声特徴が入力され、最大発火し
た出力層ニューロンに対応した語彙が認識結果として出
力される。
れ、ニューラルネットワーク6の入力層に、発声した音
声からマイクロフォン1→A/D変換部2→音声分析特
徴抽出部3で抽出した音声特徴が入力され、最大発火し
た出力層ニューロンに対応した語彙が認識結果として出
力される。
【0042】なお、上記音声認識の他、文字認識、画像
処理およびロボット制御等に適用できることは明らかで
ある。
処理およびロボット制御等に適用できることは明らかで
ある。
【0043】
【発明の効果】本発明によれば、階層型ニューラルネッ
トワークをバックプロパゲーションで学習させる場合に
おいて、学習途中や学習がある程度進んだ時点で、同一
カテゴリ中の入力データにばらつきがあれば、正しい出
力ニューロンが発火しない入力データに対して新しく出
力ニューロンを作成し、その入力データの教師データに
対してこの出力ニューロンを割り当てて再度バックプロ
パゲーションで学習させるようにしたので、学習の収束
性が向上し、また、学習終了後のネットワークを用いて
認識させる場合に正解率が向上する。
トワークをバックプロパゲーションで学習させる場合に
おいて、学習途中や学習がある程度進んだ時点で、同一
カテゴリ中の入力データにばらつきがあれば、正しい出
力ニューロンが発火しない入力データに対して新しく出
力ニューロンを作成し、その入力データの教師データに
対してこの出力ニューロンを割り当てて再度バックプロ
パゲーションで学習させるようにしたので、学習の収束
性が向上し、また、学習終了後のネットワークを用いて
認識させる場合に正解率が向上する。
【0044】また、学習が進んだ時点で学習しきれてい
ない入力データに対して出力ニューロンを作成すること
から、出力層の付加が必要最小となり、無駄にニューラ
ルネットワークが大きくならない。
ない入力データに対して出力ニューロンを作成すること
から、出力層の付加が必要最小となり、無駄にニューラ
ルネットワークが大きくならない。
【図1】本発明に係るニューラルネットワークモデルの
学習方法の第1実施例を説明するためのフローチャート
である。
学習方法の第1実施例を説明するためのフローチャート
である。
【図2】同実施例のニューラルネットワークモデルの学
習方法を説明するためのフローチャートである。
習方法を説明するためのフローチャートである。
【図3】同実施例のニューラルネットワークモデルの学
習方法を説明するためのフローチャートである。
習方法を説明するためのフローチャートである。
【図4】本発明に係るニューラルネットワークモデルの
学習方法の第2実施例を説明するためのフローチャート
である。
学習方法の第2実施例を説明するためのフローチャート
である。
【図5】本発明に係るニューラルネットワークモデルの
学習方法を音声認識に応用した一例のブロック図であ
る。
学習方法を音声認識に応用した一例のブロック図であ
る。
【図6】従来の3層型ニューラルネットワークを示す構
成図である。
成図である。
【図7】従来のニューラルネットワークモデルの学習方
法を説明するためのフローチャートである。
法を説明するためのフローチャートである。
3 音声分析/特徴抽出部 4 音声/教師信号メモリ 5 スイッチ 6 ニューラルネットワーク
Claims (4)
- 【請求項1】 ニューラルネットワークモデルを誤差逆
向き伝播学習により学習する方法において、 入力データに対して正しい出力ニューロンが発火しない
場合、新しくニューロンを作成し、再度誤差逆向き伝播
学習により学習することを特徴とするニューラルネット
ワークモデルの学習方法。 - 【請求項2】 ニューラルネットワークモデルを誤差逆
向き伝播学習により学習する方法において、 学習量が所定量以上になった場合、新しくニューロンを
作成し、再度誤差逆向き伝播学習により学習することを
特徴とするニューラルネットワークモデルの学習方法。 - 【請求項3】 ニューラルネットワークモデルを誤差逆
向き伝播学習により学習する方法において、 学習回数が所定回数以上になった場合、新しくニューロ
ンを作成し、再度誤差逆向き伝播学習により学習するこ
とを特徴とするニューラルネットワークモデルの学習方
法。 - 【請求項4】 前記新しく作成したニューロンが出力ニ
ューロンである場合、入力データの教示データにその新
しく作成した出力ニューロンを割り当てることを特徴と
する請求項1、請求項2又は請求項3いずれかの項記載
のニューラルネットワークモデルの学習方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4360151A JPH06203004A (ja) | 1992-12-29 | 1992-12-29 | ニューラルネットワークモデルの学習方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4360151A JPH06203004A (ja) | 1992-12-29 | 1992-12-29 | ニューラルネットワークモデルの学習方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06203004A true JPH06203004A (ja) | 1994-07-22 |
Family
ID=18468128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4360151A Pending JPH06203004A (ja) | 1992-12-29 | 1992-12-29 | ニューラルネットワークモデルの学習方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH06203004A (ja) |
-
1992
- 1992-12-29 JP JP4360151A patent/JPH06203004A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3168779B2 (ja) | 音声認識装置及び方法 | |
CN110070188B (zh) | 一种融合交互式强化学习的增量式认知发育系统及方法 | |
CN105704013A (zh) | 基于上下文的话题更新数据处理方法及装置 | |
JPH06203004A (ja) | ニューラルネットワークモデルの学習方法 | |
JPH06215163A (ja) | ニューラルネット構築支援方法及び装置、ニューラルネットテスト装置、薬注制御システム | |
US5239619A (en) | Learning method for a data processing system having a multi-layer neural network | |
JP2736361B2 (ja) | ニューラルネット構成方法 | |
JPH0214000A (ja) | 音声認識装置 | |
JPH04237388A (ja) | ニューロプロセッサ | |
JP3329202B2 (ja) | ニューラルネットワーク学習方式 | |
JPH11175494A (ja) | ニューラルネットワーク | |
JPH01241667A (ja) | 学習機構を有するダイナミック・ニユーラル・ネットワーク | |
JPH07182433A (ja) | 神経回路の時系列学習方法 | |
JPH06231106A (ja) | リカレント型ニューラルネットワーク学習方法及び装置 | |
JPH05204399A (ja) | 不特定話者音素認識方法 | |
JPH06243273A (ja) | ニューラルネットワークの学習方式 | |
JP3172163B2 (ja) | ニューラルネットワークにおける結合のグループ単位学習調整方式 | |
JPH05307535A (ja) | 学習型波形認識処理装置 | |
SU957236A1 (ru) | Устройство дл моделировани условно-рефлекторных св зей | |
JPH05181500A (ja) | 単語認識システム | |
JPH07110698A (ja) | 音素認識用階層型ニューラルネットワーク | |
Steen et al. | Adaptive Voice Control System using AI | |
JPH0682354B2 (ja) | ニューラルネットにおける学習方式 | |
JPH04186402A (ja) | フアジイ推論における学習方式 | |
JPH05151373A (ja) | ニユーラルネツトワークを用いたフアジイ逆診断方法 |