JPH01232464A - ニューラルネット構成方法 - Google Patents

ニューラルネット構成方法

Info

Publication number
JPH01232464A
JPH01232464A JP63058032A JP5803288A JPH01232464A JP H01232464 A JPH01232464 A JP H01232464A JP 63058032 A JP63058032 A JP 63058032A JP 5803288 A JP5803288 A JP 5803288A JP H01232464 A JPH01232464 A JP H01232464A
Authority
JP
Japan
Prior art keywords
network
learning
groups
output
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63058032A
Other languages
English (en)
Other versions
JP2736361B2 (ja
Inventor
Tatsuo Matsuoka
達雄 松岡
Hiroshi Hamada
浜田 洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP63058032A priority Critical patent/JP2736361B2/ja
Publication of JPH01232464A publication Critical patent/JPH01232464A/ja
Application granted granted Critical
Publication of JP2736361B2 publication Critical patent/JP2736361B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 「産業上の利用分野」 この発明は、パターン認識に用いられる、パックプロパ
ゲーションにより学習を行うニューラルネットの構成法
に関するものである。
「従来の技術」 識別対象の各特徴量(ベクトル)をニューラルネットに
入力させて、バンクプロパゲーションにより学習を行っ
て人力が属するカテゴリー(パターン)を識別すること
が行われている。
第1図にバックプロパゲーションにより学習を行うニュ
ーラルネットの構成例を示す。入力層、隠れ層、出力層
間にユニットは互いに結合しており、各結合は各々重み
を持っている。ハックプロパゲーションでは、所望の出
力値との誤差をもとに所望の値を出力するように結合の
重みを学習する。
まず、各結合の重みの値をランダムに設定し、入力とそ
の入力に対する所望の出力を与える。次に、入力層、隠
れ層、出力層の方向に、入力に対する出力を決定してい
く。入力層のユニットは入力値をそのまま出力値とする
。隠れ層、出力層のユニットは下位層の複数のユニット
の出力値とユニット間の結合の重みの加重総和を人力値
とする。
隠れ層、出力層の各ユニットは人力値を非線形関数(s
igmoid関数など)により交換して出力値を出力す
る。次に、出力層のユニットの出力と所望の出力の誤差
を評価する。この評価関数の値を小さくするように各ユ
ニットのしきい値、結合の重みを更新する。
以上の手順で評価値が十分小さくなるまで学習ヲ繰り返
す。(バックプロパゲーションについては文献″r’a
rallel DisLributed Proces
sing ” 。
Rumelhart  、McClelland  、
and PDP Re5earchG r o u p
 、 T h L!旧T Press、1986に詳し
い。)1回の学習における計算■は、結合の数(入力層
、隠れ層、出力層のユニット数をそれぞれI。
J、にとした時、1xJ+JxK)に比例する。
従って、各層のユニット数1.J、Kが大きくなれば、
計算量も増大する。
識別対象のカテゴリー数が多い実際の識別問題に、この
従来のニューラルネットの構成を適用する場合には、識
別対象のカテゴリー数に対応して出力層のユニ・7ト数
が11m+する。また、カテゴリー数を増加した場合に
は高い識別率を得るためには隠れ層のユニット数も増加
しなければならない。
入力層のユニット数は、扱う特flにより異なるが、カ
テゴリー数を増加すれば、やはりより多くの特徴四が必
要となるため入力層のユニット数も増加する必要がある
。従って、結合の数は、識別対象のカテゴリー数の増加
に対して二〜三乗のオーダーで増加する。結合の数が増
加すると、評価値が十分小さい値に集束するまでの学習
回数が増加する傾向がある。
以上のように識別対象のカテゴリー数が大きい場合には
、評価値が集束するまでの計算■、すなわち学習時間が
膨大となり、現実的でなくなる。
また、計算時間を現実的なものとするために隠れ層のユ
ニット数、入力層のユニット数を小さな値に抑えると、
十分な識別性能が得られなくなるという欠点があった。
この発明の目的は、ニューラルネットを識別対象の多い
識別に適用する場合に学習時間を短縮し、また、識別性
能を向上させることにある。
「課題を解決するための手段」 この発明は識別対象を予め幾つかのグループに分け、そ
のグループの識別を行うネットワークと、グループ内の
個々の識別対象を識別する小規模なネットワークとを設
け、それぞれ独立に学習をした上で各ネットワーク毎に
識別を行い、次にグループを識別するニューラルネット
の出力結果とグループ内の識別を行うニューラルネット
の出力結果の両打から識別結果を決定することを最も主
要な特徴とする。従来の方式とは、複数の独立な規模の
小さいネットワークにより学習、識別を行い、その結果
を総合して識別結果を決定することが異なる。
「実施例」 第2図はこの発明の説明図である。Aはグループを識別
するネットワーク、B1〜B7はグループ毎のネットワ
ークで、本図ではそれぞれ隠れ層を一層としている。A
、B+〜B7とも、入力データの特tUtに対応した数
の入カニニットを持つ。
本図では、A、B、〜B7の入カニニットをすべて共通
化しているが、入カニニットは非線形変換を行わない単
なる端子であり、入カニニット数は直接計算量とは関係
ないため特に共通である必要はない。各ネットワークと
も、隠れ層のユニット数は予備検討などにより適宜決定
する。Aのネットワークは各グループに対応したn個の
出カニニットを持ち、81〜B4は各グループ内の要素
に対応した数の出カニニットを持つ。A、B+〜B7の
出カニニットの出力値は判定回路に入力されている。
このネットワークにおいて、まず学習の際には、Aはす
べての学習用データを用いてグループを識別するように
所望の出力のパターンをへの出カニニットに設定しなが
らバックプロパゲーションにより学習する。81〜B、
は各グループ内のカテゴリーに属する学習用データだけ
を用いてグループ内のカテゴリーを識別するように、同
じくバンクプロパゲーションにより学習する。判定回路
は学習時には動作しない。次に、識別の際には、学習の
終了したA、B+ 〜B、に試験用データを入力し、へ
の出力結果とB、−Bfiの出力結果から判定回路にお
いて識別結果を判定する。判定回路では、■Aの出カニ
ニットのうち最大の活性値(出力値)を示したユニット
に対応するサブネットワーク(B、〜B、)を選択し、
そのサブネットワークの出カニニットのうち最大の活性
値を示したユニットに対応するカテゴリーを識別結果と
する、■B、−B、の各出力値と、それぞれのサブネッ
トワークに対応するAの出力値との積を評価し、その最
大値により識別結果を判定する、等の判定方法により識
別結果を決定する。
以下にこの発明のニューラルネット構成法を音声の子音
認識に適用した例を示す。
尖施猶土 特定話者が発声した、母音/a/が後続する単音節の1
4子音/b、d、g、p、t、に、z。
s、h、m、n、w、y、r/を識別対象として認識実
験を行った。入力データは音声始端から8フレームの1
6次LPGゲプストラム係数(12kllzサンプリン
グ、16m5ハミング窓、フレー11周期8m5)であ
る。
第3図に本実験に適用したネットワークの構成を示す。
ネットワークはグループの識別を行うAのネットワーク
と各グループ内の識別を行うB+〜B++(n:複数の
要素を持つグループの数。グループ内の要素は1の場合
もある。)のサブネットワークからなる。実験では、グ
ループ数を7とし、またA、B、−B、とも3層のネッ
トワークとした。Aのネットワークの訪れ層のユニット
数は30とした。また、B l””’ B l、の隠れ
層のユニソ)12はグループ内の識別率が最大となる数
に選んだ。本実験では従来の音声学的知見に基づき、調
音様式の同じもの、すなわち/z/、/s、h/。
/b、d、g/、/p、t、に/、/w、y/。
7m、n/、/r/をグル一プとして用いた。
各ネットワークとも結合の重み、ユニットのしきい値を
、非線形関数としてsigmoid関数を用いて、バッ
クプロパゲーションにより学習した。へのネットワーク
は14子音のデータを用いて、B。
〜B、、のサブネットワークは各グループ内のデータの
みを用いて学πした。
この時、所望の出力値と実際の出力値との誤差が予め定
めたしきい値以下に集束するまでの各ネットワークの学
習回数は、Aのネットワークが約9000 X 14回
(14はカテゴリー数、以下同様)、サブネットワーク
は、/s、h/が150X2回、/b、d、g/が24
00X3回、/p、t、に/が1200X3回、/w、
  y/が140X2回、7m。
n/が2300X2回であった。これを81算量の評価
値となる結合数と学習回数の積の総和に直すと約514
1115万で、グループ分けせずに全音節を一つのニュ
ーラルネットで学習した場合の約65604万より小さ
(、学習■すなわち学習時間が少なく済んだ。
識別では、出力ユニットのなかで最大の活性値を示した
ものを識別結果と定義した。ある入力データを与えた時
、Aの出力によりその入力データが属するグループを決
定し、81〜B7のうち当該グループに対応するサブネ
ットワークを選択する。そして選択されたサブネットワ
ークの出力によりR<’+的な識別結果を決定した。サ
ブネ7)ワークの選択はへの出力結果でB1〜B7の出
力にゲートをかけることで実現した。また、要素が一つ
だけのグループが最大の活性値を示した場合はへの出力
をそのまま識別結果とした。
識別率は第4図に示す通りとなり、グループ分けせずに
全音節を一つのニューラルネットで識別した場合の識別
率92.5%より高<95.7%であった。
大又護1[ グループの設定方法としてニューラルネットの隠れ層の
発火状態からグループを設定する方法を用いて実施例1
と同様の実験を行った。この方法では、予め14子音を
識別するニューラルネットを隠れ層のユニット数を30
として学習した。次に学習用データを人力データとして
出力値を計算し、最大の活性値を示したものが入力デー
タのカテゴリーと一致した時の隠れ層の発火状態を30
次元のベクトルと考え、そのベクトル間のユークリッド
距離の近い子音を同一グループとするようにクラスタリ
ングを行いグループを設定した。グループは第5図のよ
うに分かれ、識別率はやはりグループ分けせずに一つの
ニューラルネットで識別した場合より高<95.0%で
あった。
このグループの設定に際し、隠れ層が複数の場合には(
隠れ層の数)×(各層のユニット数)のマトリクスと考
え、そのマトリクスのクラスクリングにより隠れ層の発
火状態に近いものを同一グループとしてグループ分けを
行う。
「発明の効果」 以上説明したように、識別対象をグループ分けし、グル
ープを識別するネットワークと、各グループ内の識別を
行う複数の独立な規模の小さいネットワークとにより学
習、識別を行い、その結果を総合して識別結果を決定す
ることにより、一つのニューラルネットにより全対象を
同時に識別する場合より識別性能を向上できるという利
点がある。また、大規模なネットワークの学習が不要と
なり学習量を削減することができる利点がある。
さらに、識別対象すべてを一つのニューラルネットで学
習、識別した時の隠れ層のユニットの発火状態をベクト
ルまたはマトリクスと考え、そのベクトルまたはマトリ
クスのクラスタリングにより隠れ層の発火状態の近いも
のを同一グループとしてグループ分けを行うことにより
、先験的知識を用いな(とも統計的にグループ分けが行
える利点がある。
【図面の簡単な説明】
第1図は従来のニューラルネットの構成を示す図、第2
図はこの発明のニューラルネットの構成を示す図、第3
図は実施例のニューラルネットの構成を示す図、第4図
、及び第5図はそれぞれ実施例の結果を示す回である。 特許出願人 日本電信電話株式会社

Claims (2)

    【特許請求の範囲】
  1. (1) 所望の出力値と実際の出力値との誤差に従って
    入力層、隠れ層、出力層の間の結合の重みを変化させる
    アルゴリズムにより所望の値を出力するように学習する
    学習型ニューラルネットにおいて、 識別対象を予め幾つかのグループに分け、そのグループ
    の識別を行うネットワークと、グループ内の個々の識別
    対象を識別するネットワークとを構成し、 それぞれ個別に学習をした上で、まず各ネットワーク毎
    に識別を行い、次にグループを識別するニューラルネッ
    トの出力結果とグループ内の識別を行うニューラルネッ
    トの出力結果の両者から識別結果を決定することを特徴
    とするニューラルネット構成方式。
  2. (2) 識別対象すべてを一つのニューラルネットで学
    習、識別した時の隠れ層のユニットの発火状態を隠れ層
    のユニット数の次元のベクトル、または隠れ層が複数の
    場合には(隠れ層の数)×(各層のユニット数)のマト
    リクスと考え、そのベクトルまたはマトリクスのクラス
    タリングにより、隠れ層の発火状態の近いものを同一グ
    ループとしてグループ分けを行うことを特徴とする請求
    項1に記載のニューラルネット構成方式。
JP63058032A 1988-03-11 1988-03-11 ニューラルネット構成方法 Expired - Lifetime JP2736361B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63058032A JP2736361B2 (ja) 1988-03-11 1988-03-11 ニューラルネット構成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63058032A JP2736361B2 (ja) 1988-03-11 1988-03-11 ニューラルネット構成方法

Publications (2)

Publication Number Publication Date
JPH01232464A true JPH01232464A (ja) 1989-09-18
JP2736361B2 JP2736361B2 (ja) 1998-04-02

Family

ID=13072606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63058032A Expired - Lifetime JP2736361B2 (ja) 1988-03-11 1988-03-11 ニューラルネット構成方法

Country Status (1)

Country Link
JP (1) JP2736361B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03273722A (ja) * 1989-11-28 1991-12-04 Nec Corp 音声・モデム信号識別回路
US5155801A (en) * 1990-10-09 1992-10-13 Hughes Aircraft Company Clustered neural networks
JPH07230299A (ja) * 1994-02-17 1995-08-29 Sanyo Electric Co Ltd 音声認識装置
JPH10306744A (ja) * 1998-04-06 1998-11-17 Hitachi Ltd 制御装置
JP2021149893A (ja) * 2020-03-24 2021-09-27 株式会社東芝 ニューラルネット解析装置、ニューラルネット解析方法及びプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03273722A (ja) * 1989-11-28 1991-12-04 Nec Corp 音声・モデム信号識別回路
US5155801A (en) * 1990-10-09 1992-10-13 Hughes Aircraft Company Clustered neural networks
JPH07230299A (ja) * 1994-02-17 1995-08-29 Sanyo Electric Co Ltd 音声認識装置
JPH10306744A (ja) * 1998-04-06 1998-11-17 Hitachi Ltd 制御装置
JP2021149893A (ja) * 2020-03-24 2021-09-27 株式会社東芝 ニューラルネット解析装置、ニューラルネット解析方法及びプログラム

Also Published As

Publication number Publication date
JP2736361B2 (ja) 1998-04-02

Similar Documents

Publication Publication Date Title
CN108062572A (zh) 一种基于DdAE深度学习模型的水电机组故障诊断方法与系统
CN107705806A (zh) 一种使用谱图和深卷积神经网络进行语音情感识别的方法
KR102154676B1 (ko) 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법
US6038338A (en) Hybrid neural network for pattern recognition
CN109215680B (zh) 一种基于卷积神经网络的语音还原方法
KR100306848B1 (ko) 신경회로망을 이용한 선택적 주의집중 방법
CN107169566A (zh) 动态神经网络模型训练方法和装置
KR100202425B1 (ko) 가전제품의 리모콘 명령어를 인식하기 위한 음성 인식 시스템
CN109616102A (zh) 声学模型的训练方法、装置及存储介质
CN115422995A (zh) 一种改进社交网络和神经网络的入侵检测方法
AU655235B2 (en) Signal processing arrangements
CN107862380A (zh) 人工神经网络运算电路
CN104915714A (zh) 一种基于回声状态网络的预测方法及装置
JPH01232464A (ja) ニューラルネット構成方法
CN107748914A (zh) 人工神经网络运算电路
US20230117659A1 (en) Device and method for recognizing image using brain-inspired spiking neural network and computer readable program for the same
JPH05101028A (ja) 複数特徴量の統合判定方法
JP2000172662A (ja) ニューラルネットワークの学習方法
CN113255883A (zh) 一种基于幂律分布的权重初始化方法
KR102116054B1 (ko) 심층 신경망 기반의 음성인식 시스템
JPH11265197A (ja) 可変入力神経網を利用した音声認識方法
JPH04501327A (ja) パターン伝達ニューラルネットワーク
Mohanty et al. Recognition of voice signals for Oriya language using wavelet neural network
US20230298573A1 (en) Apparatus for classifying sounds based on neural code in spiking neural network and method thereof
JPH05204399A (ja) 不特定話者音素認識方法

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090116

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090116

Year of fee payment: 11