JPH07104849B2 - ニューラル・ネットワークの学習方法 - Google Patents

ニューラル・ネットワークの学習方法

Info

Publication number
JPH07104849B2
JPH07104849B2 JP1057297A JP5729789A JPH07104849B2 JP H07104849 B2 JPH07104849 B2 JP H07104849B2 JP 1057297 A JP1057297 A JP 1057297A JP 5729789 A JP5729789 A JP 5729789A JP H07104849 B2 JPH07104849 B2 JP H07104849B2
Authority
JP
Japan
Prior art keywords
learning
category
pattern
learning pattern
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1057297A
Other languages
English (en)
Other versions
JPH02235170A (ja
Inventor
伸 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP1057297A priority Critical patent/JPH07104849B2/ja
Publication of JPH02235170A publication Critical patent/JPH02235170A/ja
Priority to US07/761,387 priority patent/US5293454A/en
Publication of JPH07104849B2 publication Critical patent/JPH07104849B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】 <産業上の利用分野> この発明は、学習の際の処理時間の短縮や過学習の防止
を可能にするニューラル・ネットワークの学習方法に関
する。
<従来の技術> 最近、誤差逆伝播学習方法によって学習する多層ニュー
ラル・ネットワークが、音声認識の分野や文字認識の分
野において利用されるようになってきている。従来、こ
の分野においてよく用いられているニューラル・ネット
ワークは、多層パーセプトロン型ニューラル・ネットワ
ークである。この多層パーセプトロン型ニューラル・ネ
ットワークは、入力層,中間層および出力層の少なくと
も3層からなる。
上記多層パーセプトロン型ニューラル・ネットワーク
(以下、単にニューラル・ネットワークと言う)は、入
力層に学習用パターンを与えると共に、出力層にその学
習用パターンが属するカテゴリを与えると、分類する各
カテゴリ間の境界を求める学習を自ら行う。そして、ニ
ューラル・ネットワークの各層内に含まれるユニットと
他層内に含まれるユニットとの間を結合するシナプス結
合の重みが自動的に設定され、ニューラル・ネットワー
クの構造が決定される。
その結果、この学習済みのニューラル・ネットワーク
は、学習によって求めた分類すべきカテゴリ間の境界に
従って、入力パターンをその入力パターンが属するカテ
ゴリに分類するのである。その際に、入力層に含まれる
ユニット数は入力されるパターン(例えば、学習用パタ
ーン)の次数によって決まり、出力層に含まれるユニッ
ト数は分類したいカテゴリの数で決まる。
<発明が解決しようとする課題> しかしながら、上記従来のニューラル・ネットワークを
学習する際には、単に入力層の各ユニットに学習用パタ
ーンを入力するだけなので、多数の学習用パターンを用
いて学習する際にはかなりの処理時間を要し、ニューラ
ル・ネットワーク利用の大きなネックになるという問題
がある。また、一般に入力される学習パターン数が多い
ほど評価の精度は良くなる。しかしながら、学習用パタ
ーンが多くなると、誤差逆伝播学習の収束を妨げたり、
過学習の原因となるような極端なパターンの数も増加す
ることになる。したがって、このような極端な学習用パ
ターンを用いて学習されたニューラル・ネットワーク
は、学習用パターンと異なる入力パターンの評価時にお
いては、カテゴリ判定能力が低下してしまうという問題
がある。
そこで、この発明の目的は、ニューラル・ネットワーク
利用の大きなネックとなる学習時間を大幅に短縮するこ
とができると共に、過学習を防止することができるニュ
ーラル・ネットワークの学習方法を提供することにあ
る。
<課題を解決するための手段> 上記目的を達成するため、この発明のニューラル・ネッ
トワークの学習方法は、入力されたデータに対して所定
の重み係数で荷重演算を行って演算結果を出力する荷重
演算手段を有する複数のノードを用いてネットワークを
形成し,入力ノードに識別データを入力した際に出力ノ
ードから上記識別データが属するカテゴリを表す出力デ
ータを出力するニューラル・ネットワークを構築するに
際して,カテゴリ空間上で隣接するカテゴリにおける両
カテゴリの境界近傍に位置する識別データが入力された
場合に当該識別データが属するカテゴリに割り付けられ
ている出力ノードからの出力が最大値になるように,各
ノード関する上記重み係数を更新するニューラル・ネッ
トワークの学習方法であって、上記カテゴリ空間上で隣
接するカテゴリにおいて,対象学習用パターンが属する
一方のカテゴリ内の各学習用パターンと上記対象学習用
パターンとの距離を求めて,この求めた距離に基づいて
上記対象学習用パターンとの距離が近い順に複数の学習
用パターンを選出し、他方のカテゴリ内の各学習パター
ンと上記対象学習用パターンとの距離を求めて,この求
めた距離に基づいて上記対象学習用パターンとの距離が
近い順に複数の学習用パターンを選出し、上記一方のカ
テゴリ内から選出された学習パターンと上記対象学習用
パターンとの平均距離と,上記他方のカテゴリ内から選
出された学習用パターンと上記対象学習用パターンとの
平均距離とを算出し、上記カテゴリ空間上の位置が上記
隣接する両カテゴリの境界から所定距離内になるような
上記両平均距離の比の値を呈する対象学習用パターンを
選出し、この選出された対象学習用パターンを用いてニ
ューラル・ネットワークの学習を行うことを特徴として
いる。
<作用> 隣接するカテゴリにおいて、対象学習用パターンが属す
る一方のカテゴリ内の各学習用パターンと上記対象学習
用パターンとの距離が求められ、上記対象学習用パター
ンとの距離が近い順に複数の学習用パターンが選出され
る。また、他方のカテゴリ内に属する各学習用パターン
と上記対象学習用パターンとの距離が求められ、上記対
象学習用パターンとの距離が近い順に複数の学習用パタ
ーンが選出される。そして、上記一方のカテゴリ内から
選出された学習用パターンと上記対象学習用パターンと
の平均距離と、上記他方のカテゴリ内から選出された学
習用パターンと上記対象学習パターンとの平均距離とが
算出されて、上記カテゴリ空間上の位置が上記隣接する
両カテゴリの境界から所定距離内になるような上記両平
均距離の比の値を呈する対象学習用パターンが選出され
る。
こうして、カテゴリ間の境界を求める学習に効果的な学
習用パターンが選出され、この選出された学習用パター
ンを用いて、ニューラル・ネットワークの学習が効果的
に行われる。
<実施例> 以下、この発明を図示の実施例により詳細に説明する。
第1図はニューラル・ネットワークの学習に用いられる
パターンのカテゴリ空間における分布の一例を2次元平
面上に大まかに示したものである。
第1図に示すように、任意のカテゴリ(例えば、カテゴ
リA)に属する学習用パターンは、次の3つのタイプに
分類することができる。
タイプ……他のカテゴリ(例えばカテゴリB)の輪郭
近くの所定領域に位置する学習用パターン。
タイプ……上記任意のカテゴリ(カテゴリA)内の中
央付近に位置する学習用パターン。
タイプ……上記任意のカテゴリ(カテゴリA)の輪郭
付近に位置し、かつ他のカテゴリ(カテゴリB)内部に
位置する学習用パターン(極端な学習用パターンや不良
学習用パターン)。
第1図においては、上記タイプの学習用パターンのカ
テゴリ空間上の位置を、タイプの学習用パターンの
カテゴリ空間上の位置を、タイプの学習用パターン
のカテゴリ空間上の位置をを表現している。
第2図は第1図における学習用パターンが各カテゴリに
属する頻度曲線を大まかに示したものである。図中Aは
学習用パターンがカテゴリAに属する頻度曲線を示し、
Bは学習用パターンがカテゴリBに属する頻度曲線を示
す。第2図より、上記学習用パターンの3つのタイプは
次のようにも表現できる。
タイプ……他のカテゴリ(カテゴリB)内に位置する
頻度がある程度有る領域に位置する学習用パターン。
タイプ……上記任意のカテゴリ(カテゴリA)内に位
置する頻度の方が高い領域に位置し、かつ、タイプの
学習用パターンが位置しない領域に位置する学習用パタ
ーン。
タイプ……他のカテゴリ(カテゴリB)内に位置する
頻度の方が高い学習用パターン。
第2図においては、上記タイプの学習用パターンが位
置する領域を1、タイプの学習用パターンが位置する
領域を2、タイプの学習用パターンが位置する領域を
3で示している。
ここで、上記タイプの例としては次のような場合があ
る。すなわち、音節認識において、例えば特定話者が発
生した音節/ぱ/の特徴パターン(すなわち、学習用パ
ターン)が、個人差や調音結合等によって、他の話者の
発生における音節/ば/のカテゴリに位置するような場
合である。この場合は、この学習用パターンは、カテゴ
リ“ぱ”に属しているにもかかわらず、カテゴリ“ば”
に属する確率の方が高いのである。
ニューラル・ネットワークを利用した評価は、学習によ
って求められた上記各カテゴリ間の境界を用いて、入力
されたパターンが属するカテゴリを出力する手法であ
る。したがって、ニューラル・ネットワークの学習に用
いる学習用パターンは、タイプのパターンであること
が重要である。
すなわち、タイプの学習用のパターンはカテゴリA内
の中央付近に存在するため、カテゴリ間の境界を求める
ニューラル・ネットワークの学習にあまり寄与せず、い
たずらに学習時間を長くするだけである。また、タイプ
の学習用パターンは極端なパターンや不良パターンで
あるため、タイプの学習用パターンによる学習は極端
な(すなわち、例外的な)例や悪い例についての学習
(過学習)となる。したがって、タイプの学習用パタ
ーンによる学習はいたずらに学習時間を長くし、評価時
における分類性能を低下することになる。
そこで、ニューラル・ネットワークの学習を実行する前
に、学習に用いられる学習用パターンのタイプを予め分
類し、タイプに属する学習用パターンのみを用いてニ
ューラル・ネットワークの学習を実行することが必要で
ある。
この発明は、ニューラル・ネットワークの学習に際し
て、予め学習用パターン群を上記タイプに従って分類
し、この分類結果に従ってタイプの学習用パターン
(すなわち、学習に効果のある学習用パターン)のみを
用いて効率の良いニューラル・ネットワークの学習を実
行するものである。
上記学習用パターンのタイプの分類手法として種々の分
類法があるが、本実施例においてはK近傍法を用いる。
以下、K近傍法によるタイプの分類について詳細に説明
する。ここで、カテゴリ数はカテゴリAとカテゴリBの
2つとする。
まず、カテゴリAに属する学習用パターン群の中から、
カテゴリAに属する分類の対象となる学習用パターン
(以下、対象学習パターンと言う)との距離の近い方か
らK個の学習用パターンを選出する。そして、この選出
されたK個の学習用パターンと上記対象学習用パターン
との平均距離Daを算出する。次に、カテゴリBに属する
学習用パターン群の中から上記対象学習用パターンとの
距離の近い方からK個の学習用パターンを選出する。そ
して、この選出されたK個の学習用パターンと上記対象
学習用パターンとの平均距離Dbを算出する。そして、上
記平均距離Daと平均距離Dbとを比較して、後に述べるよ
うに平均距離の大小とその程度に応じて、上記対象学習
用パターンを上記3つのタイプ,,に分類するの
である。
すなわち、平均距離Daと平均距離Dbとの比を算出し、こ
の平均距離の比Da/Dbの値に応じて次のようにタイプの
分類を実施する。
T1<Da/Db<T2……タイプ Da/Db≦T1……タイプ T2≦Da/Db ……タイプ 但し、T1,T2はT1<1<T2となるような閾値である。
次に、上述と同様にして、カテゴリBに属する対象学習
用パターンとこの対象学習用パターンに近いカテゴリB
に属するK個の学習用パターンとの平均距離Db′と、上
記対象学習用パターンとこの対象学習用パターンに近い
カテゴリAに属するK個の学習用パターンとの平均距離
Da′と求める。そして、上述と同様に、両平均距離D
b′,Da′の比Db′/Da′の値と上記閾値T1,T2とに基づい
て、カテゴリBに属する対象学習用パターンのタイプの
分類を実施するのである。
このようにして分類された学習パターンのタイプのう
ち、タイプに分類されたカテゴリAに属する学習用パ
ターンと、タイプに分類されたカテゴリBに属する学
習用パターンとを用いてニューラル・ネットワークの学
習をおこなうのである。こうすることによって、ニュー
ラル・ネットワークはカテゴリAとカテゴリBとの境界
についての学習を効率良く行うことができる。
上述のようにして学習されたニューラル・ネットワーク
を用いて音節境界の判定をおこなった結果、第1表に示
すような判定結果が得られた。
この学習においては、学習用データとして話者3名分の
パワーとスペクトル変化とから成るデータ1019個を用
い、評価用データとして他の話者4名分の異なるコンテ
キストから得られたパワーとスペクトル変化とから成る
データ1708個を用いた。第1表における本手法は、上記
実施例に示したK近傍法によって学習データのタイプの
分類をおこなう手法である。ここで、本実施例の場合
は、K=3,T1=0.77,T2=1.1とし、距離としてユークリ
ッド距離を用いた。また、従来法は1019個の学習データ
をそのまま使用して学習する方法である。なお、1019個
の学習データをK近傍法によって分類した結果、次のよ
うなタイプ別分類比率となった。すなわち、タイプは
29.5%、タイプは65.0%、タイプ5.5%である。こ
うして、1019個の学習データから301個のタイプのデ
ータが選出された。
また、上記誤り率は音節境界の判定誤り率を%で表し、
時間比は従来法による学習において学習が収束するまで
の時間を100として表したものである。
第1表から、本手法における時間比が従来法に比して70
%も短縮されており、学習時間が大幅に短縮されている
ことが実証された。これは、K近傍法によって1019個の
学習データの中から学習に効果のあるタイプ学習デー
タが301個厳選され、このカテゴリ間の境界の学習に有
効な少数の学習データのみによってニューラル・ネット
ワークの学習が実行されたためである。
また、上述のように、カテゴリ間の境界の学習に有効学
習データのみによって学習が実行される結果、過学習が
防止されてオープン条件で誤り率が従来法に比べて低下
することが実証された。
上述のように、ニューラル・ネットワークの学習の前処
理として、例えばカテゴリAに属する学習用パターンの
中から、カテゴリBの輪郭近くの所定領域に位置する学
習用パターン(すなわち、タイプの学習用パターン)
のみを選出し、この選出れた学習用パターンのみを用い
てニューラル・ネットワークの学習を実行するので、少
ない学習用パターンで学習することによって学習時間を
大幅に短縮することができる。また、全学習用パターン
の中から、各カテゴリ間の境界を求める学習に最も効果
的な学習用パターンを選出し、この最も効果的な学習用
パターンのみを用いて学習を実行するので、過学習を防
止してカテゴリ判定能力を向上することができる。
上記実施例においては、学習用パターンの次数が18(9
フレーム分のパワーとスペクトル変化),カテゴリ数が
2である。しかしながら、この発明はこれに限定される
ものではないことは言うまでもない。
上記実施例においては、学習用パターン間の距離として
ユークリッド距離を用いている。しかしながら、この発
明はこれに限定されるものではなく市街化距離等を用い
てもよい。
また、この発明のニューラル・ネットワークの学習方式
は、多層パーセプトロン型ニューラル・ネットワークの
みならずコホーネン型ネットワークの学習に用いても大
きな効果が得られる。
<発明の効果> 以上より明らかなように、この発明のニューラル・ネッ
トワークの学習方法は、隣接するカテゴリにおいて、対
象学習用パターンが属する一方のカテゴリ内と他方のカ
テゴリ内との夫々から上記対象学習用パターンとの距離
が近い順に複数の学習用パターンを選出し、上記両カテ
ゴリ内の夫々から選出された学習パターンと上記対象学
習用パターンとの平均距離を算出し、上記カテゴリ空間
上の位置が上記隣接する両カテゴリの境界から所定距離
内になるような上記両平均距離の比の値を呈する対象学
習用パターンを選出し、この選出された対象学習用パタ
ーンを用いてニューラル・ネットワークの学習を行うの
で、学習に適した少数の学習用パターンでニューラル・
ネットワークを学習することができる。
また、この発明のニューラル・ネットワークの学習方法
は、各カテゴリ間の境界を求める学習に最も効果的な学
習用パターンを選出し、この最も効果的な学習用パター
ンのみを用いてニューラル・ネットワークの学習を実施
することができ、過学習を防止して入力パターンに対す
るカテゴリ分類能力を高めることができる。
【図面の簡単な説明】
第1図はニューラル・ネットワークの学習用パターンの
カテゴリ空間上における分布の一例を示す図、第2図は
学習用パターンが各カテゴリに属する頻度曲線の一例を
示す図である。 ……上記タイプの学習用パターンのカテゴリ空間上
の位置、 ……タイプの学習用パターンのカテゴリ空間上の位
置、 ……タイプの学習用パターンのカテゴリ空間上の位
置、 1……タイプの学習用パターンが位置する領域、 2……タイプの学習用パターンが位置する領域、 3……タイプの学習用パターンが位置する領域。

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】入力されたデータに対して所定の重み係数
    で荷重演算を行って演算結果を出力する荷重演算手段を
    有する複数のノードを用いてネットワークを形成し、入
    力ノードに識別データを入力した際に出力ノードから上
    記識別データが属するカテゴリを表す出力データを出力
    するニューラル・ネットワークを構築するに際して、カ
    テゴリ空間上で隣接するカテゴリにおける両カテゴリの
    境界近傍に位置する識別データが入力された場合に当該
    識別データが属するカテゴリに割り付けられている出力
    ノードからの出力が最大値になるように、各ノードに関
    する上記重み係数を更新するニューラル・ネットワーク
    の学習方法であって、 上記カテゴリ空間上で隣接するカテゴリにおいて、対象
    学習用パターンが属する一方のカテゴリ内の各学習用パ
    ターンと上記対象学習用パターンとの距離を求めて、こ
    の求めた距離に基づいて上記対象学習用パターンとの距
    離が近い順に複数の学習用パターンを選出し、 他方のカテゴリ内の各学習用パターンと上記対象学習用
    パターンとの距離を求めて、この求めた距離に基づいて
    上記対象学習用パターンとの距離が近い順に複数の学習
    用パターンを選出し、 上記一方のカテゴリ内から選出された学習パターンと上
    記対象学習用パターンとの平均距離と、上記他方のカテ
    ゴリ内から選出された学習用パターンと上記対象学習用
    パターンとの平均距離とを算出し、 上記カテゴリ空間上の位置が上記隣接する両カテゴリの
    境界から所定距離内になるような上記両平均距離の比の
    値を呈する対象学習用パターンを選出し、 この選出された対象学習用パターンを用いてニューラル
    ・ネットワークの学習を行うことを特徴とするニューラ
    ル・ネットワークの学習方法。
JP1057297A 1989-03-08 1989-03-08 ニューラル・ネットワークの学習方法 Expired - Fee Related JPH07104849B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP1057297A JPH07104849B2 (ja) 1989-03-08 1989-03-08 ニューラル・ネットワークの学習方法
US07/761,387 US5293454A (en) 1989-03-08 1991-09-18 Learning method of neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1057297A JPH07104849B2 (ja) 1989-03-08 1989-03-08 ニューラル・ネットワークの学習方法

Publications (2)

Publication Number Publication Date
JPH02235170A JPH02235170A (ja) 1990-09-18
JPH07104849B2 true JPH07104849B2 (ja) 1995-11-13

Family

ID=13051620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1057297A Expired - Fee Related JPH07104849B2 (ja) 1989-03-08 1989-03-08 ニューラル・ネットワークの学習方法

Country Status (1)

Country Link
JP (1) JPH07104849B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2520331B2 (ja) * 1991-03-25 1996-07-31 株式会社エイ・ティ・アール自動翻訳電話研究所 ニュ―ラルネットワ―クの学習方法
JPH0683792A (ja) * 1991-06-12 1994-03-25 Hitachi Ltd ニューラルネットワークの学習装置およびニューラルネットワークの学習パターン呈示方法
JP6751937B2 (ja) * 2016-07-14 2020-09-09 株式会社ポート電子 打音診断装置及び診断方法
JP6916096B2 (ja) * 2017-11-20 2021-08-11 株式会社日立製作所 インスタンス利用促進システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
電子技術総合研究所研究報告第818号「パターン認識における特徴抽出に関する数理的研究」工業技術院電子総合研究所(昭和56年7月)

Also Published As

Publication number Publication date
JPH02235170A (ja) 1990-09-18

Similar Documents

Publication Publication Date Title
Yair et al. Competitive learning and soft competition for vector quantizer design
KR100442835B1 (ko) 인공 신경망을 이용한 얼굴 인식 방법 및 장치
Wang et al. Histogram-based fuzzy filter for image restoration
CN110751121B (zh) 基于聚类与sofm的无监督雷达信号分选方法
US5119438A (en) Recognizing apparatus
Huang Application of generalized radial basis function networks to recognition of radar targets
Shah-Hosseini et al. Automatic multilevel thresholding for image segmentation by the growing time adaptive self-organizing map
US5293454A (en) Learning method of neural network
JPH07104849B2 (ja) ニューラル・ネットワークの学習方法
Chung et al. Fuzzy learning vector quantization
Aria et al. Generalized cooccurrence matrix to classify IRS-1D images using neural network
Kameyama et al. Semiconductor defect classification using hyperellipsoid clustering neural networks and model switching
JPH08329032A (ja) ニュ−ラルネット型パターン認識装置及びニュ−ラルネットの学習方法
JP3757722B2 (ja) 多層ニューラルネットワークユニット数最適化方法及び装置
Zhao et al. Optimizing radial basis probabilistic neural networks using recursive orthogonal least squares algorithms combined with micro-genetic algorithms
JP2779119B2 (ja) 学習認識装置
US5430829A (en) Learning method for a data processing system
Olayinka et al. Evolving feed-forward artificial neural networks using binary and denary dataset
JPH08202674A (ja) ニューラルネットワークの学習装置及び学習方法
JPH10187651A (ja) 学習型認識判断装置
MAEDA et al. Competitive learning algorithms founded on adaptivity and sensitivity deletion methods
Isawa et al. Fuzzy art combining overlapped categories using variable vigilance parameters
JP3344873B2 (ja) 学習型認識判断装置
Wang et al. Neural networks for robust recognition of seismic reflection patterns
JPH0997245A (ja) 学習型認識判断装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees