JPH06314268A - ニューラルネットの調節装置及び調節方法 - Google Patents

ニューラルネットの調節装置及び調節方法

Info

Publication number
JPH06314268A
JPH06314268A JP5102980A JP10298093A JPH06314268A JP H06314268 A JPH06314268 A JP H06314268A JP 5102980 A JP5102980 A JP 5102980A JP 10298093 A JP10298093 A JP 10298093A JP H06314268 A JPH06314268 A JP H06314268A
Authority
JP
Japan
Prior art keywords
reaction
pattern
neural network
parameter
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5102980A
Other languages
English (en)
Inventor
Takeshi Shimada
毅 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP5102980A priority Critical patent/JPH06314268A/ja
Publication of JPH06314268A publication Critical patent/JPH06314268A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 学習における追加素子数が最小限な、また、
学習済み事例に対する認識精度を低下させることなく、
新規事例学習が可能なニューラルネット調節装置及び調
節方法を提供する。 【構成】 素子パラメータ保持部2及び結合荷重保持部
3が素子パラメータ及び結合荷重を保持する。事例保存
部4が事例を保存する。反応強度計算部5が各入力パタ
ーンに対する各素子の反応強度及び出力パターンを計算
する。素子パラメータ修正部7及び結合荷重修正部8が
素子に係る素子パラメータ又は結合荷重の少なくとも一
方を教師情報に基づいて修正する。追加条件判定部9が
弱反応パターンを判定する。素子追加部11、追加素子
パラメータ保持部12及び追加素子結合荷重保持部13
が、新たな素子をニューラルネットワークに追加する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、学習によってニューラ
ルネットワークを形成するための、ニューラルネットの
調節装置及び調節方法の改良に関するもので、特に、学
習における追加素子数が最小限で、学習済み事例に対す
る認識精度を低下させることなく新規事例学習を可能と
したものに係る。
【0002】
【従来の技術】パターン認識において高い認識精度を得
るには、認識に必要な特徴を、認識対象から正確に抽出
することが重要である。しかし、文字画像、音声信号、
電力系統の状態など、認識対象とされる多くのパターン
では、パターンを発生する系(例えば、手・腕・発声器
官・電力系統など)の構成や作用が複雑である。また、
パターン自体についても、高次元のベクトルによって構
成され、パターンの内容も非常に多様であり、さらに、
様々な要因によってパターンに複雑なノイズが重畳され
やすい。このため、これらのパターンから、人間が直
接、系統だった論理に基づいて特徴を抽出することは困
難である。
【0003】このような特徴抽出を機械化する装置とし
て、ニューラルネットワーク(以下「ニューラルネッ
ト」という)が知られている。このニューラルネット
は、生体の神経組織を模擬した情報処理装置で、入力層
及び出力層を含む多数の素子を有している。これら各素
子間には、入力側から出力側に向かって、信号の伝達効
率(刺激の通り易さ)を表す結合荷重(荷重値リンクと
もいう)が設定されており、また、各素子には信号入力
に対する出力の程度(刺激に対する興奮の強さを表現し
た数値)を決定する関数である反応特性を調節する素子
パラメータが設定されている。なお、結合荷重及び素子
パラメータは、ニューラルネット内部における素子の振
る舞いを決定するパラメータであるから、内部パラメー
タと総称される。
【0004】このニューラルネットでは、前記内部パラ
メータの適切な調節によって、入力パターンと、各入力
パターンに対する正しい認識結果である出力パターンと
の対応関係を蓄積することができる。このため、認識対
象である入力パターンが入力層に印加されると、入力層
が生じた信号が内部パラメータにしたがって素子間を伝
搬し、その結果、出力層には、入力パターンに対応した
出力パターンが認識結果として出力される。
【0005】ところで、一般のニューラルネットは、反
応特性を表す反応特性関数がシグモイド(sigmoid)型関
数である素子から構成される。このシグモイド(sigmoi
d)型関数の素子から構成される層が複数重なる構造の
ニューラルネットを、多層パーセプトロン型ニューラル
ネットと呼ぶ。
【0006】また、近年、反応特性関数の値が所定の閾
値以上になる入力空間の領域(以下「反応領域」とい
う)が有界な素子から構成されるニューラルネットが試
みられている(以下、このような反応特性関数を「反応
領域有界な反応特性関数」と総称する)。すなわち、こ
のようなニューラルネットにおける素子の反応特性関数
をaとし、所定の閾値をθとすると、反応特性関数の出
力値が所定の閾値以上になる入力空間の領域Ωは、
【数1】 と定義される。ここで、入力空間は入力パターンのベク
トルによって構成される空間であり、n次元実数空間で
ある。また、xはn次元実数空間の元で、素子への入力
ベクトルを表す。
【0007】そして、Ωが有界であるとは、
【数2】 が有限であることを意味する。なお、ここで、記号sup
は上限を、d(x,y)はΩの元x,yの間の距離を意
味する。また、dは、数学上の「距離」の性質を満た
し、n次元実数空間上で定義されるものであればその具
体的内容は限定されないが、例としては、ユークリッド
の距離
【数3】 を挙げることができる。xi ,yi は各々、Ωの元X,
Yの第i番目の成分を表す。
【0008】表現「反応特性関数の値が所定の閾値以上
になる入力空間の領域が有界な素子」は、換言すれば、
「その素子では、強く反応する入力の存在範囲が、無限
に広がっていない」ことを意味する。
【0009】なお、このように素子の反応領域が有界と
なる反応特性関数としては、吊鐘型反応特性関数(参考
文献:特願平4−195640)や、統計学における正
規分布を定義するガウシアン関数、関数近似で用いられ
る円形基底関数(radial basis functions)などを挙げる
ことができる。ここで、図17は、吊鐘型反応特性関数
における反応特性の概形を示す図である。すなわち、こ
の図では、入力空間を2次元のX−Y平面とし、縦軸で
あるZ軸に関数値をとっている。吊鐘型反応特性関数
は、この図に示すように、その関数に係る素子に外部か
らの入力信号を伝える結合荷重を成分とするベクトル
(以下「結合荷重ベクトル」という)と、入力パターン
のベクトル(以下「入力パターンベクトル」という)と
が一致するときに最大値をとり、結合荷重ベクトルと入
力パターンベクトルの間の距離(たとえば、ユークリッ
ド距離)が大きくなるにつれて値が小さくなる。図で
は、吊鐘の中心が結合荷重ベクトルの位置であり、その
位置でZ軸上の関数値が最大になっている。この特性関
数の名称は、入力空間が2次元である場合に、関数の形
状が椀を伏せた形、もしくは、「吊鐘」の形に似ている
点に由来する。
【0010】素子の反応特性がこのような吊鐘型関数で
ある場合、当該素子が反応する入力パターンの存在範囲
(反応領域)は、結合荷重ベクトルを中心座標とする入
力空間上の超球となる(以下、反応領域である超球を
「反応超球」という)。ここで、「超球」とは、多次元
空間上における球を意味する。すなわち、中心をx、半
径をrとするn次元実数空間Rn 上の超球Sとは、Rn
の部分集合で、
【数4】 を満たすものである。これは、空間が二次元の場合には
「円」、三次元の場合には「球」と称されるが、任意次
元の場合に「超球」と称される。
【0011】次に、図18は、3次元の入力空間におけ
る反応超球を示す模式図である。ここで、吊鐘型反応特
性関数は、結合荷重ベクトルからの距離が同じ各入力パ
ターンに対して同じ値をとるから、等値面も超球をな
す。そして、反応超球は、具体的には、反応特性関数の
値が所定の微小な閾値となる等値面であるから、ある素
子の反応超球の半径は、当該素子の反応特性関数の値
(本明細書において「反応強度」という)が上記閾値以
上となる範囲から求めることができる。
【0012】従来のニューラルネットの調節装置や調節
方法は、下記のような各手法に基づいてニューラルネッ
トの調節を行うものである。すなわち、以上のようなニ
ューラルネットにおける学習は内部パラメータの調節を
意味するが、このような学習を行う手法として、バック
プロパゲーションが多用される(参考文献:詳細は、Ru
melhart,D.E.,etc Learning Internal Repersentations
by Error Propagation, Parallel Distributed Proces
sing vol.1, MIT Press(1986) )。
【0013】バックプロパゲーションでは、まず、認識
対象としてニューラルネットに入力される入力パターン
と、その入力パターンに対してニューラルネットから出
力されるべき正しい認識結果である出力パターン(本明
細書において「教師情報」という)との対(本明細書に
おいて「事例」という)を形成する。そして、各事例の
各入力パターンをニューラルネットの入力層に印加す
る。これによって、入力側の素子が反応し、入力側の素
子の反応がより出力側にある素子に伝わりその素子が反
応する。これを反応の伝搬と呼ぶ。そして、反応の伝搬
によって、最終的に出力層に現れた出力パターンと教師
情報の誤差を縮小するように内部パラメータを調節す
る。この調節過程は、すべての事例に関して正しい認識
が得られるまで繰り返され、これによってニューラルネ
ットは、認識に必要な特徴を自動的に学習、抽出する。
【0014】上述したニューラルネットの大きな問題点
として、学習に先立って必要な素子の個数を予測するこ
とが困難である点が指摘されている。すなわち、設定し
た素子の個数が少な過ぎる場合は、入出力特性を実現す
る能力が不足して高い認識精度を得ることができない。
一方、個数が多過ぎる場合は、ニューラルネットの動作
の自由度が高くなって誤差の状態空間内に極小値が多く
発生し、誤差が極小値に捉えられやすくなるため、やは
り高い認識精度を得ることができない。
【0015】ここで、「誤差が極小値に捉えられ」た状
態とは、次のような状態を意味する。すなわち、ニュー
ラルネットNを誤差Eの観点から見ると、
【数5】E=N(P) と定式化することができる。ここで、Pはニューラルネ
ットの内部パラメータを成分としてとるベクトルを意味
し、具体的には素子間の結合荷重、素子の反応特性を表
す素子パラメータなどの組を意味する。すなわち、誤差
Eは、Pに各種変化を与えた場合、関数Nによって値が
決まるとみなすことができる。
【0016】ここで、ニューラルネットに、実数値を取
る内部パラメータがm個あるとすると、内部パラメータ
のベクトルPはm次元実数空間の点と考えられ、
【数6】 が成立する。なお、誤差Eは、通常[0,1]の範囲の
実数値であり、このとき、誤差Eの状態空間εは、Rm
と[0,1]との直積空間
【数7】 として定義される。
【0017】そして、素子の個数が増大すると、その
分、素子に繋がる結合荷重の本数や素子パラメータの数
が増大することによって内部パラメータの個数が増大
し、Pの次元数が高くなり、その結果、状態空間ε内に
おける誤差Eの曲面に、極小値が増加する。
【0018】ここで、図19、図20は、それぞれ、内
部パラメータの個数が1個(p1),2個(p1,p
2)の場合の、状態空間ε内における誤差Eの曲面を表
す模式図である。図19において、p1はパラメータ、
Eは誤差を表しており、最小値、極小値がそれぞれ1つ
ずつ存在する。図20において、p1,p2もパラメー
タであり、誤差Eの曲面をp1−E平面で切ると、図1
9となる。図20においては、個々のパラメータ方向に
極小値が1つずつ存在するため、この場合には計2個の
極小値が存在することとなる。
【0019】このように、素子が増加し、内部パラメー
タが増加すると、一般には、誤差Eの状態空間における
極小値の個数が増大する。ニューラルネットの学習と
は、誤差Eが小さくなるように内部パラメータPの値を
少しずつ変更する手順を意味する。ここで、図21に示
すように、内部パラメータPの値は、初期値aにあると
仮定する。このとき、学習では、誤差Eが小さくなる方
向に内部パラメータPを修正するので、その結果、内部
パラメータPは極小値をとる位置bに移動する。極小値
の付近では、極小値において最も誤差Eが低いので、内
部パラメータPはそれ以上修正されることがなく、誤差
Eは最小値に到達することができない。この状態が、
「誤差が極小値に捉えられ」た状態である。
【0020】このような問題点に対処するには、一般
に、所望の精度を得るまでに試行錯誤的に素子の個数を
変え、適当な素子の個数が判明するまで素子数の異なる
各種のニューラルネットで学習を繰り返すという手法が
用いられる。
【0021】但し、この手法にも、学習すべきパターン
の数量によっては、ニューラルネットの形成に長時間を
要するという問題点が生ずる。例えば、文字認識は、認
識対象の文字種類が多い大規模なパターン認識であり、
そのうえ、同一の文字でも様々な変形の可能性がある。
このため、それら変形をも高精度に認識させるために
は、極めて大量の事例を学習させなければならない。こ
の結果、上述の試行錯誤と一回の学習に要する長い時間
のために、大規模なパターン認識のためのニューラルネ
ットの形成には、莫大な開発時間が必要となる。
【0022】さらに、この問題に対する解決策として
は、学習の過程で、必要に応じ徐々に素子数を増やす手
法が用いられている。この手法は、誤差が増加するこ
と、あるいは、誤差の減少の割合が所定の閾値以下にな
ること、などの条件の成立をもって、誤差が極小値に捉
えられているとみなし、中間層の素子を追加するもので
ある。このように素子を追加して増加させれば、極小値
の回避が容易になる。
【0023】多層パーセプトロンを対象とする素子追加
の手法としては、次のようなものを例示することができ
る(参考文献:特開平2−83656、特開平2−20
5967)。すなわち、これらの手法は、追加しようと
する素子(本明細書において「追加素子」という)につ
ながる結合荷重の初期値として0に近い乱数を設定し、
この乱数によってニューラルネットの内部パラメータの
状態空間の構造をわずかに変化させることで、極小値回
避を期待するものである。
【0024】また、反応領域有界な反応特性関数を持つ
素子を含むニューラルネットを対象とする素子追加の手
法としては、米国のネスター社(Nestor Incorporated)
のRCE(RCEはネスター社の商標である)ニューラ
ルネットワーク(参考文献:特開昭61−193279
号,「複数のニューラル・ネット・モデルを統合した学
習システム」,Nestor Inc.(1988.11.28)/「ニューロコ
ンピュータ最前線」、日経BP社刊)や、特開平2−2
38560、特開平2−260862各号公報記載の手
法が知られている。
【0025】すなわち、これらの手法では、追加素子へ
の結合荷重ベクトルの初期値として認識結果に誤差のあ
る入力パターンベクトルそのものを設定し、追加素子の
反応超球の半径には一律に所定の初期値を与える。この
ため、この手法によって追加された素子は誤差のあった
上記の入力パターンに対して最大値で反応することにな
るため、極小値の回避が可能となる。
【0026】
【発明が解決しようとする課題】しかしながら、上記の
ような従来技術には、次のような問題点が存在してい
た。まず、第1に、多層パーセプトロンを対象とする上
記の手法は、必ずしも有効に極小値回避を実現するもの
ではなかった。すなわち、この手法では、乱数によって
結合荷重の初期値を設定した素子をニューラルネットに
加えていたため、素子追加によってかえってニューラル
ネットにおける誤差の状態空間の構造が悪化し、学習済
み事例に対する認識精度が低下するおそれがあった。
【0027】第2に、反応領域有界な反応特性関数を持
つ素子を含むニューラルネットを対象とする上記の技術
では、誤差の大きい各入力パターンそれぞれに対して素
子を一個ずつ追加していた。このため、学習事例が大量
の場合には、莫大な数の素子が必要であった。そして、
このようにニューラルネットを構成する素子数が増大す
ると、ニューラルネットの形成に要する時間や内部パラ
メータを格納する記憶装置の容量など、ニューラルネッ
ト形成・維持のための資源もより多く費消されざるを得
ないという問題点があった。
【0028】本発明は、上記のような従来技術の問題点
を解決するために提案されたもので、その目的は、学習
における追加素子数が最小限なニューラルネットの調節
装置及び調節方法を提供することにある。また、本発明
の他の目的は、学習済み事例に対する認識精度を低下さ
せることなく、新規事例学習が可能なニューラルネット
の調節装置及び調節方法を提供することである。
【0029】
【課題を解決するための手段】上記の目的を達するた
め、請求項1のニューラルネットの調節装置は、ニュー
ラルネットワークを構成する素子の反応特性を調節する
素子パラメータ及び前記素子間の信号伝達効率を表す結
合荷重を保存する内部パラメータ保存手段と、前記ニュ
ーラルネットに入力する入力パターンとこの入力パター
ンに対応すべき前記ニューラルネットからの出力パター
ンを示す教師情報とからなる事例を保存する事例保存手
段と、前記素子パラメータ及び前記結合荷重に基づいて
前記各入力パターンに対する前記各素子の反応強度及び
出力パターンを計算する反応強度計算手段と、前記素子
に係る前記素子パラメータ又は前記結合荷重の少なくと
も一方を、前記入力パターンに対応する前記教師情報に
基づいて修正する内部パラメータ修正手段と、各素子の
前記反応強度が所定の閾値以下となる前記入力パターン
を弱反応パターンと判定する追加条件判定手段と、前記
弱反応パターンに対して所定値以上の反応強度を生じる
前記素子パラメータ及び前記結合荷重を有する新たな素
子を前記ニューラルネットワークに追加する素子追加手
段とを有することを特徴とする。
【0030】また、請求項2の発明は、請求項1記載の
ニューラルネットの調節装置において、前記ニューラル
ネットワークは、反応特性関数の値が所定の閾値以上に
なる入力空間の領域が有界な素子を有することを特徴と
する。
【0031】また、請求項3の発明は、請求項1記載の
ニューラルネットの調節装置において、前記素子追加手
段は、前記各弱反応パターンを、前記入力パターンのベ
クトル空間において相互に所定距離内に位置し、かつ、
当該弱反応パターンに対応する前記教師情報が前記出力
パターンのベクトル空間において相互に所定距離内に位
置する前記弱反応パターンごとのクラスタにクラスタリ
ングするパターンクラスタリング手段と、追加しようと
する各追加素子の前記素子パラメータを、それぞれ別個
の前記クラスタに属する全ての前記弱反応パターンに対
して当該追加素子が所定以上の強度で反応するように決
定する素子パラメータ決定手段と、前記各追加素子の結
合荷重を、前記別個の各クラスタに属する全ての前記弱
反応パターンに対して当該追加素子が所定以上の強度で
反応するように決定する結合荷重決定手段とを有するこ
とを特徴とする。
【0032】また、請求項4のニューラルネットの調節
方法は、ニューラルネットワークを構成する素子の反応
特性を調節する素子パラメータ及び前記素子間の信号伝
達効率を表す結合荷重に基づいて、前記ニューラルネッ
トに入力される入力パターンに対する前記各素子の反応
強度及び出力パターンを計算する計算工程と、前記素子
に係る前記素子パラメータ又は前記結合荷重の少なくと
も一方を、前記入力パターンに対応すべき前記出力パタ
ーンを示す教師情報に基づいて修正する修正工程と、前
記各素子の前記反応強度が所定の閾値以下となる前記入
力パターンを弱反応パターンと判定する判定工程と、前
記弱反応パターンに対して所定値以上の反応強度を生じ
る前記素子パラメータ及び前記結合荷重を有する新たな
素子を前記ニューラルネットワークに追加する追加工程
とを有することを特徴とする。
【0033】また、請求項5の発明は、請求項4記載の
ニューラルネットの調節方法において、前記ニューラル
ネットワークは、反応特性関数の値が所定の閾値以上に
なる入力空間の領域が有界な素子を有することを特徴と
する。
【0034】また、請求項6の発明は、請求項4記載の
ニューラルネットの調節方法において、前記追加工程
は、前記各弱反応パターンを、前記入力パターンのベク
トル空間において相互に所定距離内に位置し、かつ、当
該弱反応パターンに対応する前記教師情報が前記出力パ
ターンのベクトル空間において相互に所定距離内に位置
する前記弱反応パターンごとのクラスタにクラスタリン
グするクラスタリング工程と、追加しようとする各追加
素子の前記素子パラメータを、それぞれ別個の前記クラ
スタに属する全ての前記弱反応パターンに対して当該追
加素子が所定以上の強度で反応するように決定する素子
パラメータ決定工程と、前記各追加素子の結合荷重を、
前記別個の各クラスタに属する全ての前記弱反応パター
ンに対して当該追加素子が所定以上の強度で反応するよ
うに決定する結合荷重決定工程とを有することを特徴と
する。
【0035】
【作用】上記のような構成を有する本発明は、次のよう
な作用を有する。すなわち、請求項1及び4の発明で
は、前記素子パラメータ及び前記結合荷重に基づいて前
記各入力パターンに対する前記各素子の反応強度及び出
力パターンが計算され、前記素子に係る素子パラメータ
又は結合荷重の少なくとも一方が、前記教師情報に基づ
いて修正される。
【0036】また、各素子の前記反応強度が所定の閾値
以下となる入力パターンが弱反応パターンと判定され、
前記弱反応パターンに対して所定値以上の反応強度を生
じる素子パラメータ及び結合荷重を有する新たな素子が
ニューラルネットワークに追加される。
【0037】このように、請求項1及び4の発明では、
素子の素子パラメータ又は結合荷重の少なくとも一方が
修正されるので、既存素子の反応領域について位置と大
きさ双方の修正を行うことができ、また、大きさの修正
は減少のみならず増加方向へも可能なので、素子を追加
することなく誤差の減少が可能な場合が増加する。した
がって、請求項1及び4の発明によれば、学習における
追加素子数が最小限なニューラルネットの調節装置及び
調節方法を提供することができる。
【0038】また、請求項1及び4の発明では、弱反応
パターンに対して所定値以上の反応強度を生じる素子パ
ラメータ及び結合荷重を有する新たな素子がニューラル
ネットワークに追加される。このため、乱数を用いた追
加素子によってニューラルネットの状態が悪化すること
がない。したがって、請求項1及び4の発明によれば、
学習済み事例に対する認識精度を低下させることなく、
新規事例学習が可能なニューラルネットの調節装置及び
調整方法を提供することができる。
【0039】また、請求項2及び5の発明では、反応特
性関数の値が所定の閾値以上になる入力空間の領域が有
界な素子を有するニューラルネットワークについて、学
習における追加素子数が最小限で、かつ、新規事例学習
において学習済み事例に対する認識精度を低下させるこ
とのない、有効かつ効率的なニューラルネットの調節装
置及び調節方法を提供することができる。
【0040】また、請求項3及び6の発明では、素子の
追加に際して、前記各弱反応パターンが、入力パターン
のベクトル空間において相互に所定距離内に位置し、か
つ、当該弱反応パターンに対応する教師情報が出力パタ
ーンのベクトル空間において相互に所定距離内に位置す
る弱反応パターンごとのクラスタにクラスタリングされ
る。また、各追加素子の素子パラメータが、それぞれ別
個の前記クラスタに属する全ての弱反応パターンに対し
て当該追加素子が所定以上の強度で反応するように決定
される。また、前記各追加素子の結合荷重が、前記別個
の各クラスタに属する全ての弱反応パターンに対して当
該追加素子が所定以上の強度で反応するように決定され
る。
【0041】このように、請求項3及び6の発明によれ
ば、ひとつのクラスタに属するすべての弱反応パターン
を単一の追加素子が被覆するので、学習における追加素
子数が少ないニューラルネットの調節装置及び調節方法
を提供することができる。
【0042】
【実施例】以下、本発明の実施例として、ニューラルネ
ットの調節装置(以下「本装置」という)及び本装置を
用いたニューラルネットの調節方法について、図面に従
って具体的に説明する。なお、本装置はコンピュータ上
に実現されるもので、本装置の各機能は、プログラムの
形式で表現された所定の手順でコンピュータを動作させ
ることによって実現されている。したがって、以下、本
装置の各機能を有する仮想的回路ブロックを想定して本
装置を説明する。
【0043】なお、本実施例の説明では、まず、本装置
の概略的構成を示し、次に、本装置の動作手順の大まか
な流れを説明し、続いて、各手段内部における処理のう
ち、特に説明を要するものの詳細について、適宜フロー
チャートや数式等を参照して説明する。
【0044】(1)実施例の構成…図1 図1は、本装置の構成を示すブロック図である。本装置
は、この図に示すように、ニューラルネットの素子の素
子パラメータ及び結合荷重を保存する内部パラメータ保
存部1と、学習中に前記素子パラメータを格納する素子
パラメータ保持部2と、学習中に前記結合荷重を格納す
る結合荷重保持部3とを有している。なお、内部パラメ
ータ保存部1、素子パラメータ保持部2及び結合荷重保
持部3は、前記内部パラメータ保存手段を構成してい
る。
【0045】また、本装置は、学習用の事例を格納する
事例保存部4(前記事例保存手段に相当するもの)と、
ニューラルネットの前記各素子の反応強度を算出する反
応強度計算部5(前記反応強度計算手段に相当するも
の)と、算出された素子の反応強度を格納する反応強度
保持部6とを有している。また、本装置は、素子パラメ
ータを修正する素子パラメータ修正部7と、結合荷重を
修正する結合荷重修正部8とを有している。なお、素子
パラメータ修正部7及び結合荷重修正部8は、前記内部
パラメータ修正手段を構成している。
【0046】また、本装置は、各素子の前記反応強度が
所定の閾値以下となる入力パターンを弱反応パターンと
判定し、ニューラルネットへの新たな素子の追加の要否
を決定する追加条件判定部9(前記追加条件判定手段に
相当するもの)と、前記弱反応パターンを格納する弱反
応パターン保存部10とを有している。また、本装置
は、弱反応パターンをクラスタリングし追加素子の内部
パラメータ(結合荷重及び素子パラメータ)の初期値を
決定する素子追加部11と、追加素子の素子パラメータ
を保存する追加素子パラメータ保持部12と、追加素子
の結合荷重の初期値を保持する追加素子結合荷重保持部
13と、を有している。なお、素子追加部11、追加素
子結合荷重保持部13及び追加素子パラメータ保持部1
2は、前記素子追加手段を構成している。また、本装置
は、学習終了条件の成立を判定する終了条件判定部14
を有している。
【0047】このうち事例保存部4に格納される事例
は、入力パターンとその入力パターンに対する正しい認
識結果である出力パターンを示す教師情報との対であ
る。なお、素子パラメータ及び結合荷重の初期値は、新
たに本装置に入力されてもよいし、すでに一定の事例を
学習済みの既存のニューラルネットの内部パラメータを
用いてもよい。後者の場合は、既存ニューラルネットへ
の新規事例の追加学習を行うことになる。
【0048】(2)実施例の作用…図2〜図16 上記のような構成を有する本装置によるニューラルネッ
トの調節(学習)は、次のように行われる。なお、本装
置各部間における動作の前後関係や条件関係は、図示し
ない制御手段によって制御されている。
【0049】[[[概略的動作手順]]]図2は、本装
置によるニューラルネット調節の手順を示すフローチャ
ートである。すなわち、本装置によるニューラルネット
調節では、この図に示すように、まず、ニューラルネッ
トの初期設定が行われる(ステップ21)。この初期設
定では、素子パラメータ保持部2が、内部パラメータ保
存部1から、各素子の反応特性関数を調節する素子パラ
メータの初期値を読み込む。同様に、結合荷重保持部3
が、各素子につながる結合荷重の初期値を読み込む。な
お、この後の学習中における素子パラメータや結合荷重
の読み出しは、素子パラメータ保持部2又は結合荷重保
持部3から行われ、内部パラメータ保存部1が直接アク
セスされることはない。そして、素子パラメータ保持部
2や結合荷重保持部3中のデータは、学習終了時に、内
部パラメータ保存部1に書き戻される。したがって、本
実施例によれば、ニューラルネットの初期状態を表す内
部パラメータの初期値が学習終了時まで維持されるの
で、学習が何らかの事由によって所期の効果を奏しない
場合、初期状態から学習をやり直すことができる。
【0050】続いて、反応強度計算部5が、事例保存部
4から事例の入力パターンを順次読み込み(ステップ2
2)、素子パラメータ保持部2中の素子パラメータ及び
結合荷重保持部3中の結合荷重に基づいて、読み込んだ
事例(以下「現在事例」という)の入力パターンに対す
るすべての素子の反応強度を算出する(ステップ23/
前記計算工程に相当するもの)。なお、素子の反応強度
を決定する素子の反応特性関数については後に詳述する
が、素子の反応強度には出力側の素子の反応強度が含ま
れるので、算出される反応強度は入力パターンに対する
出力パターンを含むことになる。このように算出された
各素子の反応強度は、反応強度保持部6に送られ格納さ
れる。
【0051】そして、一つの事例に対する反応強度の計
算が終了する度に、ニューラルネットの出力端子、すな
わち出力層の素子の反応強度の、教師情報に対する誤差
を小さくするために、内部パラメータ(素子パラメータ
と結合荷重)の修正が行われる(ステップ24/前記修
正工程に相当するもの)。
【0052】この修正では、素子パラメータ修正部7
が、現在事例、素子パラメータ、結合荷重及び反応強度
に基づいて、素子パラメータの修正値を算出する。算出
された修正値は、素子パラメータ保持部2に送られ、格
納される。この素子パラメータ修正の詳細については後
に詳述する。また、結合荷重修正部8は、現在事例、結
合荷重、素子パラメータ及び反応強度に基づいて、結合
荷重の修正値を算出する。算出された修正値は、結合荷
重保持部3に送られ格納される。この結合荷重の修正の
詳細についても後に詳述する。
【0053】このような内部パラメータの修正後、追加
条件判定部9が素子追加の必要性を判定する(ステップ
25,26/前記判定工程に相当するもの)。この判定
は、現在事例を正しく認識するために素子を追加する必
要があるかという観点から行われ、具体的には、次の二
つの条件の成否によって行われる。すなわち、第一の条
件は、現在事例の入力パターンに対し所定の閾値以上で
反応する素子の有無であり(ステップ25)、第一の条
件を満たす素子が存在する場合には、素子は追加されな
い。
【0054】本実施例では、上記第一の条件が成立して
いない場合、第二の条件、すなわち現在事例に対して行
われた内部パラメータの修正における修正量が、所定の
閾値以上であるか否かが判定される(ステップ26)。
このとき、現在事例に対する内部パラメータの修正量が
大きい場合には、ニューラルネットは極小値に捉えられ
ていないので、素子は追加されない。なお、内部パラメ
ータの修正量は、図示はしないが、保持部2,3におい
て内部パラメータ修正値受入れの際にそれぞれ算出さ
れ、追加条件判定部9に送られる。また、図1における
矢印は主要なデータのみを簡略に示したものであり、図
1において明示しない場合でも、各ブロックにおいて必
要なデータは、適宜他のブロックによって算出・転送さ
れる。
【0055】ここで、現在事例による内部パラメータの
修正量が所定の閾値未満の場合には、内部パラメータを
それ以上修正しても誤差が低下しないと予測され、以
下、このような事例の入力パターンを弱反応パターンと
称する。この場合には、現在事例の入力パターンに強く
反応する素子を追加することによって、誤差を下げるこ
とができる。そこで、このような弱反応パターンは、事
例保存部4から読み出され、弱反応パターン保持部10
に登録(格納)される(ステップ27)。事例の読み込
みから弱反応パターンの格納までの上記の処理は、事例
保存部4に格納されているすべての事例について繰り返
される(ステップ28)。
【0056】続いて、登録された弱反応パターンがある
場合(ステップ29)、追加しようとする追加素子に関
する内部パラメータが決定される。すなわち、まず、素
子追加部11が、弱反応パターン保持部10から弱反応
パターンを一つずつ読み込み、入力パターンのベクトル
空間内における距離が所定値以内で、かつ、教師情報
(出力パターン)のベクトル空間内における距離も所定
値以内である弱反応パターン同士をまとめ、一つ以上の
弱反応パターンを要素とする弱反応パターンの集合を生
成する(ステップ30/前記クラスタリング工程に相当
するもの)。このパターン集合をクラスタと呼ぶ。クラ
スタ形成の方法、すなわちクラスタリングに関しては、
後に詳述する。
【0057】次に、素子追加部11は、追加素子につな
がる結合荷重を計算する(ステップ31/前記結合荷重
決定工程に相当するもの)。この計算では、まず、各ク
ラスタごとに、クラスタを代表するクラスタ代表パター
ンが算出される。このクラスタ代表パターンは、クラス
タに属する弱反応パターンの平均値を計算することによ
って生成され、このクラスタ代表パターンに基づいて、
追加素子につながる結合荷重の初期値が算出される。な
お、クラスタと追加素子は1対1に対応する。追加素子
の結合荷重設定については、後に詳述する。この結合荷
重の初期値は、追加素子結合荷重保持部13に送られ、
格納される。
【0058】続いて、追加素子の素子パラメータが計算
される(ステップ32/前記素子パラメータ決定工程に
相当するもの)。すなわち、この素子パラメータは、各
追加素子の反応超球が当該追加素子に対応するクラスタ
に属するすべての弱反応パターンを含み、かつ、それら
に対する追加素子の反応強度が所定値を超えるように決
定される。より具体的には、クラスタに属するすべての
弱反応パターンと上述のクラスタ代表パターンとの距離
が計算され、距離が最大になる弱反応パターンに対して
も、所定値以上で追加素子が反応するように、素子パラ
メータが決定される。追加素子の素子パラメータ設定に
ついては、後に詳述する。このように得られた追加素子
の素子パラメータは、追加素子パラメータ保持部12に
送られ、格納される。
【0059】上記のような追加素子の内部パラメータの
決定、すなわち、結合荷重の計算と素子パラメータの計
算は、全ての前記クラスタについて終了するまで繰り返
される(ステップ33)。そして、全てのクラスタに関
して上記のような追加素子の内部パラメータの決定が終
了すると、素子の追加が行われる(ステップ34)。
【0060】素子の追加に際して、素子パラメータ保持
部2は素子を追加するための準備を行ったのち、追加素
子パラメータ保持部12から全ての追加素子の素子パラ
メータを読み込み、格納する。同様に、結合荷重保持部
3は素子を追加するための準備を行ったのち、追加素子
結合荷重保持部13から全ての追加素子の結合荷重を読
み込み、格納する。なお、ここで保持部2,3が行う追
加するための準備としては、データを格納するための記
憶領域の確保などを挙げることができる。
【0061】なお、前記ステップ30からステップ34
間での処理は、前記追加工程を構成している。
【0062】素子の追加が終了すると、終了条件判定部
14が、学習の終了条件を判定する(ステップ35)。
すなわち、終了条件判定部14は、素子パラメータ保持
部2から素子パラメータの修正量、結合荷重保持部3か
ら結合荷重の修正量、素子追加部11から素子追加の有
無をそれぞれ読み込み、所定の学習終了条件が成立して
いるか否か判定する。学習終了条件の具体例に関して
は、後に詳述する。そして、判定の結果、学習終了条件
が成立していれば、学習過程の処理全体が終了する。成
立していなければ、上記のような学習過程全体が再度繰
り返される。
【0063】[[[ニューラルネットの構造]]]次
に、本実施例におけるニューラルネットについて説明す
る。ここで、図3は、本装置が調節対象とするニューラ
ルネットの構造の一例を示す概念図である。このニュー
ラルネットは、この図に示すように、三つの層を有して
いる。各層は、図の下方から順に、入力層、中間層、出
力層と呼ばれる。また、各層は、複数の素子を含み、各
素子は直下の層のすべての素子と、信号線によって結合
されている。各信号線には、刺激(出力)の通りやすさ
を表す結合荷重が対応している。図3において、丸印は
個々の素子を、矢印は素子間の信号線を表す。なお、こ
の図においては、単純化のため、各素子間の信号線は、
その一部のみを示している。
【0064】[[入力層]]上記各層のうち、入力層の
素子(以下「入力層素子」という)は、ニューラルネッ
トにおける入力端子として機能する。換言すれば、入力
層は、入力される入力パターンの次元Jに等しいJ個の
素子Uj を有しており、入力パターンxを、
【数8】 と表すとき、各素子Uj には入力パターンxの成分xj
が入力される。この入力層素子の反応特性は恒等関数で
あり、Uj の反応強度はxj である。
【0065】[[中間層]]また、中間層の素子(以下
「中間層素子」という)は、層の上に格子状に配置され
ている。図4は、中間層をその素子の配列面の上方から
見た図である。この図に示すように、各素子の置かれて
いる格子点には層上の物理座標が定義されており、中間
層の左下隅の格子点の座標が(0,0)、その一つ右隣
の座標は(1.0)、一つ上の座標は(0,1)のよう
になっている。すべての格子点には同様に物理座標が対
応しており、これを、その格子点上にある素子の物理座
標とする。すなわち、中間層上に、縦横にX×Y個の素
子が配置されているとき、例えば、層の右上角にある素
子の座標は(X−1,Y−1)である。
【0066】このように配列された中間層素子Ui は、
入力層のすべての素子の反応強度(出力)を受信する。
なお、中間層素子の反応特性には、次の式で定義される
吊鐘型反応特性関数gを採用する。
【数9】 ここで、各記号はそれぞれ、
【数10】 を表す。
【0067】なお、上記ベクトル間距離dはいかように
定義しても差し支えないが、ここではもっとも一般的な
ユークリッド距離を採用する。すなわち、
【数11】 とする。
【0068】次に、図5は前記吊鐘型反応特性関数gの
反応強度の概形を示す特性図であり、横軸に距離d、縦
軸に反応強度ai をとっている。この図において、反応
特性のパラメータri ,pi は反応特性の形状を調節す
るパラメータであり、両者あわせて素子パラメータとな
っている。これらは、素子が反応する入力の範囲と反応
の感度を決める役割を果たす。すなわち、ri を大きく
すれば、素子が強く反応する入力パターンxの存在範囲
は広がり、ri を小さくすれば強く反応する入力パター
ンxの範囲が狭まる。また、pi を小さくすればdの変
化に対し緩やかに変化する特性となり、pi を大きくす
ればdの変化に対し敏感に変化する特性となる。
【0069】そして、図5において反応特性を表す曲線
のうち、実線はri =1.0,pi=1.0の場合のg
の形状、破線はri =0.5,pi =5.0の場合の形
状を示している。なお、同図において、斜線左側の領域
は、前記破線の場合において素子が所定の閾値θi 以上
で反応する範囲を示しており、この場合における閾値は
0.1である。閾値以上で反応するこのような領域が、
当該素子の反応領域である。
【0070】吊鐘型反応特性を持つ素子の場合、反応領
域は結合荷重ベクトルwi を中心とするJ次元入力空間
上の超球となり、この反応領域が反応超球となる。図1
8は、反応超球と結合荷重ベクトルとの関係を示す図で
あり、入力パターンのベクトル空間が三次元の場合とし
て描いたものである。素子Ui は、この反応超球に含ま
れる入力パターンのみにθi 以上で反応する。
【0071】[[出力層]]出力層の素子(以下「出力
層素子」という)Uk は、中間層のすべての素子の反応
強度を受信し、ニューラルネットの出力端子として機能
する。なお、出力層素子の反応特性にはシグモイド型関
数を用い、本実施例では、次の特性関数fを採用する。
【数12】 ここで、各記号はそれぞれ、
【数13】 を表す。
【0072】[[反応の伝搬]]上述のニューラルネッ
トにおいて、素子の反応強度の伝搬は、反応強度計算部
5が各素子の反応強度を算出することによって実現され
る。この反応強度の算出は、入力層から始まり、中間
層、出力層の順に進行する。その際の算出順序は、層に
ついては上述した入力層−中間層−出力層の順序で行う
が、同じ層内においてはどの素子の計算を先に行っても
よい。また、自己の反応強度を計算する自律的ニューロ
ン素子(参考文献:特願平4−195640)を用いれ
ば、並列的に行うことも可能である。
【0073】[[[内部パラメータの修正]]]素子パ
ラメータ修正部7と結合荷重修正部8が行う素子パラメ
ータと結合荷重の修正を実施する具体的手法は、公知技
術のいずれを用いてもよい(参考文献:特願平4−19
5640)。本実施例では、内部パラメータ修正の具体
的手法として、出力パターンと教師情報との誤差に基づ
いて修正する手法を採用し、説明する。
【0074】[[出力層素子の結合荷重の修正]]すな
わち、出力層素子の結合荷重を修正するには、まず、出
力層のすべての素子Uk の反応と、教師情報との誤差を
求める。ここで、事例保存部4に現在事例の入力パター
ンと対をなして格納されている教師情報は、当該入力パ
ターンに対する出力層の素子の望ましい反応強度を指定
するものである。ここで教師情報tは、
【数14】 であり、その成分tk は、それぞれ、出力層の素子Uk
の望ましい反応強度を指定する値である。したがって、
k における誤差Ek は、
【数15】 と定義される。
【0075】そして、中間層のすべての素子Ui からU
k への結合荷重wkiは、誤差Ek に基づいて、
【数16】
【数17】 と修正される。ここで←は、変数への代入操作を表して
いる。またηは結合荷重の修正率を示す係数であり、通
常はη=0.1程度に設定すればよい。
【0076】[[中間層素子の結合荷重と素子パラメー
タの修正]]中間層素子の結合荷重と素子パラメータの
修正においては、以下の計算を行う。すなわち、まず、
その中間層において最も強く反応した素子を特定する。
つまり、
【数18】 の値が最大となる素子Um を特定し、次に、中間層上
に、素子Um を中心とする半径Rの領域νを設定する。
すなわち、前述した中間層上の格子点に対応して定めて
ある座標を用いて、
【数19】 とする。ここでPm ,Pi は、それぞれ素子Um ,Ui
の中間層上における物理座標を示す。また、dはユーク
リッド距離である。Rの値についてはここでは詳述しな
いが、一例としては、中間層の大きさが縦横X・Yであ
るとき、
【数20】 とすることが考えられる。ここでTは、図2のステップ
22からステップ35までの処理の繰り返し回数であ
る。
【0077】数式19におけるνは、素子Um の近傍に
ある素子の集合となり、結合荷重ベクトルwi と素子パ
ラメータpi ,ri が修正されるのは、νに属する素子
のみに限定する。また、νに含まれる素子について、結
合荷重の修正は以下の式に従う。
【数21】
【数22】 ここで、xは入力パターンである。また、αは結合荷重
の修正率を示す係数であり、この値は、例えば、0.1
程度に設定すればよい。
【0078】また、νに含まれる素子について、素子パ
ラメータri の修正は次の式に従う。
【数23】
【数24】 ここで、γr はri の修正率を与える正係数であり、通
常は0.1程度に設定する。ri の修正量Δri は、上
記数式24において、出力層素子の反応強度と教師情報
との誤差で定まる第一項と、拡散項と呼ばれる第二項の
和として求められる。
【0079】なお、数式24は、次のような意味を有す
る。すなわち、wkik は、素子Ui の反応が誤差Ek
の原因である程度を表す量である。このため、wkik
>0なら、これを0に近付けるためには、Ui の反応が
弱まることが望ましいから、ri を減少させることによ
って、Ui の反応超球の半径を縮小すべきである。した
がって、
【数25】 とすればよい。出力層のすべての素子について和をとる
ことによって、第一項が得られる。
【0080】第二項は、出力層で誤差が出ない範囲で、
反応超球の半径を増加させる効果を持つ。第二項は、一
つの中間層素子を、可能な限り広い領域の入力パターン
に反応させるための項である。なお、出力層での誤差に
影響しないように、γr >>ξr >0としておく。一般
には、ξr =0.001程度でよい。
【0081】νに含まれる素子について、素子パラメー
タpi の修正は以下の式に従う。
【数26】
【数27】 ここで、γp はpi の修正率を与える正係数であり、通
常は、0.1程度に設定する。ξp は、誤差に影響を与
えない範囲で、Ui が強く反応する領域を広げる効果を
持つ。γp >>ξp >0としておく。通常は、ξp
0.001程度でよい。
【0082】[[[素子の追加]]]次に、素子の追加
について説明する。前記のように、本実施例における素
子の追加は、中間層のどの素子も強く反応しない入力パ
ターンに対して行われる。すなわち以下の処理は、すべ
ての中間層素子Ui に対して、
【数28】 なる入力パターンxに対し実施される。
【0083】[[追加条件の判定]]まず、追加条件判
定部9は、現在の事例の入力パターンに対し所定の閾値
以上で反応する素子の有無を判定し、強く反応する素子
がある場合は、素子は追加されない。強く反応する素子
がない場合には、さらに、ニューラルネットの誤差が極
小値に入っていないか判定する。
【0084】このとき追加条件判定部9は、素子パラメ
ータ修正部7が算出した素子パラメータの修正量の二乗
和Sp 、結合荷重修正部8が算出した結合荷重の修正量
の二乗和Sc を次のように求める。
【数29】
【数30】 ここで、総和をとる計算のインデクスi,j,kは、各
々中間層素子、入力層素子、出力層素子の番号を示す。
加えて、I,J,Kは、各々中間層の素子数、入力層の
素子数、出力層の素子数を表す。したがって、Sc の右
辺の第一項は入力層と中間層の間の結合荷重の修正量の
二乗和を、第二項は中間層と出力層の間の結合荷重の修
正量の二乗和を表している。
【0085】次に、追加条件判定部9は、極小値検知の
判定条件として、
【数31】 の成立の有無を判定する。ここで、
【数32】
【数33】 は、それぞれ、素子パラメータ、結合荷重に、一定以上
の変化があったことを示すための閾値で、具体的な値は
ニューラルネットに学習させる対象に適した値を設定す
る。また、逆V字型の記号は論理積の演算記号で「且
つ」と読み替えられる。
【0086】数式31で表される条件は、「素子パラメ
ータの修正量が小さい」且つ「結合荷重の修正量が小さ
い」こと、すなわち、修正によって内部パラメータが変
化しない(誤差が極小値に捉われている)ことを意味す
る。この場合は、内部パラメータの修正では誤差を下げ
ることができない。
【0087】[[弱反応パターンの登録]]このとき、
現在事例の入力パターンxは、弱反応パターンとして弱
反応パターン保持部10に登録される。登録された弱反
応パターンに反応する素子が、のちの処理で追加され
る。
【0088】[[追加素子の内部パラメータの決定]]
次に、素子追加部11が行う弱反応パターンのクラスタ
リング処理と、追加素子に関する結合上の荷重ベクトル
並びに素子パラメータの決定処理について詳細に説明す
る。
【0089】まず、図6は、素子追加部11の内部構造
を示すブロック図である。すなわち、素子追加部11
は、弱反応パターンのクラスタリングを行うパターンク
ラスタリング手段111と、追加素子の結合荷重を算出
する結合荷重決定手段112と、追加素子の素子パラメ
ータを算出する素子パラメータ決定手段113とを有す
る。
【0090】[弱反応パターンのクラスタリング]パタ
ーンクラスタリング手段111は、まず弱反応パターン
保持部10から、弱反応パターンの集合Sを読み込む。
そして、パターンクラスタリング手段111は以下の処
理を実行することによって、入力パターンのベクトル空
間内における互いの距離が所定値以内で、出力パターン
のベクトル空間内における教師情報同士の距離も所定値
以内である弱反応パターンからなるクラスタSi を、l
個生成する。ここで各記号はそれぞれ、
【数34】 を意味する。
【0091】そして、クラスタリング処理は、以下の各
手順から構成される。
【数35】 ここで、上記手順[3],[5]で用いている集合同士
の演算\は集合差演算を表しており、
【数36】 を意味している。また、手順[5],[6]から明らか
なように、各クラスタSl に含まれる弱反応パターン同
士の距離はD/2以下で、しかも、各々の弱反応パター
ンの教師情報の各成分同士の距離は
【数37】 以下である。また手順[4],[6]からわかるよう
に、集合Cは、すでにいずれかのクラスタに含まれてい
る弱反応パターンからなる集合である。したがって、手
順[7]の条件が成立すれば、すべての弱反応パターン
は必ずいずれかのクラスタに属していることとなる。
【0092】なお、D,εの値を大きく設定すればクラ
スタの個数が少なくなり、小さく設定すれば、後の素子
追加後に、弱反応パターンに対するニューラルネットの
出力の誤差が小さくなる。D,εの適当な値は、ニュー
ラルネットに学習させる認識対象に依存するが、一例と
しては各々、D=0.2,ε=0.05とすればよい。
【0093】[結合荷重の計算]素子は、上述のクラス
タ一つにつき1個追加される。クラスタSl に対し追加
する素子Ul の結合荷重は、結合荷重決定手段112に
よって以下のように初期設定される。すなわち、結合荷
重決定手段112は、パターンクラスタリング手段11
1から供給される弱反応パターンのl個のクラスタを読
み込み、各クラスタについて以下の二種類の処理を行
い、l個の素子の結合荷重ベクトルの初期値を決定し
て、追加素子結合荷重保持部13に格納する。
【0094】つまり、中間層素子Ul につながる結合荷
重のベクトルには、入力層の素子からの結合上のベクト
ルと、素子Ul から出力層の素子への結合上のベクトル
との2つがあり、各々以下に記述する異なる処理によっ
て初期設定される。
【0095】まず、入力層からの結合荷重は、次のよう
に決定される。すなわち、入力層の素子から、素子Ul
につながる結合上の結合荷重ベクトルwl には、Sl
属する弱反応パターンの平均を、
【数38】 のように設定する。ここで#Sl は、クラスタSl に含
まれる弱反応パターンの個数である。
【0096】上記の設定によって、wl とSl のすべて
の弱反応パターンxm との距離は、D以下となる。図7
はこの様子を表す模式図である。xp を上述のクラスタ
リング処理における手順[3]のxp とすると、三角不
等式から
【数39】 である。このとき、右辺の2つの項はいずれも、D/2
以下である。したがって、
【数40】 となる。
【0097】また、出力層への結合荷重は、次のように
決定される。すなわち、素子Ul から出力層の素子Uk
へつながる結合上の結合荷重は、Sl に属す弱反応パタ
ーンxm の教師情報tm の平均tを用いて設定する。こ
こでtは、
【数41】 であり、tの第k成分を、tk と現すことにすると、t
は、
【数42】 と表すことができる。このとき、素子Ul から出力層の
素子Uk へつながる結合上の結合荷重wklは、次のよう
に求めることができる。
【数43】 ここで、0<δ<1とし、教師情報の定義(数式14)
から、0<tk <1である。
【0098】また、クラスタSl に対応して追加される
素子Ul の素子パラメータpl ,rl は、素子パラメー
タ決定手段113によって以下のように初期設定され
る。すなわち、素子パラメータ決定手段113は、パタ
ーンクラスタリング手段111から供給される弱反応パ
ターンl個のクラスタSl を読み込み、素子パラメータ
の初期値を以下のように決定し、追加素子パラメータ保
持部12へ格納する。
【数44】
【数45】 ここでδの具体的な値としては、例えば0.5と設定す
ればよい。この追加素子は、クラスタSl 内の弱反応パ
ターンに少なくともδの強さで反応する。
【0099】[[素子の挿入座標の決定]]Ul を中間
層に追加する際の中間層上の位置(座標)は、パターン
クラスタリング手段111によって、
【数46】 という条件を満たす既存の素子Un に隣接する8つの格
子点のいずれかの座標として決定され、その座標は結合
荷重保持部3と素子パラメータ保持部2に送られる。結
合荷重保持部3と素子パラメータ保持部2は、追加され
た素子についての結合荷重、素子パラメータを格納す
る。
【0100】なお、上記数式46において、各記号は、
【数47】 を表す。
【0101】ここで、図8は、中間層を上方から見た平
面図であるが、図8に示すように、追加素子を挿入する
座標としては素子Un (斜線で示す)の上下左右斜めの
8つの選択肢(網掛け及び黒丸で示す)があるが、その
どれを選択してもよい。図9は、図8と同様の平面図で
あり、図8において黒丸で表した挿入座標に追加素子を
挿入した後の中間層の様子を示している。この図9で
は、挿入する座標はUnの左隣になっており、挿入の結
果、素子Un の左側に位置している既存素子の座標が、
格子点一つ分ずつ左にずれている。また、図10は、素
子Ul を中間層に追加した後のニューラルネット全体を
示す模式図である。
【0102】なお、パターンクラスタリング手段111
は、追加素子の個数を、終了条件判定部14に送る。
【0103】[[極小値の回避]]上述の素子追加によ
って、弱反応パターンxm に対する出力層における誤差
はε以下になる。以降、この点について具体的に説明す
る。すなわち、まず、弱反応パターンxm に対する出力
層の誤差E(xm )は、次式で定義される。
【数48】 ここでtmkは、次の式に示すように、弱反応パターンx
m に対応する教師情報tm の第k成分である。
【数49】 出力層の素子Uk の反応強度ak (xm )は、数式12
から
【数50】 であるが、xm は弱反応パターンであるから、
【数51】
【数52】 が成立する。ここで、素子Ul は、中間層に追加された
素子である。
【0104】数式44,45,9から反応強度al (x
m )は、
【数53】 であり、数式40より、
【数54】 であるから、Ul の反応強度al (xm )は、次のよう
に、δ以上となる。
【数55】 上式から、出力層の素子Uk の反応強度ak (xm
は、
【数56】 となるが、数式43から、
【数57】 よって、
【数58】 が成立する。
【0105】ここで、tp をクラスタリング処理手順
[3]のxp の教師情報とすると、
【数59】 で、数式41、及び、数式35の[5]における第2番
目の式から、tk は次式を満たし、
【数60】 となり、また、tmk
【数61】 を満たすので、
【数62】 が成立し、最終的に、
【数63】 となる。これは上述の素子追加によって、弱反応パター
ンxm に対する出力層の誤差がεより小さくなることを
示している。
【0106】[[[学習終了条件]]]次に、終了条件
判定部14によって成立が判断される、学習の終了条件
を説明する。すなわち、学習終了条件としては、以下に
あげるようなものを例示することができる。
【0107】[1]すべての事例に対し、出力層におけ
る誤差の二乗和が、所定の値ε未満になること。
【数64】 [2]ループ1の繰り返し回数が、所定の回数に達する
こと。 [3]素子パラメータの修正量の二乗和Sp 、結合荷重
の修正量の二乗和Sc が所定値以下で、且つ、追加素子
の個数が所定値以下であること。 [4]パターン分類問題、例えば文字認識の場合で、入
力パターンは文字の画像、教師情報は文字の種類に対応
する成分のみが値1をとり、それ以外の成分の値0をと
るものとする。このとき、最大出力を出す出力層の素子
が表す文字の種類が、その文字パターンの認識結果であ
るとする認識方式において、教師情報で示される文字種
類と、出力最大の出力層の素子の表す文字種類とが異な
る入力パターンの件数の、入力パターン件数全体に対す
る割合(誤読率)が所定値以下であること。
【0108】[[[従来技術との相違]]]ここで、内
部パラメータの修正と素子追加に関して、本実施例と従
来技術との相違を説明する。
【0109】[[素子追加が必要な状況についての比
較]]従来技術であるRCEでは、内部パラメータの修
正において、素子の結合荷重を変化させなかった。ま
た、反応領域の大きさ(本実施例の、反応超球の半径を
決める素子パラメータri に対応)の修正は、縮小のみ
であった。したがって、広い領域に分布する入力パター
ンを認識するためには、多くの素子を必要としていた。
【0110】これに対して、本実施例では、広い領域に
分布する入力パターンを反応超球で被覆するために、反
応超球の半径の修正と同時に、結合荷重の修正をも行っ
て、適切な反応超球の配置調節を行う。すなわち、本実
施例は、RCEとの比較において、上述した目的を実現
するために調整可能なパラメータが増えている点に特徴
を有している。しかも、本実施例では、反応領域の大き
さは拡大方向に修正可能であるから、広い範囲に分布す
る入力パターンでも、少数の素子の大きな反応超球で被
覆することができる。
【0111】ここで、単純なモデルとして、図11に示
す状況を仮定する。すなわち、図11は、入力空間にお
ける反応超球と入力パターンとの位置関係を示す模式図
である。この図では、入力空間の次元は2次元である。
また、中間層は一個の素子から成っており、その反応超
球は図中の円で示されている。入力層からこの素子への
結合荷重ベクトルを黒点で示し、入力された入力パター
ンxを図上X印で示す。
【0112】このとき、入力パターンxは、中間層の素
子の反応超球が被覆していない位置にある。このため、
中間層の素子はxに対して反応せず、出力層の素子には
反応が伝わらない。したがって、
【数65】 が成立し、出力層のすべての素子Uk は、xに対して反
応しない。
【0113】ここで、単純なモデルとして、教師情報t
【数66】 の第k成分のみが正である場合
【数67】 を考える。
【0114】このとき出力層は、素子Uk でのみ誤差E
k が非零で
【数68】 となる。
【0115】この状況において、RCEによるニューラ
ルネットの学習では、入力パターンxそのものを入力層
からの結合荷重ベクトルとする新たな素子を追加してい
た。図12は、図11と同様の形式でこの様子を示す模
式図である。この図では、追加された素子の反応超球を
ハッチングされた円で表示している。追加素子の結合荷
重ベクトルwl は、入力パターンxに一致している。
【0116】これに対し、同じ図11の状況に対して本
実施例によるニューラルネットの学習を行えば、素子を
追加しないで誤差を下げることができる。すなわち、前
述した中間層素子の結合荷重と素子パラメータの修正の
処理を、この状況において実行すると、以下のようにな
る。
【0117】まず、数式18によって、xに最も強く反
応する中間層素子Um が求められる。いま中間層には、
図11に反応超球を図示した素子しかないから、これが
mとなる。次に、数式19によって、素子Um の近傍
の素子集合νが計算されるが、νはUm だけからなる。
したがって、結合荷重と素子パラメータの修正は、Um
に関してのみ行われる。
【0118】そして、まず、結合荷重の修正は、数式2
1,22によって行われる。この式から明らかに、Um
の結合荷重ベクトルwは、入力パターンxに接近する。
したがって、反応超球はxの方向に移動する。図13
は、その様子を図11及び図12と同様の形式で示す模
式図である。この図では、修正前の結合荷重ベクトルが
記号Wで、修正後のベクトルが記号W′で表されてい
る。
【0119】また、素子パラメータの修正は、数式2
3,24,26,27によって行われる。すなわち、数
式24の右辺は、
【数69】 となる。
【0120】Um がUk の反応に貢献する素子である
(wkm>0)なら、Ek >0より、
【数70】(右辺)>0 であるから、ri は増加し、反応超球が拡大する。その
様子は図13に示されている。図13において、元の反
応超球の半径r、と修正後の反応超球の半径r′では、
r<r′となっている。
【0121】また、Um がUk の反応を抑制する素子で
ある(wkm<0)場合には、一旦反応超球は縮小する
が、数式16,17から明らかなように、学習の繰り返
しによっていずれwkm>0となり、それ以降、反応超球
はやはり拡大する。上記は、教師情報において正値をと
る成分が一つでない場合にも成立する。
【0122】[[追加素子の個数についての比較]]R
CEや、特開平2−238560,特開平2−2608
62各号公報に記載される技術では、素子を追加する場
合に、誤差の大きな入力パターン一個につき一つの素子
を追加していた。また、追加する素子の反応領域の大き
さは固定されていた。
【0123】これに対して、本実施例では、弱反応パタ
ーンのクラスタリング処理の説明において前述したよう
に、互いに距離が近く且つ各々の教師情報同志の距離が
近い弱反応パターンは一つのクラスタを形成するとみな
してひとまとめにし、クラスタ一つに対して素子を一個
追加する。しかも、本実施例では、追加する素子の反応
超球の大きさも、個々のクラスタの広がりの大きさに応
じて、最適に決定する。したがって、より少数の素子追
加で弱反応パターンを被覆する反応超球を持つ素子を得
ることができる。
【0124】ここで、単純なモデルとして、図14に示
す状況を仮定する。すなわち、図14は、入力空間にお
ける弱反応パターン群の位置関係を示す模式図である。
この図においても、図11の場合と同じように、入力空
間の次元は2次元、素子の反応超球は図中の円で示され
ている。そして、図中のX1,X2,X3は、それぞれ
異なるクラスタを形成する弱反応パターン群である。な
お、X2,X3の弱反応パターン群は、互いの距離が近
いが、教師情報の距離が遠いために、別々の二つのクラ
スタを形成する。
【0125】この状況において、従来技術による素子の
追加では、すべての弱反応パターン一個に対して、それ
を結合荷重ベクトルとする素子を一つ追加していた。図
15は、図14と同様の形式でこの様子を示す模式図で
ある。この図では、狭い領域に分布する弱反応パターン
群に対して、計12個の素子が追加されている。
【0126】これに対し、本実施例による素子の追加で
は、互いに距離が近く且つ教師情報の距離も近い弱反応
パターン群に対しては同一の素子が割り当てられるの
で、図16に示すように素子の追加は3個に抑えられて
いる。
【0127】(3)実施例の効果 以上のように、本実施例では、既存素子の反応領域につ
いて位置と大きさ双方の修正を行うことができ、また、
大きさの修正は減少のみならず増加方向へも可能なの
で、素子を追加することなく誤差の減少が可能な場合が
増加する。したがって、本実施例によれば、学習におけ
る追加素子数が最小限となるので、ニューラルネットの
形成に要する時間や内部パラメータを格納する記憶装置
の容量など、ニューラルネット形成・維持のための資源
を節約することができる。
【0128】また、本実施例によれば、乱数を用いた追
加素子によってニューラルネットの状態が悪化すること
がないので、学習済み事例に対する認識精度を低下させ
ることなく、新規事例学習が可能となる。また、本実施
例によれば、ひとつのクラスタに属するすべての弱反応
パターンを単一の追加素子が被覆するので、学習におけ
る追加素子数が少ないニューラルネットの調節装置及び
調節方法を提供することができる。
【0129】このように、本実施例によれば、大規模・
複雑な対象のパターン認識に好適なニューラルネットの
調節装置及び調節方法を提供することができ、このよう
なニューラルネットは、例えば文字・音声の認識、電力
系統・化学プラント等大規模システムの状態監視、電力
需要・株式や為替の市況の予測、部材の表面瑕疵検出な
ど、人間の能力では困難な多種多様なパターン認識に効
果的に利用することができる。
【0130】特に、本実施例によれば、学習中における
素子パラメータや結合荷重の読み出しは、素子パラメー
タ保持部2又は結合荷重保持部3から行われ、内部パラ
メータ保存部1が直接アクセスされることはない。そし
て、素子パラメータ保持部2や結合荷重保持部3中のデ
ータは、学習終了時に、内部パラメータ保存部1に書き
戻される。したがって、本実施例によれば、ニューラル
ネットの初期状態を表す内部パラメータの初期値が学習
終了時まで維持されるので、学習が何らかの事由によっ
て所期の効果を奏しない場合、初期状態から学習をやり
直すことができる。
【0131】(4)他の実施例 なお、本発明は上記実施例に限定されるものではなく、
次のような他の実施例をも包含するものである。例え
ば、上記実施例では、三層のニューラルネットを例示し
たが、本発明の適用対象となるニューラルネットには層
数の制限はない。また、前記実施例では、素子の反応特
性関数を吊鐘型特性としたが、本発明では任意の反応領
域有界な反応特性関数を用いることができる。そうした
特性の例には、例えば、統計学における正規分布を定義
するのに用いられるガウシアン関数がある。また、本発
明は反応特性関数の値が所定の閾値以上になる入力空間
の領域が有界な素子から構成されるニューラルネットに
適したものであるが、適宜実施態様を変更し、これ以外
のニューラルネットに適用することは自由である。ま
た、上記実施例のニューラルネットの調節装置はコンピ
ュータ上に実現されているが、その機能の全部又は一部
は専用の電子回路上に実現してもよい。さらに、内部パ
ラメータの調節の方法も、実施例に示したものに限定さ
れない。
【0132】
【発明の効果】以上のように、本発明によれば、学習に
おける追加素子数が最小限なニューラルネットの調節装
置及び調節方法を提供することができる。また、本発明
によれば、学習済み事例に対する認識精度を低下させる
ことなく、新規事例学習が可能なニューラルネットの調
節装置及び調節方法を提供することができる。したがっ
て、本発明によれば、従来よりも、小規模で認識精度の
高いニューラルネットを、より少ない所要時間で形成す
ることができる。
【図面の簡単な説明】
【図1】本発明の実施例のニューラルネットの調節装置
の構成を示すブロック図。
【図2】同装置によるニューラルネット調節の手順を示
すフローチャート。
【図3】同装置が調節対象とするニューラルネットの構
造の一例を示す概念図。
【図4】同ニューラルネットの中間層をその素子の配列
面の上方から見た平面図。
【図5】吊鐘型反応特性関数gの反応強度の概形を示す
特性図。
【図6】本発明の実施例における素子追加部11の内部
構造を示すブロック図。
【図7】本発明の実施例において、追加素子の結合荷重
ベクトルと弱反応パターンとの距離関係を示す模式図。
【図8】本発明の実施例におけるニューラルネットの中
間層をその素子の配列面の上方から見た平面図(素子追
加前)。
【図9】本発明の実施例におけるニューラルネットの中
間層をその素子の配列面の上方から見た平面図(素子追
加後)。
【図10】本発明の実施例において素子追加後のニュー
ラルネット全体を示す模式図。
【図11】入力空間における反応超球と入力パターンと
の位置関係を示す模式図。
【図12】入力空間における反応超球と入力パターンと
の位置関係を示す模式図(RCEによる素子追加後)。
【図13】入力空間における反応超球と入力パターンと
の位置関係を示す模式図(本発明の実施例による内部パ
ラメータ修正後)。
【図14】入力空間における弱反応パターン群の位置関
係を示す模式図。
【図15】入力空間における弱反応パターン群の位置関
係を示す模式図(従来技術による素子追加後)。
【図16】入力空間における弱反応パターン群の位置関
係を示す模式図(本発明の実施例による素子追加後)。
【図17】吊鐘型反応特性関数における反応特性の概形
を示す図。
【図18】3次元の入力空間における反応超球と結合荷
重ベクトルとの関係を示す模式図。
【図19】内部パラメータの個数が1個の場合における
状態空間内における誤差の曲面を表す模式図。
【図20】内部パラメータの個数が2個の場合における
状態空間内における誤差の曲面を表す模式図。
【図21】内部パラメータの個数が2個の場合における
状態空間内における誤差の曲面を表す模式図(内部パラ
メータ修正の状態を示す)。
【符号の説明】
1:内部パラメータ保存部 2:素子パラメータ保持部 3:結合荷重保持部 4:事例保存部 5:反応強度計算部 6:反応強度保持部 7:素子パラメータ修正部 8:結合荷重修正部 9:追加条件判定部 10:弱反応パターン保持部 11:素子追加部 12:追加素子パラメータ保持部 13:追加素子結合荷重保持部 14:終了条件判定部 S:手順の各ステップ

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 ニューラルネットワークを構成する素子
    の反応特性を調節する素子パラメータ及び前記素子間の
    信号伝達効率を表す結合荷重を保存する内部パラメータ
    保存手段と、 前記ニューラルネットに入力する入力パターンとこの入
    力パターンに対応すべき前記ニューラルネットからの出
    力パターンを示す教師情報とからなる事例を保存する事
    例保存手段と、 前記素子パラメータ及び前記結合荷重に基づいて前記各
    入力パターンに対する前記各素子の反応強度及び出力パ
    ターンを計算する反応強度計算手段と、 前記素子に係る前記素子パラメータ又は前記結合荷重の
    少なくとも一方を、前記入力パターンに対応する前記教
    師情報に基づいて修正する内部パラメータ修正手段と、 前記各素子の前記反応強度が所定の閾値以下となる前記
    入力パターンを弱反応パターンと判定する追加条件判定
    手段と、 前記弱反応パターンに対して所定値以上の反応強度を生
    じる前記素子パラメータ及び前記結合荷重を有する新た
    な素子を前記ニューラルネットワークに追加する素子追
    加手段とを有することを特徴とするニューラルネットの
    調節装置。
  2. 【請求項2】 前記ニューラルネットワークは、反応特
    性関数の値が所定の閾値以上になる入力空間の領域が有
    界な素子を有することを特徴とする請求項1記載のニュ
    ーラルネットの調節装置。
  3. 【請求項3】 前記素子追加手段は、 前記各弱反応パターンを、前記入力パターンのベクトル
    空間において相互に所定距離内に位置し、かつ、当該弱
    反応パターンに対応する前記教師情報が前記出力パター
    ンのベクトル空間において相互に所定距離内に位置する
    前記弱反応パターンごとのクラスタにクラスタリングす
    るパターンクラスタリング手段と、 追加しようとする各追加素子の前記素子パラメータを、
    それぞれ別個の前記クラスタに属する全ての前記弱反応
    パターンに対して当該追加素子が所定以上の強度で反応
    するように決定する素子パラメータ決定手段と、 前記各追加素子の結合荷重を、前記別個の各クラスタに
    属する全ての前記弱反応パターンに対して当該追加素子
    が所定以上の強度で反応するように決定する結合荷重決
    定手段とを有することを特徴とする請求項1記載のニュ
    ーラルネットの調節装置。
  4. 【請求項4】 ニューラルネットワークを構成する素子
    の反応特性を調節する素子パラメータ及び前記素子間の
    信号伝達効率を表す結合荷重に基づいて、前記ニューラ
    ルネットに入力される入力パターンに対する前記各素子
    の反応強度及び出力パターンを計算する計算工程と、 前記素子に係る前記素子パラメータ又は前記結合荷重の
    少なくとも一方を、前記入力パターンに対応すべき前記
    出力パターンを示す教師情報に基づいて修正する修正工
    程と、 前記各素子の前記反応強度が所定の閾値以下となる前記
    入力パターンを弱反応パターンと判定する判定工程と、 前記弱反応パターンに対して所定値以上の反応強度を生
    じる前記素子パラメータ及び前記結合荷重を有する新た
    な素子を前記ニューラルネットワークに追加する追加工
    程とを有することを特徴とするニューラルネットの調節
    方法。
  5. 【請求項5】 前記ニューラルネットワークは、反応特
    性関数の値が所定の閾値以上になる入力空間の領域が有
    界な素子を有することを特徴とする請求項4記載のニュ
    ーラルネットの調節方法。
  6. 【請求項6】 前記追加工程は、 前記各弱反応パターンを、前記入力パターンのベクトル
    空間において相互に所定距離内に位置し、かつ、当該弱
    反応パターンに対応する前記教師情報が前記出力パター
    ンのベクトル空間において相互に所定距離内に位置する
    前記弱反応パターンごとのクラスタにクラスタリングす
    るクラスタリング工程と、 追加しようとする各追加素子の前記素子パラメータを、
    それぞれ別個の前記クラスタに属する全ての前記弱反応
    パターンに対して当該追加素子が所定以上の強度で反応
    するように決定する素子パラメータ決定工程と、 前記各追加素子の結合荷重を、前記別個の各クラスタに
    属する全ての前記弱反応パターンに対して当該追加素子
    が所定以上の強度で反応するように決定する結合荷重決
    定工程とを有することを特徴とする請求項4記載のニュ
    ーラルネットの調節方法。
JP5102980A 1993-04-28 1993-04-28 ニューラルネットの調節装置及び調節方法 Pending JPH06314268A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5102980A JPH06314268A (ja) 1993-04-28 1993-04-28 ニューラルネットの調節装置及び調節方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5102980A JPH06314268A (ja) 1993-04-28 1993-04-28 ニューラルネットの調節装置及び調節方法

Publications (1)

Publication Number Publication Date
JPH06314268A true JPH06314268A (ja) 1994-11-08

Family

ID=14341882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5102980A Pending JPH06314268A (ja) 1993-04-28 1993-04-28 ニューラルネットの調節装置及び調節方法

Country Status (1)

Country Link
JP (1) JPH06314268A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016507832A (ja) * 2013-01-17 2016-03-10 アプライド マテリアルズ インコーポレイテッドApplied Materials,Incorporated 動径基底関数ネットワークおよび超立方体を使用した半導体処理機器における偏位の分類
JP6150964B1 (ja) * 2016-10-03 2017-06-21 三菱電機株式会社 ネットワーク構築装置及びネットワーク構築方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016507832A (ja) * 2013-01-17 2016-03-10 アプライド マテリアルズ インコーポレイテッドApplied Materials,Incorporated 動径基底関数ネットワークおよび超立方体を使用した半導体処理機器における偏位の分類
JP6150964B1 (ja) * 2016-10-03 2017-06-21 三菱電機株式会社 ネットワーク構築装置及びネットワーク構築方法
WO2018066032A1 (ja) * 2016-10-03 2018-04-12 三菱電機株式会社 ネットワーク構築装置及びネットワーク構築方法
KR20190039329A (ko) * 2016-10-03 2019-04-10 미쓰비시덴키 가부시키가이샤 네트워크 구축 장치 및 네트워크 구축 방법
US11373110B2 (en) 2016-10-03 2022-06-28 Mitsubishi Electric Corporation Apparatus and network construction method for determining the number of elements in an intermediate layer of a neural network

Similar Documents

Publication Publication Date Title
Nowlan Maximum likelihood competitive learning
Pal Soft computing for feature analysis
EP0378689B1 (en) Inference rule determination method and inference apparatus
CN105488528A (zh) 基于改进自适应遗传算法的神经网络图像分类方法
CN103926526A (zh) 一种基于改进的rbf神经网络的模拟电路故障诊断方法
CN106650928A (zh) 一种神经网络的优化方法及装置
CN110288199A (zh) 产品质量预测的方法
CN114580308B (zh) 一种人员疏散时间预测方法、装置、存储介质及终端设备
WO2023116565A1 (zh) 智能设计网络安全架构图的方法
CN113887729A (zh) 一种低压电力线载波通信系统故障诊断方法
CN110837891A (zh) 基于simd架构的自组织映射方法及系统
US5317675A (en) Neural network pattern recognition learning method
JP2005516282A (ja) 学習レートの非単調変化による性能の改善を伴う自己組織化特徴マップ
JPH06314268A (ja) ニューラルネットの調節装置及び調節方法
CN116663414A (zh) 一种用于电力变压器的故障诊断方法及系统
Huang et al. Genetic algorithms enhanced Kohonen's neural networks
CN113379779B (zh) 堆叠宽度学习系统的边缘计算方法、装置、介质和设备
JP2000172662A (ja) ニューラルネットワークの学習方法
CN113344202A (zh) 一种新的深度多核学习网络模型训练方法、系统及介质
Weng et al. Optimal in-place self-organization for cortical development: Limited cells, sparse coding and cortical topography
JP3085312B2 (ja) 文字認識学習方法、および文字認識装置
JP3310009B2 (ja) ニューラルネットワークシステム
JP2780454B2 (ja) 追記学習型パターン認識装置
JPWO2007096954A1 (ja) ニューラルネットワーク装置及びその方法
Wang Extension neural network-type 3