JPH0798694A - Neural network simulator - Google Patents

Neural network simulator

Info

Publication number
JPH0798694A
JPH0798694A JP9323794A JP9323794A JPH0798694A JP H0798694 A JPH0798694 A JP H0798694A JP 9323794 A JP9323794 A JP 9323794A JP 9323794 A JP9323794 A JP 9323794A JP H0798694 A JPH0798694 A JP H0798694A
Authority
JP
Japan
Prior art keywords
local
signal
output
circuit
local basis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9323794A
Other languages
Japanese (ja)
Other versions
JP2734374B2 (en
Inventor
Toshiki Kanemichi
敏樹 金道
Natsuki Oka
夏樹 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP6093237A priority Critical patent/JP2734374B2/en
Publication of JPH0798694A publication Critical patent/JPH0798694A/en
Application granted granted Critical
Publication of JP2734374B2 publication Critical patent/JP2734374B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To clarify a potential function for guaranteing the convergency of learning, to obtain a sufficient learning speed on practice, to smoothly approximate an object function, and to obtain a structure suitable to the approximation of the object function, in a neural network simulator used for pattern recognition or the like. CONSTITUTION:This device is provided with a divider 12 which specifies the output signals of plural local base output calculating circuits 10 having a value for an output which is not O for a limited input according to the total sum, adder 14 which outputs the total sum of the products of the specified local base output signals and a coupling summation as an output signal, coupling summation correcting circuit 15 which corrects the coupling summation from a teaching signal or the like, local base correcting circuit 16 which corrects the inside parameter of the local base output calculating circuit 13, coupling summation setting circuit 17 which sets the coupling summation, and local base setting circuit 18 which sets the inside parameter of the local base output calculating circuit 10.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、音声、画像をはじめと
するパターン認識、適応制御に用いられる神経回路網模
擬装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network simulating device used for pattern recognition such as voice and image, and adaptive control.

【0002】[0002]

【従来の技術】近年、神経回路網を応用した神経回路網
模擬装置は、音声認識などに広く応用されるようになっ
てきた。神経回路網を応用した神経回路網模擬装置は、
大きく分けて2つのタイプがある。一つは、文献(PD
Pモデル、D.E.ラメルハート他2名、甘利俊一監訳、1
989年)に詳しく記載されている多層パーセプトロン
(MLP)と呼ばれるものであり、もう一つは、文献
(セルフ・オーガニゼイション・アンド・アソシエイテ
ィブ・メモリ、Self-Organization and Associative Me
mory、T.Kohonen 著、Springer-Verlag、1987年)
に記載された学習ベクトル量子化(LVQ)と呼ばれる
ものである。こうした神経回路網模擬装置の目的の多く
は、提示される入力と教師信号(理想的な出力信号)か
ら入出力関係を獲得すること(学習)である。神経回路
網模擬装置は、この機能を持つが故に、入出力関係が従
来のルールによる記述では容易ではない場合、すなわち
パターン分類や制御値の推定が困難である場合でも、利
用可能なパターン分類装置や適応制御装置を実現できる
要素技術となっている。
2. Description of the Related Art In recent years, neural network simulation devices to which neural networks have been applied have come to be widely applied to voice recognition and the like. The neural network simulator that applies the neural network is
There are roughly two types. One is the literature (PD
P model, DE Ramelhart and 2 others, translated by Shunichi Amari, 1
989), which is referred to as a multi-layer perceptron (MLP), and the other is a self-organization and associative memory (Self-Organization and Associative Memories).
mory, T. Kohonen, Springer-Verlag, 1987)
This is called the learning vector quantization (LVQ) described in. Most of the purpose of such a neural network simulator is to acquire (learn) an input / output relationship from the input presented and the teacher signal (ideal output signal). Since the neural network simulation device has this function, it can be used even when the input / output relationship is not easy to describe by the conventional rule, that is, even when pattern classification or control value estimation is difficult. It is an elemental technology that can realize an adaptive control device.

【0003】こうした神経回路網模擬装置の目的のもう
少し数学的な表現が、文献(出力信号の構造を反映した
競合学習型神経回路モデル、坂口豊、村田昇著、電子情
報通信学会研究会報告NC89−54、1989年)
に、「神経回路網構造の系を用いて、任意の連続な非線
形関数を逐次的な学習によって実現する」とまとめられ
ている。この観点に立てば、同文献に的確にまとめられ
ているように、MLPは学習の過程で誤差関数の極小値
に捕らわれ、必ずしも学習が収束しない。LVQは、教
師なし学習を用いて中間層素子を形成するために、学習
の結果得られる神経回路網は必ずしも目標とする関数
(目的関数)を実現するに適した構造とならない。坂口
らは、同文献において、目的関数の性質を反映した中間
素子を形成し、目的関数をよりよく近似する以下の学習
法を提案している。
A more mathematical expression of the purpose of such a neural network simulator is described in the literature (Competitive learning type neural circuit model reflecting the structure of the output signal, Yutaka Sakaguchi, Noboru Murata, IEICE Technical Committee Report NC89. -54, 1989)
, "A system that has a neural network structure is used to realize an arbitrary continuous nonlinear function by sequential learning." From this point of view, the MLP is caught by the minimum value of the error function in the course of learning, and the learning does not necessarily converge, as summarized in the same document. Since the LVQ forms an intermediate layer element using unsupervised learning, the neural network obtained as a result of learning does not necessarily have a structure suitable for realizing a target function (objective function). In the same document, Sakaguchi et al. Propose the following learning method that forms an intermediate element that reflects the properties of the objective function and better approximates the objective function.

【0004】図9は、坂口らが提案している従来の神経
回路網模擬装置の構成を示すブロック図である。図9に
おいて、1−i(i=1〜4)は入力信号xを受けて内
部に保持した参照ベクトルWiとの距離を計算して距離
信号Diを出力する距離計算回路であり、2は距離計算
回路1−1〜4から距離信号Di(i=1〜4)を受け
て、最小の距離信号を与える距離計算回路の番号を示す
最小距離番号信号IDminと、2番目に小さい距離信号
を与える距離計算回路の番号を示す第2距離番号信号I
Dsecを出力する競合回路であり、3は競合回路2から
最小距離番号信号IDminを受けて内部に保持した距離
計算回路の番号に応じて割り振られたメモリから最小距
離信号IDminが指定するアドレスに格納された値(ま
たはベクトル)を読みだして出力信号yとして出力する
出力計算回路であり、4は教師信号入力端子から与えら
れる教師信号zと出力計算回路4から出力信号yとの差
分信号 E = z − y と競合回路2からの最小距離番号信号IDminを受けて
出力計算回路3のメモリを修正する結合加重修正回路で
あり、5は差分信号Eと最小距離番号信号IDminと第
2距離番号信号IDsecと、入力信号xとを受けて距離
計算回路1−1〜4の参照ベクトルを修正する参照ベク
トル修正回路である。
FIG. 9 is a block diagram showing the configuration of a conventional neural network simulation device proposed by Sakaguchi et al. In FIG. 9, 1-i (i = 1 to 4) is a distance calculation circuit that receives the input signal x, calculates the distance to the reference vector Wi held therein, and outputs the distance signal Di, and 2 is the distance. Upon receiving the distance signals Di (i = 1 to 4) from the calculation circuits 1-1 to 4, the minimum distance number signal IDmin indicating the number of the distance calculation circuit that gives the smallest distance signal and the second smallest distance signal are given. Second distance number signal I indicating the number of the distance calculation circuit
Competing circuit outputting Dsec, 3 is stored in the address designated by the minimum distance signal IDmin from the memory allocated in accordance with the number of the distance calculation circuit held internally upon receiving the minimum distance number signal IDmin from the competing circuit 2. An output calculation circuit that reads out the calculated value (or vector) and outputs it as an output signal y. Reference numeral 4 denotes a difference signal E = between the teacher signal z given from the teacher signal input terminal and the output signal y from the output calculation circuit 4. z-y and the minimum distance number signal IDmin from the competing circuit 2 are combined weight correction circuits for correcting the memory of the output calculation circuit 3, and 5 is a difference signal E, a minimum distance number signal IDmin and a second distance number signal. A reference vector correction circuit that receives IDsec and the input signal x, and corrects the reference vector of the distance calculation circuits 1-1 to 4.

【0005】以上のように構成された神経回路網模擬装
置について、以下その動作について説明する。まず、距
離計算回路1−i(i=1〜4)は入力端子からの入力
信号xを受け、内部に保持した参照ベクトルWiとの距
離を示す距離信号Diを次式のように計算して、出力す
る。
The operation of the neural network simulation device configured as described above will be described below. First, the distance calculation circuit 1-i (i = 1 to 4) receives the input signal x from the input terminal, calculates the distance signal Di indicating the distance to the reference vector Wi held therein by the following equation. ,Output.

【0006】[0006]

【数1】 [Equation 1]

【0007】競合回路2はそれぞれの距離計算回路1−
iから距離信号Di を受けて、最小の距離信号を与える
距離計算回路の番号を示す最小距離番号信号
The competition circuit 2 is a distance calculation circuit 1-
Minimum distance number signal indicating the number of the distance calculation circuit that receives the distance signal Di from i and gives the minimum distance signal

【0008】[0008]

【数2】 [Equation 2]

【0009】と2番目に小さい距離信号を与える距離計
算回路の番号を示す第2距離番号信号IDsec とを計算
して出力する。出力計算回路3は競合回路2から最小距
離番号信号IDmin を受けて、内部記憶に距離計算回路
1−iごとに対応して記憶されている値v(i)から、最
小距離番号信号IDminによって指定される値v(IDmi
n)を読みだして出力信号yとして出力する。
And a second distance number signal IDsec indicating the number of the distance calculation circuit which gives the second smallest distance signal. The output calculation circuit 3 receives the minimum distance number signal IDmin from the competing circuit 2, and specifies the minimum distance number signal IDmin from the value v (i) stored in the internal storage corresponding to each distance calculation circuit 1-i. Value v (IDmi
n) is read and output as an output signal y.

【0010】学習動作は、次のように行われる。結合加
重修正回路4は、出力信号yと教師信号zとの差分信号
Eと最小距離番号信号IDmin とを受けて、出力計算回
路3の内部記憶の記憶されている最小距離番号信号ID
minによって指定される値v(IDmin)を v(IDmin)+c2・E に修正する。ここで、c2は学習速度を決めるパラメー
タである。参照ベクトル修正回路5は、出力信号yと教
師信号zとの差分信号Eと最小距離番号信号IDminと
第2距離番号信号IDsec とを受けて、距離計算回路1
−IDminの内部に記憶された参照ベクトルWIDminと距
離計算回路1−IDsecの内部に記憶された参照ベクト
ルWIDsecとを
The learning operation is performed as follows. The connection weight correction circuit 4 receives the difference signal E between the output signal y and the teacher signal z and the minimum distance number signal IDmin, and receives the minimum distance number signal ID stored in the internal storage of the output calculation circuit 3.
The value v (IDmin) specified by min is modified to v (IDmin) + c2 · E. Here, c2 is a parameter that determines the learning speed. The reference vector correction circuit 5 receives the difference signal E between the output signal y and the teacher signal z, the minimum distance number signal IDmin and the second distance number signal IDsec, and receives the distance calculation circuit 1
The reference vector WIDmin stored inside IDmin and the reference vector WIDsec stored inside the distance calculation circuit 1-IDsec.

【0011】[0011]

【数3】 [Equation 3]

【0012】のように修正する。ここで、c1は学習速
度を決めるパラメータである。このように距離の最小の
参照ベクトルだけでなく、第2距離番号信号で指定され
る隣接する領域の参照ベクトルについても学習を行わせ
ることにより、図10に示されたように最小距離番号信
号によって指定される領域は、学習によってあまり移動
せずに、代わりに領域の大きさが小さくなる。このと
き、参照ベクトルが動く度合いが大きいほど、2つの参
照ベクトルの距離は縮まり、その分だけさらに領域は小
さくなる。したがって、誤差の絶対値に比例した大きさ
で参照ベクトルを動かせば、参照ベクトルの引っ張りあ
いにより、関数の傾きが急なところほど領域は小さくな
り、参照ベクトルは密に分布するようになる。関数の近
似に適した構造が実現される。
Modify as follows. Here, c1 is a parameter that determines the learning speed. As described above, by learning not only the reference vector of the minimum distance but also the reference vector of the adjacent area specified by the second distance number signal, the minimum distance number signal can be changed as shown in FIG. The designated area does not move much by learning, and the size of the area becomes smaller instead. At this time, the greater the degree to which the reference vector moves, the shorter the distance between the two reference vectors, and the smaller the area. Therefore, if the reference vector is moved in a size proportional to the absolute value of the error, the regions become smaller as the function slopes steeper due to the pulling of the reference vectors, and the reference vectors are densely distributed. A structure suitable for function approximation is realized.

【0013】[0013]

【発明が解決しようとする課題】しかしながら上記従来
の構成では、目的関数の近似に適した構造が得られる神
経回路網模擬装置が得られるものの、坂口らが文献の中
でも指摘しているように、坂口らの学習則に関するポテ
ンシャル関数が明かでないために、学習の収束性の保証
や、学習平衡解の性質について一般に論じることができ
ない。また、学習速度もMLPに比べて優れていると言
えず、実用上十分な学習速度が得られない。加えて関数
の近似が階段関数によるものである為に、制御などに利
用するのが難しいと言う課題があった。
However, although the above-mentioned conventional structure provides a neural network simulating device that can obtain a structure suitable for approximating the objective function, as Sakaguchi et al. Point out in the literature, Since the potential function related to the learning rule of Sakaguchi et al. Is not clear, the guarantee of the convergence of learning and the property of the learning equilibrium solution cannot be generally discussed. Further, the learning speed cannot be said to be superior to MLP, and a practically sufficient learning speed cannot be obtained. In addition, since the approximation of the function is based on the step function, there is a problem that it is difficult to use it for control.

【0014】本発明は上記従来の課題を解決するもの
で、学習の収束性などを保証するポテンシャル関数が明
かであり、実用上十分な学習速度が得られ、滑らかに目
的関数を近似でき、目的関数の近似に適した構造が得ら
れる神経回路網模擬装置を実現するものである。
The present invention solves the above-mentioned conventional problems. It has a clear potential function that guarantees the convergence of learning and the like, a practically sufficient learning speed is obtained, and the objective function can be smoothly approximated. It is intended to realize a neural network simulation device that can obtain a structure suitable for function approximation.

【0015】[0015]

【課題を解決するための手段】この目的を達成するため
に本発明の神経回路網模擬装置は、入力信号空間におい
て0でない値を局所的に持つ関数(局所基底関数)を用
いて入力信号を受けて複数の局所基底関数(0でない値
を局所的に持つ関数)によりそれぞれ局所基底出力信号
を計算して出力する局所基底出力計算回路と、前記複数
の局所基底出力信号を受けてその総和をとり総局所基底
出力信号を出力する加算器と、前記各局所基底出力信号
に対して総局所基底出力信号を用いて規格化局所基底出
力信号を出力する除算器と、除算器からの規格化局所基
底出力信号を受け内部に保持した結合加重との積を局所
出力信号として出力する局所出力計算回路と、各局所基
底出力信号に対応する複数の前記局所出力信号の総和を
出力信号として出力する加算器と、教師信号と出力信号
との差分信号と規格化局所基底出力信号を受けて対応す
る局所出力計算回路の結合加重を修正する結合加重修正
回路と、入力信号と出力信号と差分信号と除算器からの
規格化局所基底出力信号を受けて対応する局所基底出力
計算回路の内部パラメータを修正する局所基底修正回路
と、出力信号と教師信号と前記加算器からの総局所基底
出力信号とを受けて局所出力計算回路の結合加重を設定
する結合加重設定回路と、入力信号と規格化局所出力信
号と局所出力計算回路の内部パラメータに基づいて局所
基底出力計算回路の内部パラメータを設定する局所基底
設定回路とからなる構成を有してしている。
In order to achieve this object, the neural network simulator of the present invention uses a function (local basis function) that locally has a non-zero value in the input signal space. A local basis output calculation circuit that receives and calculates the respective local basis output signals by using a plurality of local basis functions (functions that locally have a non-zero value), and a total sum of the received local basis output signals. An adder that outputs a total local base output signal, a divider that outputs a standardized local base output signal using the total local base output signal for each of the local base output signals, and a standardized local from the divider A local output calculation circuit that receives a base output signal and outputs a product of the combination weight internally held as a local output signal and a total sum of the plurality of local output signals corresponding to each local base output signal are output as an output signal. An adder, a combined weight correction circuit that corrects the combined weight of the corresponding local output calculation circuit by receiving the difference signal between the teacher signal and the output signal, and the normalized local basis output signal, and the input signal, the output signal, and the difference signal And a local basis correction circuit that receives the normalized local basis output signal from the divider and corrects the internal parameter of the corresponding local basis output calculation circuit, the output signal, the teacher signal, and the total local basis output signal from the adder. In response to this, a connection weight setting circuit that sets the connection weight of the local output calculation circuit, and a local that sets the internal parameter of the local basis output calculation circuit based on the input signal, the normalized local output signal, and the internal parameter of the local output calculation circuit It has a configuration including a base setting circuit.

【0016】[0016]

【作用】この構成によって、出力信号yは入力信号xと
いくつかのパラメータとを用いた初等関数の組み合わせ
で生成されており、神経回路網模擬装置の学習則に対す
るポテンシャル関数Cは
With this configuration, the output signal y is generated by the combination of the elementary function using the input signal x and some parameters, and the potential function C for the learning rule of the neural network simulator is

【0017】[0017]

【数4】 [Equation 4]

【0018】と書ける。これを用いて、学習の収束性な
どについても容易に解析できる。また、目的関数に適し
た構造を数10〜数100回程度の学習で得ることがで
きる。加えて、本発明の構成から明らかなように、一つ
の入力信号に対して通常複数個の局所出力計算回路が0
でない出力を行い、出力信号yはその総和で与えられる
ために、LVQや坂口らの神経回路網模擬装置と異なっ
て、滑らかな関数近似ができる。さらに、誤差が大きい
場合に、過去に蓄積したパラメータに込められた情報を
そのままに入力信号xの近くでのみ働く神経細胞模擬素
子を与えられた教師信号zが出力信号yとなるように新
たに活性化することによって、学習の高速化を実現する
ことができる。
Can be written as By using this, the convergence of learning can be easily analyzed. In addition, a structure suitable for the objective function can be obtained by learning about tens to hundreds of times. In addition, as is apparent from the configuration of the present invention, normally, a plurality of local output calculation circuits are zero for one input signal.
However, since the output signal y is given as the total sum, the smooth function approximation can be performed, unlike the neural network simulator of LVQ and Sakaguchi et al. Further, when the error is large, the teacher signal z provided with the nerve cell simulating element that works only near the input signal x is output as the output signal y while keeping the information stored in the parameters accumulated in the past as it is. By activating, speeding up of learning can be realized.

【0019】[0019]

【実施例】【Example】

(実施例1)以下本発明の第1の実施例について、図面
を参照しながら説明する。
(First Embodiment) A first embodiment of the present invention will be described below with reference to the drawings.

【0020】図1において、10は入力信号xを受けて
局所基底出力信号Sを計算して出力する局所基底出力計
算回路であり、11は複数の局所基底出力計算回路10
からの局所基底出力信号Sを受けてその総和をとり総局
所基底出力信号Stotal を出力する加算器であり、12
は局所基底出力計算回路10と加算器11とから局所基
底出力信号Sと総局所基底出力信号Stotal とを受けて
規格化局所基底出力信号bを出力する除算器であり、1
3は除算器12からの規格化局所基底出力信号を受け内
部に保持した結合加重vとの積を局所出力信号oとして
出力する局所出力計算回路であり、14は複数の局所出
力計算回路13からの局所出力信号oの総和を出力信号
yとして出力する加算器であり、15は教師信号zと出
力信号yとの差分信号Eと除算器12からの規格化局所
基底出力信号bを受けて対応する局所出力計算回路13
の結合加重vを修正する結合加重修正回路であり、16
は入力信号xと出力信号yと差分信号Eと除算器12か
らの規格化局所基底出力信号bを受けて対応する局所基
底出力計算回路10の内部パラメータを修正する局所基
底修正回路であり、17は出力信号yと教師信号zと差
分信号Eと総局所基底出力信号Stotalを受けて局所出
力計算回路13の結合加重を設定する結合加重設定回路
であり、18は差分信号Eと入力信号xと規格化局所基
底出力信号bと局所出力計算回路10の内部パラメータ
に基づいて局所基底出力計算回路10の内部パラメータ
を設定する局所基底設定回路である。
In FIG. 1, reference numeral 10 is a local basis output calculation circuit that receives an input signal x and calculates and outputs a local basis output signal S, and 11 is a plurality of local basis output calculation circuits 10.
Is an adder that receives the local basis output signal S from
Is a divider that receives the local basis output signal S and the total local basis output signal Stotal from the local basis output calculation circuit 10 and the adder 11, and outputs a normalized local basis output signal b, 1
Reference numeral 3 denotes a local output calculation circuit that receives a normalized local base output signal from the divider 12 and outputs a product of the combined weight v internally held as a local output signal o, and 14 represents a plurality of local output calculation circuits 13. Is an adder for outputting the total sum of the local output signals o of the output signals y as the output signal y, and 15 receives the difference signal E between the teacher signal z and the output signal y and the normalized local base output signal b from the divider 12 and responds. Local output calculation circuit 13
Is a combination weight correction circuit for correcting the combination weight v of
Is a local basis correction circuit that receives the input signal x, the output signal y, the difference signal E, and the normalized local basis output signal b from the divider 12 and corrects the internal parameter of the corresponding local basis output calculation circuit 10. Is a combination weight setting circuit that receives the output signal y, the teacher signal z, the difference signal E, and the total local base output signal Stotal, and sets the combination weight of the local output calculation circuit 13, and 18 is the difference signal E and the input signal x. It is a local basis setting circuit that sets internal parameters of the local basis output calculation circuit 10 based on the normalized local basis output signal b and the internal parameters of the local output calculation circuit 10.

【0021】以上のように構成された神経回路網模擬装
置について、その動作を説明する。なお、ここでは局所
基底出力計算回路10の性質を特徴づける局所基底関数
として、ガウス関数を用いた場合について説明する。
The operation of the neural network simulation device configured as described above will be described. Note that, here, a case will be described in which a Gaussian function is used as a local basis function that characterizes the property of the local basis output calculation circuit 10.

【0022】まず、入力信号xが局所基底出力計算回路
10に入る。i番目の局所基底出力計算回路において、
局所基底出力信号S(i)が
First, the input signal x enters the local basis output calculation circuit 10. In the i-th local basis output calculation circuit,
The local basis output signal S (i) is

【0023】[0023]

【数5】 [Equation 5]

【0024】と計算され、出力される。ここで、a(i)
は0または1の値を持つ活性パラメータであり、μ(i)
は参照ベクトルであり、σ2(i)は分散である。加算器1
1は局所基底出力計算回路10から出力されるすべての
局所基底出力信号S(i)の総和
Is calculated and output. Where a (i)
Is an activation parameter with a value of 0 or 1 and μ (i)
Is the reference vector and σ 2 (i) is the variance. Adder 1
1 is the sum of all the local basis output signals S (i) output from the local basis output calculation circuit 10.

【0025】[0025]

【数6】 [Equation 6]

【0026】を計算して総局所基底出力信号Stotalを
出力する。i番目の除算器12はi番目の局所基底出力
計算回路10と加算器11から局所基底出力信号S(i)
と総局所基底出力信号Stotalを受けて、規格化局所基
底出力信号b(i)を
Is calculated to output the total local basis output signal Stotal. The i-th divider 12 receives the local basis output signal S (i) from the i-th local basis output calculation circuit 10 and the adder 11.
And the total local basis output signal Stotal, the normalized local basis output signal b (i)

【0027】[0027]

【数7】 [Equation 7]

【0028】と計算し出力する。i番目の局所出力計算
回路13は、除算器12からの規格化局所基底出力信号
b(i)と内部に保持した結合加重v(i)とから、局所出力
信号o(i)を次式のように計算し、出力する。
Is calculated and output. The i-th local output calculation circuit 13 calculates the local output signal o (i) from the normalized local basis output signal b (i) from the divider 12 and the joint weight v (i) held therein by the following equation. To calculate and output.

【0029】[0029]

【数8】 [Equation 8]

【0030】加算器14は、局所出力計算回路13から
の局所出力信号oを受けて、出力信号yを次式のように
計算し、出力する。
The adder 14 receives the local output signal o from the local output calculation circuit 13, calculates the output signal y according to the following equation, and outputs it.

【0031】[0031]

【数9】 [Equation 9]

【0032】次に学習の動作について説明する。入力信
号xに対して教師信号zが与えられると、まず、入力信
号xから計算された出力信号yと教師信号zとの差分が
とられ、差分信号Eが生成される。差分信号Eは結合加
重修正回路15と局所基底修正回路16と結合加重設定
回路17と局所基底設定回路18に入力される。
Next, the learning operation will be described. When the teacher signal z is given to the input signal x, first, the difference between the output signal y calculated from the input signal x and the teacher signal z is calculated, and the difference signal E is generated. The difference signal E is input to the combined weight correction circuit 15, the local basis correction circuit 16, the combined weight setting circuit 17, and the local basis setting circuit 18.

【0033】差分信号Eの絶対値が閾値θE より小さい
か、または値が1である活性パラメータの数Naが局所
基底出力計算回路10の数Nに等しい場合には、結合加
重修正回路15と局所基底修正回路16は以下のように
動作する。
When the absolute value of the difference signal E is smaller than the threshold value θ E or the number Na of active parameters whose value is 1 is equal to the number N of the local basis output calculation circuit 10, the combination weight correction circuit 15 and the local weight correction circuit 15 are used. The base correction circuit 16 operates as follows.

【0034】i番目(i=1〜Na)の結合加重修正回
路15は、また教師信号zとi番目の除算器から規格化
局所基底出力信号b(i) を受け、i番目の局所出力計算
回路13の結合加重v(i)を次のように修正する。
The i-th (i = 1 to Na) joint weight correction circuit 15 also receives the teacher signal z and the normalized local basis output signal b (i) from the i-th divider, and calculates the i-th local output. The connection weight v (i) of the circuit 13 is modified as follows.

【0035】[0035]

【数10】 [Equation 10]

【0036】一方、i番目の局所基底修正回路16は、
また入力信号xとi番目の除算器から規格化局所基底出
力信号b(i) と出力信号yとを受け、局所基底出力計算
回路13から結合加重v(i)を読みだしi番目の局所基
底出力計算回路10の内部パラメータを次のように修正
する。
On the other hand, the i-th local basis correction circuit 16 is
The input signal x and the normalized local basis output signal b (i) and the output signal y are received from the i-th divider, the combined weight v (i) is read from the local basis output calculation circuit 13, and the i-th local basis is read. The internal parameters of the output calculation circuit 10 are modified as follows.

【0037】[0037]

【数11】 [Equation 11]

【0038】次に、差分信号Eの絶対値が閾値θE より
大きく、かつ値が1である活性パラメータの数Naが局
所基底出力計算回路10の数Nより小さい場合には、結
合加重修正回路15と局所基底修正回路16は何もしな
い。
Next, when the absolute value of the difference signal E is larger than the threshold value θ E and the number Na of active parameters whose value is 1 is smaller than the number N of the local basis output calculation circuit 10, the joint weight correction circuit 15 The local basis correction circuit 16 does nothing.

【0039】結合加重設定回路17と局所基底設定回路
18は、差分信号Eの絶対値が閾値θEより小さいか、
または値が1である活性パラメータの数Naが局所基底
出力計算回路10の数Nに等しい場合には、何もしな
い。
In the combination weight setting circuit 17 and the local basis setting circuit 18, whether the absolute value of the difference signal E is smaller than the threshold value θE,
Alternatively, when the number Na of activation parameters whose value is 1 is equal to the number N of local basis output calculation circuits 10, nothing is done.

【0040】次に、差分信号Eの絶対値が閾値θE より
大きく、かつ値が1である活性パラメータの数Naが局
所基底出力計算回路10の数Nより小さい場合には、結
合加重設定回路17と局所基底設定回路18は、以下の
ように動作する。
Next, when the absolute value of the difference signal E is larger than the threshold value θE and the number Na of active parameters whose value is 1 is smaller than the number N of the local basis output calculation circuits 10, the combination weight setting circuit 17 The local base setting circuit 18 operates as follows.

【0041】結合加重設定回路17は、Na+1番目の
局所出力計算回路13の結合加重v(Na+1)を次のように
設定する。
The joint weight setting circuit 17 sets the joint weight v (Na + 1) of the Na + 1-th local output calculation circuit 13 as follows.

【0042】[0042]

【数12】 [Equation 12]

【0043】一方、局所基底設定回路18は、また入力
信号xと除算器から規格化局所基底出力信号bを受け、
局所基底出力計算回路10のパラメータを読みだし、N
a+1番目の局所基底出力計算回路10の内部パラメー
タを次のように設定する。
On the other hand, the local basis setting circuit 18 also receives the input signal x and the normalized local basis output signal b from the divider,
The parameters of the local basis output calculation circuit 10 are read out and N
The internal parameters of the (a + 1) th local basis output calculation circuit 10 are set as follows.

【0044】[0044]

【数13】 [Equation 13]

【0045】c2は正の値をもつパラメータである。た
だし、Naが0の初期状態については、 σ(Na+1)=σ0 と固定値σ0を与えるものとする。
C2 is a parameter having a positive value. However, in the initial state where Na is 0, σ (Na + 1) = σ0 and a fixed value σ0 are given.

【0046】なお、c2 の値は、0.1から1.0程度の
値を設定すると良いが、このパラメータにはかなりの任
意性があり、この範囲に限る必要はない。また、初期の
設定については、最初の2つのデータ(x1,z1)、
(x2,z2)から、
The value of c2 is preferably set to a value of about 0.1 to 1.0, but this parameter has considerable arbitrariness and is not limited to this range. Regarding the initial settings, the first two data (x1, z1),
From (x2, z2),

【0047】[0047]

【数14】 [Equation 14]

【0048】とする方法などを用いてもよい。本実施例
による神経回路網模擬装置によれば、本実施例による出
力信号yが入力信号xといくつかのパラメータとを用い
た初等関数の組み合わせで生成されており、ポテンシャ
ル関数Cは
The above method may be used. According to the neural network simulator of this embodiment, the output signal y according to this embodiment is generated by the combination of the elementary functions using the input signal x and some parameters, and the potential function C is

【0049】[0049]

【数15】 [Equation 15]

【0050】と書ける。これを用いて、学習の収束性な
どについても容易に解析できる。また、図2に示したよ
うに目的関数に適した構造を数10〜数100回程度の
学習で得ることができる。本実施例によれば、参照ベク
トルは目的関数の1階微分が大きい領域に多く分布す
る。加えて、本発明の構成から明らかなように、一つの
入力信号xに対して通常複数個の神経細胞模擬素子が0
でない出力を行い、出力信号yはその総和で与えられる
ために、LVQや坂口らの神経回路網模擬装置と異なっ
て、滑らかな関数近似ができる。さらに、誤差が大きい
場合に、過去に蓄積したパラメータに込められた情報を
そのままに入力信号xの近くでのみ働く新しく神経細胞
模擬素子を与えられた教師信号zが出力信号yとなるよ
うに活性化することによって、学習の高速化が実現され
る。
Can be written as By using this, the convergence of learning can be easily analyzed. Further, as shown in FIG. 2, a structure suitable for the objective function can be obtained by learning several tens to several hundreds. According to this embodiment, the reference vector is distributed in a large area in which the first derivative of the objective function is large. In addition, as is apparent from the configuration of the present invention, normally, a plurality of nerve cell simulating elements are set to 0 for one input signal x.
However, since the output signal y is given as the total sum, the smooth function approximation can be performed, unlike the neural network simulator of LVQ and Sakaguchi et al. Further, when the error is large, the teacher signal z given a new neuron-mimicking element that works only near the input signal x without changing the information stored in the parameters accumulated in the past is used as the output signal y. The speeding up of learning is realized by this.

【0051】なお、ここでは基底関数としてガウス関数
を用いたが、この関数は0でない値を局所的に持つ関数
であれば、神経生理学の分野などでよく知られているD
OG関数、ガボール関数や量子力学における調和振動子
波動関数として知られているエルミート多項式にガウス
関数をかけた関数や、ウエーブレット変換の基底関数な
どを用いることができる。こうした関数を用いた場合で
あっても、本発明においては学習則についてのポテンシ
ャル関数が与えられているから、関数のパラメータに関
する微分をとることによって、容易にパラメータの修正
量を計算できる。これは、以下の実施例においても同様
であるので、以下の実施例においては、繰り返さない。
Although a Gaussian function is used as the basis function here, D is well known in the field of neurophysiology as long as this function has a non-zero value locally.
A function obtained by multiplying a Hermitian polynomial known as an OG function, a Gabor function, or a harmonic oscillator wave function in quantum mechanics by a Gaussian function, a wavelet transform basis function, or the like can be used. Even when such a function is used, in the present invention, since the potential function for the learning rule is given, the parameter correction amount can be easily calculated by taking the derivative with respect to the function parameter. This is the same in the following embodiments, and will not be repeated in the following embodiments.

【0052】(実施例2)以下本発明の第2の実施例に
ついて、図面を参照しながら説明する。
(Second Embodiment) A second embodiment of the present invention will be described below with reference to the drawings.

【0053】図3は、実施例1と同等の機能を持った神
経回路網模擬装置のもう一つの構成である。実施例1で
触れたように、本発明の神経回路網模擬装置の出力信号
yは初等関数の組み合わせで表現される。したがって、
演算の順序の変更については、いくらかの自由度が残さ
れる。本実施例は、それを示すものである。
FIG. 3 shows another configuration of the neural network simulation device having the same function as that of the first embodiment. As mentioned in the first embodiment, the output signal y of the neural network simulator of the present invention is expressed by a combination of elementary functions. Therefore,
Some freedom remains with respect to changing the order of operations. This embodiment shows this.

【0054】図3において、10は入力信号xを受けて
局所基底出力信号Sを計算して出力する局所基底出力計
算回路であり、11は複数の局所基底出力計算回路10
からの局所基底出力信号Sを受けてその総和をとり総局
所基底出力信号Stotal を出力する加算器であり、13
は局所基底出力計算回路11からの規格化局所基底出力
信号を受け内部に保持した結合加重vとの積を局所出力
信号oとして出力する局所出力計算回路であり、14は
複数の局所出力計算回路13からの局所出力信号oの総
和を非規格化出力信号nyとして出力する加算器であ
り、12は加算器14と加算器11とから非規格化出力
信号nyと総局所基底出力信号Stotal とを受けて出力
信号yを出力する除算器であり、19は局所基底出力計
算回路10と加算器11とから局所基底出力信号Sと総
局所基底出力信号Stotal を受けて、規格化局所基底出
力信号bを出力する除算器であり、15は教師信号zと
出力信号yとの差分信号Eと除算器19からの規格化局
所基底出力信号bを受けて対応する局所出力計算回路1
3の結合加重vを修正する結合加重修正回路であり、1
6は入力信号xと出力信号yと差分信号Eと除算器19
からの規格化局所基底出力信号bを受けて対応する局所
基底出力計算回路10の内部パラメータを修正する局所
基底修正回路であり、17は教師信号zを受けて局所出
力計算回路13の結合加重を設定する結合加重設定回路
であり、18は入力信号xと規格化局所基底出力信号b
と局所出力計算回路10の内部パラメータに基づいて局
所基底出力計算回路10の内部パラメータを設定する局
所基底設定回路である。
In FIG. 3, reference numeral 10 is a local basis output calculation circuit that receives the input signal x and calculates and outputs the local basis output signal S, and 11 is a plurality of local basis output calculation circuits 10.
Is an adder that receives the local basis output signal S from
Is a local output calculation circuit that receives the normalized local base output signal from the local base output calculation circuit 11 and outputs the product of the internally weighted combined weight v as a local output signal o, and 14 is a plurality of local output calculation circuits. Reference numeral 12 denotes an adder that outputs the total sum of the local output signals o from 13 as a non-standardized output signal ny, and 12 represents the non-standardized output signal ny and the total local base output signal Stotal from the adder 14 and the adder 11. A reference numeral 19 denotes a divider which receives and outputs the output signal y, and 19 receives the local basis output signal S and the total local basis output signal Stotal from the local basis output calculation circuit 10 and the adder 11, and outputs the normalized local basis output signal b. Is a divider for outputting the difference signal E between the teacher signal z and the output signal y and the normalized local basis output signal b from the divider 19 and corresponding local output calculation circuit 1
A combination weight correction circuit for correcting the combination weight v of 3
6 is an input signal x, an output signal y, a difference signal E, and a divider 19
Is a local basis correction circuit that corrects the internal parameters of the corresponding local basis output calculation circuit 10 by receiving the standardized local basis output signal b from Reference numeral 18 denotes a combination weight setting circuit for setting, which is an input signal x and a normalized local basis output signal b.
And a local basis setting circuit for setting internal parameters of the local basis output calculating circuit 10 based on the internal parameters of the local output calculating circuit 10.

【0055】以上のように構成された神経回路網模擬装
置について、その動作を説明する。なお、ここでは局所
基底出力計算回路10の性質を特徴づける局所基底関数
として、ガウス関数を用いた場合について説明する。
The operation of the neural network simulation device constructed as described above will be described. Note that, here, a case will be described in which a Gaussian function is used as a local basis function that characterizes the property of the local basis output calculation circuit 10.

【0056】まず、入力信号xが局所基底出力計算回路
10に入る。i番目の局所基底出力計算回路において、
局所基底出力信号S(i)が次のように計算され、出力さ
れる。
First, the input signal x enters the local basis output calculation circuit 10. In the i-th local basis output calculation circuit,
The local basis output signal S (i) is calculated and output as follows.

【0057】[0057]

【数16】 [Equation 16]

【0058】ここで、a(i)は0または1の値を持つ活
性パラメータであり、μ(i)は参照ベクトルであり、σ2
(i)は分散である。加算器11は局所基底出力計算回路
10から出力されるすべての局所基底出力信号Sの総和
を次式のように計算して総局所基底出力信号Stotal を
出力する。
Here, a (i) is an activation parameter having a value of 0 or 1, μ (i) is a reference vector, and σ 2
(i) is the variance. The adder 11 calculates the total sum of all the local basis output signals S output from the local basis output calculation circuit 10 according to the following equation and outputs a total local basis output signal Stotal.

【0059】[0059]

【数17】 [Equation 17]

【0060】i番目の局所出力計算回路13は、除算器
12からの規格化局所基底出力信号b(i)と内部に保持
した結合加重v(i)とから、局所出力信号o(i)を次式の
ように計算し、出力する。
The i-th local output calculation circuit 13 calculates the local output signal o (i) from the normalized local base output signal b (i) from the divider 12 and the joint weight v (i) held inside. Calculate and output as the following formula.

【0061】[0061]

【数18】 [Equation 18]

【0062】加算器14は、局所出力計算回路13から
の局所出力信号oを受けて、非規格化出力信号nyを次
式のように計算し、出力する。
The adder 14 receives the local output signal o from the local output calculation circuit 13, calculates the non-standardized output signal ny according to the following equation, and outputs it.

【0063】[0063]

【数19】 [Formula 19]

【0064】除算器12は加算器14と加算器11とか
ら非規格化出力信号nyと総局所基底出力信号Stotal
を受けて、出力信号yを次式のように計算し、出力す
る。
The divider 12 includes the denormalized output signal ny and the total local base output signal Stotal from the adder 14 and the adder 11.
In response, the output signal y is calculated according to the following equation and output.

【0065】[0065]

【数20】 [Equation 20]

【0066】次に学習の動作について説明する。入力信
号xに対して教師信号zが与えられると、まず、入力信
号xから計算された出力信号yと教師信号zとの差分が
とられ、差分信号Eが生成される。差分信号Eは結合加
重修正回路15と局所基底修正回路16と結合加重設定
回路17と局所基底設定回路18に入力される。除算器
19は、加算器14と局所基底出力回路10から総局所
基底出力信号Stotalと局所基底出力信号Sとを受け
て、規格化局所信号bを出力する。以下の動作は、実施
例1と同様なので、説明を省略する。効果等についても
同様である。
Next, the learning operation will be described. When the teacher signal z is given to the input signal x, first, the difference between the output signal y calculated from the input signal x and the teacher signal z is calculated, and the difference signal E is generated. The difference signal E is input to the combined weight correction circuit 15, the local basis correction circuit 16, the combined weight setting circuit 17, and the local basis setting circuit 18. The divider 19 receives the total local basis output signal Stotal and the local basis output signal S from the adder 14 and the local basis output circuit 10, and outputs the normalized local signal b. The following operation is the same as that of the first embodiment, and thus the description is omitted. The same applies to the effects and the like.

【0067】(実施例3)以下本発明の第3の実施例に
ついて図面を参照しながら説明する。本実施例の構成の
説明に先だって、本実施例と実施例1、2との違いにつ
いて説明する。
(Third Embodiment) A third embodiment of the present invention will be described below with reference to the drawings. Prior to the description of the configuration of this embodiment, the difference between this embodiment and Embodiments 1 and 2 will be described.

【0068】実施例1、2においては、局所出力計算回
路13の働きは、規格化局所基底出力信号bまたは局所
出力信号Sに入力信号xに依存しない結合加重vをかけ
るものであった。本実施例では、これをxに依存する項
を含むように拡張する。すなわち、局所出力信号o(i)
In the first and second embodiments, the function of the local output calculation circuit 13 is to multiply the standardized local base output signal b or the local output signal S by the coupling weight v which does not depend on the input signal x. In this embodiment, this is expanded to include a term depending on x. That is, the local output signal o (i)
To

【0069】[0069]

【数21】 [Equation 21]

【0070】と拡張するものである。この拡張に伴っ
て、大きく機能変更が必要な構成要素は加重結合設定回
路17だけである。これにかんがみ、本実施例の構成を
示すブロック図である図4においては、煩雑を避けるた
めにその他の構成要素は30にまとめて表現している。
It is extended with Along with this expansion, the weighted coupling setting circuit 17 is the only component that requires a major function change. In view of this, in FIG. 4, which is a block diagram showing the configuration of the present embodiment, other components are collectively represented by 30 in order to avoid complication.

【0071】図4において、30は入力信号xを受け出
力信号yと規格化局所基底出力信号bを出力する結合加
重設定回路17を除く本発明の神経回路網模擬装置の全
てを含むブロックであり、20は差分信号Eに基づいて
結合加重設定を制御する結合加重設定制御部であり、2
1はブロック30から参照ベクトルμを読みだして入力
信号として入力線に出力する参照ベクトル信号発生部で
あり、22は入力信号x(またはμ)と規格化局所基底
出力信号bと教師信号zと出力信号yを記憶する信号記
憶部であり、23は信号記憶部23から必要に応じてデ
ータを読みだして結合加重を計算し設定する結合加重設
定部である。
In FIG. 4, reference numeral 30 is a block including all of the neural network simulating apparatus of the present invention except the connection weight setting circuit 17 which receives the input signal x and outputs the output signal y and the normalized local basis output signal b. , 20 is a combination weight setting control unit for controlling the combination weight setting based on the difference signal E.
Reference numeral 1 is a reference vector signal generator that reads the reference vector μ from the block 30 and outputs it as an input signal to an input line, and 22 is an input signal x (or μ), a normalized local basis output signal b, and a teacher signal z. A signal storage unit that stores the output signal y, and 23 is a combination weight setting unit that reads out data from the signal storage unit 23 as necessary to calculate and set a connection weight.

【0072】以上のように構成された神経回路網模擬装
置について、その動作を説明する。入力信号xが入力さ
れると、実施例1、または2とp同様に信号処理が行わ
れ、出力信号yが出力される。ただし、i番目(i=1
〜Na)の局所出力計算回路13では、局所出力信号o
(i)が次のように計算される。
The operation of the neural network simulating device configured as described above will be described. When the input signal x is input, signal processing is performed as in the case of the first or second embodiment, and the output signal y is output. However, i-th (i = 1
~ Na) in the local output calculation circuit 13, the local output signal o
(i) is calculated as follows.

【0073】[0073]

【数22】 [Equation 22]

【0074】と局所出力信号o(i)が計算される。出力
信号yと教師信号zとの差分信号Eが計算され、結合加
重設定回路17の結合加重設定制御部20に送られる。
結合加重設定制御部20は、差分信号Eの絶対値が閾値
θE より大きくかつ値が1である活性パラメータの数N
aが局所基底出力計算回路10の数Nに等しい場合に、
結合加重設定制御信号CをONにして参照ベクトル信号
発生部21に送る。参照ベクトル信号発生部21は、結
合加重設定制御信号CがONの場合、ブロック30から
活性パラメータaが1である局所基底出力計算回路10
から参照ベクトルμを一つづつ読みだして入力信号とし
て入力線に送り、すべての参照ベクトルについての処理
が終了すると信号発生終了信号を結合加重設定部23に
送る。ブロック30は出力信号y(μ)と規格化出力信号
b(i,μ)を出力する。信号記憶回路22は結合加重設
定制御信号CがONの場合、入力信号x(またはμ)と
出力信号y(またはy(μ))と規格化局所基底出力信号
b(i,μ)と総局所出力信号Stotal(またはStotal
(μ))教師信号zを追記的に記憶する。
And the local output signal o (i) is calculated. A difference signal E between the output signal y and the teacher signal z is calculated and sent to the combination weight setting control unit 20 of the combination weight setting circuit 17.
The connection weight setting control unit 20 determines the number N of active parameters whose absolute value of the difference signal E is larger than the threshold value θE and whose value is 1.
When a is equal to the number N of local basis output calculation circuits 10,
The connection weight setting control signal C is turned on and sent to the reference vector signal generator 21. The reference vector signal generator 21 determines from the block 30 that the activation parameter a is 1 when the connection weight setting control signal C is ON.
The reference vector μ is read one by one and sent as an input signal to the input line, and when the processing for all reference vectors is completed, a signal generation end signal is sent to the combination weight setting unit 23. The block 30 outputs the output signal y (μ) and the standardized output signal b (i, μ). When the coupling weight setting control signal C is ON, the signal storage circuit 22 receives the input signal x (or μ), the output signal y (or y (μ)), the normalized local basis output signal b (i, μ), and the total local. Output signal Stotal (or Stotal
(μ)) The teacher signal z is additionally recorded.

【0075】結合加重設定部23は、参照ベクトル信号
発生部21から信号発生終了信号を受けると、信号記憶
部22に記憶された信号、x,y,z,μ,y(μ),S
total,Stotal(μ),b(i,μ)からNa+1番目の局
所出力計算回路13の結合加重を次のように計算する。
ここでは、入力信号が2次元の場合について説明を行う
が、これは入力の次元が幾つであっても同様に計算する
ことができる。結合加重設定部23は、Na+1番目の
局所出力計算回路13の結合加重v(Na+1)とw(Na+1)を
Upon receiving the signal generation end signal from the reference vector signal generation unit 21, the connection weight setting unit 23 receives the signals stored in the signal storage unit 22, x, y, z, μ, y (μ), S.
The combined weight of the Na + 1-th local output calculation circuit 13 is calculated from total, Stotal (μ), b (i, μ) as follows.
Although the case where the input signal is two-dimensional is described here, this can be similarly calculated regardless of the number of input dimensions. The connection weight setting unit 23 calculates the connection weights v (Na + 1) and w (Na + 1) of the Na + 1th local output calculation circuit 13.

【0076】[0076]

【数23】 [Equation 23]

【0077】と設定する。最後に信号記憶部22をリセ
ットする。局所基底設定回路18の動作は、実施例1、
2と同様である。
Set as follows. Finally, the signal storage unit 22 is reset. The operation of the local base setting circuit 18 is as described in the first embodiment.
Same as 2.

【0078】差分信号Eの絶対値が閾値θE より大きく
かつ値が1である活性パラメータの数Naが局所基底出
力計算回路10の数Nに等しい場合に、結合加重設定制
御部20は、結合加重設定制御信号CをOFFにして参
照ベクトル信号発生部21と信号記憶部22に送る。参
照ベクトル信号発生部21は、結合加重設定制御信号C
がOFFの場合、何もしない。信号記憶部22は結合加
重設定制御信号CがOFFの場合、記憶内容をリセット
する。
When the number Na of active parameters whose absolute value of the difference signal E is larger than the threshold value θ E and whose value is 1 is equal to the number N of the local basis output calculation circuits 10, the connection weight setting controller 20 determines the connection weight. The setting control signal C is turned off and sent to the reference vector signal generation unit 21 and the signal storage unit 22. The reference vector signal generator 21 receives the combined weight setting control signal C.
If is OFF, do nothing. The signal storage unit 22 resets the stored contents when the connection weight setting control signal C is OFF.

【0079】差分信号Eの絶対値が閾値θE より小さい
かまたは値が1である活性パラメータの数Naが局所基
底出力計算回路10の数Nに等しい場合には、結合加重
修正回路15が結合加重v(i)とw(i)を
When the absolute value of the difference signal E is smaller than the threshold value θ E or the number Na of active parameters whose value is 1 is equal to the number N of the local basis output calculation circuit 10, the connection weight correction circuit 15 outputs the connection weight. v (i) and w (i)

【0080】[0080]

【数24】 [Equation 24]

【0081】と修正する。その他の動作は実施例1、2
と同様である。本実施例による神経回路網模擬装置によ
れば、本実施例による出力信号yが入力信号xといくつ
かのパラメータとを用いた初等関数の組み合わせで生成
されており、ポテンシャル関数Cは同様に
Modify as follows. Other operations are the same as those in the first and second embodiments.
Is the same as. According to the neural network simulation apparatus of the present embodiment, the output signal y of the present embodiment is generated by the combination of the elementary function using the input signal x and some parameters, and the potential function C is also the same.

【0082】[0082]

【数25】 [Equation 25]

【0083】と書ける。これを用いて、学習の収束性な
どについても容易に解析できる。また、目的関数に適し
た構造を数10〜数100回程度の学習で得ることがで
きる。特に本実施例によれば、参照ベクトルは目的関数
の2階微分の値が大きい領域に多く分布する。加えて、
本発明の構成から明らかなように、一つの入力信号xに
対して通常複数個の神経細胞模擬素子が0でない出力を
行い、出力信号yはその総和で与えられるために、LV
Qや坂口らの神経回路網模擬装置と異なって、滑らかな
関数近似ができる。さらに、誤差が大きい場合に、過去
に蓄積したパラメータに込められた情報をそのままに入
力信号xの近くでのみ働く新しく神経細胞模擬素子を与
えられた教師信号zが出力信号yとなるように活性化す
ることによって、学習の高速化が実現される。
Can be written as By using this, the convergence of learning can be easily analyzed. In addition, a structure suitable for the objective function can be obtained by learning about tens to hundreds of times. In particular, according to this embodiment, the reference vector is distributed in a large area in which the value of the second derivative of the objective function is large. in addition,
As is apparent from the configuration of the present invention, a plurality of nerve cell simulating elements normally output a non-zero value for one input signal x, and the output signal y is given by the sum thereof, so that the LV
Unlike Q and Sakaguchi's neural network simulator, smooth function approximation is possible. Further, when the error is large, the teacher signal z given a new neuron-mimicking element that works only near the input signal x without changing the information stored in the parameters accumulated in the past is used as the output signal y. The speeding up of learning is realized by this.

【0084】なお、結合加重を入力信号の1次に限るこ
となく、2次、3次へと拡張することは、原理的に容易
である。また、結合加重をフーリエ級数など適当な直交
関数を用いることも原理的に可能である。
In principle, it is easy to extend the coupling weight to not only the first order of the input signal but also the second order and the third order. It is also possible in principle to use an appropriate orthogonal function such as a Fourier series for the connection weight.

【0085】(実施例4)上記実施例においては、各局
所基底修正回路16、各結合加重修正回路15、各局所
基底設定回路18、各結合加重設定回路17が、独立に
学習の処理の判定を行っていた。この方法は、装置のロ
バスト性を考えれば有効であるが、回路規模が大きくな
るという面を持っている。本実施例では、回路規模の縮
小を実現するために、学習方法をひとまとめに制御する
学習方法切り替え回路を設けた場合について説明する。
(Embodiment 4) In the above embodiment, each local basis correction circuit 16, each joint weight correction circuit 15, each local base setting circuit 18, and each joint weight setting circuit 17 independently determine the learning process. Was going on. This method is effective considering the robustness of the device, but has the aspect of increasing the circuit scale. In the present embodiment, a case will be described in which a learning method switching circuit for collectively controlling the learning methods is provided in order to realize the reduction of the circuit scale.

【0086】以下本発明の第4の実施例について、図面
を参照しながら説明する。図5において、10は前記局
所基底出力計算回路であり、11は前記加算器であり、
12は前記除算器であり、13は前記局所出力計算回路
であり、14は前記加算器であり、44は教師信号と出
力信号の差分をとって得られる差分信号と局所基底出力
計算回路の内部パラメータから学習方法を切り替える学
習法切り替え回路であり、46は入力信号と出力信号と
前記除算器からの規格化局所基底出力信号と学習法切り
替え回路からの修正差分信号を受けて局所基底出力計算
回路10と局所出力計算回路13から内部パラメータを
読みだし局所基底出力回路10の内部パラメータを修正
する簡易局所基底修正回路であり、45は前記除算器か
らの規格化局所基底出力信号と学習法切り替え回路から
の修正差分信号を受けて局所出力計算回路13の内部パ
ラメータを読みだし局所出力計算回路13の内部パラメ
ータを修正する簡易結合加重修正回路であり、48は入
力信号と前記除算器12からの規格化局所基底出力と学
習法切り替え回路44からの設定信号を受けて局所基底
出力計算回路10の内部パラメータを読みだし局所基底
出力計算回路10の内部パラメータを設定する簡易局所
基底設定回路であり、47は前記加算器11からの総局
所基底出力信号と出力信号と教師信号と学習法切り替え
回路44からの設定信号を受けて局所出力計算回路13
の内部パラメータを設定する簡易結合加重設定回路であ
る。
The fourth embodiment of the present invention will be described below with reference to the drawings. In FIG. 5, 10 is the local basis output calculation circuit, 11 is the adder,
12 is the divider, 13 is the local output calculation circuit, 14 is the adder, 44 is the difference signal obtained by taking the difference between the teacher signal and the output signal, and the internal of the local basis output calculation circuit Reference numeral 46 is a learning method switching circuit for switching the learning method from parameters, and 46 is a local basis output calculation circuit that receives an input signal, an output signal, a normalized local basis output signal from the divider, and a modified difference signal from the learning method switching circuit. 10 is a simple local basis correction circuit that reads internal parameters from the local output calculation circuit 13 and the internal parameters of the local basis output circuit 10, and 45 is a normalized local basis output signal from the divider and a learning method switching circuit. The internal parameter of the local output calculation circuit 13 is read in response to the modified difference signal from and the internal parameter of the local output calculation circuit 13 is modified. Reference numeral 48 denotes a joint weight correction circuit, which receives an input signal, a standardized local basis output from the divider 12 and a setting signal from the learning method switching circuit 44, reads internal parameters of the local basis output calculation circuit 10, and outputs a local basis. Reference numeral 47 is a simple local basis setting circuit for setting internal parameters of the output calculation circuit 10, and 47 receives a total local basis output signal from the adder 11, an output signal, a teacher signal, and a setting signal from the learning method switching circuit 44. Local output calculation circuit 13
It is a simple coupling weight setting circuit for setting internal parameters of.

【0087】以上のように構成された神経回路網模擬装
置について、その動作を説明する。なお、ここでは局所
基底出力計算回路10の性質を特徴づける局所基底関数
として、ガウス関数を用いた場合について説明する。
The operation of the neural network simulation device configured as described above will be described. Note that, here, a case will be described in which a Gaussian function is used as a local basis function that characterizes the property of the local basis output calculation circuit 10.

【0088】まず、入力信号xが局所基底出力計算回路
10に入る。i番目の局所基底出力計算回路において、
局所基底出力信号S(i)が(数5)と計算され、出力さ
れる。ここで、a(i)は0または1の値を持つ活性パラ
メータであり、μ(i)は参照ベクトルであり、σ2(i)は
分散である。加算器11は局所基底出力計算回路10か
ら出力されるすべての局所基底出力信号Sの総和(数
6)を計算して総局所基底出力信号Stotalを出力す
る。i番目の除算器12はi番目の局所基底出力計算回
路10と加算器11から局基底出力信号S(i)と総局所
基底出力信号Stotalを受けて、規格化局所基底出力信
号b(i)を(数7)と計算し出力する。i番目の局所出
力計算回路13は、除算器12からの規格化局所基底出
力信号b(i)と内部に保持した結合加重v(i)とから、局
所出力信号o(i)を(数8)のように計算し、出力す
る。加算器14は、局所出力計算回路13からの局所出
力信号oを受けて、出力信号yを(数9)のように計算
し、出力する。
First, the input signal x enters the local basis output calculation circuit 10. In the i-th local basis output calculation circuit,
The local basis output signal S (i) is calculated as (Equation 5) and is output. Where a (i) is the activation parameter with a value of 0 or 1, μ (i) is the reference vector and σ 2 (i) is the variance. The adder 11 calculates the total sum (Equation 6) of all the local basis output signals S output from the local basis output calculation circuit 10 and outputs the total local basis output signal Stotal. The i-th divider 12 receives the local base output signal S (i) and the total local base output signal Stotal from the i-th local base output calculation circuit 10 and the adder 11, and outputs the normalized local base output signal b (i). Is calculated and output. The i-th local output calculation circuit 13 calculates the local output signal o (i) from the normalized local basis output signal b (i) from the divider 12 and the internally-stored combination weight v (i) (Equation 8). ) Is calculated and output. The adder 14 receives the local output signal o from the local output calculation circuit 13, calculates the output signal y as in (Equation 9), and outputs it.

【0089】次に学習の動作について説明する。入力信
号xに対して教師信号zが与えられると、まず、上記の
動作によって得られる入力信号xに対応する出力信号y
と教師信号zとの差分がとられ、差分信号Eが生成され
る。差分信号Eは、学習方法切り替え回路44に入力さ
れる。学習方法切り替え回路44は、差分信号Eを受け
ると、局所基底計算回路10の内部パラメータを読みだ
す。学習方法切り替え回路44は、読みだしたパラメー
タから活性状態にある局所基底出力計算回路の数Nαを
計算し、 |E|<θE、または、Nα=(局所基底出力計算回路
の総数)のとき、 修正差分信号 E1=E 設定制御信号 E2=NO |E|≧θE、かつ、 Nα<(局所基底出力計算回路
の総数)のとき、 修正差分信号 E1=0 設定制御信号 E2=Nα+1 を出力する。
Next, the learning operation will be described. When the teacher signal z is given to the input signal x, first, the output signal y corresponding to the input signal x obtained by the above operation is output.
And the teacher signal z, the difference signal E is generated. The difference signal E is input to the learning method switching circuit 44. Upon receiving the difference signal E, the learning method switching circuit 44 reads out the internal parameter of the local basis calculation circuit 10. The learning method switching circuit 44 calculates the number Nα of local basis output calculation circuits in the active state from the read parameters, and when | E | <θE or Nα = (total number of local basis output calculation circuits), Modified difference signal E1 = E setting control signal E2 = NO | E | ≧ θE, and when Nα <(total number of local basis output calculation circuits), modified difference signal E1 = 0 setting control signal E2 = Nα + 1 is output.

【0090】簡易結合加重修正回路45と簡易局所基底
修正回路46は以下のように動作する。
The simple combined weight correction circuit 45 and the simple local basis correction circuit 46 operate as follows.

【0091】i番目(i=1〜Na)の簡易結合加重修
正回路45は、また教師信号zとi番目の除算器12か
ら規格化局所基底出力信号b(i) を受け、i番目の局所
出力計算回路13の結合加重v(i)を次のように修正す
る。
The i-th (i = 1 to Na) simple coupling weight correction circuit 45 also receives the teacher signal z and the normalized local basis output signal b (i) from the i-th divider 12, and receives the i-th local The connection weight v (i) of the output calculation circuit 13 is modified as follows.

【0092】[0092]

【数26】 [Equation 26]

【0093】i番目の簡易局所基底修正回路16は、ま
た入力信号xと、i番目の除算器12から規格化局所基
底出力信号b(i) と、出力信号yとを受け、i番目の局
所出力計算回路13の結合加重v(i)を読みだし、i番
目の局所基底出力計算回路10の内部パラメータを次の
ように修正する。
The i-th simple local basis correction circuit 16 also receives the input signal x, the normalized local basis output signal b (i) and the output signal y from the i-th divider 12, and receives the i-th local The connection weight v (i) of the output calculation circuit 13 is read out, and the internal parameters of the i-th local basis output calculation circuit 10 are modified as follows.

【0094】[0094]

【数27】 [Equation 27]

【0095】以上のパラメータの修正が終わると、簡易
局所基底修正回路46、簡易結合加重修正回路45は、
修正終了信号を返す。
After the above parameters have been corrected, the simple local basis correction circuit 46 and the simple combination weighting correction circuit 45
Returns the modification end signal.

【0096】一方、簡易結合加重設定回路47と簡易局
所基底設定回路48は、設定制御信号がNOの場合に
は、何もしない。設定制御信号が(Nα+1)の場合に
は、以下のように動作する。
On the other hand, the simple combination weight setting circuit 47 and the simple local basis setting circuit 48 do nothing when the setting control signal is NO. When the setting control signal is (Nα + 1), the operation is as follows.

【0097】簡易結合加重設定回路47は、出力信号y
と教師信号zと加算器11から総局所基底出力信号Sto
talとを受けて、設定制御信号によって指定されるNa
+1番目の局所出力計算回路13の結合加重v(Na+1)を
(数12)のように設定する。
The simple combination weight setting circuit 47 outputs the output signal y
, The teacher signal z, and the total local basis output signal Sto from the adder 11
Na designated by the setting control signal in response to tal
The connection weight v (Na + 1) of the + 1st local output calculation circuit 13 is set as in (Equation 12).

【0098】簡易局所基底設定回路48は、また入力信
号xと除算器から規格化局所基底出力信号bを受け、局
所基底出力計算回路10の内部パラメータを読みだし、
設定制御信号によって指定されるNa+1番目の局所基
底出力計算回路10の内部パラメータを(数13)のよ
うに設定する。以上のパラメータの設定が終わると、簡
易局所基底設定回路48、簡易結合加重設定回路47
は、設定終了信号を返す。
The simple local basis setting circuit 48 also receives the input signal x and the normalized local basis output signal b from the divider, reads the internal parameters of the local basis output calculation circuit 10,
The internal parameter of the Na + 1th local basis output calculation circuit 10 designated by the setting control signal is set as shown in (Equation 13). After the above parameters are set, the simple local basis setting circuit 48 and the simple combination weight setting circuit 47
Returns a setting end signal.

【0099】なお、上記実施例と同様にc2は正の値を
もつパラメータである。ただし、Naが0の初期状態に
ついては、 σ(Na+1)=σ0 と固定値σ0を与えるものとする。c2 の値は、0.1か
ら1.0程度の値を設定すると良いが、このパラメータ
にはかなりの任意性があり、この範囲に限る必要はな
い。また、初期の設定については、最初の2つのデータ
(x1,z1)、(x2,z2)から、(数14)とす
る方法などを用いてもよい。
As in the above embodiment, c2 is a parameter having a positive value. However, in the initial state where Na is 0, σ (Na + 1) = σ0 and a fixed value σ0 are given. The value of c2 is preferably set to a value of about 0.1 to 1.0, but this parameter has considerable arbitrariness and is not limited to this range. Further, for the initial setting, a method of setting the first two data (x1, z1) and (x2, z2) to (Equation 14) may be used.

【0100】本実施例による神経回路網模擬装置によれ
ば、本実施例による出力信号yが入力信号xといくつか
のパラメータとを用いた初等関数の組み合わせで生成さ
れており、ポテンシャル関数Cは(数15)と書ける。
これを用いて、学習の収束性などについても容易に解析
できる。
According to the neural network simulation apparatus of this embodiment, the output signal y of this embodiment is generated by the combination of the elementary functions using the input signal x and some parameters, and the potential function C is You can write (Equation 15).
By using this, the convergence of learning can be easily analyzed.

【0101】また、図2に示したように目的関数に適し
た構造を数10〜数100回程度の学習で得ることがで
きる。本実施例によれば、参照ベクトルは目的関数の1
階微分が大きい領域に多く分布する。加えて、本発明の
構成から明らかなように、一つの入力信号xに対して通
常複数個の神経細胞模擬素子が0でない出力を行い、出
力信号yはその総和で与えられるために、LVQや坂口
らの神経回路網模擬装置と異なって、滑らかな関数近似
ができる。さらに、誤差が大きい場合に、過去に蓄積し
たパラメータに込められた情報をそのままに入力信号x
の近くでのみ働く新しく神経細胞模擬素子を与えられた
教師信号zが出力信号yとなるように活性化することに
よって、学習の高速化が実現される。
Further, as shown in FIG. 2, a structure suitable for the objective function can be obtained by learning several tens to several hundreds. According to this embodiment, the reference vector is 1 of the objective function.
Many are distributed in the area where the differential is large. In addition, as is apparent from the configuration of the present invention, a plurality of nerve cell simulating elements normally output a non-zero value for one input signal x, and the output signal y is given by the sum thereof, so that LVQ and Unlike the neural network simulator of Sakaguchi et al., Smooth function approximation is possible. Furthermore, when the error is large, the information stored in the parameters accumulated in the past can be directly input to the input signal x
By activating a new neural cell simulating element that works only near the so that the given teacher signal z becomes the output signal y, high-speed learning is realized.

【0102】また、学習方法切り替え回路44を設ける
ことにより、局所基底修正回路16、結合加重修正回路
15、局所基底設定回路18、および結合加重設定回路
17のかわりに、学習方法の選択判定を行わない簡易局
所基底修正回路46、簡易結合加重修正回路45、簡易
局所基底設定回路48、および簡易結合加重設定回路4
7を用いることができる。
Further, by providing the learning method switching circuit 44, the learning method selection judgment is performed instead of the local basis correction circuit 16, the joint weight correction circuit 15, the local basis setting circuit 18, and the joint weight setting circuit 17. No simple local basis correction circuit 46, simple combination weight correction circuit 45, simple local basis setting circuit 48, and simple combination weight setting circuit 4
7 can be used.

【0103】(実施例5)本発明の神経回路網模擬装置
においては、誤差が大きい場合に、局所基底出力計算回
路10等を新たに設定することにより、学習の高速化を
図っている。しかし、この方法だけでは、学習用のデー
タの順番によっては、実質的に不必要な局所基底出力計
算回路10が生き残る場合がある。図6は、本発明の実
験結果の目的関数の等高線図と参照ベクトルの分布を示
したものである。図中の参照ベクトルAは、学習初期に
活性化されたものであるが、このように学習がすすんだ
あとでは、他の参照ベクトルによって代替可能、すなわ
ち、参照ベクトルAがなくなっても出力は変わらなくな
ってしまっている。こうした現象は、神経回路網模擬装
置のロバスト性の面からは有効であるが、メモリおよび
回路規模の面からは不利となる。この課題を解決し、局
所基底出力計算回路などを効率的に利用するために、忘
却を入れた場合の実施例について説明する。
(Embodiment 5) In the neural network simulating device of the present invention, when the error is large, the local basis output calculation circuit 10 and the like are newly set to speed up the learning. However, with this method alone, the substantially unnecessary local basis output calculation circuit 10 may survive depending on the order of the learning data. FIG. 6 shows the contour map of the objective function and the distribution of the reference vector of the experimental result of the present invention. The reference vector A in the figure is activated at the initial stage of learning, but after the learning is advanced in this way, it can be replaced by another reference vector, that is, the output changes even if the reference vector A disappears. It's gone. Such a phenomenon is effective in terms of robustness of the neural network simulator, but is disadvantageous in terms of memory and circuit scale. In order to solve this problem and efficiently use the local basis output calculation circuit and the like, an example in the case of forgetting is described.

【0104】以下本発明の第5の実施例について、図面
を参照しながら説明する。図7において図5と異なるの
は、学習方法切り替え回路44に替えて、49は教師信
号と出力信号の差分をとって得られる差分信号と局所基
底出力計算回路の内部パラメータから学習方法を選択す
る学習方法選択回路であり、50は学習方法選択回路4
9からの忘却処理開始信号を受けて局所基底出力計算回
路10の内部パラメータを読みだし忘却処理を行う忘却
処理回路を備えた点である。以上のように構成された神
経回路網模擬装置について、その動作を説明する。な
お、ここでは局所基底出力計算回路10の性質を特徴づ
ける局所基底関数として、ガウス関数を用いた場合につ
いて説明する。
The fifth embodiment of the present invention will be described below with reference to the drawings. 7 is different from FIG. 5 in that instead of the learning method switching circuit 44, 49 selects a learning method from the difference signal obtained by taking the difference between the teacher signal and the output signal and the internal parameter of the local basis output calculation circuit. A learning method selection circuit 50 is a learning method selection circuit 4
9 is a point provided with a forgetting processing circuit for receiving the forgetting processing start signal from 9 and reading the internal parameter of the local basis output calculation circuit 10 to perform the forgetting processing. The operation of the neural network simulation apparatus configured as described above will be described. Note that, here, a case will be described in which a Gaussian function is used as a local basis function that characterizes the property of the local basis output calculation circuit 10.

【0105】まず、入力信号xが局所基底出力計算回路
10に入る。i番目の局所基底出力計算回路において、
局所基底出力信号S(i)が(数5)のように計算され、
出力される。ここで、a(i)は0または1の値を持つ活
性パラメータであり、μ(i)は参照ベクトルであり、σ2
(i)は分散である。加算器11は局所基底出力計算回路
10から出力されるすべての局所基底出力信号Sの総和
(数6)を計算して総局所基底出力信号Stotalを出力
する。i番目の除算器12はi番目の局所基底出力計算
回路10と加算器11から局基底出力信号S(i)と総局
所基底出力信号Stotalを受けて、規格化局所基底出力
信号b(i)を(数7)と計算し出力する。i番目の局所
出力計算回路13は、除算器12からの規格化局所基底
出力信号b(i)と内部に保持した結合加重v(i)とから、
局所出力信号o(i)を(数8)のように計算し、出力す
る。加算器14は、局所出力計算回路13からの局所出
力信号oを受けて、出力信号yを(数9)のように計算
し、出力する。
First, the input signal x enters the local basis output calculation circuit 10. In the i-th local basis output calculation circuit,
The local basis output signal S (i) is calculated as in (Equation 5),
Is output. Here, a (i) is an activation parameter having a value of 0 or 1, μ (i) is a reference vector, and σ 2
(i) is the variance. The adder 11 calculates the total sum (Equation 6) of all the local basis output signals S output from the local basis output calculation circuit 10 and outputs the total local basis output signal Stotal. The i-th divider 12 receives the local base output signal S (i) and the total local base output signal Stotal from the i-th local base output calculation circuit 10 and the adder 11, and outputs the normalized local base output signal b (i). Is calculated and output. The i-th local output calculation circuit 13 calculates, from the normalized local basis output signal b (i) from the divider 12 and the joint weight v (i) held therein,
The local output signal o (i) is calculated as in (Equation 8) and output. The adder 14 receives the local output signal o from the local output calculation circuit 13, calculates the output signal y as in (Equation 9), and outputs it.

【0106】次に学習の動作について説明する。入力信
号xに対して教師信号zが与えられると、まず、上記の
動作によって得られる入力信号xに対応する出力信号y
と教師信号zとの差分がとられ、差分信号Eが生成され
る。差分信号Eは、学習方法選択回路49に入力され
る。学習方法選択回路49は、差分信号Eを受けると、
局所基底計算回路10の内部パラメータを読みだす。学
習方法選択回路49は、読みだしたパラメータから活性
状態にある局所基底出力計算回路の数Nαを計算し、不
活性状態にある局所基底出力計算回路の指標INDEX
を探索し、 |E|<θE、または、Nα=(局所基底出力計算回路
の総数)のとき、 修正差分信号 E1=E 設定制御信号 E2=NO |E|≧θE、かつ、 Nα<(局所基底出力計算回路
の総数)のとき、 修正差分信号 E1=0 設定制御信号 E2=INDEX を出力する。
Next, the learning operation will be described. When the teacher signal z is given to the input signal x, first, the output signal y corresponding to the input signal x obtained by the above operation is output.
And the teacher signal z, the difference signal E is generated. The difference signal E is input to the learning method selection circuit 49. When the learning method selection circuit 49 receives the difference signal E,
The internal parameters of the local basis calculation circuit 10 are read out. The learning method selection circuit 49 calculates the number Nα of the local basis output calculation circuits in the active state from the read parameters, and the index INDEX of the local basis output calculation circuit in the inactivated state.
When | E | <θE or Nα = (total number of local basis output calculation circuits), modified difference signal E1 = E setting control signal E2 = NO | E | ≧ θE, and Nα <(local In the case of the total number of base output calculation circuits), a modified difference signal E1 = 0 setting control signal E2 = INDEX is output.

【0107】簡易結合加重修正回路45と簡易局所基底
修正回路46は以下のように動作する。
The simple combined weight correction circuit 45 and the simple local basis correction circuit 46 operate as follows.

【0108】i番目(i=1〜Na)の簡易結合加重修
正回路45は、また教師信号zとi番目の除算器12か
ら規格化局所基底出力信号b(i) を受け、i番目の局所
出力計算回路13の結合加重v(i)を次(数26)のよ
うに修正する。
The i-th (i = 1 to Na) simple coupling weight correction circuit 45 also receives the teacher signal z and the normalized local basis output signal b (i) from the i-th divider 12, and receives the i-th local The connection weight v (i) of the output calculation circuit 13 is modified as in the following (Equation 26).

【0109】i番目の簡易局所基底修正回路16は、ま
た入力信号xと、i番目の除算器12から規格化局所基
底出力信号b(i) と、出力信号yとを受け、i番目の局
所出力計算回路13の結合加重v(i)を読みだし、i番
目の局所基底出力計算回路10の内部パラメータを(数
27)のように修正する。
The i-th simple local basis correction circuit 16 also receives the input signal x, the normalized local basis output signal b (i) and the output signal y from the i-th divider 12, and receives the i-th local The connection weight v (i) of the output calculation circuit 13 is read out, and the internal parameter of the i-th local basis output calculation circuit 10 is corrected as shown in (Equation 27).

【0110】以上のパラメータの修正が終わると、簡易
局所基底修正回路46、簡易結合加重修正回路45は、
修正終了信号を返す。
After the above parameters have been corrected, the simple local basis correction circuit 46 and the simple combination weighting correction circuit 45
Returns the modification end signal.

【0111】一方、簡易結合加重設定回路47と簡易局
所基底設定回路48は、設定制御信号がNOの場合に
は、何もしない。設定制御信号がINDEXの場合に
は、以下のように動作する。
On the other hand, the simple combination weight setting circuit 47 and the simple local basis setting circuit 48 do nothing when the setting control signal is NO. When the setting control signal is INDEX, it operates as follows.

【0112】簡易結合加重設定回路47は、出力信号y
と教師信号zと加算器11から総局所基底出力信号Sto
talとを受けて、設定制御信号によって指定されるIN
DEX番目の局所出力計算回路13の結合加重v(INDE
X)を次のように設定する。
The simple combination weight setting circuit 47 outputs the output signal y
, The teacher signal z, and the total local basis output signal Sto from the adder 11
IN specified by the setting control signal in response to tal
The connection weight v (INDE of the DEX-th local output calculation circuit 13
Set X) as follows.

【0113】[0113]

【数28】 [Equation 28]

【0114】簡易局所基底設定回路48は、また入力信
号xと除算器から規格化局所基底出力信号bを受け、局
所基底出力計算回路10のパラメータを読みだし、設定
制御信号によって指定されるINDEX番目の局所基底
出力計算回路10の内部パラメータを次のように設定す
る。
The simple local basis setting circuit 48 also receives the input signal x and the normalized local basis output signal b from the divider, reads out the parameters of the local basis output calculation circuit 10, and sets the INDEX-th position designated by the setting control signal. The internal parameters of the local basis output calculation circuit 10 are set as follows.

【0115】[0115]

【数29】 [Equation 29]

【0116】以上のパラメータの設定が終わると、簡易
局所基底設定回路48、簡易結合加重設定回路47は、
設定終了信号を返す。学習方法選択回路49は、設定終
了信号を受けると、忘却処理開始信号を忘却処理回路5
0に送る。忘却処理開始信号を受けた忘却処理回路50
の動作を図8に示したフローチャートを参照しながら説
明する。
After the above parameters are set, the simple local basis setting circuit 48 and the simple combination weight setting circuit 47
Returns the setting end signal. Upon receiving the setting end signal, the learning method selection circuit 49 outputs the forgetting process start signal to the forgetting process circuit 5.
Send to 0. A forgetting processing circuit 50 which receives a forgetting processing start signal
The operation will be described with reference to the flowchart shown in FIG.

【0117】忘却処理回路50は、局所基底出力計算回
路10から、内部パラメータ読みだす。そして、局所基
底出力回路10を指定する指標iに1を入れる。読みだ
したi番目の局所基底出力計算回路10の活性パラメー
タが1の場合、読みだしたi番目の局所基底出力計算回
路10の参照ベクトルμ(i)を入力端子へ出力し、加算
器14からの出力信号y(μ(i))を受けて、これを保持
し、次に、i番目の局所基底出力計算回路10を不活性
化して、i番目の局所基底出力計算回路10の参照ベク
トルμ(i)を入力端子へ出力し、その出力信号y'(μ
(i),i)を保持した出力信号y(μ(i))と比較し、 |y'(μ(i),i)−y(μ(i))|<θの場合 処理を終了し、i番目の局所基底出力計算回路を不活性
化状態にとどめる |y'(μ(i),i)−y(μ(i))|≧θの場合 i番目の局所基底出力計算回路を再活性化する iをインクリメントする という処理を行う。
The forgetting processing circuit 50 reads internal parameters from the local basis output calculating circuit 10. Then, 1 is entered in the index i that specifies the local basis output circuit 10. When the read active parameter of the i-th local basis output calculation circuit 10 is 1, the read reference vector μ (i) of the i-th local basis output calculation circuit 10 is output to the input terminal, and the adder 14 outputs it. Of the reference vector μ of the i-th local basis output calculation circuit 10 is received, the i-th local basis output calculation circuit 10 is deactivated, and the i-th local basis output calculation circuit 10 is deactivated. (i) is output to the input terminal and its output signal y '(μ
(i), i) is compared with the held output signal y (μ (i)), and if | y ′ (μ (i), i) −y (μ (i)) | <θ, the process is terminated. , I-th local basis output calculation circuit is kept inactive state | y '(μ (i), i) −y (μ (i)) | ≧ θ If i-th local basis output calculation circuit Activate i Perform the process of incrementing i.

【0118】読みだしたi番目の局所基底出力計算回路
10の活性パラメータが0の場合、iをインクリメント
する。
When the read active parameter of the i-th local basis output calculation circuit 10 is 0, i is incremented.

【0119】i=N+1でない場合、上の処理に戻る。
i=N+1の場合、処理を終了する。
If i = N + 1 is not satisfied, the process returns to the above.
If i = N + 1, the process ends.

【0120】こうして、不必要に冗長な局所基底出力計
算回路10は不活性化され、次の学習に備えることがで
きるようになる。
In this way, the unnecessary redundant local basis output calculation circuit 10 is deactivated and ready for the next learning.

【0121】なお、閾値θは、差分信号Eについて設定
されている閾値θE対し、 θ = θE/2 程度にとるとよい。ただし、閾値θはこれに限る必要は
なく、 θ<θE であればよい。
The threshold value θ is preferably about θ = θE / 2 with respect to the threshold value θE set for the difference signal E. However, the threshold value θ is not limited to this, and may be θ <θE.

【0122】また、閾値θを分散σ2(i)の関数 θ=θE f(σ2(i)) としてもよい。関数fを単調減少する正の値をとる関数
とすれば、広い入力信号領域をカバーしている局所基底
出力計算回路10は不活性化されにくくなる。これによ
って、素子の不活性化による一時的な誤差の増大を抑制
できる。
Further, the threshold value θ may be a function θ = θE f (σ 2 (i)) of the variance σ 2 (i). If the function f is a function that takes a positive value that monotonically decreases, the local basis output calculation circuit 10 that covers a wide input signal region is less likely to be inactivated. As a result, it is possible to suppress a temporary increase in error due to inactivation of the element.

【0123】局所基底出力計算回路の不活性化が出力信
号yに与える影響を抑制する手段として、不活性化され
るa番目の局所基底出力計算回路10に対応するa番目
の局所出力計算回路13の結合加重v(a)が担ってい
た情報を他の局所出力計算回路13の結合加重に移し替
える方法がある。
As means for suppressing the influence of the deactivation of the local basis output calculation circuit on the output signal y, the a-th local output calculation circuit 13 corresponding to the deactivated a-th local basis output calculation circuit 10 There is a method of transferring the information carried by the connection weight v (a) of (1) to the connection weight of another local output calculation circuit 13.

【0124】具体的には、b番目以外の局所出力計算回
路13の結合加重v(b)を不活性化する前のa番目の
局所基底出力計算回路10の出力を用いて、 v(b)=v(b)+(v(a)−v(b))B(μ
(b)) とすればよい。ここで、B(μ(b))は、入力信号が
μ(b)であるときの不活性化する前のa番目の局所基
底出力計算回路10の出力である。
Specifically, using the output of the a-th local basis output calculation circuit 10 before inactivating the connection weight v (b) of the local-output calculation circuit 13 other than the b-th, v (b) = V (b) + (v (a) -v (b)) B (μ
(B)) Here, B (μ (b)) is the output of the a-th local basis output calculation circuit 10 before inactivation when the input signal is μ (b).

【0125】この結合加重の修正をa番目の局所基底出
力計算回路10の不活性化と同時に行うことにより、局
所基底出力計算回路10の不活性化の出力信号yへの影
響を抑制することができる。
By performing this modification of the connection weighting simultaneously with the inactivation of the a-th local basis output calculation circuit 10, the influence of the inactivation of the local basis output calculation circuit 10 on the output signal y can be suppressed. it can.

【0126】初期学習については、上の実施例と同様で
ある。本実施例による神経回路網模擬装置によれば、上
の実施例の効果に加えて、最も効率的に神経回路網模擬
装置の内部パラメータを設定することができ、比較的小
さな規模の装置でも目的関数を精度よく近似できる優れ
た神経回路網模擬装置を実現できる。
The initial learning is the same as in the above embodiment. According to the neural network simulating device of this embodiment, in addition to the effects of the above embodiment, the internal parameters of the neural network simulating device can be set most efficiently, and even a device of a relatively small scale can be used. It is possible to realize an excellent neural network simulator that can approximate a function with high accuracy.

【0127】なお、本実施例においては、i番目の局所
基底出力計算回路10が活性化されているときと不活性
化されているときの、加算器14からの出力信号yと
y’を比較するための入力として、i番目の局所基底出
力計算回路10の参照ベクトルμ(i)を使用したが、こ
の参照ベクトルμ(i)の代わりに学習用のデータとして
与えられた入力信号xを用いることもできる。この場合
は、学習用のデータが与えられるごとに、活性化されて
いる各々の局所基底出力計算回路10に対して、 CD(i,x)=|y'(x,i)−z(x)|−|y(x)−
z(x)| を計算し記憶しておく。ここに、CD(i,x)は、入力
信号xに対するi番目の局所基底出力計算回路10の貢
献度を表し、y'(x,i)はi番目の局所基底出力計算
回路10を不活性化してxを入力信号としたときの加算
器14からの出力信号を表し、z(x)は入力信号xに対
応する教師信号を表し、y(x)はi番目の局所基底出力
計算回路を不活性化せずにxを入力信号としたときの加
算器14からの出力信号を表す。さらに、活性化されて
いる各々の局所基底出力計算回路ごとに、過去の各学習
用データに対する貢献度CD(i,x)の平均値ACD
(i)を求め、 ACD(i)<θ’の場合 i番目の局所基底出力計算回路を不活性化する ACD(i)≧θ’の場合 i番目の局所基底出力計算回路を活性化したままにする という処理を行う。この方法によると、学習用のデータ
にノイズが含まれている場合でも、ノイズの影響を軽減
して滑らかな関数近似を行うことができる。また、この
方法において、θ’を閾値として各々の局所基底出力計
算回路10の活性化と不活性化を不連続に切替える代わ
りに、ACD(i)に比例するように各々の局所基底出力
計算回路10の内部パラメータa(i)を連続的に変化さ
せることもできる。ただし、ACD(i)が負の値となっ
た場合は、a(i)の値は0とする。
In this embodiment, the output signals y and y'from the adder 14 are compared when the i-th local basis output calculation circuit 10 is activated and inactivated. Although the reference vector μ (i) of the i-th local basis output calculation circuit 10 is used as an input for this, the input signal x given as the learning data is used instead of this reference vector μ (i). You can also In this case, CD (i, x) = | y '(x, i) -z (x is calculated for each activated local basis output calculation circuit 10 every time learning data is given. ) |-| Y (x)-
z (x) | is calculated and stored. Here, CD (i, x) represents the degree of contribution of the i-th local basis output calculation circuit 10 to the input signal x, and y ′ (x, i) deactivates the i-th local basis output calculation circuit 10. Represents an output signal from the adder 14 when x is an input signal, z (x) represents a teacher signal corresponding to the input signal x, and y (x) represents an i-th local basis output calculation circuit. The output signal from the adder 14 when x is an input signal without deactivation is shown. Further, for each activated local basis output calculation circuit, the average value ACD of the contributions CD (i, x) to the past learning data is calculated.
(i) is obtained, and if ACD (i) <θ ', deactivate the i-th local basis output calculation circuit. If ACD (i) ≧ θ', keep the i-th local basis output calculation circuit activated. Perform the process of setting. According to this method, even if the learning data includes noise, the effect of noise can be reduced and smooth function approximation can be performed. Further, in this method, instead of switching activation and inactivation of each local basis output calculation circuit 10 discontinuously with θ ′ as a threshold value, each local basis output calculation circuit 10 is proportional to ACD (i). The internal parameter a (i) of 10 can also be changed continuously. However, when ACD (i) has a negative value, the value of a (i) is set to 0.

【0128】(実施例6)本発明の神経回路網模擬装置
においては、局所基底出力計算回路10等を新たに設定
することにより、高速に滑らかな関数近似を行うことが
できる。しかし、この方法だけでは、学習用のデータの
順番によっては、実質的に不必要な局所基底出力計算回
路10が生き残る場合がある。これに対して、実施例5
の方法によると、不要な局所基底出力計算回路10を消
去することができるが、そのために必要な計算量が増大
する。本実施例においては、学習すべき入出力関係に関
してあらかじめ分かっている情報が存在するとき、この
情報を利用して本発明の神経回路網模擬装置の内部パラ
メータを初期設定することにより、計算量を増やすこと
なく、より高速で、より少数の局所基底出力計算回路1
0による学習を可能とする方法について説明する。
(Embodiment 6) In the neural network simulating device of the present invention, a smooth function approximation can be performed at high speed by newly setting the local basis output calculating circuit 10 and the like. However, with this method alone, the substantially unnecessary local basis output calculation circuit 10 may survive depending on the order of the learning data. On the other hand, Example 5
According to this method, the unnecessary local basis output calculation circuit 10 can be eliminated, but the amount of calculation required for that purpose increases. In this embodiment, when there is information that is known in advance regarding the input / output relationship to be learned, this information is used to initialize the internal parameters of the neural network simulator of the present invention, thereby reducing the amount of calculation. Faster and fewer local basis output calculation circuit 1 without increasing
A method for enabling learning by 0 will be described.

【0129】本発明の第6の実施例の構成は、図1に示
した第1の実施例と同一であるので、ここでは繰り返さ
ない。
The configuration of the sixth embodiment of the present invention is the same as that of the first embodiment shown in FIG. 1 and will not be repeated here.

【0130】つぎに、第6の実施例の動作について説明
する。学習データに基づく本発明の神経回路網模擬装置
の内部パラメータの修正に先立ち、最初に、学習すべき
入出力関係に関してあらかじめ分かっている情報を利用
して本発明の神経回路網模擬装置の内部パラメータを以
下のように初期設定する。
Next, the operation of the sixth embodiment will be described. Prior to the correction of the internal parameters of the neural network simulator of the present invention based on the learning data, first, the internal parameters of the neural network simulator of the present invention are utilized by utilizing the information known in advance regarding the input / output relationship to be learned. Is initialized as follows.

【0131】学習すべき入出力関係に関してあらかじめ
分かっている情報がR個存在し、k番目の情報は「入力
xが入力空間上の閉領域a(k)に属するならば、出力y
(x)は定数c(k)に等しい」の形式で表されているとす
る。これらの情報は完全に正しいものである必要はな
い。具体的な情報の例を次に2つ示す。ここでは入力x
は2次元のベクトル(x 1,x2)であり、出力y(x)は
スカラーであるとした。
Regarding input / output relations to be learned,
There are R pieces of known information, and the kth information is "input
If x belongs to the closed region a (k) on the input space, the output y
(x) is equal to the constant c (k) ".
It This information does not have to be completely correct.
Yes. The following are two examples of specific information. Here input x
Is a two-dimensional vector (x 1, X2) And the output y (x) is
Scalar.

【0132】「0.2<x1<0.5かつ0.4<x2<0.
8ならば、y(x)=1.0」 「x1 2+x2 2≦4.0ならば、y(x)=0.5」 さて、入力xが一般にN次元ベクトル(x1,…,xN
であるとし、このベクトルのJ番目の要素をxJと表記
することにする。a(k)は閉領域であるとしたから、各
要素xJは領域a(k)内における最大値xJmaxと最小
値xJminを持つ。ここで、局所基底出力計算回路1
0の内部パラメータと局所出力計算回路13の内部パラ
メータを次の通り初期設定する。k番目(kは1からR
までのそれぞれを表す)の局所基底出力計算回路10の
内部パラメータa(k)、μ(k)、σ(k)と、k番目の局
所出力計算回路13の内部パラメータv(k)について
は、
"0.2 <x 1 <0.5 and 0.4 <x 2 <0.
If y is 8, then y (x) = 1.0 ”“ If x 1 2 + x 2 2 ≦ 4.0, y (x) = 0.5 ”Now, the input x is generally an N-dimensional vector (x 1 , ... , X N )
, And the J-th element of this vector will be denoted as x J. Since a (k) is a closed region, each element x J has the maximum value x J max and the minimum value x J min in the region a (k). Here, the local basis output calculation circuit 1
The internal parameters of 0 and the internal parameters of the local output calculation circuit 13 are initialized as follows. kth (k is 1 to R
The internal parameters a (k), μ (k), σ (k) of the local basis output calculation circuit 10 and the internal parameter v (k) of the kth local output calculation circuit 13 are

【0133】[0133]

【数30】 [Equation 30]

【0134】と初期設定する。ここに、ベクトルμ(k)
のJ番目の要素をμJ(k)と表記した。また、c3は正の
定数であり、第1の実施例における学習時に使用した定
数c2と等しい値を設定する。また、上記以外の局所基
底出力計算回路10の内部パラメータについては、 a(i)=0 と初期設定する。
The initial setting is as follows. Where the vector μ (k)
The J-th element of is written as μ J (k). Further, c3 is a positive constant, and a value equal to the constant c2 used at the time of learning in the first embodiment is set. In addition, the internal parameters of the local basis output calculation circuit 10 other than the above are initialized to a (i) = 0.

【0135】以上の初期設定終了後、第1の実施例にお
ける学習の動作と同一の手順で、学習データに基づき、
局所基底出力計算回路10の内部パラメータa(i)、μ
(i)、σ(i)と局所出力計算回路13の内部パラメータ
v(i)を逐次的に修正する。あらかじめ分かっていたR
個の情報が完全に正しいものではなかった場合や、これ
らのR個の情報に基づく内部パラメータの初期値設定に
よってできた神経回路網模擬装置の入出力関係が、これ
らのR個の情報と完全には一致しなかった場合において
も、それらの内部パラメータの学習データに基づく逐次
的な修正によって、高速に目的関数の良好な近似を実現
できる。
After the above initialization, the learning operation is performed in the same procedure as the learning operation in the first embodiment.
The internal parameter a (i), μ of the local basis output calculation circuit 10
(i), σ (i) and the internal parameter v (i) of the local output calculation circuit 13 are sequentially modified. I knew in advance
If the individual information is not completely correct, or if the input / output relationship of the neural network simulation device created by the initial value setting of the internal parameters based on these R information is completely correct with these R information. Even if they do not match, it is possible to realize a good approximation of the objective function at high speed by sequentially correcting the internal parameters based on the learning data.

【0136】なお、内部パラメータμ(k)とσ(k)の初
期設定において、以上の設定方法の代わりに、μ(k)を
閉領域a(k)の重心と一致するように初期設定し、σ
(k)を閉領域a(k)の体積の(1/N)乗に比例する値
に初期設定してもよい。
In the initial setting of the internal parameters μ (k) and σ (k), instead of the above setting method, μ (k) is initialized so that it coincides with the center of gravity of the closed region a (k). , Σ
(k) may be initialized to a value proportional to the (1 / N) th power of the volume of the closed region a (k).

【0137】また、本実施例では、第1の実施例と同一
の構成の神経回路網模擬装置の内部パラメータを初期設
定する方法について説明したが、第2の実施例、第3の
実施例、第4の実施例、第5の実施例のいずれと同一の
構成の神経回路網模擬装置に対しても、本実施例と同様
の初期設定方法が適用できることは言うまでもない。特
に、あらかじめ分かっている情報が、f(x)をxの関数
として「入力xが入力空間上の閉領域a(k)に属するな
らば、出力y(x)はf(x)に等しい」の形式で表現され
ている場合には、第3の実施例と同一の構成の神経回路
網模擬装置に対して、本実施例と同様の方法でパラメー
タの初期設定を行なうことが、目的関数の良好な近似を
実現するために有効である。
Further, in the present embodiment, the method of initializing the internal parameters of the neural network simulation device having the same configuration as the first embodiment has been described, but the second embodiment, the third embodiment, It goes without saying that the same initial setting method as in the present embodiment can be applied to the neural network simulating device having the same configuration as that of either the fourth embodiment or the fifth embodiment. In particular, the information known in advance is that "if the input x belongs to the closed region a (k) on the input space, f (x) is a function of x, then the output y (x) is equal to f (x)." In the case of the expression (1), it is necessary to perform the initial setting of the parameters for the neural network simulator having the same configuration as that of the third embodiment by the same method as this embodiment. It is effective to realize a good approximation.

【0138】また、第5の実施例と同一の構成の神経回
路網模擬装置に対して、本実施例と同様の方法で局所基
底出力計算回路10の内部パラメータa(i)、μ(i)、
σ(i)と局所出力計算回路13の内部パラメータv(i)
を初期設定した後に、第5の実施例の方法を用いて忘却
を入れた学習を行なうと、比較的少数の局所基底出力計
算回路10だけが活性化された状態で目的関数を良好に
近似することができる。したがって、この場合には、学
習終了後の内部パラメータa(i)、μ(i)、σ(i)、v
(i)の値を調べることにより、神経回路網模擬装置の動
作を理解したり予測することが容易にできるという利点
を有する。
Further, the internal parameters a (i) and μ (i) of the local basis output calculation circuit 10 are applied to the neural network simulating apparatus having the same structure as that of the fifth embodiment by the same method as this embodiment. ,
σ (i) and the internal parameter v (i) of the local output calculation circuit 13
When the learning with forgetting is performed using the method of the fifth embodiment after initializing, the objective function is well approximated with only a relatively small number of local basis output calculation circuits 10 being activated. be able to. Therefore, in this case, the internal parameters a (i), μ (i), σ (i), v
By examining the value of (i), there is an advantage that the operation of the neural network simulator can be easily understood and predicted.

【0139】また、本実施例では、学習すべき入出力関
係に関してあらかじめ分かっている情報がR個存在し、
k番目の情報が「入力xが入力空間上の閉領域a(k)に
属するならば、出力y(x)は定数c(k)に等しい」の形
式で表現されている場合における、内部パラメータの初
期設定の方法を説明したが、入力xがN次元ベクトル
(x1,…,xN)であって、このベクトルの各要素xJ
としては0または1の2種類の値だけをとるものと0か
ら1の間で連続的に任意の値をとりうるものが混在し、
学習すべき入出力関係に関してあらかじめ分かっている
情報が「入力xが論理式L(k)(x)を満足するならば、
出力y(x)は定数c(k)に等しい」の形式で表現されて
いる場合においても、以下のように内部パラメータを初
期設定することができる。ここで、論理式L(k)(x)
は、素論理式の連言であるとし、素論理式は、要素xJ
が0または1の2種類の値だけをとるときはxJ=0の
形かまたはxJ=1の形であり、素論理式xJ=0と素論
理式xJ=1が両方同時に存在することはなく、要素xJ
が0から1の間で連続的に任意の値をとりうるときは、
Jmin≦xJ≦xJmaxの形であるとする。
Further, in the present embodiment, there are R pieces of information that are known in advance regarding the input / output relationship to be learned,
Internal parameter in the case where the k-th information is expressed in the form "if the input x belongs to the closed region a (k) on the input space, the output y (x) is equal to the constant c (k)". , The input x is an N-dimensional vector (x 1 , ..., X N ), and each element x J of this vector is described.
Is mixed with those that take only two kinds of values, 0 or 1, and those that can take any value continuously between 0 and 1,
The information known in advance regarding the input-output relationship to be learned is that "if the input x satisfies the logical expression L (k) (x),
Even if the output y (x) is expressed in the format of “the output y (x) is equal to the constant c (k)”, the internal parameters can be initialized as follows. Where the logical expression L (k) (x)
Is a conjunction of the elementary logical expressions, and the elementary logical expression is the element x J
When x takes only two kinds of values 0 or 1, it is in the form of x J = 0 or x J = 1 and both the prime logical formula x J = 0 and the prime logical formula x J = 1 exist at the same time. Element x J
When can take any value continuously between 0 and 1,
Let x J min ≤ x J ≤ x J max.

【0140】k番目(kは1からRまでのそれぞれを表
す)の局所基底出力計算回路10の内部パラメータa
(k)、μ(k)、σ(k)と、k番目の局所出力計算回路1
3の内部パラメータv(k)については、
The internal parameter a of the k-th (k represents each of 1 to R) local basis output calculation circuit 10
(k), μ (k), σ (k) and k-th local output calculation circuit 1
For the internal parameter v (k) of 3,

【0141】[0141]

【数31】 [Equation 31]

【0142】と初期設定する。ここに、ベクトルμ(k)
のJ番目の要素をμJ(k)と表記した。また、c3は正の
定数であり、第1の実施例における学習時に使用した定
数c2と等しい値を設定する。W(J)はつぎの通りの値
をとる。
The initial setting is as follows. Where the vector μ (k)
The J-th element of is written as μ J (k). Further, c3 is a positive constant, and a value equal to the constant c2 used at the time of learning in the first embodiment is set. W (J) has the following values.

【0143】[0143]

【数32】 [Equation 32]

【0144】また、上記以外の局所基底出力計算回路1
0の内部パラメータについては、 a(k)=0 と初期設定する。
A local basis output calculation circuit 1 other than the above
The internal parameters of 0 are initialized as a (k) = 0.

【0145】学習すべき入出力関係に関してあらかじめ
分かっている情報が「入力xが論理式L(k)(x)を満足
するならば、出力y(x)は定数c(k)に等しい」の形式
で表現されている場合に対する、以上の初期設定法は、
「入力xが論理式L(k)(x)を満足すること」を次の手
順で「入力xが入力空間上の閉領域a(k)に属するこ
と」に変換し、変換後の情報に対応して前記の方法によ
る初期設定を行なうことと同等のものとなっている。
The information known in advance regarding the input-output relationship to be learned is that "if the input x satisfies the logical expression L (k) (x), the output y (x) is equal to the constant c (k)." The above initialization method for the case expressed in the form is
"The input x satisfies the logical expression L (k) (x)" is converted into "the input x belongs to the closed region a (k) on the input space" by the following procedure, and the converted information is obtained. Correspondingly, it is equivalent to performing the initial setting by the above method.

【0146】1)素論理式xJ=0が論理式L(k)(x)
に含まれていれば、それを素論理式−0.5≦xJ≦0.
5に置き換える。
1) A prime logical expression x J = 0 is a logical expression L (k) (x)
Is included in the prime logical expression −0.5 ≦ x J ≦ 0.
Replace with 5.

【0147】2)素論理式xJ=1が論理式L(k)(x)
に含まれていれば、それを素論理式0.5≦xJ≦1.5
に置き換える。
2) The elementary logical expression x J = 1 is the logical expression L (k) (x)
Is included in the logical formula 0.5 ≦ x J ≦ 1.5
Replace with.

【0148】3)xJmin≦xJ≦xJmaxの形の素
論理式に対する置き換えは行わない。
3) No replacement is performed for a prime logical expression of the form x J min ≤x J ≤x J max.

【0149】4)要素xJについての素論理式が論理式
L(k)(x)に含まれていなければ、素論理式0≦xJ
1を論理式L(k)(x)に追加する。
4) If the prime logical expression for the element x J is not included in the logical expression L (k) (x), then the prime logical expression 0 ≦ x J
1 is added to the logical expression L (k) (x).

【0150】(実施例7)忘却処理回路の第2の実施例
を説明する。
(Embodiment 7) A second embodiment of the forgetting processing circuit will be described.

【0151】図7において、忘却処理回路50は局所基
底出力計算回路10から、内部パラメータ読みだす。
In FIG. 7, the forgetting processing circuit 50 reads internal parameters from the local basis output calculation circuit 10.

【0152】局所基底出力回路10を指定する指標jに
1を入れる。j番目の局所基底出力計算回路10の活性
パラメータを判断する。
1 is put in the index j that specifies the local basis output circuit 10. The activation parameter of the jth local basis output calculation circuit 10 is determined.

【0153】j番目の局所基底出力計算回路10の活性
化パラメータが1の場合は、以下の処理を行う。
When the activation parameter of the j-th local basis output calculation circuit 10 is 1, the following processing is performed.

【0154】局所基底出力回路10を指定する指標iに
1を入れる。読みだしたi番目の局所基底出力計算回路
10の活性パラメータが1の場合、読みだしたi番目の
局所基底出力計算回路10の参照ベクトルμ(i)を入力
端子へ出力し、加算器14からの出力信号y(μ(i))
を受けて、これを保持し、iをインクリメントする。こ
れを繰り返し、活性化パラメータが1である参照ベクト
ルμ(i)の出力信号y(μ(i))を全て計算する。
1 is put in the index i for designating the local basis output circuit 10. When the read active parameter of the i-th local basis output calculation circuit 10 is 1, the read reference vector μ (i) of the i-th local basis output calculation circuit 10 is output to the input terminal, and the adder 14 outputs it. Output signal y (μ (i))
In response to this, it is held and i is incremented. By repeating this, all output signals y (μ (i)) of the reference vector μ (i) whose activation parameter is 1 are calculated.

【0155】次に、j番目の局所基底出力計算回路10
を不活性化して、同様の処理を行い、j番目の素子が不
活性化された場合の出力信号y’(μ(i))を全て計算
する。
Next, the jth local basis output calculation circuit 10
Are inactivated, the same processing is performed, and all output signals y ′ (μ (i)) when the j-th element is inactivated are calculated.

【0156】さらに、計算された2種類の出力信号を用
いて、参照ベクトルμ(i)に対する最大誤差 Emax=max{|y'(μ(i),i)−y(μ
(i))|} を計算する。この最大誤差Emaxと比較し、 Emax<θの場合 処理を終了し、j番目の局所基底出力計算回路を不活性
化状態にとどめる Emax≧θの場合 j番目の局所基底出力計算回路を再活性化する jをインクリメントする という処理を行う。
Further, using the calculated two kinds of output signals, the maximum error Emax = max {| y '(μ (i), i) -y (μ) with respect to the reference vector μ (i)
(i)) |} is calculated. Compare with this maximum error Emax, if Emax <θ, terminate the process and keep the jth local basis output calculation circuit in an inactive state If Emax ≧ θ, reactivate the jth local basis output calculation circuit Yes The process of incrementing j is performed.

【0157】読みだしたj番目の局所基底出力計算回路
10の活性パラメータが0の場合、jをインクリメント
する。
When the read activation parameter of the j-th local basis output calculation circuit 10 is 0, j is incremented.

【0158】j=N+1でない場合、上の処理に戻る。
j=N+1の場合、処理を終了する。
If j = N + 1 is not satisfied, the above processing is returned to.
If j = N + 1, the process ends.

【0159】こうして、不必要に冗長な局所基底出力計
算回路10は不活性化され、次の学習に備えることがで
きるようになる。
In this way, the unnecessary unnecessary redundant basis output calculation circuit 10 is deactivated and ready for the next learning.

【0160】なお、閾値θは、差分信号Eについて設定
されている閾値θE対し、 θ = θE/2 程度にとるとよい。ただし、閾値θはこれに限る必要は
なく、 θ<θE であればよい。
The threshold value θ is preferably about θ = θE / 2 with respect to the threshold value θE set for the difference signal E. However, the threshold value θ is not limited to this, and may be θ <θE.

【0161】局所基底出力計算回路の不活性化が出力信
号yに与える影響を抑制する手段として、不活性化され
るa番目の局所基底出力計算回路10に対応するa番目
の局所出力計算回路13の結合加重v(a)が担ってい
た情報を他の局所出力計算回路13の結合加重に移し替
える方法がある。
As means for suppressing the influence of the inactivation of the local basis output calculation circuit on the output signal y, the a-th local output calculation circuit 13 corresponding to the inactivated a-th local base output calculation circuit 10 There is a method of transferring the information carried by the connection weight v (a) of (1) to the connection weight of another local output calculation circuit 13.

【0162】具体的には、b番目以外の局所出力計算回
路13の結合加重v(b)を不活性化する前のa番目の
局所基底出力計算回路10の出力を用いて、 v(b)=v(b)+(v(a)−v(b))B(μ
(b)) とすればよい。ここで、B(μ(b))は、入力信号が
μ(b)であるときの不活性化する前のa番目の局所基
底出力計算回路10の出力である。
Specifically, using the output of the a-th local basis output calculation circuit 10 before inactivating the connection weight v (b) of the local-output calculation circuit 13 other than the b-th, v (b) = V (b) + (v (a) -v (b)) B (μ
(B)) Here, B (μ (b)) is the output of the a-th local basis output calculation circuit 10 before inactivation when the input signal is μ (b).

【0163】この結合加重の修正をa番目の局所基底出
力計算回路10の不活性化と同時に行うことにより、局
所基底出力計算回路10の不活性化の出力信号yへの影
響を抑制することができる。
By performing this correction of the connection weighting at the same time as the inactivation of the a-th local basis output calculation circuit 10, the influence of the inactivation of the local basis output calculation circuit 10 on the output signal y can be suppressed. it can.

【0164】[0164]

【発明の効果】以上のように本発明は、入力信号xを受
けて局所基底出力信号Sを計算して出力する局所基底出
力計算回路と、複数の局所基底出力計算回路からの局所
基底出力信号Sを受けてその総和をとり総局所基底出力
信号Stotal を出力する加算器と、局所基底出力計算回
路と加算器とから局所基底出力信号Sと総局所基底出力
信号Stotal とを受けて規格化局所基底出力信号bを出
力する除算器と、除算器からの規格化局所基底出力信号
を受け内部に保持した結合加重vとの積を局所出力信号
oとして出力する局所出力計算回路と、複数の局所出力
計算回路からの局所出力信号oの総和を出力信号yとし
て出力する加算器と、教師信号zと出力信号yとの差分
信号Eと除算器からの規格化局所基底出力信号bを受け
て対応する局所出力計算回路の結合加重vを修正する結
合加重修正回路と、出力信号yとの差分信号Eと除算器
からの規格化局所基底出力信号bを受けて対応する局所
基底出力計算回路の内部パラメータを修正する局所基底
修正回路と、教師信号zを受けて局所出力計算回路の結
合加重を設定する結合加重設定回路と、入力信号xと規
格化局所基底出力信号bと局所出力計算回路の内部パラ
メータに基づいて局所基底出力計算回路の内部パラメー
タを設定する局所基底設定回路とから構成することによ
り、ポテンシャル関数を持ち、目的関数に適した構造を
数10〜数100回程度の学習で得ることができ、滑ら
かな関数近似ができる神経回路網模擬装置を実現でき
る。
As described above, the present invention calculates the local basis output signal S by receiving the input signal x and outputs it, and the local basis output signals from the plurality of local basis output calculation circuits. An adder that receives S to obtain the sum of them and outputs a total local basis output signal Stotal, and a local basis output signal S and a total local basis output signal Stotal from the local basis output calculation circuit and the adder A local output calculation circuit that outputs, as a local output signal o, a product of a divider that outputs a base output signal b, a standardized local base output signal from the divider, and a coupling weight v that is internally held, and a plurality of local output calculation circuits. The adder that outputs the sum of the local output signals o from the output calculation circuit as the output signal y, the difference signal E between the teacher signal z and the output signal y, and the standardized local base output signal b from the divider, are provided to correspond. Local output meter A connection weight correction circuit for correcting the connection weight v of the circuit, and a difference signal E from the output signal y and the standardized local base output signal b from the divider to correct the internal parameter of the corresponding local base output calculation circuit. Based on a local basis correction circuit, a combination weight setting circuit that receives a teacher signal z and sets a combination weight of the local output calculation circuit, and an internal parameter of the input signal x, the normalized local base output signal b, and the local output calculation circuit. By configuring with a local basis setting circuit that sets internal parameters of the local basis output calculation circuit, a structure having a potential function and suitable for the objective function can be obtained by learning about several tens to several hundreds of times, and smooth. It is possible to realize a neural network simulation device capable of performing various function approximations.

【0165】さらに、目的関数について予めわかってい
る情報が存在する場合は、その情報に基づいて神経回路
網模擬装置の内部パラメータを初期設定することによっ
て、より高速な学習を実現できる。
Furthermore, when there is information that is known in advance about the objective function, faster learning can be realized by initializing the internal parameters of the neural network simulation device based on that information.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例における神経回路網模擬
装置のブロック図
FIG. 1 is a block diagram of a neural network simulation device according to a first embodiment of the present invention.

【図2】(a)同実施例によって得られた目的関数を近
似するための構造を示す概念図 (b)同実施例が学習によって目的関数を近似精度を上
げるようすを示す概念図
FIG. 2A is a conceptual diagram showing a structure for approximating an objective function obtained by the same embodiment. FIG. 2B is a conceptual diagram showing how the same embodiment improves the approximation accuracy of the objective function by learning.

【図3】本発明の第2の実施例における神経回路網模擬
装置のブロック図
FIG. 3 is a block diagram of a neural network simulator according to a second embodiment of the present invention.

【図4】本発明の第3の実施例における神経回路網模擬
装置のブロック図
FIG. 4 is a block diagram of a neural network simulator according to a third embodiment of the present invention.

【図5】本発明の第4の実施例における神経回路網模擬
装置のブロック図
FIG. 5 is a block diagram of a neural network simulation device according to a fourth embodiment of the present invention.

【図6】忘却処理回路がない本発明において学習が進む
と、無駄な参照ベクトルが生じることを示す概念図
FIG. 6 is a conceptual diagram showing that useless reference vectors are generated as learning progresses in the present invention having no forgetting processing circuit.

【図7】本発明の第5の実施例における神経回路網模擬
装置のブロック図
FIG. 7 is a block diagram of a neural network simulator according to a fifth embodiment of the present invention.

【図8】忘却処理回路の動作を説明するフローチャートFIG. 8 is a flowchart illustrating the operation of the forgetting processing circuit.

【図9】従来の神経回路網模擬装置のブロック図FIG. 9 is a block diagram of a conventional neural network simulation device.

【図10】従来の神経回路網模擬装置の学習の様子を説
明するための概念図
FIG. 10 is a conceptual diagram for explaining a learning state of a conventional neural network simulation device.

【符号の説明】[Explanation of symbols]

1−1〜4 距離計算回路 2 競合回路 3 出力計算回路 4 結合加重修正回路 5 参照ベクトル修正回路 10 局所基底出力計算回路 11 加算器 12 除算器 13 局所出力計算回路 14 加算器 15 結合加重修正回路 16 局所基底修正回路 17 結合加重設定回路 18 局所基底設定回路 19 加算器 20 結合加重設定制御部 21 参照ベクトル信号発生部 22 信号記憶部 23 結合加重設定部 44 学習法切り替え回路 45 簡易結合加重修正回路 46 簡易局所基底修正回路 47 簡易結合加重設定回路 48 簡易局所基底設定回路 49 学習法選択回路 50 忘却処理回路 1-1 to 4 Distance calculation circuit 2 Competitive circuit 3 Output calculation circuit 4 Coupling weight correction circuit 5 Reference vector correction circuit 10 Local basis output calculation circuit 11 Adder 12 Divider 13 Local output calculation circuit 14 Adder 15 Coupling weight correction circuit 16 local basis correction circuit 17 coupling weight setting circuit 18 local basis setting circuit 19 adder 20 coupling weight setting control section 21 reference vector signal generating section 22 signal storage section 23 coupling weight setting section 44 learning method switching circuit 45 simple coupling weight correction circuit 46 Simple Local Basis Correction Circuit 47 Simple Coupling Weight Setting Circuit 48 Simple Local Basis Setting Circuit 49 Learning Method Selection Circuit 50 Forgetting Processing Circuit

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 0でない値を局所的に持つ関数(局所基
底関数)を用いた神経回路網模擬装置であって、少なく
とも局所的に値をもつ関数を新たに設定する局所基底設
定回路と、結合加重を設定する結合加重設定回路を有す
る神経回路網模擬装置。
1. A neural network simulating device using a function (local basis function) that locally has a non-zero value, and a local basis setting circuit that newly sets at least a function that locally has a value. A neural network simulator having a connection weight setting circuit for setting connection weight.
【請求項2】 局所基底関数を用いた神経回路網模擬装
置であって、結合加重が入力信号の関数である神経回路
網模擬装置。
2. A neural network simulating apparatus using a local basis function, wherein the coupling weight is a function of an input signal.
【請求項3】 局所基底関数を用いた神経回路網模擬装
置であって、少なくとも局所的に値をもつ関数を新たに
設定する局所基底設定回路と結合加重設定回路を有し、
結合加重が入力信号の関数である神経回路網模擬装置。
3. A neural network simulating device using a local basis function, comprising a local basis setting circuit and a connection weight setting circuit for newly setting a function having a value locally at least.
A neural network simulator in which the coupling weight is a function of the input signal.
【請求項4】 結合加重が入力信号の1次式であること
を特徴とする請求項1から3のいずれかに記載の神経回
路網模擬装置。
4. The neural network simulating device according to claim 1, wherein the coupling weight is a linear expression of the input signal.
【請求項5】 局所基底関数を用いた神経回路網模擬装
置であって、出力信号が局所基底関数の出力の総和によ
って規格化されていることを特徴とする請求項1から4
のいずれかに記載の神経回路網模擬装置。
5. A neural network simulating device using a local basis function, wherein the output signal is standardized by the sum of the outputs of the local basis functions.
The neural network simulation device according to any one of 1.
【請求項6】 入力信号を受け、複数の局所基底関数に
よりそれぞれ局所基底出力信号を出力する局所基底出力
計算回路と、前記複数の局所基底出力信号を受けてその
総和をとり総局所基底出力信号を出力する加算器と、前
記局所基底出力信号と前記総局所基底出力信号とを受け
て規格化局所基底出力信号を出力する除算器と、前記規
格化局所基底出力信号を受け内部に保持した結合加重と
の積を局所出力信号として出力する局所出力計算回路
と、前記局所出力信号の総和を出力信号として出力する
加算器と、教師信号と出力信号との差分信号と除算器か
らの規格化局所基底出力信号を受けて対応する局所出力
計算回路の結合加重を修正する結合加重修正回路と、出
力信号との差分信号と除算器からの規格化局所基底出力
信号を受けて対応する局所基底出力計算回路の内部パラ
メータを修正する局所基底修正回路と、差分信号と出力
信号と教師信号と総局所基底出力信号とを受けて局所出
力計算回路の結合加重を設定する結合加重設定回路と、
入力信号と規格化局所出力信号と局所出力計算回路の内
部パラメータに基づいて局所基底出力計算回路の内部パ
ラメータを設定する局所基底設定回路とからなる神経回
路網模擬装置。
6. A local basis output calculation circuit that receives an input signal and outputs a local basis output signal by each of a plurality of local basis functions, and a total local basis output signal that receives a sum of the plurality of local basis output signals. A divider for receiving the local base output signal and the total local base output signal to output a standardized local base output signal; and a combination for internally receiving the standardized local base output signal. A local output calculation circuit that outputs the product of the weights as a local output signal, an adder that outputs the sum of the local output signals as an output signal, a difference signal between the teacher signal and the output signal, and a normalized local from the divider. A combined weight correction circuit that receives the base output signal and corrects the combined weight of the corresponding local output calculation circuit, and receives the difference signal from the output signal and the normalized local base output signal from the divider A local basis correction circuit that corrects internal parameters of the local basis output calculation circuit; and a combination weight setting circuit that receives the difference signal, the output signal, the teacher signal, and the total local basis output signal and sets the combination weight of the local output calculation circuit. ,
A neural network simulation device comprising: a local basis setting circuit that sets an internal parameter of a local basis output calculation circuit based on an input signal, a normalized local output signal, and an internal parameter of the local output calculation circuit.
【請求項7】 入力信号を受けて局所基底出力信号を計
算して出力する局所基底出力計算回路と、複数の局所基
底出力計算回路からの局所基底出力信号を受けてその総
和をとり総局所基底出力信号を出力する加算器と、局所
基底出力計算回路からの規格化局所基底出力信号を受け
内部に保持した結合加重との積を局所出力信号として出
力する局所出力計算回路と、複数の局所出力計算回路か
らの局所出力信号の総和を非規格化出力信号として出力
する加算器と、加算器と加算器とから非規格化出力信号
と総局所基底出力信号とを受けて出力信号を出力する除
算器と、局所基底出力計算回路と加算器とから局所基底
出力信号と総局所基底出力信号を受けて、規格化局所基
底出力信号を出力する除算器と、差分信号と除算器から
の規格化局所基底出力信号を受けて対応する局所出力計
算回路の結合加重を修正する結合加重修正回路と、出力
信号との差分信号と除算器からの規格化局所基底出力信
号を受けて対応する局所基底出力計算回路の内部パラメ
ータを修正する局所基底修正回路と、差分信号と教師信
号と総局所基底出力信号と出力信号とを受けて局所出力
計算回路の結合加重を設定する結合加重設定回路と、入
力信号と規格化局所基底出力信号と局所出力計算回路の
内部パラメータに基づいて局所基底出力計算回路の内部
パラメータを設定する局所基底設定回路とからなる神経
回路網模擬装置。
7. A local basis output calculation circuit that receives an input signal and calculates and outputs a local basis output signal, and a local basis output signal from a plurality of local basis output calculation circuits, and sums them to obtain a total local basis. A local output calculation circuit that outputs, as a local output signal, a product of an adder that outputs an output signal, a standardized local base output signal from the local base output calculation circuit, and a coupling weight that is held inside, and a plurality of local outputs An adder that outputs the sum of the local output signals from the calculation circuit as a non-standardized output signal, and a division that outputs the output signal by receiving the non-standardized output signal and the total local base output signal from the adder and the adder , A local basis output calculation circuit and an adder to receive the local basis output signal and the total local basis output signal, and to output a normalized local basis output signal, and a difference signal and the normalized local from the divider. Basal A joint weight correction circuit for receiving the force signal and correcting the joint weight of the corresponding local output calculation circuit, and a corresponding local basis output calculation circuit for receiving the difference signal from the output signal and the normalized local basis output signal from the divider Local basis correction circuit for correcting the internal parameters of the input signal, the combination weight setting circuit for receiving the difference signal, the teacher signal, the total local base output signal and the output signal and setting the connection weight of the local output calculation circuit, the input signal and the standard. And a local basis setting circuit for setting internal parameters of the local basis output calculation circuit based on the internal parameters of the generalized local basis output signal and the local output calculation circuit.
【請求項8】 結合加重設定回路は、差分信号に基づい
て結合加重設定を制御する結合加重設定制御部と、参照
ベクトルを読みだして入力信号として入力線に出力する
参照ベクトル信号発生部と、入力信号と規格化局所基底
出力信号と教師信号と出力信号を記憶する信号記憶部
と、信号記憶部から必要に応じてデータを読みだして結
合加重を計算し設定する結合加重設定部とからなる請求
項1から7のいずれかに記載の神経回路網模擬装置。
8. The combination weight setting circuit includes a combination weight setting control unit that controls the combination weight setting based on the difference signal, a reference vector signal generation unit that reads a reference vector and outputs it as an input signal to an input line, It is composed of a signal storage unit that stores an input signal, a normalized local basis output signal, a teacher signal, and an output signal, and a connection weight setting unit that reads out data from the signal storage unit as necessary to calculate and set a connection weight. The neural network simulation device according to any one of claims 1 to 7.
【請求項9】 前記局所基底出力計算回路と、総局所基
底出力信号を計算する前記加算器と、前記除算器と、前
記局所出力計算回路と、出力信号を計算する前記加算器
と、教師信号と出力信号の差分をとって得られる差分信
号と局所基底出力計算回路の内部パラメータから学習方
法を切り替える学習法切り替え回路と、入力信号と出力
信号と前記除算器からの規格化局所基底出力信号と前記
学習法切り替え回路からの修正差分信号を受けて前記局
所基底出力計算回路と前記局所出力計算回路から内部パ
ラメータを読みだし前記局所基底出力回路の内部パラメ
ータを修正する簡易局所基底修正回路と、前記除算器か
らの規格化局所基底出力信号と前記学習法切り替え回路
からの修正差分信号を受けて前記局所出力計算回路の内
部パラメータを読みだし前記局所出力計算回路の内部パ
ラメータを修正する簡易結合加重修正回路と、入力信号
と前記除算器からの規格化局所基底出力と前記学習法切
り替え回路からの設定信号を受けて前記局所基底出力計
算回路の内部パラメータを読みだし前記局所基底出力計
算回路の内部パラメータを設定する簡易局所基底設定回
路と、前記加算器からの総局所基底出力信号と出力信号
と教師信号と前記学習法切り替え回路からの設定信号を
受けて前記局所出力計算回路の内部パラメータを設定す
る簡易前記結合加重設定回路とからなる神経回路網模擬
装置。
9. The local basis output calculation circuit, the adder for calculating a total local basis output signal, the divider, the local output calculation circuit, the adder for calculating an output signal, and a teacher signal. And a learning method switching circuit that switches a learning method from a difference signal obtained by taking a difference between the output signal and a local basis output calculation circuit, an input signal, an output signal, and a normalized local basis output signal from the divider. A simplified local basis correction circuit that receives a modified difference signal from the learning method switching circuit, reads internal parameters from the local basis output calculation circuit and the local output calculation circuit, and corrects internal parameters of the local basis output circuit; The internal parameter of the local output calculation circuit is read by receiving the normalized local basis output signal from the divider and the modified difference signal from the learning method switching circuit. However, a simple coupling weighted correction circuit for correcting internal parameters of the local output calculation circuit, the input signal, the normalized local base output from the divider, and the setting signal from the learning method switching circuit are received to calculate the local base output. A simple local basis setting circuit for reading internal parameters of the circuit and setting internal parameters of the local basis output calculation circuit, a total local basis output signal from the adder, an output signal, a teacher signal, and a learning method switching circuit. A neural network simulating device comprising: the simple coupling weight setting circuit that receives a setting signal and sets an internal parameter of the local output calculation circuit.
【請求項10】 忘却処理回路を有することを特徴とす
る請求項1から5、8のいずれかに記載の神経回路網模
擬装置。
10. The neural network simulating device according to claim 1, further comprising a forgetting processing circuit.
【請求項11】 前記局所基底出力計算回路と、総局所
基底出力信号を計算する前記加算器と、前記除算器と、
前記局所出力計算回路と、出力信号を計算する前記加算
器と、前記簡易結合加重修正回路と、前記簡易局所基底
修正回路と、前記簡易前記結合加重設定回路と、前記簡
易局所基底設定回路と、教師信号と出力信号の差分をと
って得られる差分信号と前記局所基底出力計算回路の内
部パラメータから学習方法を選択する学習方法選択回路
と、前記学習方法選択回路からの忘却処理開始信号を受
けて前記局所基底出力計算回路の内部パラメータを読み
だし忘却処理を行う忘却処理回路とからなる神経回路網
模擬装置。
11. The local basis output calculation circuit, the adder for calculating a total local basis output signal, the divider,
The local output calculation circuit, the adder for calculating an output signal, the simple combination weight correction circuit, the simple local basis correction circuit, the simple combination weight setting circuit, and the simple local basis setting circuit, A learning method selecting circuit for selecting a learning method from a difference signal obtained by taking a difference between a teacher signal and an output signal and an internal parameter of the local basis output calculating circuit, and a forgetting process start signal from the learning method selecting circuit A neural network simulation device comprising a forgetting processing circuit for reading out internal parameters of the local basis output calculating circuit and performing a forgetting process.
【請求項12】 前記入力信号と前記教師信号の間の関
数関係についてあらかじめ判明している情報に基づい
て、前記局所基底出力計算回路の内部パラメータと前記
局所出力計算回路の結合加重とが初期設定され、前記局
所基底修正回路と前記結合加重修正回路により、また
は、前記簡易局所基底修正回路と前記簡易結合加重修正
回路により、前記局所基底出力計算回路の内部パラメー
タと前記局所出力計算回路の結合加重とを修正すること
を特徴とした請求項6、7、9、11のいずれかに記載
の神経回路網模擬装置。
12. An internal parameter of the local basis output calculation circuit and a joint weight of the local output calculation circuit are initialized based on information known in advance regarding a functional relationship between the input signal and the teacher signal. The local basis correction circuit and the combined weight correction circuit, or the simple local basis correction circuit and the simple combined weight correction circuit, are used to combine the internal parameters of the local basis output calculation circuit and the combined output weight of the local output calculation circuit. 12. The neural network simulation device according to claim 6, wherein: and are modified.
JP6093237A 1993-04-30 1994-05-02 Neural network simulator Expired - Fee Related JP2734374B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6093237A JP2734374B2 (en) 1993-04-30 1994-05-02 Neural network simulator

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5-104325 1993-04-30
JP10432593 1993-04-30
JP6093237A JP2734374B2 (en) 1993-04-30 1994-05-02 Neural network simulator

Publications (2)

Publication Number Publication Date
JPH0798694A true JPH0798694A (en) 1995-04-11
JP2734374B2 JP2734374B2 (en) 1998-03-30

Family

ID=26434654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6093237A Expired - Fee Related JP2734374B2 (en) 1993-04-30 1994-05-02 Neural network simulator

Country Status (1)

Country Link
JP (1) JP2734374B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7778724B2 (en) 2006-09-29 2010-08-17 Panasonic Electric Works Co., Ltd. Device for estimating machining dimension of machine tool

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0476685A (en) * 1990-07-12 1992-03-11 Mitsubishi Electric Corp Neural circuit network device
JPH04262478A (en) * 1991-02-15 1992-09-17 Nippon Telegr & Teleph Corp <Ntt> Automatic retrieval method for nonlinear saturation function of neural network

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0476685A (en) * 1990-07-12 1992-03-11 Mitsubishi Electric Corp Neural circuit network device
JPH04262478A (en) * 1991-02-15 1992-09-17 Nippon Telegr & Teleph Corp <Ntt> Automatic retrieval method for nonlinear saturation function of neural network

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7778724B2 (en) 2006-09-29 2010-08-17 Panasonic Electric Works Co., Ltd. Device for estimating machining dimension of machine tool

Also Published As

Publication number Publication date
JP2734374B2 (en) 1998-03-30

Similar Documents

Publication Publication Date Title
CN109328362B (en) Progressive neural network
Ibnkahla Applications of neural networks to digital communications–a survey
Cai et al. An optimal construction and training of second order RBF network for approximation and illumination invariant image segmentation
CN112288086B (en) Neural network training method and device and computer equipment
US20160283842A1 (en) Neural network and method of neural network training
Jaiyen et al. A very fast neural learning for classification using only new incoming datum
CN114341891A (en) Neural network pruning
CN111052152A (en) Control device including array of artificial neural elements, method of calculating discretized step length, and program
US20210224647A1 (en) Model training apparatus and method
US5446829A (en) Artificial network for temporal sequence processing
US5682465A (en) Learning method of non-linear network for non-linear function approximation
Rojas et al. Nonlinear blind source separation using genetic algorithms
US11568303B2 (en) Electronic apparatus and control method thereof
JPH0798694A (en) Neural network simulator
Akhmetov et al. Probabilistic neural network with memristive crossbar circuits
WO2021095512A1 (en) Machine learning device, information processing method, and recording medium
JP4773680B2 (en) Information processing apparatus and method, program recording medium, and program
JP7250643B2 (en) Computer system and model learning method
JP2000242624A (en) Signal separation device
US20050065900A1 (en) Information processing apparatus and method
Raudys On the universality of the single-layer perceptron model
CN113537318B (en) Robot behavior decision method and device simulating human brain memory mechanism
JP2659230B2 (en) Neural network learning device
JPH1055346A (en) Neural network circuit
JP3052520B2 (en) Pattern classification device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees