JPH09185596A - Coupling coefficient updating method in pulse density type signal processing network - Google Patents

Coupling coefficient updating method in pulse density type signal processing network

Info

Publication number
JPH09185596A
JPH09185596A JP8000697A JP69796A JPH09185596A JP H09185596 A JPH09185596 A JP H09185596A JP 8000697 A JP8000697 A JP 8000697A JP 69796 A JP69796 A JP 69796A JP H09185596 A JPH09185596 A JP H09185596A
Authority
JP
Japan
Prior art keywords
signal
neuron
coupling coefficient
output
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8000697A
Other languages
Japanese (ja)
Inventor
Sugitaka Otegi
杉高 樗木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP8000697A priority Critical patent/JPH09185596A/en
Publication of JPH09185596A publication Critical patent/JPH09185596A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a coupling coefficient updating method faithfully leading out learning algorithm from a neuron output function and realizing learning processing through the use of a simple logical circuit. SOLUTION: The plus component of a differential signal δk<+> (or an inversion signal by an inverter 45) at a neuron (k), the minus component δk<-> of the same signal (or an inversion signal by an inverter 44 and S'kj are inputted in an AND circuit 46 or 47 and processed by η circuits 38 and 38. Then the signal obtained by the processing is set to be the plus component Δkj<+> of the updated quantity of the coupling coefficient or the minus component Δkj<-> of the updated quantity of the coupling coefficient. When the OR output of the Δkj<+> and a coupling coefficient pulse Wkj before update by means of an OR circuit 48 is '1', '1' is added at an up/down counter 41 and when the kj is '1', '1' is subtracted at the up/down counter 41 to set the result value obtained by these adding and subtracting processing to be a new coupling coefficient.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、文字や図形認識、ロボ
ット等の運動制御、或いは連想記憶等に応用されるパル
ス密度型信号処理回路網における結合係数更新方法並び
に結合係数更新装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a coupling coefficient updating method and a coupling coefficient updating device in a pulse density type signal processing circuit network applied to character and graphic recognition, motion control of a robot or the like, or associative memory.

【0002】[0002]

【従来の技術】生体の情報処理の基本的な単位である神
経細胞(ニューロン)の機能を模倣した神経細胞模倣素
子をネットワークに構成し、情報の並列処理を目指した
のが、いわゆる神経細胞回路ネットワーク(ニューラル
ネットワーク)である。文字認識や連想記憶、運動制御
等は、生体においてはいとも簡単に行われていても、従
来のノイマン型コンピュータではなかなか達成できない
ものが多い。
2. Description of the Related Art A so-called nerve cell circuit is aimed at parallel processing of information by configuring a nerve cell mimicking element that mimics the function of a nerve cell (neuron), which is a basic unit of information processing of a living body, in a network to process information in parallel. It is a network (neural network). Although character recognition, associative memory, motion control, etc. are performed in the living body in a very simple manner, many cannot be easily achieved by the conventional Neumann computer.

【0003】そこで、生体の神経系、特に生体特有の機
能、すなわち並列処理や自己学習等を模倣して、これら
の問題を解決しようとする試みが、計算機シュミレーシ
ョンや専用ハードウェアの試作等によって、盛んに行わ
れている。
Therefore, attempts to solve these problems by imitating the functions of the nervous system of the living body, in particular, the functions peculiar to the living body, that is, parallel processing and self-learning, have been made by computer simulations and trial production of dedicated hardware. It is being actively conducted.

【0004】図1は、一つのニューロンのモデル(神経
細胞ユニット)を表すもので、他のニューロンから入力
を受ける部分、入力を一定の規則で変換する部分、結果
を出力する部分からなる。他のニューロンとの結合部に
はそれぞれ可変の重み“Wji”を付け、結合の強さを
表している。この値を変えるとネットワークの構造が変
わる。ネットワークの学習とはこの値を変えることであ
る。
FIG. 1 shows a model (nerve cell unit) of one neuron, which is composed of a part for receiving an input from another neuron, a part for converting the input according to a certain rule, and a part for outputting a result. A variable weight "Wji" is attached to each of the connection parts with other neurons to represent the connection strength. Changing this value changes the network structure. Learning the network means changing this value.

【0005】図2は、これをネットワークにし、階層型
ニューラルネットワークを形成した場合である。図中、
A1,A2,A3はそれぞれニューロンを表している。
各ニューロンA1,A2,A3は図1の模式図に示すニ
ューロンと同様に多数のニューロンと結合され、それか
ら受けた信号を処理して出力する。階層型ネットワーク
は、入力層、中間層、出力層から成り、各層内での結合
はなく、また出力層から入力層に向かう結合もない。一
つのニューロンは他の多数のニューロンと結合してい
る。
FIG. 2 shows a case where this is used as a network to form a hierarchical neural network. In the figure,
A1, A2 and A3 represent neurons, respectively.
Each of the neurons A1, A2, A3 is connected to a large number of neurons like the neuron shown in the schematic view of FIG. 1, and processes and outputs the signals received from them. The hierarchical network is composed of an input layer, an intermediate layer, and an output layer, and there is no connection within each layer and no connection from the output layer to the input layer. One neuron is connected to many other neurons.

【0006】なお、図2は、入力層、中間層、出力層の
三層ネットワークであるが、中間層を複数持つ多層ネッ
トワークも利用される。
Although FIG. 2 shows a three-layer network including an input layer, an intermediate layer, and an output layer, a multi-layer network having a plurality of intermediate layers is also used.

【0007】図1に示すニューロンを例にとり、図2の
各ニューロンA1,A2,A3の動作について説明す
る。まず、フォワードプロセスについて説明する。
The operation of each of the neurons A1, A2 and A3 shown in FIG. 2 will be described by taking the neuron shown in FIG. 1 as an example. First, the forward process will be described.

【0008】図2のニューラルネットワークにおいて、
入力層A1に入力された信号は、中間層A2に伝播し、
中間層A2にてフォワード処理を実行する。中間層A2
の処理結果は、出力層A3に伝播し、出力層A3にて、
フォワード処理を実行し、最終的にニューラルネットワ
ークの出力が得られる。
In the neural network of FIG.
The signal input to the input layer A1 propagates to the intermediate layer A2,
Forward processing is executed in the middle layer A2. Middle layer A2
The processing result of is propagated to the output layer A3, and at the output layer A3,
The forward process is executed, and the output of the neural network is finally obtained.

【0009】ここで、ニューロン間の結合の度合いを表
すのが、結合係数と呼ばれるもので、j番目のニューロ
ンとi番目のニューロンとの結合係数をWjiで表す。
結合には、相手のニューロンからの信号が大きいほど自
分の出力が大きくなる興奮性結合と、逆に相手のニュー
ロンからの信号が大きいほど自分の出力が小さくなる抑
制性結合があり、Wji>0のとき興奮性結合、Wji
<0のとき抑制性結合を表す。
The degree of coupling between neurons is called a coupling coefficient, and the coupling coefficient between the j-th neuron and the i-th neuron is represented by Wji.
There are two types of coupling: excitatory coupling, in which the output of the partner neuron increases as the signal from the partner neuron increases, and inhibitory coupling, in which the output of the partner neuron decreases, the output decreases. Excitatory coupling, Wji
When <0, it represents an inhibitory bond.

【0010】今、自分のニューロンがj番目であると
し、i番目のニューロンの出力をOiとすると、これに
結合係数Wjiを掛けWji・Oiが自分のニューロン
への入力となる。各ニューロンは多数のニューロンと結
合しているので、それらのニューロンに対するWji・
Oiを足し合わせた結果であるΣWji・Oiが、自分
のニューロンへの入力となる。これを内部電位と言い、
次式で示される。
Now, assuming that the own neuron is the j-th neuron and the output of the i-th neuron is Oi, this is multiplied by the coupling coefficient Wji, and Wji · Oi becomes the input to the own neuron. Since each neuron is connected to a large number of neurons, Wji ·
ΣWji · Oi, which is the result of adding Oi, becomes the input to the own neuron. This is called the internal potential,
It is shown by the following equation.

【0011】[0011]

【数1】netj =ΣWji・Oi … (1)[Equation 1] net j = ΣWji · Oi (1)

【0012】次に、この入力に対して非線形処理を施
し、出力をする。この時の関数を神経細胞応答関数と呼
び、例えば次の式(2)に示されるようなシグモイド関
数が用いられる。
Next, this input is subjected to non-linear processing and output. The function at this time is called a nerve cell response function, and for example, a sigmoid function represented by the following equation (2) is used.

【0013】[0013]

【数2】 f(netj )=1/{1+exp(−netj )} … (2)[Number 2] f (net j) = 1 / {1 + exp (-net j)} ... (2)

【0014】この関数を図3に示す。値域は“0〜1”
で、入力値が大きくなるにつれ“1”に、小さくなるに
つれ“0”に近づく。以上より、ニューロンjの出力O
jは次の式(3)で示される。
This function is shown in FIG. Value range is "0 to 1"
Then, as the input value increases, it approaches “1”, and as it decreases, it approaches “0”. From the above, the output O of the neuron j
j is expressed by the following equation (3).

【0015】[0015]

【数3】 Oj=f(netj ) =f(ΣWji・Oi) … (3)## EQU3 ## Oj = f (net j ) = f (ΣWji · Oi) (3)

【0016】次に、上記ニューラルネットワークの学習
機能について説明する。数値計算で用いられる学習プロ
セスとして、一般的なバックプロパゲーションアルゴリ
ズム(以後、略してBPアルゴリズムと呼ぶ。)につい
て簡単に述べる。
Next, the learning function of the neural network will be described. As a learning process used in the numerical calculation, a general back propagation algorithm (hereinafter, abbreviated as BP algorithm) will be briefly described.

【0017】学習プロセスでは、ある入力パターンpを
与えたとき、実際の出力値と望ましい出力値の誤差を小
さくするように結合係数を変更していく。この変更量を
求めるアルゴリズムがBPアルゴリズムである。
In the learning process, when a certain input pattern p is given, the coupling coefficient is changed so as to reduce the error between the actual output value and the desired output value. The BP algorithm is an algorithm for obtaining this change amount.

【0018】今、ある入力パターンpを与えたとき、ユ
ニットkの実際の出力値(Opk)と望ましい出力値
(tpk)の差を次の式(4)のように定義する。
Now, given a certain input pattern p, the difference between the actual output value (Opk) of the unit k and the desired output value (tpk) is defined by the following equation (4).

【0019】[0019]

【数4】Ep=(tpk−Opk)2 /2 … (4)[Number 4] Ep = (tpk-Opk) 2 /2 ... (4)

【0020】これは出力層のユニットkの誤差を表し、
tpkは人間が与える教師データである。学習ではこの
誤差を減らすようにすべての結合の強さを変えていく。
実際には、パターンpを与えた時のWkjの変化量を次
の式(5)で表す。
This represents the error of the unit k in the output layer,
tpk is teacher data given by a human. In learning, the strength of all connections is changed to reduce this error.
Actually, the change amount of Wkj when the pattern p is given is expressed by the following equation (5).

【0021】[0021]

【数5】ΔpWkj∝−ЭE/ЭWkj … (5)[Equation 5] ΔpWkj∝−ЭE / ЭWkj (5)

【0022】これを用いて、結合係数Wkjを変化させ
る。上記式(4)より、結果的に次の式(6)が得られ
る。
Using this, the coupling coefficient Wkj is changed. As a result, the following equation (6) is obtained from the above equation (4).

【0023】[0023]

【数6】ΔpWkj=η・δpk・Opj … (6)[Equation 6] ΔpWkj = η · δpk · Opj (6)

【0024】ここで、Opjは、ユニットjからユニッ
トkへの入力値である。誤差δpkは、ユニットkが出
力層か、中間層で異なる。まず、出力層における誤差信
号δpkは、次の式(7)となる。
Here, Opj is an input value from the unit j to the unit k. The error δpk differs depending on whether the unit k is the output layer or the intermediate layer. First, the error signal δpk in the output layer is given by the following equation (7).

【0025】[0025]

【数7】 δpk=(tpk−Opk)・f´(netk ) … (7)## EQU00007 ## .delta.pk = (tpk-Opk) .f '(net k ) (7)

【0026】一方、中間層における誤差信号δpjは次
の式(8)に示す通りである。
On the other hand, the error signal δpj in the intermediate layer is as shown in the following equation (8).

【0027】[0027]

【数8】 δpj=f´(netj )・ΣδpkWkj … (8)Δpj = f ′ (net j ) · ΣδpkWkj (8)

【0028】但し、f´(netj )はf(netj
の一階微分で、詳細は後述する。以上よりΔWjiを一
般的に定式化したのが次の式(9)である。
However, f '(net j ) is f (net j )
The first-order differential, which will be described in detail later. From the above, ΔWji is generally formulated as the following equation (9).

【0029】[0029]

【数9】 ΔWji(t+1)=η・δpj・Opi+α・ΔWji(t) … (9)ΔWji (t + 1) = η · δpj · Opi + α · ΔWji (t) (9)

【0030】故に式(10)に示す通りである。ここで
tは学習の順位、ηは学習定数、αは安定化係数と呼ば
れる。上記式(9)の右辺第1項は、上記式(6)で求
めたΔWji、第2項はエラーの振動を減らし、収束を
早めるために加えている。
Therefore, it is as shown in the equation (10). Here, t is a learning order, η is a learning constant, and α is a stabilizing coefficient. The first term on the right side of the above equation (9) is added to ΔWji obtained by the above equation (6), and the second term is added to reduce the error vibration and accelerate the convergence.

【0031】[0031]

【数10】 Wji(t+1)=Wji(t)+ΔWji(t+1) … (10)(10) Wji (t + 1) = Wji (t) + ΔWji (t + 1) (10)

【0032】このように結合係数の変化量ΔWjiの計
算は、出力層のユニットから始めて中間層のユニットに
移る。学習は、入力データの処理とは逆方向、つまり後
ろ向きに進む。従って、バックプロパゲーションによる
学習は、まず、学習用のデータを入力し、結果を出力す
る(前向き)。結果のエラーを減らすようにすべての結
合の強さを変える(後ろ向き)。再び、学習用データを
入力する。これを収束するまで繰り返すことになる。
As described above, the calculation of the variation ΔWji of the coupling coefficient starts from the unit of the output layer and proceeds to the unit of the intermediate layer. Learning proceeds in the opposite direction to the processing of the input data, that is, backward. Therefore, in learning by back propagation, first, learning data is input and the result is output (forward). Change the strength of all joins to reduce the resulting error (backward). Input the learning data again. This will be repeated until it converges.

【0033】従来の階層型ニューラルネットワークは、
図2に示すようなネットワークを形成する。このネット
ワークにおいて、フォワードプロセスのデータの流れを
示したのが図4である。これは3層階層型ネットワーク
における場合で、フォワードプロセスでは、入力層(図
4の左側の層)に入力信号Oi1 〜Oi4 を与えて、出
力層(図4の右側の層)より出力信号Ok1 〜Ok4 を
得る。
The conventional hierarchical neural network is
A network as shown in FIG. 2 is formed. FIG. 4 shows the data flow of the forward process in this network. This is the case in a three-layer hierarchical network. In the forward process, input signals Oi1 to Oi4 are given to the input layer (the layer on the left side of FIG. 4), and the output signals Ok1 to Oi from the output layer (the layer on the right side of FIG. 4). Get Ok4.

【0034】一方、学習プロセスのデータの流れを示し
たのが図5である。学習プロセスでは、出力層(図5の
右側の層)に教師信号tk1 〜tk4 を与えて、各ニュ
ーロン間の結合強度を更新し、ニューラルネットワーク
の出力が教師信号に一致するように学習する。なお、こ
の学習プロセスによる処理は、今のところ多くの場合、
外部の汎用のコンピュータによって実行している。
On the other hand, FIG. 5 shows the data flow of the learning process. In the learning process, the teacher signals tk1 to tk4 are given to the output layer (the layer on the right side of FIG. 5) to update the coupling strength between the neurons and learn so that the output of the neural network matches the teacher signal. It should be noted that the processing by this learning process is
It is executed by an external general-purpose computer.

【0035】前記ネットワークを電気回路で実現したも
のの一例を図6に示す(特開昭62−295188号公
報)。この回路は、基本的にはS字型の伝達関数を有す
る複数の増幅器4と、各増幅器4の出力を他の層の増幅
器の入力に一点鎖線で示すように接続する抵抗性フィー
ドバック回路網2とが設けられている。各増幅器4の入
力側には接地させたコンデンサCと接地された抵抗Rと
によるCR時定数回路3が個別に接続されている。そし
て、入力電流I1 ,I2 〜IN が各増幅器4の入力に供
給され、出力はこれらの増幅器4の出力電圧の集合から
得られる。
FIG. 6 shows an example in which the network is realized by an electric circuit (Japanese Patent Laid-Open No. 62-295188). This circuit basically comprises a plurality of amplifiers 4 having an S-shaped transfer function, and a resistive feedback network 2 for connecting the output of each amplifier 4 to the input of an amplifier of another layer as shown by a chain line. And are provided. A CR time constant circuit 3 including a grounded capacitor C and a grounded resistor R is individually connected to the input side of each amplifier 4. Then, the input current I 1, I 2 ~I N is supplied to the input of the amplifier 4, the output is obtained from a set of these output voltage of the amplifier 4.

【0036】ここに、入力や出力の信号の強度を電圧で
表し、神経細胞の結合の強さは、各細胞間の入出力ライ
ンを結ぶ抵抗1(抵抗性フィードバック回路網2中の格
子点)の抵抗値で表され、神経細胞応答関数は各増幅器
4の伝達関数で表される。また、神経細胞間の結合には
前述のように興奮性と抑制性があり、数学的には結合関
数の正負符号により表される。しかし、回路上の定数で
正負を実現するのは困難であるので、ここでは、増幅器
4の出力を2つに分け(4a,4b)、一方の出力を反
転させることにより、正負の2つの信号を生成し、これ
を選択することにより実現するようにしている。また、
図3に示したシグモイド関数f(net)に相当するも
のとしては増幅器が用いられている。
Here, the strength of the input and output signals is represented by a voltage, and the strength of the nerve cell coupling is the resistance 1 (the lattice point in the resistive feedback network 2) connecting the input / output lines between the cells. , And the nerve cell response function is represented by the transfer function of each amplifier 4. Further, the connection between nerve cells has excitability and inhibitory property as described above, and is mathematically represented by the sign of the connection function. However, since it is difficult to realize positive / negative with a constant on the circuit, here, the output of the amplifier 4 is divided into two (4a, 4b), and one output is inverted to obtain two positive / negative signals. Is generated and is selected so that it is realized. Also,
An amplifier is used as the one corresponding to the sigmoid function f (net) shown in FIG.

【0037】一般に、ニューラルネットワークをアナロ
グ回路により構成すると、単一神経回路素子の面積を小
さくできるため、ニューラルネットワークの集積度を大
きくできたり、或いは実行スピードが速いといった利点
を持っている。しかしながらその反面、各信号の値を電
位や電流等のアナログ量で表し、各演算も増幅器等のア
ナログ素子により実行するため、温度特性によるばらつ
きが存在し、また素子形成上のプロセスのばらつきのた
め、各素子の応答特性を同一にすることができず、出力
値が不安定になるといった問題もある。
In general, when the neural network is configured by analog circuits, the area of a single neural circuit element can be reduced, so that the degree of integration of the neural network can be increased or the execution speed is fast. However, on the other hand, the value of each signal is represented by an analog amount such as a potential or current, and each calculation is performed by an analog element such as an amplifier. Therefore, there are variations due to temperature characteristics, and there are variations in the process of forming elements. However, there is also a problem that the response characteristics of each element cannot be made the same and the output value becomes unstable.

【0038】また、ニューラルネットワークの結合係数
の値を学習によって任意に変更するということも難し
く、外部のコンピュータで学習を行い、学習後の各結合
係数の値をハードウェア上にダウンロードするといった
こともよく行われる。このような学習方法では、学習に
コンピュータを必要としたり、学習処理が著しく遅くな
るといった問題がある。
It is also difficult to arbitrarily change the value of the coupling coefficient of the neural network by learning, and it is also possible to perform learning by an external computer and download the value of each coupling coefficient after learning to the hardware. Often done. In such a learning method, there are problems that a computer is required for learning and the learning process is significantly slowed down.

【0039】次に、デジタル回路によりニューラルネッ
トワークを構成した例を示す。図7〜図9は、前記ニュ
ーラルネットワークをデジタル回路で実現した例を示す
図で、図7は、単一神経細胞の回路構成例を示す。これ
らにおいて図で、11はシナプス回路、12は樹状突起
回路、13は細胞体回路を示す。
Next, an example in which a neural network is composed of digital circuits will be shown. 7 to 9 are diagrams showing an example in which the neural network is realized by a digital circuit, and FIG. 7 shows a circuit configuration example of a single nerve cell. In these figures, 11 is a synaptic circuit, 12 is a dendrite circuit, and 13 is a cell body circuit.

【0040】図8は、図7に示したシナプス回路11の
構成例を示す図で、係数回路11aを介して入力パルス
fに倍率a(フィードバック信号に掛ける倍率で1また
は2)を掛けた値が入力されるレートマルチプライヤ1
1bを設けてなり、レートマルチプライヤ11bには重
み付けの値wを記憶したシナプス荷重レジスタ11cが
接続されている。また、図9は細胞体回路13の構成例
を示す図で、制御回路14、アップ/ダウンカウンタ1
5、レートマルチプライヤ16及びゲート17を順に接
続してなり、さらに、アップ/ダウンメモリ18が設け
られている。
FIG. 8 is a diagram showing a configuration example of the synapse circuit 11 shown in FIG. 7, which is a value obtained by multiplying the input pulse f by a factor a (a factor of 1 or 2 by which the feedback signal is multiplied) via the coefficient circuit 11a. Input rate multiplier 1
1b is provided, and the rate multiplier 11b is connected to a synapse weight register 11c that stores a weighting value w. FIG. 9 is a diagram showing a configuration example of the cell body circuit 13, which includes a control circuit 14 and an up / down counter 1.
5, a rate multiplier 16 and a gate 17 are sequentially connected, and an up / down memory 18 is further provided.

【0041】これは、神経細胞ユニットの入出力をパル
ス列で表現し、そのパルス密度で信号の量を表してい
る。結合係数は2進数で取り扱い、シナプス荷重レジス
タ11cに保存している。
In this case, the input and output of the nerve cell unit is represented by a pulse train, and the signal density is represented by the pulse density. The coupling coefficient is treated as a binary number and stored in the synapse weight register 11c.

【0042】信号演算処理は次のように行う。まず、入
力信号をレートマルチプライヤ11bへ入力し、結合係
数をレート値へ入力することによって、入力信号のパル
ス密度をレート値に応じて減らしている。これは、前述
のバックプロパゲーションモデルの式のWji・Oiの
部分に相当する。またΣWji・OiのΣの部分は、樹
状突起回路12によって示されるOR回路で実現してい
る。結合には、興奮性、抑制性があるので、あらかじめ
グループ分けしておき、それぞれのグループ別に論理和
(OR)をとる。図7において、F1 は興奮性、F2 は
抑制性出力を示す。この2つの出力を図9に示したカウ
ンタ15のアップ側、ダウン側にそれぞれ入力してカウ
ントすることで出力が得られる。この出力は2進数であ
るので、再びレートマルチプライヤ16を用いてパルス
密度に変換する。この神経細胞ユニットを複数個用いて
ネットワークを構成することによって、ニューラルネッ
トワークが実現できる。学習機能はネットワークの最終
出力を外部のコンピュータに入力して、コンピュータ内
部で数値計算を行い、その結果を結合係数を保存するシ
ナプス荷重レジスタ11cに書き込むことによって実現
している。
The signal calculation process is performed as follows. First, the input signal is input to the rate multiplier 11b and the coupling coefficient is input to the rate value to reduce the pulse density of the input signal according to the rate value. This corresponds to the Wji · Oi part of the expression of the back propagation model described above. The Σ portion of ΣWji · Oi is realized by the OR circuit shown by the dendrite circuit 12. Since the coupling has excitatory and inhibitory properties, it is divided into groups in advance and a logical sum (OR) is taken for each group. In FIG. 7, F1 indicates excitatory output and F2 indicates inhibitory output. An output is obtained by inputting these two outputs to the up side and the down side of the counter 15 shown in FIG. 9 and counting respectively. Since this output is a binary number, it is converted into a pulse density again using the rate multiplier 16. A neural network can be realized by constructing a network using a plurality of these nerve cell units. The learning function is realized by inputting the final output of the network to an external computer, performing numerical calculation inside the computer, and writing the result to the synapse weight register 11c that stores the coupling coefficient.

【0043】以上のように、ニューラルネットワークを
デジタル回路により構成すると、単一神経回路素子の面
積がアナログ回路に比べ大きくなるため、ニューラルネ
ットワークの集積度を上げられないといった難点がある
が、アナログ回路の欠点であった、温度特性や素子形成
上のプロセスのばらつきによる影響を受けず、回路を形
成することも比較的容易で、神経細胞素子(ニューロ
ン)の出力も安定し、信頼性が高いといった利点があ
る。
As described above, if the neural network is configured by a digital circuit, the area of a single neural circuit element becomes larger than that of an analog circuit, so that the integration degree of the neural network cannot be increased. However, it is relatively easy to form a circuit without being affected by temperature characteristics and process variations in device formation, which is a drawback of, and the output of nerve cell devices (neurons) is stable and highly reliable. There are advantages.

【0044】しかし、図7〜9に示した例では、ニュー
ラルネットワークの学習は、外部のコンピュータに頼っ
ているため、学習用のコンピュータを必要とし、また学
習時間が大きいといった問題は存在する。
However, in the examples shown in FIGS. 7 to 9, since learning of the neural network relies on an external computer, there is a problem that a learning computer is required and the learning time is long.

【0045】本出願人は、ニューロンより構成されたニ
ューラルネットワークによる信号処理装置をすでに提案
している(例えば、特願平5−118087号に詳し
い。)。この発明では、この先願に係る信号処理装置を
一実施例の例題として取り扱うので、以下この先願に係
る信号処理装置について述べる。
The present applicant has already proposed a signal processing device using a neural network composed of neurons (for example, see Japanese Patent Application No. 5-118087). In the present invention, the signal processing device according to this prior application is treated as an example of one embodiment, and therefore the signal processing device according to this prior application will be described below.

【0046】この先願に係る信号処理装置においては、
神経回路網の一例として、デジタル論理回路を用いた神
経細胞ユニットとこれを用いて構成したネットワーク回
路による信号処理について提案している。
In the signal processing device according to this prior application,
As an example of the neural network, we have proposed a neural cell unit using a digital logic circuit and signal processing by a network circuit configured by using it.

【0047】ここで基本的な考え方は、以下のようなも
のである。 1.神経細胞ユニットにおける入出力信号、中間信号、
教師信号は、すべて、「0」,「1」の2値で表された
パルス列で表現する。 2.ネットワーク内部での信号の値は、パルス密度(あ
る一定時間内の「1」の数)で表す。 3.神経細胞ユニット内での演算は、パルス列同士の論
理演算で行う。 4.結合係数のパルス列は神経細胞ユニット内のメモリ
に格納する。 5.学習においては、与えられた教師信号パルス列を元
に誤差を計算し、これに基づいて、結合係数を変化させ
る。この時、誤差の計算、結合係数の変化分の計算もす
べて「0」,「1」のパルス列の論理演算で行う。
Here, the basic idea is as follows. 1. Input / output signals, intermediate signals in the nerve cell unit,
All the teacher signals are represented by a pulse train represented by binary values of "0" and "1". 2. The value of the signal inside the network is represented by the pulse density (the number of "1" s within a certain fixed time). 3. The calculation in the nerve cell unit is performed by a logical calculation between pulse trains. 4. The pulse train of the coupling coefficient is stored in the memory in the nerve cell unit. 5. In learning, an error is calculated based on a given teacher signal pulse train, and the coupling coefficient is changed based on this error. At this time, the calculation of the error and the change of the coupling coefficient are all performed by the logical operation of the pulse train of "0" and "1".

【0048】図10は、パルス密度方式において、一つ
のニューロン素子のフォワード処理の様子を示したもの
で、ネットワークの構成は、図2に示した階層型ニュー
ラルネットワークを考える。
FIG. 10 shows a state of forward processing of one neuron element in the pulse density method, and considers the hierarchical neural network shown in FIG. 2 as the network configuration.

【0049】まず、「0」,「1」に2値化され、パル
ス密度で表現された入力Oiと結合係数Wjiとの論理
積(AND)をシナプスごとに求める。これは、前記式
(1)のWji・Oiに相当する。このAND回路の出
力のパルス密度は、確率的に入力信号のパルス密度と結
合係数のパルス密度との積となる。
First, a logical product (AND) of the input coefficient Oi, which is binarized into "0" and "1" and expressed in pulse density, and the coupling coefficient Wji is obtained for each synapse. This corresponds to Wji · Oi in the equation (1). The pulse density of the output of the AND circuit stochastically becomes the product of the pulse density of the input signal and the pulse density of the coupling coefficient.

【0050】前述したように、ニューロン間の結合には
興奮性結合と抑制性結合がある。数値演算の場合は、結
合係数の符号、例えば、興奮性の時プラス、抑制性の時
マイナスというようにして演算を行う。
As described above, the connections between neurons include excitatory connections and inhibitory connections. In the case of numerical calculation, the sign of the coupling coefficient, for example, plus when excitatory, minus when inhibitory is performed.

【0051】パルス密度方式の場合は、結合係数Wji
の正負により、各結合を興奮性結合と抑制性結合との2
つのグループに分け、このグループ別にOR操作による
論理和をとる。これは、式3のΣの処理と非線形飽和関
数f(net)の処理に相当する。
In the case of the pulse density method, the coupling coefficient Wji
Depending on the positive or negative of each, each connection is classified into an excitatory connection and an inhibitory connection.
It is divided into two groups, and the logical sum is calculated by OR operation for each group. This corresponds to the processing of Σ in Equation 3 and the processing of the nonlinear saturation function f (net).

【0052】即ち、パルス密度による演算においては、
パルス密度が低い場合、OR処理を行った結果のパルス
密度は、OR入力のパルス密度の和に近似できる。
That is, in the calculation based on the pulse density,
When the pulse density is low, the pulse density resulting from the OR processing can be approximated to the sum of the pulse densities of the OR input.

【0053】パルス密度が高くなるにつれて、OR回路
の出力は徐々に飽和してくるので、パルス密度の和と
は、結果が一致せず、非線形性が出てくることになる。
Since the output of the OR circuit gradually saturates as the pulse density increases, the result does not match the sum of the pulse densities, and non-linearity appears.

【0054】このOR操作の場合、パルス密度の値Pは
0≦P≦1となり、さらに入力の大きさに対して、単調
増加関数となるので、式(2)或いは図3のシグモイド
関数による処理と同様になる。
In the case of this OR operation, the value P of the pulse density is 0≤P≤1, and since it is a monotonically increasing function with respect to the magnitude of the input, processing by the equation (2) or the sigmoid function of FIG. 3 is performed. Will be similar to.

【0055】パルス密度方式による神経細胞素子の出力
は、上記の演算により求められた興奮性グループのOR
出力netj +が“1”でかつ、抑制性グループのOR出
力netj -が“0”の時のみ“1”を出力する。即ち、
次の式(11)〜(13)に示すように表す。
The output of the nerve cell element by the pulse density method is the OR of the excitability groups obtained by the above calculation.
And the output net Non j + is "1", OR output net Non j inhibitory group - outputs "1" only when "0". That is,
It is expressed as shown in the following equations (11) to (13).

【0056】[0056]

【数11】 [Equation 11]

【0057】次に、パルス密度方式における学習プロセ
スについて述べる。学習が行われていないニューラルネ
ットワークにおいては、あるパターンを入力したときの
ネットワークの出力は必ずしも望ましい出力とはならな
い。従って、前述したBPアルゴリズムと同様に学習プ
ロセスによって、実際の出力値と望ましい出力値の誤差
を小さくするように結合係数を変更していく。
Next, the learning process in the pulse density method will be described. In a non-learned neural network, the output of the network when a certain pattern is input is not always the desired output. Therefore, similar to the BP algorithm described above, the learning process changes the coupling coefficient so as to reduce the error between the actual output value and the desired output value.

【0058】(出力層における誤差信号)最初に出力層
における誤差信号について述べる。ここで、誤差を数値
で表すと正負両方の値を取り得るが、パルス密度方式で
は、そのような表現ができないため、プラス成分を表す
信号δk+ とマイナス成分を表すδk- 信号の2つを使
って、出力層における誤差信号を次の式(14),(1
5)のように定義する。
(Error Signal in Output Layer) First, the error signal in the output layer will be described. Here, when the error is expressed by a numerical value, both positive and negative values can be taken, but since such an expression cannot be performed in the pulse density method, two signals, a signal δk + representing a plus component and a signal δk representing a minus component, can be obtained. Using the error signal in the output layer, the following equations (14) and (1
Define as in 5).

【0059】[0059]

【数12】 (Equation 12)

【0060】誤差信号プラス成分δk+ は、出力結果O
kが“0”で、教師信号tkが“1”の時、“1”とな
り、それ以外は“0”となる。
The error signal plus component δk + is the output result O
When k is "0" and the teacher signal tk is "1", it becomes "1", and otherwise it becomes "0".

【0061】他方、誤差信号マイナス成分δk- は、出
力結果Okが“1”で、教師信号tkが“0”の時、
“1”となり、それ以外は“0”となる。
[0061] On the other hand, the error signal minus component .delta.k - the output result Ok is "1", when the teacher signal tk is "0",
It becomes "1", and otherwise it becomes "0".

【0062】この誤差信号δk+ ,δk- は、前述のB
Pアルゴリズムでは出力層の誤差信号を求める前記式
(7)の教師信号と実際の出力信号との差(tpk
pk)に対応する。
The error signals δk + and δk are the above-mentioned B
In the P algorithm, the difference (t pk − between the teacher signal of the above equation (7) for obtaining the error signal of the output layer and the actual output signal
O pk ).

【0063】次に、式(7)に示すように、これらの誤
差信号と出力関数f(net)の一階微分であるf´
(net)との積を求め、出力層における誤差信号を求
める。一般に、学習時における誤差信号の演算には、出
力信号を内部電位で微分した微係数が必要となる。前述
のBPアルゴリズムでは出力関数f(net)として、
シグモイド関数を用いた場合、その一階微分f´(ne
t)は式(16)で示される。
Next, as shown in equation (7), these error signals and the output function f (net), which is the first derivative f ′,
The product of (net) and the error signal in the output layer is obtained. Generally, a differential coefficient obtained by differentiating an output signal with an internal potential is required for calculating an error signal during learning. In the BP algorithm described above, the output function f (net) is
When a sigmoid function is used, its first derivative f ′ (ne
t) is shown by Formula (16).

【0064】[0064]

【数13】 f´(net)=df(net)/dnet =f(net)・{1−f(net)} … (16)F ′ (net) = df (net) / dnet = f (net) · {1-f (net)} (16)

【0065】パルス密度方式では、式(16)を参考に
して、出力層ニュロンにおける一階微分f´(net)
kのプラス成分f´(net)k+ 及びマイナス成分f
´(net)k- を式(17),(18)のように定義
する。
In the pulse density method, referring to the equation (16), the first-order differential f '(net) in the output layer neuron is used.
plus component f '(net) k + and minus component f of k
′ (Net) k is defined as in equations (17) and (18).

【0066】[0066]

【数14】 [Equation 14]

【0067】ここで、Ok(t−1)は、出力信号Ok
の1パルスディレイ値で、Ok(t−2)は、出力信号
Okの2パルスディレイ値である。従って、出力層にお
ける最終的な誤差信号は、次の式(19),(20)で
示される。これは、前述のBPアルゴリズムでは、出力
層の誤差信号を求める式(7)に対応する。
Here, Ok (t-1) is the output signal Ok.
Is a 1-pulse delay value, and Ok (t−2) is a 2-pulse delay value of the output signal Ok. Therefore, the final error signal in the output layer is expressed by the following equations (19) and (20). This corresponds to the equation (7) for obtaining the error signal of the output layer in the above-mentioned BP algorithm.

【0068】[0068]

【数15】 (Equation 15)

【0069】(中間層における誤差信号)パルス密度方
式による中間層における誤差信号も前述のBPアルゴリ
ズムによる前記式(8)を参考にして求める。即ち、出
力層における誤差信号を集めてきて中間層の誤差信号と
する。ここで、結合を興奮性か抑制性かにより2つのグ
ループに分け、積の部分は∩(AND),和(Σ)の部
分は∪(OR)で表現する。
(Error Signal in Intermediate Layer) The error signal in the intermediate layer based on the pulse density method is also obtained by referring to the above equation (8) based on the BP algorithm. That is, the error signals in the output layer are collected and used as the error signal in the intermediate layer. Here, the connection is divided into two groups depending on whether it is excitatory or inhibitory, the product part is represented by ∩ (AND), and the sum (Σ) part is represented by ∪ (OR).

【0070】さらに、中間層における誤差信号を求める
場合、結合係数Wkjの正負,誤差信号δkの正負の4
つに場合分けする。まず、興奮性結合の場合、出力層の
誤差信号プラス成分δk+ と、その結合係数のANDを
とったもの(δk+ ∩Wkj + )をすべての出力層のニ
ューロンについて求め、これらのORをとる。これが中
間層ニューロンの誤差信号プラス成分δj+ となる(式
(21))。
Further, the error signal in the intermediate layer is obtained.
In this case, the coupling coefficient Wkj is positive / negative and the error signal δk is positive / negative.
There are two cases. First, in the case of excitatory coupling, the output layer
Error signal plus component δk+ And AND of the coupling coefficient
What was taken (δk+ ∩ Wkj + ) For all output layers
Find the uron and take the OR of these. This is medium
Error signal plus component δj of interlayer neuron+ Becomes (expression
(21)).

【0071】[0071]

【数16】 δj+ =∪(δk+ ∩Wkj+ ) … (21)[Number 16] δj + = ∪ (δk + ∩Wkj +) ... (21)

【0072】同様に、出力層の誤差信号マイナス成分δ
- と、その結合係数のANDをとったもの(δk-
Wkj+ )をすべての出力層のニューロンについて求
め、これらのORをとる。これが中間層ニューロンの誤
差信号マイナス成分となる(式(22))。
Similarly, the error signal of the output layer minus the component δ
AND of k and its coupling coefficient (δk
Wkj + ) is obtained for neurons in all output layers, and these are ORed. This becomes the error signal minus component of the hidden layer neuron (equation (22)).

【0073】[0073]

【数17】 δj- =∪(δk- ∩Wkj+ ) … (22)[Number 17] δj - = ∪ (δk - ∩Wkj +) ... (22)

【0074】次に、抑制性結合の場合について述べる。
出力層の誤差信号マイナス成分δk -と、その結合係数
とのANDをとったもの(δk- ∩Wkj- )をすべて
の出力層のニューロンについて求め、これらのORをと
る。これが中間層の誤差信号プラス成分となる(式(2
3))。
Next, the case of inhibitory binding will be described.
Output layer error signal minus component δk -And its coupling coefficient
ANDed with (δk- ∩ Wkj- ) All
For the neurons in the output layer of
You. This is the error signal plus component of the intermediate layer (equation (2
3)).

【0075】[0075]

【数18】 δj+ =∪(δk- ∩Wkj- ) … (23)[Number 18] δj + = ∪ (δk - ∩Wkj -) ... (23)

【0076】同様に、出力層の誤差信号プラス成分δk
+ とその結合係数とのANDをとったもの(δk+ ∩W
kj- )をすべての出力層のニューロンについて求め、
これらのORをとる。これが中間層ニューロンの誤差信
号マイナス成分となる。
Similarly, the error signal plus component δk of the output layer
AND of + and its coupling coefficient (δk + ∩W
kj -) a request for the neurons of all of the output layer,
These are ORed together. This becomes the error signal minus component of the hidden layer neuron.

【0077】[0077]

【数19】 δj- =∪(δk+ ∩Wkj- ) … (24)[Number 19] δj - = ∪ (δk + ∩Wkj -) ... (24)

【0078】ある中間層のニューロンとこれと結合され
た出力層のニューロンとの結合には、興奮性結合と抑制
性結合がある。従って、中間層の誤差信号プラス成分と
しては、式(21)の興奮性結合のδj+ と式(23)
の抑制性結合のδj+ の論理和をとる。同様に、中間層
の誤差信号マイナス成分としては、式(22)の興奮性
結合δj- と式(24)の抑制性結合のδj- との論理
和をとる。即ち、次の式(25),(26)のようにな
る。これは、BPアルゴリズムによる前記式(8)のΣ
δpkWkjに対応する。
The connection between a neuron in a certain middle layer and the neuron in the output layer connected to the middle layer includes excitatory connection and inhibitory connection. Therefore, as the error signal plus component of the intermediate layer, δj + of the excitatory coupling of the equation (21) and the equation (23)
OR the δj + of the inhibitory couplings of Similarly, the error signal minus component of the intermediate layer, excitatory coupling .delta.j of formula (22) - ORed with the - .delta.j inhibitory binding of the formula (24). That is, the following equations (25) and (26) are obtained. This is the Σ of the above equation (8) according to the BP algorithm.
Corresponds to δpkWkj.

【0079】[0079]

【数20】 δj+={∪(δk+∩Wkj+)}∪{∪(δk-∩Wkj-)} …(25) δj-={∪(δk-∩Wkj+)}∪{∪(δk+∩Wkj-)} …(26) Equation 20] δj + = {∪ (δk + ∩Wkj +)} ∪ {∪ (δk - ∩Wkj -)} ... (25) δj - = {∪ (δk - ∩Wkj +)} ∪ {∪ (δk + ∩Wkj - )}… (26)

【0080】次に、式(8)のBPアルゴリズムと同様
に、式(25),(26)で求めたδj+ ,δj- に式
(17),(18)の微係数(f´(net))による
処理を施す。ここで中間層ニューロンにおける一階微分
f´(net)jのプラス成分f´(net)j+ 及び
マイナス成分f´(net)j- を(27),(28)
のように定義する。ここで、Oj(t−1)は中間層ニ
ューロンの出力信号Ojの1パルスディレイ値である。
[0080] Then, similarly to the BP algorithm of formula (8), equation (25), .delta.j obtained in (26) +, .delta.j - in formula (17), the derivative of (18) (f'(net Non )) Is applied. Here, the positive component f ′ (net) j + and the negative component f ′ (net) j of the first-order differential f ′ (net) j in the intermediate layer neuron are (27) and (28).
Is defined as Here, Oj (t-1) is a one-pulse delay value of the output signal Oj of the hidden layer neuron.

【0081】従って、中間層における誤差信号(δj
+ ,δj- )は次の式(29),(30)で求められ
る。
Therefore, the error signal (δj in the intermediate layer is
+ , Δj ) is calculated by the following equations (29) and (30).

【0082】[0082]

【数21】 (Equation 21)

【0083】[0083]

【数22】 (Equation 22)

【0084】(学習定数ηによる処理)BPアルゴリズ
ムにおいて、結合係数の修正量ΔWを求める前記式
(6)にある学習定数ηの処理について述べる。数値演
算においては、式(6)にあるように、単純に学習定数
ηを乗算すればよいが、パルス密度方式の場合は、学習
定数ηの値に応じて、下に示すようにパルス列を間引く
ことで実現する。
(Processing by Learning Constant η) Processing of the learning constant η in the above equation (6) for obtaining the correction amount ΔW of the coupling coefficient in the BP algorithm will be described. In the numerical calculation, the learning constant η may be simply multiplied as shown in the equation (6), but in the case of the pulse density method, the pulse train is thinned out as shown below according to the value of the learning constant η. It will be realized.

【0085】[0085]

【数23】 (Equation 23)

【0086】次に、学習による結合係数の修正量ΔWを
求める方法について述べる。まず、前述した出力層或い
は中間層の誤差信号(δ+ ,δ- )に学習定数ηによる
処理を施し、さらにニューロンへの入力信号との論理積
をとる(δη∩O)。但し、誤差信号はδ+ とδ- があ
るので、次式に示すようにそれぞれを演算してΔW+
ΔW- とする。
Next, a method for obtaining the correction amount ΔW of the coupling coefficient by learning will be described. First, the error signal (δ +, δ−) in the output layer or the intermediate layer is processed by the learning constant η, and the logical product with the input signal to the neuron is taken (δη∩O). However, since there are δ + and δ in the error signal, ΔW + , ΔW + ,
ΔW - to.

【0087】[0087]

【数24】ΔW+ =δη+ ∩O … (34)ΔW-
δη- ∩O … (35)
[Number 24] ΔW + = δη + ∩O ... ( 34) ΔW - =
δη - ∩O… (35)

【0088】これは、BPアルゴリズムにおけるΔWを
求める前記式(6)に対応する。これらを元にして新し
い結合係数New_Wを求めるが、結合係数Wが興奮性
か抑制性かにより場合分けをする。まず、興奮性の場合
には、元のW+ に対して、ΔW+ の成分を増やし、ΔW
- の成分を減らす。即ち式(36)となる。
This corresponds to the above equation (6) for obtaining ΔW in the BP algorithm. A new coupling coefficient New_W is obtained based on these, and cases are classified depending on whether the coupling coefficient W is excitatory or inhibitory. First, in the case of excitability, the component of ΔW + is increased with respect to the original W + , and ΔW +
- reduce the component of. That is, formula (36) is obtained.

【0089】[0089]

【数25】 (Equation 25)

【0090】次に抑制性の場合には、元のW- に対し
て、ΔW+ の成分を減らし、ΔW- の成分を増やす。即
ち式(37)となる。
Next, in the case of the suppressive property, the component of ΔW + is decreased and the component of ΔW is increased with respect to the original W . That is, equation (37) is obtained.

【0091】[0091]

【数26】 (Equation 26)

【0092】以上がパルス密度方式による学習アルゴリ
ズムである。ここで、図2の階層型ネットワークにおい
て、パルス密度方式におけるフォワードプロセス及び学
習プロセスの処理の流れについて簡単に述べる。まず、
フォワードプロセスであるが、最初に入力層に信号を与
えると、この入力信号が中間層に伝播していき、中間層
の信号処理として、前述の式(11)〜(13)を行
い、その結果を出力層に伝播させる。
The learning algorithm based on the pulse density method has been described above. Here, the processing flow of the forward process and the learning process in the pulse density method in the hierarchical network of FIG. 2 will be briefly described. First,
Although it is a forward process, when a signal is first given to the input layer, this input signal propagates to the intermediate layer, and as the signal processing of the intermediate layer, the above equations (11) to (13) are performed, and the result is To the output layer.

【0093】出力層では、これらの伝播してきた信号に
対して、同様に式(11)〜(13)の処理を実行し、
これらの結果として出力信号が得られ、フォワードプロ
セスを終了する。
In the output layer, the processes of equations (11) to (13) are similarly performed on these propagated signals,
These results in an output signal, ending the forward process.

【0094】学習プロセスでは、以上のフォワードプロ
セスを行った後、更に出力層に教師信号を与える。出力
層では、式(19),(20)により出力層における誤
差信号を求め中間層に送る。同時にこの誤差信号に式
(31)〜(33)の学習定数ηによる処理を施し、式
(34),(35)により中間層からの入力信号との論
理積をとった後、式(36),(37)により出力層と
中間層との結合強度を変更する。
In the learning process, after performing the above forward process, a teacher signal is further given to the output layer. In the output layer, the error signal in the output layer is obtained by the equations (19) and (20) and sent to the intermediate layer. At the same time, the error signal is processed by the learning constant η of the equations (31) to (33), and the logical product of the error signal and the input signal from the intermediate layer is obtained by the equations (34) and (35). , (37), the coupling strength between the output layer and the intermediate layer is changed.

【0095】次に中間層における処理として、出力層か
ら送られた誤差信号を元に、式(29),(30)によ
って中間層における誤差を求め、この誤差信号に式(3
1)〜(33)の学習定数ηによる処理を施し、式(3
4),(35)により入力層からの入力信号との論理積
をとった後、式(36),(37)により中間層と入力
層との結合強度を変更し、学習プロセスを終了する。以
降、収束するまで学習プロセスを繰り返す。
Next, as the processing in the intermediate layer, the error in the intermediate layer is obtained by the equations (29) and (30) based on the error signal sent from the output layer, and the error signal is given by the equation (3).
Processing with the learning constant η of 1) to (33) is performed, and the expression (3
4) and (35), the logical product with the input signal from the input layer is obtained, and then the coupling strength between the intermediate layer and the input layer is changed by the equations (36) and (37), and the learning process ends. After that, the learning process is repeated until it converges.

【0096】次に図11ないし図13を参照して、以上
のアルゴリズムに基づく実際の回路構成を説明する。ニ
ューラルネットワークの構成は図2と同様である。図1
1は、ニューロンのシナプスに相当する部分の回路を示
す図で、図12は、出力層のニューロンの細胞体と出力
層の出力と教師信号から出力層における誤差信号を求め
る回路を示す図である。また、図13は、中間層のニュ
ーロンの細胞体と出力層における誤差信号を集め、中間
層における誤差信号を求める部分の回路を示す図であ
る。これらの3つの回路を図2のようにネットワークに
することによって、自己学習が可能なデジタル式のニュ
ーラルネットワーク回路が実現できる。
Next, an actual circuit configuration based on the above algorithm will be described with reference to FIGS. 11 to 13. The structure of the neural network is the same as in FIG. FIG.
FIG. 1 is a diagram showing a circuit of a portion corresponding to a synapse of a neuron, and FIG. 12 is a diagram showing a circuit for obtaining an error signal in the output layer from the output of the neuron cell body of the output layer, the output of the output layer, and the teacher signal. . Further, FIG. 13 is a diagram showing a circuit of a portion for collecting error signals in the cell body of neurons in the intermediate layer and the output layer and obtaining an error signal in the intermediate layer. By forming a network of these three circuits as shown in FIG. 2, a digital neural network circuit capable of self-learning can be realized.

【0097】まず、図11について説明する。シナプス
の結合係数はシフトレジスタ21に保存しておく。端子
21Aがデータの取り出し口で、端子21Bがデータの
入り口である。これはシフトレジスタと同様の機能を持
つものであれば、その他のもの、例えば、RAMとアド
レスジュネレータ等を用いてもよい。シフトレジスタ2
1を備えた回路22は、前記の式(11),(12)の
(Oi∩Wji)を実行する回路で、入力信号と結合係
数とのANDをとっている。この出力は結合が興奮性か
抑制性かによってグループ分けしなければならないが、
あらかじめ各々のグループへの出力O+ ,O- を用意
し、どちらのグループに出すのかを切り換えるようにし
た方が汎用性が高い。このため、結合が興奮性か抑制性
かを表すビットをメモリ23に保存しておき、その情報
を用いて切り換えゲート回路24により信号を切り換え
る。また、図12,13に示すように各入力を処理する
前記の式(11),(12)の論理和に相当する複数の
ORゲート構成のゲート回路31が設けられている。更
に同図に示すように式(13)で示した興奮性グループ
が「1」でかつ、抑制性グループが「0」の時のみ出力
を出すANDゲートとインバータによるゲート回路32
が設けられている。
First, FIG. 11 will be described. The synapse coupling coefficient is stored in the shift register 21. The terminal 21A is a data outlet and the terminal 21B is a data inlet. Other components such as a RAM and an address generator may be used as long as they have the same function as the shift register. Shift register 2
The circuit 22 including 1 is a circuit that executes (Oi∩Wji) in the above equations (11) and (12), and ANDs the input signal and the coupling coefficient. This output must be grouped according to whether the connection is excitatory or inhibitory,
It is more versatile to prepare the outputs O + and O for each group in advance and switch which group to output to. Therefore, a bit indicating whether the coupling is excitatory or inhibitory is stored in the memory 23, and the information is used to switch the signal by the switching gate circuit 24. Further, as shown in FIGS. 12 and 13, a gate circuit 31 having a plurality of OR gates corresponding to the logical sum of the equations (11) and (12) for processing each input is provided. Further, as shown in the figure, a gate circuit 32 formed by an AND gate and an inverter that outputs only when the excitatory group represented by the equation (13) is "1" and the inhibitory group is "0".
Is provided.

【0098】次に、誤差信号について説明する。図12
における回路35,36は、出力層での出力関数の微分
係数を生成する回路を示す図で、AND(論理積),イ
ンバータの組み合わせによる論理回路であり、前記式
(17),(18)に相当する。そして、回路37は、
出力層での誤差信号を生成する回路を示す図で、AND
(論理積),インバータの組み合わせによる論理回路で
あり、前記式(19),(20)に相当する。即ち、出
力層からの出力Ok、教師信号tk、及び微係数生成回
路35,36により生成される微係数プラス成分及びマ
イナス成分により、出力層における誤差信号δk+ ,δ
- を生成する。また、中間層における誤差信号を求め
る前記の式(21)〜(24)は、図11中に示すAN
Dゲート構成のゲート回路26により行われ、プラス成
分、マイナス成分に応じた出力(δ∩W)が得られる。
このように結合が興奮性か抑制性かで用いる誤差信号が
異なるので、その場合分けを行う必要があるが、この場
合分けはメモリ23に記憶された興奮性か抑制性かの情
報と、誤差信号のδ+ ,δ- 信号に応じて、AND,O
Rゲート構成のゲート回路25により行われる。また、
誤差信号を集める前記の演算式(25),(26)は図
13に示すORゲート構成のゲート回路39で行われ
る。中間層における誤差信号δj+ ,δj- を求める式
(29),(30)を実行する回路が図13における回
路40で中間出力Oj、レジスタ33により中間層出力
Ojをディレイさせた信号Oj(t−1)及びOR回路
39の出力である出力層からの誤差信号により、誤差信
号δj+ ,δj- が生成される。また、学習レートに相
当する式(31)〜(33)は、図14(a)に示すη
回路38により行われる。
Next, the error signal will be described. FIG.
The circuits 35 and 36 in FIG. 2 are circuits showing a circuit for generating a differential coefficient of an output function in the output layer, and are logical circuits by a combination of AND (logical product) and an inverter, and are expressed by the equations (17) and (18). Equivalent to. And the circuit 37
In the figure showing the circuit that generates the error signal in the output layer,
(Logical product), a logical circuit by a combination of inverters, which corresponds to the equations (19) and (20). That is, the error signals δk + , δ in the output layer are obtained by the output Ok from the output layer, the teacher signal tk, and the differential component plus and minus components generated by the differential coefficient generation circuits 35 and 36.
Generate k . Further, the above equations (21) to (24) for obtaining the error signal in the intermediate layer are AN shown in FIG.
This is performed by the gate circuit 26 having the D gate configuration, and an output (δ∩W) according to the plus component and the minus component is obtained.
Since the error signal to be used is different depending on whether the coupling is excitatory or inhibitory, it is necessary to make a distinction in that case. In this case, the excitatory or inhibitory information stored in the memory 23 and the error are stored. AND, O depending on the δ + , δ signal of the signal
This is performed by the gate circuit 25 having an R gate configuration. Also,
The arithmetic expressions (25) and (26) for collecting the error signals are performed by the gate circuit 39 having the OR gate structure shown in FIG. A circuit that executes the equations (29) and (30) for obtaining the error signals δj + and δj in the intermediate layer is a signal Oj (t in which the intermediate output Oj is delayed by the circuit 40 in FIG. 13 and the intermediate layer output Oj is delayed by the register 33. −1) and the error signal from the output layer, which is the output of the OR circuit 39, generate error signals δj + and δj . Expressions (31) to (33) corresponding to the learning rate are η shown in FIG.
It is performed by the circuit 38.

【0099】図14(a)中のT−FF(トリガータイ
プフリップフロップ)38aは、入力Tの立ち上がりを
検出したときに出力Qを反転する。また、マルチプレク
サ(MUX)38bは、図に示すように、選択信号S
1,S0により、入力信号A,B,Cのいずれかを選択
し、出力する。同図(b)は、同図(a)の学習係数η
回路の動作を示したのタイミングチャートである。最初
にリセット信号(RES)が入力されることにより、T
−FF41の出力を初期化状態に設定し、マルチプレク
サ38bの選択信号S1,S0により学習係数ηの値を
設定する。
The T-FF (trigger type flip-flop) 38a in FIG. 14A inverts the output Q when the rising of the input T is detected. Further, the multiplexer (MUX) 38b, as shown in FIG.
1, S0 selects one of the input signals A, B, C and outputs it. The figure (b) shows the learning coefficient η of the figure (a).
6 is a timing chart showing the operation of the circuit. When the reset signal (RES) is input first, T
-The output of the FF 41 is set to the initialized state, and the value of the learning coefficient η is set by the selection signals S1 and S0 of the multiplexer 38b.

【0100】誤差信号δが入力されると、マルチプレク
サ38bの入力信号Aとして、学習係数η=1/4の処
理(パルスを3つおきに残す処理)が施されたパルスが
生成され(式31に相当)、入力信号Bとして、学習係
数η=1/2の処理(パルスを1つおきに残す処理)が
施されたパルスが生成され(式32に相当)、入力信号
Cとして、学習係数η=1の処理(パルスを元の信号と
同じとする処理)が施されたパルスが生成される(式3
3に相当)。
When the error signal δ is input, as the input signal A of the multiplexer 38b, a pulse subjected to the processing of the learning coefficient η = 1/4 (processing to leave every third pulse) is generated (Equation 31). (Corresponding to Equation 32), a pulse on which a learning coefficient η = 1/2 processing (processing to leave every other pulse) is performed is generated as the input signal B (corresponding to Expression 32), and the learning coefficient is input signal C. A pulse subjected to the processing of η = 1 (processing for making the pulse the same as the original signal) is generated (Equation 3).
3).

【0101】そして、マルチプレクサ38bの選択信号
S1,S0により、前記入力信号A,B,Cのいずれか
がパルスδηとして出力される。なお、図14(a)
は、学習係数ηによる処理を実行する主要な回路を示し
たもので、実際には信号のノイズ防止回路などが付加さ
れている。
Then, one of the input signals A, B and C is output as a pulse δη by the selection signals S1 and S0 of the multiplexer 38b. FIG. 14 (a)
Shows a main circuit that executes the processing by the learning coefficient η, and in reality, a signal noise prevention circuit and the like are added.

【0102】最後に、誤差信号より新たな結合係数を計
算する部分について説明する。これは前記の式(34)
〜(37)で表せられ、図11に示すAND,インバー
タ,ORゲート構成のゲート回路27により行われる。
このゲート回路27も結合の興奮性・抑制性によって場
合分けしなければならないが、これは図11に示すゲー
ト回路25により行われる。なお、以上に示した従来例
を第1従来例という。
Finally, the part for calculating a new coupling coefficient from the error signal will be described. This is the above equation (34).
~ (37), which is performed by the gate circuit 27 having the AND, inverter, and OR gate configurations shown in FIG.
This gate circuit 27 must also be classified depending on the excitability / inhibition of the coupling, which is performed by the gate circuit 25 shown in FIG. The conventional example shown above is referred to as a first conventional example.

【0103】次に、パルス密度方式により信号処理回路
網を実現する別の従来例(以下、この従来例を第2従来
例という)について説明する。これは、M.S.Tomlinson,
Jr.,D.J.Walker and M.A.Sivilotti,^A digital neural
network architecture forVLSI^,Proc.ij CNN-90II,Sa
n Diego,CA,1990,545-550に示されているもので、一つ
のニューロン素子のフォワード処理の様子は、前述した
図10と同様である。ここで、パルス列中のパルスの存
在確立を考慮する場合、ニューロン出力Ojを求めるパ
ルス演算式は、次式(38),(39),(40)で示
される。
Next, another conventional example for realizing a signal processing circuit network by the pulse density method (hereinafter, this conventional example will be referred to as a second conventional example) will be described. This is MSTomlinson,
Jr., DJ Walker and MASivilotti, ^ A digital neural
network architecture for VLSI ^, Proc.ij CNN-90II, Sa
n Diego, CA, 1990, 545-550, the state of forward processing of one neuron element is the same as in FIG. 10 described above. Here, in consideration of establishment of the existence of a pulse in the pulse train, the pulse calculation formula for obtaining the neuron output Oj is represented by the following formulas (38), (39) and (40).

【0104】[0104]

【数27】 [Equation 27]

【0105】次に、学習プロセスについて述べる。出力
層における誤差E及び結合係数の更新量ΔWを求める式
は、前述のバックプロパゲーション(BP)アルゴリズ
ムで求めた式(4),(5)と同様である。まず、シナ
プス結合が興奮性の場合の結合係数の更新について述べ
る。出力層ニューロンの誤差信号プラス成分をδk+
すると、式(4),(40)により、以下の式(41)
が得られる。
Next, the learning process will be described. The equations for obtaining the error E and the update amount ΔW of the coupling coefficient in the output layer are the same as the equations (4) and (5) obtained by the above-mentioned back propagation (BP) algorithm. First, updating the coupling coefficient when the synaptic coupling is excitatory is described. Assuming that the error signal plus component of the output layer neuron is δk + , the following equation (41) is obtained from equations (4) and (40).
Is obtained.

【0106】[0106]

【数28】 [Equation 28]

【0107】一方、中間層ニューロンの誤差信号プラス
成分δj+ は、以下の式(42)で示される。
On the other hand, the error signal plus component δj + of the hidden layer neuron is expressed by the following equation (42).

【0108】[0108]

【数29】 (Equation 29)

【0109】ここで、Skj+ 及びSkj- は、以下の
式(43),(44)でそれぞれ示される。
Here, Skj + and Skj are expressed by the following equations (43) and (44), respectively.

【0110】[0110]

【数30】 [Equation 30]

【0111】故に、前述の式(5)により、興奮性結合
の変更量は、以下の式(45)で示されることになる。
Therefore, the change amount of excitatory coupling is expressed by the following formula (45) by the above formula (5).

【0112】[0112]

【数31】 (Equation 31)

【0113】次に、シナプス結合が抑制性の場合の結合
係数の更新について述べる。ここで、出力層ニューロン
の誤差信号マイナス成分をδk- とすると、式(4),
(40)により、以下の式(46)が得られる。
Next, updating of the coupling coefficient when synaptic coupling is inhibitory will be described. Here, assuming that the error signal minus component of the output layer neuron is δk , equation (4),
From (40), the following equation (46) is obtained.

【0114】[0114]

【数32】 (Equation 32)

【0115】一方、中間層ニューロンの誤差信号マイナ
ス成分δj- は、以下の式(47)のごとく示される。
On the other hand, the error signal minus component δj of the hidden layer neuron is expressed by the following equation (47).

【0116】[0116]

【数33】 [Equation 33]

【0117】ここで、Skj+ 及びSkj- は、前述の
式(43),(44)で示したものと同様である。故
に、前述の式(5)により、抑制性結合の更新量は以下
の式(48)で示される。
Here, Skj + and Skj are the same as those shown in the above equations (43) and (44). Therefore, the update amount of the inhibitory binding is expressed by the following equation (48) by the above equation (5).

【0118】[0118]

【数34】 (Equation 34)

【0119】[0119]

【発明が解決しようとする課題】しかしながら、前述の
第1従来例では、ニューロンの出力関数をバックプロパ
ゲーション(BP)アルゴリズムの場合の式(2)を、
図3に示したシグモイド関数に近似し、その微分係数の
式(16)を、当該式(16)を参考にして求めた式
(17),(18)で示されるとして学習アルゴリズム
を導出しているため、以下のような問題がある。
However, in the above-mentioned first conventional example, the equation (2) in the case of the back propagation (BP) algorithm for the output function of the neuron is given by
A learning algorithm is derived by approximating the sigmoid function shown in FIG. 3 and assuming that the differential coefficient equation (16) is represented by equations (17) and (18) obtained by referring to the equation (16). Therefore, there are the following problems.

【0120】即ち、実際には、パルス密度方式の場合の
ニューロン出力は、パルスの存在確立に左右され、厳密
にはシグモイド関数ではないため、シグモイド関数に近
似して求めた学習アルゴリズムでは、学習がうまくいか
ない。
That is, in practice, the neuron output in the case of the pulse density method depends on the establishment of the pulse and is not a sigmoid function in the strict sense. Therefore, the learning algorithm obtained by approximating the sigmoid function does not It doesn't work.

【0121】また、図11に示したように、予め抑制性
と興奮性とでグループ分けし、抑制性結合と興奮性結合
のそれぞれについて結合係数の更新量を求めているた
め、結合係数の興奮性か抑制性かを示す符号を学習によ
って変えることができないという欠点もあった。
Further, as shown in FIG. 11, since the groups are classified into inhibitory and excitatory groups in advance and the update amount of the coupling coefficient is obtained for each of the inhibitory coupling and the excitatory coupling, the excitement of the coupling coefficient is calculated. There is also a drawback in that the sign indicating whether the character is active or inhibitory cannot be changed by learning.

【0122】一方、第2従来例では、ニューロン出力を
前述の式(38)〜(40)の確率式で表し、これらの
関数により、最急降下法にて式(41)〜(48)に示
すように、忠実に学習アルゴリズムを求めている。この
学習により更新された結合係数の値を図10の論理回路
で示される信号処理回路網に適用し、ニューラルネット
ワーク処理を実行するので、上述した学習がうまくいか
ないといった欠点は無く、学習能力が高いといえる。
On the other hand, in the second conventional example, the neuron output is represented by the stochastic equations of the above equations (38) to (40), and these functions are shown in the equations (41) to (48) by the steepest descent method. As such, it faithfully seeks a learning algorithm. The value of the coupling coefficient updated by this learning is applied to the signal processing circuit network shown by the logic circuit in FIG. 10, and the neural network processing is executed. Therefore, there is no drawback that the above learning is not successful, and the learning ability is high. I can say.

【0123】しかしながら、第2従来例では、結合係数
の更新量を表す式(45),(48)を、外部のコンピ
ューターにより数値計算で求めるため、学習用のコンピ
ューターが必要であるとともに、学習時間が長くなると
いう問題がある。
However, in the second conventional example, since the equations (45) and (48) representing the update amount of the coupling coefficient are obtained by numerical calculation by an external computer, a learning computer is required and the learning time is increased. Has the problem of becoming longer.

【0124】本発明は、上記の事情に鑑み、パルス密度
型信号処理回路網において、そのニューロン出力関数か
ら忠実に学習アルゴリズムを導出するとともに、学習処
理を簡単な論理回路を用いて実現できるパルス密度型信
号処理回路網における結合係数更新方法を提供すること
を目的とする。
In view of the above circumstances, the present invention provides a pulse density type signal processing circuit network in which the learning algorithm is faithfully derived from the neuron output function and the learning process can be realized by using a simple logic circuit. An object of the present invention is to provide a method for updating a coupling coefficient in a pattern signal processing network.

【0125】[0125]

【課題を解決するための手段】本発明のパルス密度型信
号処理回路網における結合係数更新方法は、ニューロン
模倣素子を網状に接続したパルス密度方式による信号処
理回路網の該ニューロンに他ニューロンからの信号を伝
播する際の信号の増減度を表すシナプス結合係数を更新
する方法において、ニューロンkとニューロンjとの結
合係数Wkjを更新する際には、ニューロンkにおける
誤差信号プラス成分を第1の信号とし、ニューロンkに
おける誤差信号マイナス成分を第2の信号とし、ニュー
ロンjの出力Ojを第3の信号とし、ニューロンjを除
くニューロンkに接続されたニューロンmとの結合係数
Wkmとニューロンmの出力Omとの論理積をとったも
のを全て求め、これらの論理和をとったものの反転出力
を第4の信号とし、前記の第1の信号と、第2の信号の
反転値と、第3の信号と、第4の信号との論理積をとっ
たものに学習係数による処理を施したものを結合係数の
更新量プラス成分とし、前記第1の信号の反転出力と、
第2の信号と、第3の信号と、第4の信号との論理積を
とったものに学習係数による処理を施したものを結合係
数の更新量マイナス成分とし、前記の更新量プラス成分
と更新前の結合係数パルスとの論理和出力が“1”のと
きには“1”を加算していく処理を行い、更新量のマイ
ナス成分パルスが“1”のときには“1”を減算してい
く処理を行い、これら加減算処理で得られた結果値を新
たな結合係数とすることを特徴とする。
A method of updating a coupling coefficient in a pulse density type signal processing circuit according to the present invention is a method of updating a coupling coefficient in a pulse density type signal processing circuit in which neuron mimicking elements are connected in a net form. In the method of updating the synapse coupling coefficient indicating the increase / decrease degree of the signal when propagating the signal, when the coupling coefficient Wkj of the neuron k and the neuron j is updated, the error signal plus component in the neuron k is added to the first signal. , The error signal minus component in the neuron k is the second signal, the output Oj of the neuron j is the third signal, the coupling coefficient Wkm with the neuron m connected to the neuron k excluding the neuron j, and the output of the neuron m All the logical products with Om are obtained, and the inverted output of the logical product of these is taken as the fourth signal. Update amount of the coupling coefficient is obtained by subjecting the logical product of the first signal, the inverted value of the second signal, the third signal, and the fourth signal to the processing by the learning coefficient. A positive component, an inverted output of the first signal,
The logical product of the second signal, the third signal, and the fourth signal, which has been processed by the learning coefficient, is used as the update amount minus component of the coupling coefficient, and the update amount plus component Processing for adding "1" when the OR output with the coupling coefficient pulse before update is "1", and processing for subtracting "1" when the minus component pulse of the update amount is "1" And the result values obtained by these addition and subtraction processes are used as new coupling coefficients.

【0126】また、本発明のパルス密度型信号処理回路
網における結合係数更新方法は、ニューロン模倣素子を
網状に接続したパルス密度方式による信号処理回路網の
該ニューロンに他ニューロンからの信号を伝播する際の
信号の増減度を表すシナプス結合係数を更新する方法に
おいて、ニューロンkとニューロンjとの結合係数Wk
jを更新する際には、ニューロンkにおける誤差信号プ
ラス成分を第1の信号とし、ニューロンkにおける誤差
信号マイナス成分を第2の信号とし、ニューロンjの出
力Ojを第3の信号とし、ニューロンjを除くニューロ
ンkに接続されたニューロンmとの結合係数Wkmとニ
ューロンmの出力Omとの論理積をとったものを全て求
め、これらの論理和をとったものの反転出力を第4の信
号とし、前記の第1の信号と、第2の信号の反転値と、
第3の信号と、第4の信号との論理積をとったものに学
習係数による処理を施したものを結合係数の更新量プラ
ス成分とし、前記第1の信号の反転出力と、第2の信号
と、第3の信号と、第4の信号との論理積をとったもの
に学習係数による処理を施したものを結合係数の更新量
マイナス成分とし、前記の更新量プラス成分パルスが
“1”のときには更新前の結合係数値に対して“1”を
加算していく処理を行い、更新量マイナス成分パルスが
“1”のときには更新前の結合係数値に対して“1”を
減算していく処理を行い、これら更新前の結合係数値に
対する加減算処理で得られた結果値を新たな結合係数と
することを特徴とする。
Further, the coupling coefficient updating method in the pulse density type signal processing circuit of the present invention propagates a signal from another neuron to the neuron of the pulse density type signal processing circuit network in which neuron mimicking elements are connected in a mesh. In the method of updating the synaptic coupling coefficient indicating the increase / decrease degree of the signal at the time, the coupling coefficient Wk between the neuron k and the neuron j
When updating j, the error signal plus component in the neuron k is used as the first signal, the error signal minus component in the neuron k is used as the second signal, and the output Oj of the neuron j is used as the third signal. , And the output Om of the neuron m is calculated, and the inverted output of the logical sum of these is taken as the fourth signal. An inverted value of the first signal and the second signal,
The logical product of the third signal and the fourth signal, which has been subjected to the processing by the learning coefficient, is used as the update amount of the coupling coefficient plus the component, and the inverted output of the first signal and the second signal The logical product of the signal, the third signal, and the fourth signal, which has been subjected to processing by the learning coefficient, is used as the updating amount minus component of the coupling coefficient, and the updating amount plus component pulse is “1”. When it is "," 1 is added to the coupling coefficient value before updating, and when the updating amount minus component pulse is "1", "1" is subtracted from the coupling coefficient value before updating. It is characterized in that the processing is performed, and the result value obtained by the addition / subtraction processing with respect to the coupling coefficient value before updating is set as a new coupling coefficient.

【0127】上記いずれの構成においても、ニューロン
出力関数から忠実に学習アルゴリズムを導出することに
なるから、学習能力が高まる。また、学習処理は各信号
に対する論理和や論理積などにより行うことができるか
ら、当該結合係数更新方法を実施するための回路の簡単
化が図れるとともに、このように論理計算によるもので
あって数値計算によらないから、外部のマイクロコンピ
ューターを不要にすることができ、且つ処理速度の向上
が図れる。更に、前記の加減算処理は、例えばアップ/
ダウンカウンタを用いることができ、このアップ/ダウ
ンカウンタの符号ビットが結合係数の符号を表すように
することができるので、結合係数の更新とともに学習に
よって符号の変換を行うことが可能となる。
In any of the above configurations, since the learning algorithm is faithfully derived from the neuron output function, the learning ability is enhanced. In addition, since the learning process can be performed by logical sum or logical product for each signal, the circuit for implementing the coupling coefficient updating method can be simplified, and the logical calculation is performed in this way. Since it does not depend on calculation, an external microcomputer can be eliminated and the processing speed can be improved. Further, the addition / subtraction processing described above is performed by, for example, up / down.
Since a down counter can be used and the sign bit of the up / down counter can represent the sign of the coupling coefficient, it is possible to perform the code conversion by learning as well as updating the coupling coefficient.

【0128】[0128]

【発明の実施の形態】この発明は、パルス密度型信号処
理回路網において、そのニューロンの出力関数に基づ
き、忠実に学習アルゴリズムを導出する。ニューロン出
力関数に基づき、最急降下法により忠実に数値計算によ
り求める方法は、式(41)〜(48)に示した通りで
あるが、この発明では、ニューロンの出力関数に基づく
学習アルゴリズムの導出を、数値計算によらず、論理積
(AND)や論理和(OR)等を用いて論理演算により
実現する。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention faithfully derives a learning algorithm based on the output function of a neuron in a pulse density type signal processing circuit network. The method of faithfully performing numerical calculation by the steepest descent method based on the neuron output function is as shown in Expressions (41) to (48). In the present invention, the learning algorithm based on the neuron output function is derived. It is realized by a logical operation using a logical product (AND), a logical sum (OR), etc. instead of numerical calculation.

【0129】(実施の形態1)以下、本発明の実施の形
態について説明する。この実施の形態では、中間層ニュ
ーロンjと出力層ニューロンkとの結合係数の更新につ
いて説明する。
(Embodiment 1) An embodiment of the present invention will be described below. In this embodiment, updating of the coupling coefficient between the intermediate layer neuron j and the output layer neuron k will be described.

【0130】まず、シナプス結合が興奮性の場合、出力
層ニューロンkの誤差信号プラス成分δk+ に基づき、
教師信号Tkと出力層ニューロンkの出力Okの値を考
慮して、そのプラス成分δk++とマイナス成分δk+-
を次式(49),(50)のようにそれぞれ定義する。
First, when the synaptic connection is excitatory, based on the error signal plus component δk + of the output layer neuron k,
Considering the value of the teacher signal Tk and the output Ok of the output layer neuron k, the plus component δk ++ and the minus component δk + -are defined as in the following equations (49) and (50), respectively.

【0131】[0131]

【数35】 (Equation 35)

【0132】ここで、NETk- は、前述の式(12)
で求めた出力層ニューロンkの抑制性総和である。これ
らの式(49),(50)は、数値演算の場合の式(4
1)に対応する。
Here, NETk is the above-mentioned equation (12).
It is the sum of the inhibitory values of the output layer neuron k obtained in. These expressions (49) and (50) are the expressions (4
This corresponds to 1).

【0133】一方、結合係数が抑制性の場合、出力層ニ
ューロンkの誤差信号マイナス成分δk- に基づき、教
師信号Tkと出力層ニューロンkの出力Okの値を考慮
して、そのプラス成分δk--とマイナス成分δk-+を次
式(51),(52)のように定義する。
[0133] On the other hand, if the coupling coefficient is inhibitory, an error signal minus component .delta.k output layer neurons k - based on, taking into account the value of the output Ok of the output layer neurons k a teacher signal Tk, the positive component .delta.k - − And the minus component δk − + are defined by the following equations (51) and (52).

【0134】[0134]

【数36】 [Equation 36]

【0135】ここで、NETk+ は、前述の式(11)
で求めた出力層ニューロンの興奮性総和である。これら
の式(51),(52)は、数値演算の場合の式(4
6)に対応する。
Here, NETk + is the above-mentioned equation (11).
It is the total excitability of the output layer neurons obtained in. These equations (51) and (52) are equivalent to the equation (4
This corresponds to 6).

【0136】そして、興奮性結合の更新量を求める際、
数値演算の場合の前述の式(43)に対応する式は、次
式(53)で表される。
When obtaining the update amount of excitatory coupling,
An equation corresponding to the above equation (43) in the case of the numerical operation is represented by the following equation (53).

【0137】[0137]

【数37】 (37)

【0138】従って、興奮性結合の更新量プラス成分Δ
Wkj+ 及び更新量マイナス成分ΔWkj- は、前述の
式(45),(49),(50),(53)より、次式
(54),(55)でそれぞれ表される。
Therefore, the renewal amount of excitatory coupling plus the component Δ
Wkj + and the update amount minus component ΔWkj are represented by the following equations (54) and (55) from the above equations (45), (49), (50) and (53), respectively.

【0139】[0139]

【数38】 (38)

【0140】一方、抑制性結合の更新量を求める際、数
値計算の場合の前述の式(44)に対応する式は、次式
(56)で示される。
On the other hand, when obtaining the update amount of the inhibitory binding, the equation corresponding to the above equation (44) in the case of numerical calculation is shown by the following equation (56).

【0141】[0141]

【数39】 [Equation 39]

【0142】従って、抑制性結合の更新量プラス成分Δ
Wkj+ 及び更新量マイナス成分ΔWkj- は、前述の
式(48),(51),(52),(56)より、次式
(57),(58)でそれぞれ表される。
Therefore, the update amount of the inhibitory bond plus the component Δ
The Wkj + and the update amount minus component ΔWkj are represented by the following equations (57) and (58) from the above equations (48), (51), (52) and (56), respectively.

【0143】[0143]

【数40】 (Equation 40)

【0144】さて、結合係数の更新は、更新前の結合係
数パルスWkjと、更新量のプラス成分ΔWkj+ 及び
更新量のマイナス成分ΔWkj- の値とに基づいて次式
(59),(60)のごとく行われる。
Now, the updating of the coupling coefficient is performed based on the coupling coefficient pulse Wkj before the updating and the values of the plus component ΔWkj + of the update amount and the minus component ΔWkj of the update amount by the following equations (59) and (60). It is done like.

【0145】[0145]

【数41】 [Equation 41]

【0146】上記の式は、例えば、学習プロセスに移行
する前に、更新後の結合係数Wkjが格納されることに
なるカウンタ(具体的には、後述するアップ/ダウンカ
ウンタ41)をリセットし、1フレームの間学習プロセ
スを実行する際において、Wkj∪ΔWkj+ =1のと
きは前記カウンタをインクリメントし、ΔWkj- =1
のときは前記カウンタをデクリメントすることで実現で
きる。
The above equation resets a counter (specifically, an up / down counter 41, which will be described later) in which the updated coupling coefficient Wkj is stored before shifting to the learning process. In executing the learning process for one frame, when Wkj∪ΔWkj + = 1, the counter is incremented, and ΔWkj = 1.
In this case, it can be realized by decrementing the counter.

【0147】図15は、更新前の結合係数パルスWkj
と、更新量のプラス成分ΔWkj+及び更新量のマイナ
ス成分ΔWkj- の値とを用いて結合係数の更新を行う
ための回路を示した回路である。即ち、この回路は、前
記の更新量成分ΔWkjの生成や前記の式(59),
(60)の演算を、AND回路やOR回路等を用いて実
現するようにした回路である。なお、図15において、
従来の図12等に示した機能部分と同一の機能部分に
は、同一の符号を付記している。
FIG. 15 shows the combination coefficient pulse Wkj before updating.
And the value of the plus component ΔWkj + of the update amount and the minus component ΔWkj of the update amount, the circuit showing the circuit for updating the coupling coefficient. That is, this circuit generates the update amount component ΔWkj and the equation (59),
This is a circuit that realizes the operation of (60) using an AND circuit, an OR circuit, or the like. In FIG. 15,
The same reference numerals are given to the same functional portions as the conventional functional portions shown in FIG. 12 and the like.

【0148】更新量のプラス成分ΔWkj+ は、図に示
される4つの入力部を持つAND回路46と、このAN
D回路46の出力側に接続され、学習係数ηによる処理
を実行するη回路38とにより生成される。即ち、更新
量のプラス成分ΔWkj+ は、前述の式(54),(5
7)により求められるものであり、この式の要素である
S′kjと、ニューロンjの出力Ojと、誤差信号プラ
ス成分δk+ (即ち、興奮性におけるδk++或いは抑制
性におけるδk--)と、誤差信号マイナス成分δk
- (即ち、興奮性におけるδk+-或いは抑制性における
δk-+)の反転出力(反転器44にて反転)とが、前記
AND回路46の4つの入力部にそれぞれ入力されてこ
れらの論理積が出力され、この論理積出力がη回路38
に入力されて処理されることにより、更新量のプラス成
分ΔWkj+ が出力される。
The plus component ΔWkj + of the update amount is calculated by the AND circuit 46 having four input parts shown in the figure and this AN
It is generated by the η circuit 38 which is connected to the output side of the D circuit 46 and executes the processing by the learning coefficient η. That is, the plus component ΔWkj + of the update amount is calculated by the equations (54) and (5
7) are those obtained, and S'kj is an element of this equation, the output Oj of the neuron j, the error signal plus component .delta.k + (i.e., .delta.k in .delta.k ++ or inhibitory in excitatory -) And the error signal minus component δk
- (i.e., .delta.k + in excitatory - .delta.k in or inhibitory - +) and the inverting output of the (inverted by inverter 44), these logical product to the four input is inputted from the AND circuit 46 Is output, and the logical product output is the η circuit 38.
Is input to and processed, the plus component ΔWkj + of the update amount is output.

【0149】同様に、更新量のマイナス成分ΔWkj-
は、図に示される4つの入力部を持つAND回路47
と、このAND回路47の出力側に接続され、学習係数
ηによる処理を実行するη回路38とにより求められ
る。即ち、更新量のマイナス成分ΔWkj- は、前述の
式(55),(58)により求められるものであり、こ
の式の要素であるS′kjと、ニューロンjの出力Oj
と、誤差信号プラス成分δk+ (即ち、前述のδk++
いはδk--)の反転出力(反転器45にて反転)と、誤
差信号マイナス成分δk- (即ち、前述のδk+-或いは
δk-+)とが前記AND回路47の4つの入力部にそれ
ぞれ入力されてこれらの論理積が出力され、この論理積
出力がη回路38に入力されて処理されることにより、
更新量のマイナス成分ΔWkj- が出力される。
[0149] Similarly, the update amount of the negative component DerutaWkj -
Is an AND circuit 47 having four input parts shown in the figure.
And an η circuit 38 that is connected to the output side of the AND circuit 47 and executes processing with the learning coefficient η. That is, the minus component ΔWkj of the update amount is obtained by the above equations (55) and (58), and S′kj which is an element of this equation and the output Oj of the neuron j.
When the error signal plus component .delta.k + (i.e., the aforementioned .delta.k ++ or .delta.k -) and the inverting output of the (inverted by inverter 45), the error signal minus component .delta.k - (i.e., the aforementioned .delta.k + - or .delta.k -+ ) Is input to each of the four input sections of the AND circuit 47 to output a logical product of these, and the logical product output is input to the η circuit 38 and processed,
The minus component ΔWkj − of the update amount is output.

【0150】更新前の結合係数パルスWkjは、結合係
数格納レジスタ(W−REG)42内にバイナリー値で
保持されている。そして、この更新前の結合係数パルス
Wkjは、前記結合係数格納レジスタ42からパルス発
生器43に供給されるようになっている。
The combination coefficient pulse Wkj before updating is held in the combination coefficient storage register (W-REG) 42 as a binary value. The coupling coefficient pulse Wkj before updating is supplied from the coupling coefficient storage register 42 to the pulse generator 43.

【0151】パルス発生器43は、結合係数の値をパル
スの存在確立として持つようにパルスを発生するもので
あり、発生したパルスをOR回路48の入力部に供給す
るようになっている。
The pulse generator 43 generates a pulse having the value of the coupling coefficient as the existence of the pulse, and supplies the generated pulse to the input part of the OR circuit 48.

【0152】OR回路48は、2つの入力部を有し、一
方の入力部には前記パルス発生器43からのパルスを入
力し、他方の入力部には前記更新量のプラス成分ΔWk
+を入力し、これら両信号の論理和を求めて出力す
る。この処理は、式(59)のWkj∪ΔWkj+ の処
理に相当する。
The OR circuit 48 has two inputs, one of which receives the pulse from the pulse generator 43, and the other of which the positive component ΔWk of the update amount.
j + is input, and the logical sum of these two signals is obtained and output. This process corresponds to the process of Wkj∪ΔWkj + in equation (59).

【0153】OR回路48からの論理和出力は、アップ
/ダウンカウンタ41のインクリメント入力部(IN
C)に供給されるようになっている。また、アップ/ダ
ウンカウンタ41のデクリメント入力部(DEC)に
は、前記の更新量のマイナス成分ΔWkj- が供給され
るようになっている。
The logical sum output from the OR circuit 48 is the increment input portion (IN
C). The decrement input unit (DEC) of the up / down counter 41 is supplied with the minus component ΔWkj of the update amount.

【0154】アップ/ダウンカウンタ41は、そのイン
クリメント側入力部(INC)に信号“1”が入力され
ると、インクリメントのカウント動作を実行し、デクリ
メント側入力部(DEC)に信号“1”が入力される
と、デクリメントのカウント動作を実行する。この動作
は、式(59)における「1 then new−Wk
j=Wkj+1」の処理、及び、式(60)における
「1 then new−Wkj=Wkj−1」の処理
に相当する。
When the signal "1" is input to the increment side input section (INC) of the up / down counter 41, the up / down counter 41 executes the increment count operation, and the decrement side input section (DEC) receives the signal "1". When input, the decrement count operation is executed. This operation corresponds to “1 then new-Wk” in Expression (59).
This corresponds to the processing of “j = Wkj + 1” and the processing of “1 then new−Wkj = Wkj−1” in Expression (60).

【0155】即ち、前記カウント動作によるアップ/ダ
ウンカウンタ41のカウント値が更新後の結合係数パル
スWkj(New−Wkj)として出力されることにな
る。また、この更新後の結合係数パルスWkjは、次の
更新において、更新前の結合係数パルスWkjとして出
力するために、前記の結合係数格納レジスタ(W−RE
G)42内に保持されるようになっている。
That is, the count value of the up / down counter 41 by the counting operation is output as the updated coupling coefficient pulse Wkj (New-Wkj). Further, the updated coupling coefficient pulse Wkj is output as the pre-updated coupling coefficient pulse Wkj in the next update, so that the above-described coupling coefficient storage register (W-RE) is output.
G) It is designed to be held in 42.

【0156】また、アップ/ダウンカウンタ41は、そ
のリセット端子(RES)にリセット信号を入力する
と、リセット動作を行い、このリセット後にカウント動
作を開始するようになっている。
The up / down counter 41 performs a reset operation when a reset signal is input to its reset terminal (RES), and starts the count operation after this reset.

【0157】次に、上記回路の動作を簡単に説明する
と、まず、前記のリセット信号がアップ/ダウンカウン
タ41のリセット端子に入力されると、アップ/ダウン
カウンタ41はリセットされ、カウント動作を開始す
る。このカウント動作では、AND回路46及びη回路
38により求められる結合係数の更新量プラス成分ΔW
kj+ とWkjパルスとの論理和が“1”であるとき、
アップ/ダウンカウンタ41はインクリメントのカウン
ト動作を行い、AND回路47及びη回路38により求
められる結合係数の更新量マイナス成分ΔWkj-
“1”であるとき、アップ/ダウンカウンタ41はデク
リメントのカウント動作を行う。このカウント動作が1
フレームの間実行され、この実行後のアップ/ダウンカ
ウンタ41の値が、更新後の結合係数New−Wkjと
なる。そして、この更新後の結合係数New−Wkj
は、次の学習処理のために結合係数レジスタ42に格納
される。これらの一連の処理により、一回の学習が行わ
れたことになる。
The operation of the above circuit will be briefly described. First, when the reset signal is input to the reset terminal of the up / down counter 41, the up / down counter 41 is reset and the counting operation is started. To do. In this counting operation, the update amount of the coupling coefficient plus the component ΔW obtained by the AND circuit 46 and the η circuit 38.
When the logical sum of kj + and Wkj pulse is “1”,
The up / down counter 41 performs increment counting operation, and when the update amount minus component ΔWkj − of the coupling coefficient obtained by the AND circuit 47 and the η circuit 38 is “1”, the up / down counter 41 performs decrement counting operation. I do. This counting operation is 1
This is executed during the frame, and the value of the up / down counter 41 after this execution becomes the updated coupling coefficient New-Wkj. Then, the updated coupling coefficient New-Wkj
Are stored in the coupling coefficient register 42 for the next learning process. The learning is performed once by the series of processes.

【0158】以上のように、この実施の形態のパルス密
度型信号処理回路網における結合係数更新方法であれ
ば、パルス密度型信号処理回路網において、そのニュー
ロン出力関数から忠実に学習アルゴリズムを導出するこ
とになるから、学習能力が高まる。
As described above, according to the coupling coefficient updating method in the pulse density type signal processing circuit of this embodiment, the learning algorithm is faithfully derived from the neuron output function in the pulse density type signal processing circuit. As a result, learning ability is improved.

【0159】また、結合係数を更新する処理は、前述の
AND回路46,47やOR回路48などの論理回路、
及び、アップ/ダウンカウンタ41等の簡単な回路を用
いて行うことができるから、当該結合係数更新方法を実
施するための回路の簡単化が図れるとともに、このよう
に論理計算によるものであって数値計算によらないか
ら、外部のマイクロコンピューターを不要にすることが
でき、且つ処理速度の向上が図れる。
Further, the processing for updating the coupling coefficient is performed by the logic circuits such as the AND circuits 46 and 47 and the OR circuit 48 described above.
Also, since it can be performed by using a simple circuit such as the up / down counter 41, the circuit for implementing the coupling coefficient updating method can be simplified, and the numerical value can be obtained by the logical calculation as described above. Since it does not depend on calculation, an external microcomputer can be eliminated and the processing speed can be improved.

【0160】更に、前述したアップ/ダウンカウンタ4
1によれば、その符号ビットにて結合係数の符号を表す
ようにすることができるので、学習による結合係数の符
号の変換が可能となり、従来のパルス密度型信号処理回
路網に比べ、アルゴリズムの改善が図れる。
Further, the above-mentioned up / down counter 4
According to 1, since the sign of the coupling coefficient can be represented by the sign bit, the sign of the coupling coefficient can be converted by learning, and the algorithm of the algorithm can be compared with the conventional pulse density type signal processing circuit network. Can be improved.

【0161】(実施の形態2)次に、本発明の他の実施
の形態について説明する。この実施の形態は、中間層ニ
ューロンjと出力層ニューロンkとの結合係数の更新に
ついて述べた点で実施の形態1と共通するが、実施の形
態1が式(59),(60)によって更新後の結合係数
を求めたのに対し、この実施の形態では、更新前の結合
係数Wkjを、更新量のプラス成分ΔWkj+ =1のと
き1増やし、更新量のマイナス成分ΔWkj- =1のと
き1減らすことで更新するようにしている。即ち、次式
(61),(62)によって更新後の結合係数を求めて
いる点で相違する。
(Second Embodiment) Next, another embodiment of the present invention will be described. This embodiment is common to the first embodiment in that the coupling coefficient between the intermediate layer neuron j and the output layer neuron k is described, but the first embodiment is updated by the equations (59) and (60). In contrast to the latter coupling coefficient being obtained, in this embodiment, the coupling coefficient Wkj before updating is increased by 1 when the plus component ΔWkj + of the update amount is 1, and when the minus component ΔWkj of the updating amount is I am trying to update it by reducing it by 1. That is, the difference is that the updated coupling coefficient is obtained by the following equations (61) and (62).

【0162】[0162]

【数42】 (Equation 42)

【0163】上記の式は、例えば、学習プロセスに移行
する前に、更新前の結合係数Wkjをカウンタ(後述の
アップ/ダウンカウンタ50)にロードし、1フレーム
の間学習プロセスを実行する際において、ΔWkj+
1のときは前記カウンタにおいて“1”を増やし、ΔW
kj- =1のときは前記カウンタにおいて“1”を減ら
すことで実現できる。
The above equation is used, for example, when the coupling coefficient Wkj before update is loaded into the counter (up / down counter 50 described later) before the learning process is executed and the learning process is executed for one frame. , ΔWkj + =
When it is 1, the counter is incremented by "1" and ΔW
kj - = 1 for when can be realized by reducing the "1" in the counter.

【0164】図16は、前記結合係数の更新量成分Wk
jの生成、及び式(61),(62)の演算を、AND
回路やOR回路等を用いて実行するようにした回路を示
した回路図である。なお、実施の形態1の図15に示し
た機能部分と同一の機能部分には、同一の符号を付記し
ている。
FIG. 16 shows the update amount component Wk of the coupling coefficient.
AND the generation of j and the operations of equations (61) and (62).
FIG. 6 is a circuit diagram showing a circuit to be executed by using a circuit and an OR circuit. The same functional parts as those shown in FIG. 15 of the first embodiment are designated by the same reference numerals.

【0165】更新量のプラス成分ΔWkj+ は、図に示
される4つの入力部を持つAND回路46と、このAN
D回路46の出力側に接続され、学習係数ηによる処理
を実行するη回路38とにより生成される。即ち、更新
量のプラス成分ΔWkj+ は、前述の式(54),(5
7)により求められるものであり、この式の要素である
S′kjと、ニューロンjの出力Ojと、誤差信号プラ
ス成分δk+ (即ち、前述のδk++或いはδk--)と、
誤差信号マイナス成分δk- (即ち、前述のδk+-或い
はδk-+)の反転出力(反転器44にて反転)とが、前
記AND回路46の4つの入力部にそれぞれ入力されて
これらの論理積が出力され、この論理積出力がη回路3
8に入力されて処理されることにより、更新量のプラス
成分ΔWkj+ が出力される。
The plus component ΔWkj + of the update amount is obtained by the AND circuit 46 having four input parts shown in the figure and this AN
It is generated by the η circuit 38 which is connected to the output side of the D circuit 46 and executes the processing by the learning coefficient η. That is, the plus component ΔWkj + of the update amount is calculated by the equations (54) and (5
7) are those obtained, and S'kj is an element of this equation, the output Oj of the neuron j, the error signal plus component .delta.k + (i.e., the aforementioned .delta.k ++ or .delta.k - a),
The error signal minus component δk (that is, δk + − or δk − + described above) and its inverted output (inverted by the inverter 44) are input to the four input sections of the AND circuit 46 and their logics are input. The product is output, and this logical product output is the η circuit 3
By being input to 8 and processed, the plus component ΔWkj + of the update amount is output.

【0166】同様に、更新量のマイナス成分ΔWkj-
は、図に示される4つの入力部を持つAND回路47
と、このAND回路47の出力側に接続され、学習係数
ηによる処理を実行するη回路38とにより求められ
る。即ち、更新量のマイナス成分ΔWkj- は、前述の
式(55),(58)により求められるものであり、こ
の式の要素であるS′kjと、ニューロンjの出力Oj
と、誤差信号プラス成分δk+ (即ち、前述のδk++
いはδk--)の反転出力(反転器45にて反転)と、誤
差信号マイナス成分δk- (即ち、前述のδk+-或いは
δk-+)とが前記AND回路47の4つの入力部にそれ
ぞれ入力されてこれらの論理積が出力され、この論理積
出力がη回路38に入力されて処理されることにより、
更新量のマイナス成分ΔWkj- が出力される。
[0166] Similarly, the update amount of the negative component DerutaWkj -
Is an AND circuit 47 having four input parts shown in the figure.
And an η circuit 38 that is connected to the output side of the AND circuit 47 and executes processing with the learning coefficient η. That is, the minus component ΔWkj of the update amount is obtained by the above equations (55) and (58), and S′kj which is an element of this equation and the output Oj of the neuron j.
When the error signal plus component .delta.k + (i.e., the aforementioned .delta.k ++ or .delta.k -) and the inverting output of the (inverted by inverter 45), the error signal minus component .delta.k - (i.e., the aforementioned .delta.k + - or .delta.k -+ ) Is input to each of the four input sections of the AND circuit 47 to output a logical product of these, and the logical product output is input to the η circuit 38 and processed,
The minus component ΔWkj − of the update amount is output.

【0167】更新前の結合係数Wkjは、結合係数格納
レジスタ(W−REG)42内にバイナリー値で保持さ
れており、アップ/ダウンカウンタ50のデータイン端
子(DI)にロードされるようになっている。
The coupling coefficient Wkj before being updated is held as a binary value in the coupling coefficient storage register (W-REG) 42 and is loaded into the data-in terminal (DI) of the up / down counter 50. ing.

【0168】アップ/ダウンカウンタ50は、そのロー
ド信号端子(LD)にロード信号が入力されると、その
データイン端子(DI)から更新前の結合係数Wkjを
取り込む。また、実施の形態1と同様、そのインクリメ
ント側入力部(INC)に信号“1”を入力すると、イ
ンクリメントのカウント動作を実行し、デクリメント側
入力部(DEC)に信号“1”を入力すると、デクリメ
ントのカウント動作を実行する。この動作は、式(6
1)における「1 then new−Wkj=Wkj
+1」の処理、及び、式(62)における「1 the
n new−Wkj=Wkj−1」の処理に相当する。
When the load signal is input to the load signal terminal (LD) of the up / down counter 50, the up / down counter 50 takes in the coupling coefficient Wkj before updating from the data-in terminal (DI). Further, as in the first embodiment, when the signal "1" is input to the increment side input unit (INC), the increment count operation is executed, and when the signal "1" is input to the decrement side input unit (DEC), Performs a decrement count operation. This operation is performed by the equation (6
1) "1 then new-Wkj = Wkj"
+1 ”processing and“ 1 the in equation (62)
"n new-Wkj = Wkj-1".

【0169】以上のように、この実施の形態のパルス密
度型信号処理回路網における結合係数更新方法であれ
ば、実施の形態1と同様、パルス密度型信号処理回路網
において、そのニューロン出力関数から忠実に学習アル
ゴリズムが導出される。そして、結合係数を更新する処
理は、前述のAND回路46,47の論理回路、及び、
カウンタ50等の簡単な回路を用いて実現される。ま
た、前述したアップ/ダウンカウンタ41によれば、そ
の符号ビットにて結合係数の符号を表すようにすること
ができるので、学習による結合係数の符号の変換が可能
となり、従来のパルス密度型信号処理回路網に比べ、ア
ルゴリズムの改善が図れる。
As described above, according to the coupling coefficient updating method in the pulse density type signal processing circuit of this embodiment, as in the first embodiment, in the pulse density type signal processing circuit, from the neuron output function, A learning algorithm is faithfully derived. Then, the processing of updating the coupling coefficient is performed by the logic circuits of the AND circuits 46 and 47, and
It is realized by using a simple circuit such as the counter 50. Further, according to the up / down counter 41 described above, since the sign of the coupling coefficient can be represented by the sign bit, the sign of the coupling coefficient can be converted by learning, and the conventional pulse density type signal can be converted. The algorithm can be improved compared to the processing circuit network.

【0170】(実施の形態3)次に、本発明の他の実施
の形態について説明する。この実施の形態は、実施の形
態1で説明した結合係数の更新方法を、入力層ニューロ
ンiと中間層ニューロンjとの結合係数の更新について
適用したものである。なお、請求項1ではニューロンに
k,jを付しているが、これは便宜上のものであり、こ
の実施の形態のニューロンi,jの関係を含まない意味
ではないことは勿論である。
(Embodiment 3) Next, another embodiment of the present invention will be described. In this embodiment, the updating method of the coupling coefficient described in the first embodiment is applied to the updating of the coupling coefficient between the input layer neuron i and the intermediate layer neuron j. It should be noted that in the first aspect, k and j are attached to the neurons, but this is for convenience only and does not mean that the relationship between the neurons i and j in this embodiment is not included.

【0171】中間層ニューロンjにおける誤差信号プラ
ス成分δj+ 、及び誤差信号マイナス成分δj- を求め
る式(42),(47)中の(−∂E/∂Oj)は、次
式(63)のように示すことができる。ここで、出力層
ニューロンの誤差信号δk+,δk- に基づくそのプラ
ス成分(δk++,δk-+)とマイナス成分(δk+-,δ
--)は、前述の式(49)乃至(52)で求めてい
る。
(−∂E / ∂Oj) in the equations (42) and (47) for obtaining the error signal plus component δj + and the error signal minus component δj in the intermediate layer neuron j is given by the following equation (63). Can be shown as: Here, the plus component (δk ++ , δk − + ) and the minus component (δk +- , δ) based on the error signals δk + and δk of the output layer neuron.
k -) is determined by the above formula (49) to (52).

【0172】[0172]

【数43】 [Equation 43]

【0173】上記の式(63)の(−∂E/∂Oj)の
プラス成分ej+ とマイナス成分ej- を論理式で表す
と、次式(64),(65)のようになる。
The positive component ej + and the negative component ej of (−∂E / ∂Oj) in the above equation (63) are expressed by the following equations (64) and (65).

【0174】[0174]

【数44】 [Equation 44]

【0175】そして、興奮性結合の場合の中間層ニュー
ロンの誤差信号プラス成分δj++及びマイナス成分δj
+-は、上述した式(42),(63)乃至(65)によ
り、次式(66),(67)で示される。
The error signal plus component δj ++ and the minus component δj of the hidden layer neuron in the case of excitatory coupling
+ -Is represented by the following equations (66) and (67) by the above equations (42), (63) to (65).

【0176】[0176]

【数45】 [Equation 45]

【0177】ここで、NETj- は、前述の式(12)
で求めた中間層ニューロンにおける抑制性の総和であ
る。
Here, NETj is the above-mentioned equation (12).
It is the sum of inhibitory properties in the middle-layer neurons obtained in.

【0178】そして、興奮性結合の更新量を求める際、
前述の式(43)に対応する式は、次式(68)で示さ
れる。
When obtaining the update amount of excitatory coupling,
An equation corresponding to the above equation (43) is represented by the following equation (68).

【0179】[0179]

【数46】 [Equation 46]

【0180】従って、興奮性結合の更新量プラス成分Δ
Wji+ 及び更新量マイナス成分ΔWji- は、前述の
式(45),(66),(67)により、次式(6
9),(70)で表される。
Therefore, the renewal amount of excitatory coupling plus the component Δ
Wji + and the update amount minus component ΔWji are calculated by the following equation (6) from the equations (45), (66) and (67).
9) and (70).

【0181】[0181]

【数47】 [Equation 47]

【0182】次に、抑制性結合における中間層ニューロ
ンの誤差信号プラス成分δj-+及びマイナス成分δj--
は、式(47),(63)乃至(65)により、次式
(71),(72)で示される。
Next, the error signal plus component δj − + and the minus component δj − of the hidden layer neuron in the inhibitory coupling.
Is represented by the following equations (71) and (72) from equations (47), (63) to (65).

【0183】[0183]

【数48】 [Equation 48]

【0184】ここで、NETj+ は、前述の式(11)
で求めた中間層ニューロンにおける興奮性総和である。
Here, NETj + is the above-mentioned equation (11).
It is the total excitability in the middle-layer neurons obtained in.

【0185】そして、抑制性結合の更新量を求める際、
前述の式(44)に対応する式は、次式(73)で示さ
れる。
Then, when obtaining the update amount of the inhibitory bond,
An equation corresponding to the above equation (44) is shown by the following equation (73).

【0186】[0186]

【数49】 [Equation 49]

【0187】従って、抑制性結合の更新量プラス成分Δ
Wji+ 及び更新量マイナス成分ΔWji- は、前述の
式(48),(71),(72)により、次式(7
4),(75)で示される。
Therefore, the update amount of the inhibitory bond plus the component Δ
Wji + and the update amount minus component ΔWji are calculated by the following equation (7) from the equations (48), (71), and (72).
4) and (75).

【0188】[0188]

【数50】 [Equation 50]

【0189】さて、結合係数の更新は、更新前の結合係
数パルスWjiと、更新量のプラス成分ΔWji+ 及び
更新量のマイナス成分ΔWji- の値とにより、次式
(76),(77)のごとく行われる。
By the way, the coupling coefficient is updated by the following equations (76) and (77) using the coupling coefficient pulse Wji before updating and the values of the plus component ΔWji + of the update amount and the minus component ΔWji of the update amount. It is carried out as follows.

【0190】[0190]

【数51】 (Equation 51)

【0191】この場合も、実施の形態1と同様、例え
ば、学習プロセスに移行する前に、更新後の結合係数W
jiを格納するカウンタをリセットし、Wji∪ΔWj
+ =1のときインクリメントのカウント動作を行い、
ΔWji- =1のとき、デクリメントのカウント動作を
行い、1フレームの間学習プロセスを実行することで実
現できる。
Also in this case, similar to the first embodiment, for example, before the learning process, the updated coupling coefficient W is updated.
Reset the counter that stores ji, and set Wji∪ΔWj
When i + = 1 the increment count operation is performed,
This can be realized by performing a decrement counting operation when ΔWji = 1 and executing a learning process for one frame.

【0192】また、この方法を実施するための具体的な
回路構成は、実施の形態1で用いた図15で示した回路
図と同様である。なお、式(69),(70),(7
4),(75)では、学習係数η以外の要素の数が3つ
となっているが、上記の式(69),(70),(7
4),(75)中のδj++,δj+-,δj-+,δj
--が、式(66),(67)及び式(71),(72)
で示される誤差プラス成分ej + 及び誤差マイナス成分
ej- のAND項を含んでいるので、図15に示したA
ND回路46,47がこの実施の形態でも4入力として
示されることには何ら問題はないといえる。
Also, a concrete example for carrying out this method is
The circuit configuration is the circuit shown in FIG. 15 used in the first embodiment.
It is similar to the figure. Note that equations (69), (70), (7
In 4) and (75), the number of elements other than the learning coefficient η is 3
However, the above equations (69), (70), (7
Δj in 4) and (75)++, Δj+-, Δj-+, Δj
-Are equations (66), (67) and equations (71), (72)
Error plus component ej +And error minus component
ej-Since it includes the AND term of
The ND circuits 46 and 47 have four inputs in this embodiment as well.
It can be said that there is no problem in being shown.

【0193】(実施の形態4)次に、本発明の他の実施
の形態について説明する。この実施の形態は、実施の形
態2で説明した結合係数の更新方法を、入力層ニューロ
ンiと中間層ニューロンjとの結合係数の更新について
適用したものである。なお、請求項2ではニューロンに
k,jを付しているが、これは便宜上のものであり、こ
の実施の形態のニューロンi,jの関係を含まない意味
ではないことは勿論である。
(Fourth Embodiment) Next, another embodiment of the present invention will be described. In this embodiment, the method for updating the coupling coefficient described in the second embodiment is applied to updating the coupling coefficient between the input layer neuron i and the intermediate layer neuron j. In the second aspect, k and j are attached to the neurons, but this is for convenience only and does not mean that the relationship between the neurons i and j in this embodiment is not included.

【0194】結合係数の更新は、更新前の結合係数パル
スWkjを、更新量のプラス成分ΔWkj+ =1のとき
“1”増やし、更新量のマイナス成分ΔWkj- =1の
とき“1”減らすことで行うようにしている。即ち、次
式(78),(79)によって更新後の結合係数を求め
る。
[0194] Updating of the coupling coefficient, the coupling coefficient pulses Wkj before update, when updating of the positive component ΔWkj + = 1 "1" increases, the update amount of the negative component ΔWkj - = "1" reduce it when 1 I am going to do it. That is, the updated coupling coefficient is obtained by the following equations (78) and (79).

【0195】[0195]

【数52】 [Equation 52]

【0196】この場合も、実施の形態2と同様、例え
ば、学習プロセスに移行する前に、更新前の結合係数W
kjをカウンタにロードし、1フレームの間学習プロセ
スを実行する際において、ΔWkj+ =1のときは前記
カウンタにおいて“1”を増やし、ΔWkj- =1のと
きは前記カウンタにおいて“1”を減らすことで実現で
きる。
Also in this case, as in the second embodiment, for example, the coupling coefficient W before update is set before the learning process.
When kj is loaded into the counter and the learning process is executed for one frame, “1” is increased in the counter when ΔWkj + = 1 and “1” is decreased in the counter when ΔWkj = 1. It can be realized.

【0197】また、この方法を実施するための具体的な
回路構成は、実施の形態2で用いた図16で示した回路
図と同様である。
The specific circuit configuration for carrying out this method is the same as the circuit diagram shown in FIG. 16 used in the second embodiment.

【0198】[0198]

【発明の効果】以上のように、本発明によれば、ニュー
ロン出力関数から忠実に学習アルゴリズムを導出するこ
とになるから、学習能力が高まる。また、学習処理は各
信号に対する論理和や論理積などにより行うことができ
るから、当該結合係数更新方法を実施するための回路の
簡単化が図れるとともに、このように論理計算によるも
のであって数値計算によらないから、外部のマイクロコ
ンピューターは不要であり、且つ処理速度の向上が図れ
る。更に、加減算処理は、例えばアップ/ダウンカウン
タを用いることができ、このアップ/ダウンカウンタの
符号ビットが結合係数の符号を表すようにすることがで
きるので、結合係数の更新とともに学習によって符号の
変換を行うことが可能になるという効果を奏する。
As described above, according to the present invention, since the learning algorithm is faithfully derived from the neuron output function, the learning ability is enhanced. In addition, since the learning process can be performed by logical sum or logical product for each signal, the circuit for implementing the coupling coefficient updating method can be simplified, and the logical calculation is performed in this way. Since it does not depend on calculation, an external microcomputer is unnecessary and the processing speed can be improved. Further, the addition / subtraction processing can use, for example, an up / down counter, and the sign bit of this up / down counter can be made to represent the sign of the coupling coefficient. The effect that it becomes possible to perform.

【図面の簡単な説明】[Brief description of the drawings]

【図1】神経細胞ユニットの模式図である。FIG. 1 is a schematic diagram of a nerve cell unit.

【図2】ニューラルネットワークの模式図である。FIG. 2 is a schematic diagram of a neural network.

【図3】シグモイド関数を示すグラフである。FIG. 3 is a graph showing a sigmoid function.

【図4】フォワードプロセスを説明する模式図である。FIG. 4 is a schematic diagram illustrating a forward process.

【図5】学習プロセスを説明する模式図である。FIG. 5 is a schematic diagram illustrating a learning process.

【図6】ニューラルネットワークに相当する電気回路図
である。
FIG. 6 is an electric circuit diagram corresponding to a neural network.

【図7】単一神経細胞に相当する電気回路図である。FIG. 7 is an electric circuit diagram corresponding to a single nerve cell.

【図8】シナプス回路のブロック図である。FIG. 8 is a block diagram of a synapse circuit.

【図9】細胞体回路のブロック図である。FIG. 9 is a block diagram of a cell body circuit.

【図10】パルス密度方式における1つのニューロン素
子のフォワード処理の様子を示す模式図である。
FIG. 10 is a schematic diagram showing a state of forward processing of one neuron element in the pulse density method.

【図11】ニューロンのシナプスに相当する部分の回路
を示すブロック図である。
FIG. 11 is a block diagram showing a circuit of a portion corresponding to a synapse of a neuron.

【図12】出力層での誤差信号を生成する回路の論理回
路図である。
FIG. 12 is a logic circuit diagram of a circuit that generates an error signal in an output layer.

【図13】中間層での誤差信号を生成する回路の論理回
路図である。
FIG. 13 is a logic circuit diagram of a circuit that generates an error signal in the intermediate layer.

【図14】同図(a)はη回路を示すブロック図であ
り、同図(b)は該回路の動作タイミングチャートであ
る。
14A is a block diagram showing an η circuit, and FIG. 14B is an operation timing chart of the circuit.

【図15】本発明の第1の実施の形態の結合係数更新方
法を実施する回路を示すブロック図である。
FIG. 15 is a block diagram illustrating a circuit that implements a coupling coefficient updating method according to the first embodiment of this invention.

【図16】本発明の第2の実施の形態の結合係数更新方
法を実施する回路を示すブロック図である。
FIG. 16 is a block diagram showing a circuit that implements a coupling coefficient updating method according to a second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

38 η回路 41 アップ/ダウンカウンタ 42 結合係数格納レジスタ 43 パルス発生器 46 AND回路 47 AND回路 48 OR回路 50 アップ/ダウンカウンタ 38 η circuit 41 up / down counter 42 coupling coefficient storage register 43 pulse generator 46 AND circuit 47 AND circuit 48 OR circuit 50 up / down counter

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 ニューロン模倣素子を網状に接続したパ
ルス密度方式による信号処理回路網の該ニューロンに他
ニューロンからの信号を伝播する際の信号の増減度を表
すシナプス結合係数を更新する方法において、 ニューロンkとニューロンjとの結合係数Wkjを更新
する際には、ニューロンkにおける誤差信号プラス成分
を第1の信号とし、ニューロンkにおける誤差信号マイ
ナス成分を第2の信号とし、ニューロンjの出力Ojを
第3の信号とし、ニューロンjを除くニューロンkに接
続されたニューロンmとの結合係数Wkmとニューロン
mの出力Omとの論理積をとったものを全て求め、これ
らの論理和をとったものの反転出力を第4の信号とし、 前記の第1の信号と、第2の信号の反転値と、第3の信
号と、第4の信号との論理積をとったものに学習係数に
よる処理を施したものを結合係数の更新量プラス成分と
し、 前記第1の信号の反転出力と、第2の信号と、第3の信
号と、第4の信号との論理積をとったものに学習係数に
よる処理を施したものを結合係数の更新量マイナス成分
とし、 前記の更新量プラス成分と更新前の結合係数パルスとの
論理和出力が“1”のときには“1”を加算していく処
理を行い、更新量のマイナス成分パルスが“1”のとき
には“1”を減算していく処理を行い、これら加減算処
理で得られた結果値を新たな結合係数とすることを特徴
とするパルス密度型信号処理回路網における結合係数更
新方法。
1. A method for updating a synapse coupling coefficient representing a degree of increase or decrease of a signal when a signal from another neuron is propagated to the neuron of a signal processing circuit network by a pulse density method in which neuron mimicking elements are connected in a mesh. When updating the coupling coefficient Wkj between the neuron k and the neuron j, the error signal plus component in the neuron k is set as the first signal, the error signal minus component in the neuron k is set as the second signal, and the output Oj of the neuron j is set. Is taken as the third signal, all the logical products of the coupling coefficient Wkm with the neuron m connected to the neuron k excluding the neuron j and the output Om of the neuron m are obtained, and the logical sum of these is calculated. The inverted output is the fourth signal, and the logic values of the first signal, the inverted value of the second signal, the third signal, and the fourth signal The value obtained by applying the processing by the learning coefficient to the obtained coefficient is taken as the update amount of the coupling coefficient plus the component, and the inverted output of the first signal, the second signal, the third signal, and the fourth signal If the logical sum output of the above-mentioned update amount plus component and the combination coefficient pulse before update is “1”, the product of the logical product of The process of adding “1” is performed, the process of subtracting “1” is performed when the minus component pulse of the update amount is “1”, and the result value obtained by these addition / subtraction processes is used as a new coupling coefficient. A method for updating a coupling coefficient in a pulse density type signal processing network, wherein:
【請求項2】 ニューロン模倣素子を網状に接続したパ
ルス密度方式による信号処理回路網の該ニューロンに他
ニューロンからの信号を伝播する際の信号の増減度を表
すシナプス結合係数を更新する方法において、 ニューロンkとニューロンjとの結合係数Wkjを更新
する際には、ニューロンkにおける誤差信号プラス成分
を第1の信号とし、ニューロンkにおける誤差信号マイ
ナス成分を第2の信号とし、ニューロンjの出力Ojを
第3の信号とし、ニューロンjを除くニューロンkに接
続されたニューロンmとの結合係数Wkmとニューロン
mの出力Omとの論理積をとったものを全て求め、これ
らの論理和をとったものの反転出力を第4の信号とし、 前記の第1の信号と、第2の信号の反転値と、第3の信
号と、第4の信号との論理積をとったものに学習係数に
よる処理を施したものを結合係数の更新量プラス成分と
し、 前記第1の信号の反転出力と、第2の信号と、第3の信
号と、第4の信号との論理積をとったものに学習係数に
よる処理を施したものを結合係数の更新量マイナス成分
とし、 前記の更新量プラス成分パルスが“1”のときには更新
前の結合係数値に対して“1”を加算していく処理を行
い、更新量マイナス成分パルスが“1”のときには更新
前の結合係数値に対して“1”を減算していく処理を行
い、これら更新前の結合係数値に対する加減算処理で得
られた結果値を新たな結合係数とすることを特徴とする
パルス密度型信号処理回路網における結合係数更新方
法。
2. A method of updating a synapse coupling coefficient representing a degree of increase / decrease of a signal when a signal from another neuron is propagated to the neuron of a signal processing circuit network of a pulse density method in which neuron mimicking elements are connected in a mesh. When updating the coupling coefficient Wkj between the neuron k and the neuron j, the error signal plus component in the neuron k is set as the first signal, the error signal minus component in the neuron k is set as the second signal, and the output Oj of the neuron j is set. Is taken as the third signal, all the logical products of the coupling coefficient Wkm with the neuron m connected to the neuron k excluding the neuron j and the output Om of the neuron m are obtained, and the logical sum of these is calculated. The inverted output is the fourth signal, and the logic values of the first signal, the inverted value of the second signal, the third signal, and the fourth signal The value obtained by applying the processing by the learning coefficient to the obtained coefficient is taken as the update amount of the coupling coefficient plus the component, and the inverted output of the first signal, the second signal, the third signal, and the fourth signal The value obtained by subjecting the logical product of the above to the processing by the learning coefficient is used as the update amount minus component of the coupling coefficient, and when the above-mentioned update amount plus component pulse is "1", the combination coefficient value before update is "1". "" Is added, and when the update amount minus component pulse is "1", "1" is subtracted from the pre-update coupling coefficient value, and these pre-update coupling coefficient values are added. A method of updating a coupling coefficient in a pulse density type signal processing circuit, characterized in that a result value obtained by the addition / subtraction processing is used as a new coupling coefficient.
JP8000697A 1996-01-08 1996-01-08 Coupling coefficient updating method in pulse density type signal processing network Pending JPH09185596A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8000697A JPH09185596A (en) 1996-01-08 1996-01-08 Coupling coefficient updating method in pulse density type signal processing network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8000697A JPH09185596A (en) 1996-01-08 1996-01-08 Coupling coefficient updating method in pulse density type signal processing network

Publications (1)

Publication Number Publication Date
JPH09185596A true JPH09185596A (en) 1997-07-15

Family

ID=11480967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8000697A Pending JPH09185596A (en) 1996-01-08 1996-01-08 Coupling coefficient updating method in pulse density type signal processing network

Country Status (1)

Country Link
JP (1) JPH09185596A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017527000A (en) * 2014-06-19 2017-09-14 ユニバーシティ オブ フロリダ リサーチ ファンデーション インコーポレーティッド Memristive nanofiber neural network
US10198691B2 (en) 2014-06-19 2019-02-05 University Of Florida Research Foundation, Inc. Memristive nanofiber neural networks
US10990651B2 (en) 2018-04-05 2021-04-27 Rain Neuromorphics Inc. Systems and methods for efficient matrix multiplication
CN113658493A (en) * 2021-08-20 2021-11-16 安徽大学 Reinforced learning bionic circuit architecture for simulating associative memory
US11450712B2 (en) 2020-02-18 2022-09-20 Rain Neuromorphics Inc. Memristive device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017527000A (en) * 2014-06-19 2017-09-14 ユニバーシティ オブ フロリダ リサーチ ファンデーション インコーポレーティッド Memristive nanofiber neural network
US10198691B2 (en) 2014-06-19 2019-02-05 University Of Florida Research Foundation, Inc. Memristive nanofiber neural networks
US10614358B2 (en) 2014-06-19 2020-04-07 University Of Florida Research Foundation, Inc. Memristive nanofiber neural networks
US11055614B2 (en) 2014-06-19 2021-07-06 University Of Florida Research Foundation, Inc. Memristive nanofiber neural networks
US11941515B2 (en) 2014-06-19 2024-03-26 University Of Florida Research Foundation, Inc. Memristive nanofiber neural networks
US10990651B2 (en) 2018-04-05 2021-04-27 Rain Neuromorphics Inc. Systems and methods for efficient matrix multiplication
US11450712B2 (en) 2020-02-18 2022-09-20 Rain Neuromorphics Inc. Memristive device
US12069869B2 (en) 2020-02-18 2024-08-20 Rain Neuromorphics Inc. Memristive device
CN113658493A (en) * 2021-08-20 2021-11-16 安徽大学 Reinforced learning bionic circuit architecture for simulating associative memory
CN113658493B (en) * 2021-08-20 2023-05-02 安徽大学 Reinforced learning bionic circuit architecture for simulating associative memory

Similar Documents

Publication Publication Date Title
JPH07114524A (en) Signal processor
Matsubara et al. A generalized rotate-and-fire digital spiking neuron model and its on-FPGA learning
JPH07111090A (en) Signal processor
JPH09185596A (en) Coupling coefficient updating method in pulse density type signal processing network
JP3508783B2 (en) Coupling coefficient updating method and coupling coefficient updating apparatus in pulse density type signal processing network
US5485548A (en) Signal processing apparatus using a hierarchical neural network
JP4181837B2 (en) Arithmetic circuit and neural network using the same
JP3130326B2 (en) Hierarchical network configuration arithmetic element
JPH096743A (en) Method and device for updating coupling coefficient for pulse density type signal processing circuit network
JPH05165987A (en) Signal processor
JP6731596B2 (en) Signal conversion device and signal conversion system
JPH07175773A (en) Teacher signal imparting method for signal processing circuit network
JP2612640B2 (en) Signal processing circuit, signal processing network, signal processing device, and signal processing method
JPH05307624A (en) Signal processor
JP2549454B2 (en) Neuron mimetic network and neuron mimicking unit
JP3338713B2 (en) Signal processing device
JP3276367B2 (en) Neural cell network
JPH0737016A (en) Connection coefficient code processing method for signal processing circuit network and device therefor
JP4568987B2 (en) Neuron and hierarchical neural network constructed using the neuron
JP3130913B2 (en) Signal processing device
JP3253613B2 (en) Signal processing device
Tsoi et al. Building MLP networks by construction
JP3137669B2 (en) Hierarchical network configuration arithmetic element
Krawczak Heuristic Dynamic Programming for Neural Networks Learning Part 1: Learning as a Control Problem
JP2607351B2 (en) Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees