JPH0737016A - Connection coefficient code processing method for signal processing circuit network and device therefor - Google Patents

Connection coefficient code processing method for signal processing circuit network and device therefor

Info

Publication number
JPH0737016A
JPH0737016A JP5179571A JP17957193A JPH0737016A JP H0737016 A JPH0737016 A JP H0737016A JP 5179571 A JP5179571 A JP 5179571A JP 17957193 A JP17957193 A JP 17957193A JP H0737016 A JPH0737016 A JP H0737016A
Authority
JP
Japan
Prior art keywords
coupling coefficient
coupling
value
code
inhibitory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5179571A
Other languages
Japanese (ja)
Inventor
Sugitaka Otegi
杉高 樗木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP5179571A priority Critical patent/JPH0737016A/en
Publication of JPH0737016A publication Critical patent/JPH0737016A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide a signal processor which can change the code of a connection coefficient by the learning processes in the circuit of a neural network. CONSTITUTION:A connection coefficient storing part 51 is provided to store the value of a connection coefficient, together with a code storing part 52 which stores the code of the connection coefficient, an up-down counter 54 which adds the increment of the connection coefficient value of the 1st code to this coefficient value and then subtracts the increment of the connection coefficient value of the 2nd code from the total coefficient value of the 1st code, a code bit storing part 55 which stores the arithmetic result of the counter 54, and an EXOR 53 which secures an exclusive OR between the output sent from the part 55 and the output sent from the part 52. Then, the code of the part 52 is changed by the output of the EXOR 53.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、文字や図形認識,ロ
ボット等の運動制御,連想記憶等に応用される神経細胞
回路網を模倣したニューラルコンピュータ等の信号処理
回路網における結合係数符号を変更させる方法及びその
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention changes the coupling coefficient code in a signal processing circuit network such as a neural computer that imitates a neural cell network that is applied to character and figure recognition, motion control of robots, associative memory and the like. And a device therefor.

【0002】[0002]

【従来の技術】生体の情報処理の基本的な単位である神
経細胞(ニューロン)の機能を模倣した神経細胞模倣素
子(神経細胞ユニット)をネットワークに構成し、情報
の並列処理を目指したのが、いわゆる神経細胞回路ネッ
トワーク(ニューラルネットワーク)である。文字認識
や連想記憶、運動制御等は、生体においてはいとも簡単
に行われていても、従来のノイマン型コンピュータでは
なかなか達成できないものが多い。
2. Description of the Related Art A neural cell mimicking element (neuronal cell unit) that mimics the function of a neural cell (neuron), which is a basic unit of information processing of a living body, is configured in a network to aim at parallel processing of information. , A so-called nerve cell circuit network (neural network). Although character recognition, associative memory, motion control, etc. are performed in the living body in a very simple manner, many cannot be easily achieved by the conventional Neumann computer.

【0003】そこで、生体の神経系、特に生体特有の機
能、すなわち並列処理や自己学習等を模倣して、これら
の問題を解決しようとする試みが、計算機シュミレーシ
ョンを中心として、盛んに行われている。
Therefore, attempts to solve these problems by imitating the functions of the nervous system of the living body, in particular, the functions peculiar to the living body, such as parallel processing and self-learning, are being actively made, centering on computer simulation. There is.

【0004】図1は、一つのニューロンのモデル(神経
細胞ユニット)を表すもので、他のニューロンから入力
を受ける部分、入力を一定の規則で変換する部分、結果
を出力する部分からなる。他のニューロンとの結合部に
はそれぞれ可変の重み“Tij”を付け、結合の強さを
表している。この値を変えるとネットワークの構造が変
わる。ネットワークの学習とはこの値を変えることであ
る。
FIG. 1 shows a model (nerve cell unit) of one neuron, which is composed of a part for receiving an input from another neuron, a part for converting the input according to a certain rule, and a part for outputting a result. A variable weight "Tij" is attached to each connection portion with another neuron to indicate the connection strength. Changing this value changes the network structure. Learning the network means changing this value.

【0005】図2は、これをネットワークにし、階層型
ニューラルネットワークを形成した場合である。図中A
1 ,A2 ,A3 はそれぞれ神経細胞模倣素子(神経細胞
ユニット)を表している。各神経細胞ユニットA1 ,A
2 ,A3 、図1の模式図に示す神経細胞ユニットと同様
に多数の神経細胞ユニットと結合され、それから受けた
信号処理して出力する。この階層型ネットワークは、入
力層、中間層、出力層からな成り、神経細胞ユニットA
2 は一つ前の層(入力層)の神経細胞ユニットA1 より
信号を受け、一つ後の層(出力層)の各神経細胞ユニッ
トA3 へ信号を出力する。各層内での結合はなく、また
出力層から入力層に向かう結合もない。一つのニューロ
ンは他の多数のニューロンと結合している。
FIG. 2 shows a case where this is used as a network to form a hierarchical neural network. A in the figure
Reference numerals 1, A2 and A3 represent nerve cell mimicking elements (nerve cell units), respectively. Each nerve cell unit A1, A
2, A3, like the nerve cell unit shown in the schematic view of FIG. 1, is coupled with a large number of nerve cell units, and the signals received from the nerve cell units are processed and output. This hierarchical network consists of an input layer, an intermediate layer, and an output layer.
2 receives a signal from the nerve cell unit A1 in the previous layer (input layer) and outputs the signal to each nerve cell unit A3 in the next layer (output layer). There is no coupling within each layer and no coupling from the output layer to the input layer. One neuron is connected to many other neurons.

【0006】なお、図2は、入力層、中間層、出力層の
三層ネットワークであるが、中間層を複数持つ多層ネッ
トワークも利用される。
Although FIG. 2 shows a three-layer network including an input layer, an intermediate layer, and an output layer, a multi-layer network having a plurality of intermediate layers is also used.

【0007】図1に示す神経細胞ユニットを例にとり、
図2の各神経細胞ユニットA1 ,A2 ,A3 の動作につ
いて説明する。まず、フォワードプロセスについて述べ
る。
Taking the nerve cell unit shown in FIG. 1 as an example,
The operation of each nerve cell unit A1, A2, A3 in FIG. 2 will be described. First, the forward process will be described.

【0008】図2のニューラルネットワークにおいて、
入力層A1 に入力された信号は、中間層A2 に伝播し、
中間層A2 にてフォワード処理を実行する。中間層A2
の処理結果は、出力層A3 に伝播し、出力層A3 にて、
フォワード処理を実行し、最終的にニューラルネットワ
ークの出力が得られる。
In the neural network of FIG.
The signal input to the input layer A1 propagates to the intermediate layer A2,
The forward process is executed in the middle layer A2. Middle layer A2
The processing result of is propagated to the output layer A3, and at the output layer A3,
The forward process is executed, and the output of the neural network is finally obtained.

【0009】ここで、ニューロン間の結合の度合いを表
すのが、結合係数と呼ばれるもので、i番目のニューロ
ンとj番目のニューロンとの結合係数をTijで表す。
結合には、相手のニューロンからの信号が大きいほど自
分の出力が大きくなる興奮性結合と、逆に相手のニュー
ロンからの信号が大きいほど自分の出力が小さくなる抑
制性結合があり、Tij>0のとき興奮性結合、Tij
<0のとき抑制性結合を表す。
The degree of coupling between neurons is called a coupling coefficient, and the coupling coefficient between the i-th neuron and the j-th neuron is represented by Tij.
There are two types of coupling: excitatory coupling, in which the output of the partner neuron increases as the signal from the partner neuron increases, and inhibitory coupling in which the output of the partner neuron decreases, the output decreases. Excitatory coupling, Tij
When <0, it represents an inhibitory bond.

【0010】今、自分のニューロンがi番目であると
し、j番目のニューロンの出力をyjとすると、これに
結合係数Tijを掛けTij・yjが自分のニューロン
への入力となる。
Now, assuming that the own neuron is the i-th neuron, and the output of the j-th neuron is yj, this is multiplied by the coupling coefficient Tij, and Tij · yj becomes the input to the own neuron.

【0011】各ニューロンは多数のニューロンと結合し
ているので、これらのニューロンに対するTij・yj
を足し合わせた結果であるΣTij・yjが、自分のニ
ューロンへの入力となる。これを内部電位と言い、次式
で示される。
Since each neuron is connected to many neurons, Tij.yj for these neurons
ΣTij · yj, which is the result of adding up, becomes the input to the own neuron. This is called an internal potential and is represented by the following equation.

【0012】[0012]

【数式1】ui=ΣTij・yj … (1)Mathematical Expression 1 ui = ΣTij · yj (1)

【0013】次に、この入力に対して非線形処理を施
し、その神経細胞ユニットAiの出力をする。この時の
関数を神経細胞応答関数と呼び、例えば次の式(2)に
示されるようなシグモイド関数が用いられる。
Next, the input is subjected to non-linear processing to output the nerve cell unit Ai. The function at this time is called a nerve cell response function, and for example, a sigmoid function represented by the following equation (2) is used.

【0014】[0014]

【数式2】 f(ui)=1/(1+e-ui) … (2)## EQU00002 ## f (ui) = 1 / (1 + e.sup. -ui) (2)

【0015】この関数を図3に示す。値域は“0〜1”
で、入力値が大きくなるにつれ“1”に、小さくなるに
つれ“0”に近づく。以上より、ニューロンiの出力y
iは次の式(3)で示される。
This function is shown in FIG. Value range is "0 to 1"
Then, as the input value increases, it approaches “1”, and as it decreases, it approaches “0”. From the above, the output y of the neuron i
i is represented by the following equation (3).

【0016】[0016]

【数式3】yi=fi(ui) =fi(ΣTij・yj) … (3)Equation 3 yi = fi (ui) = fi (ΣTij · yj) (3)

【0017】次に、上記ニューラルネットワークの学習
機能について説明する。数値計算で用いられている学習
プロセスとして、一般的なバックプロパゲーションアル
ゴリズム(以後、略してBPアルゴリズムと呼ぶ。)と
呼ばれる次のようなものがある。
Next, the learning function of the neural network will be described. As a learning process used in the numerical calculation, there is the following one called a general back propagation algorithm (hereinafter, abbreviated as BP algorithm).

【0018】まず、各神経細胞ユニット間の結合係数は
最初ランダムな値に設定される。この状態でニューラル
ネットワークに入力を与えると、その出力結果は必ずし
も望ましいものではない。例えば、文字認識の場合、手
書きの「1」の文字を与えると、出力結果として、「こ
の文字は『1』である」と出るのが望ましい結果である
が、結合係数がランダムであると必ずしも望ましい結果
とはならない。
First, the coupling coefficient between nerve cell units is initially set to a random value. If an input is given to the neural network in this state, the output result is not always desirable. For example, in the case of character recognition, when a handwritten character "1" is given, it is a desirable result that "this character is" 1 "" is output as an output result, but it is not always necessary that the coupling coefficient is random. Not the desired result.

【0019】そこで、学習プロセスとして、このニュー
ラルネットワークに正解(教師信号)を与えて、再び同
じ入力があった時出力結果が正解となる(望ましい出力
が得られる)ように、各結合係数を変化させる。
Therefore, as a learning process, a correct answer (teaching signal) is given to this neural network, and each coupling coefficient is changed so that the output result becomes correct when the same input is received again (a desired output is obtained). Let

【0020】即ち、学習プロセスでは、ある入力パター
ンpを与えたとき、実際の出力値と望ましい出力値の誤
差を小さくするように結合係数を変更していく。この変
更量を求めるアルゴリズムがBPアルゴリズムである。
That is, in the learning process, when a certain input pattern p is given, the coupling coefficient is changed so as to reduce the error between the actual output value and the desired output value. The BP algorithm is an algorithm for obtaining this change amount.

【0021】今、ある入力パターンpを与えたとき、ユ
ニットiの実際の出力値(ypi)と望ましい出力値
(tpi)の差を次の式(4)のように定義する。
Now, given a certain input pattern p, the difference between the actual output value (ypi) of the unit i and the desired output value (tpi) is defined by the following equation (4).

【0022】[0022]

【数式4】 Ep=(tpi−ypi)2/2 … (4)[Equation 4] Ep = (tpi-ypi) 2 /2 ... (4)

【0023】これは出力層のユニットiの誤差を表し、
tpiは人間が与える教師データである。学習ではこの
誤差を減らすようにすべての結合の強さを変えていく。
実際には、パターンpを与えて時のTij変化量を次の
式(5)で表す。
This represents the error of unit i in the output layer,
tpi is teacher data given by a human. In learning, the strength of all connections is changed to reduce this error.
Actually, the Tij change amount when the pattern p is given is expressed by the following equation (5).

【0024】[0024]

【数式5】 ΔpTij∝−ЭE/ЭTij … (5)[Formula 5] ΔpTij ∝-ЭE / ЭTij ... (5)

【0025】これを用いて、結合係数Tipを変化させ
る。上記式(4)より、結果的に次の式(6)が得られ
る。
By using this, the coupling coefficient Tip is changed. As a result, the following equation (6) is obtained from the above equation (4).

【0026】[0026]

【数式6】 ΔpTij=ηδpiypj … (6)Equation 6 ΔpTij = ηδpiypj (6)

【0027】ここで、ypiは、ユニットjからユニッ
トiへの入力値。誤差δpiは、ユニットiが出力層か
中間層で異なる。まず、出力層における誤差信号δpi
は、次の式(7)となる。
Here, ypi is an input value from the unit j to the unit i. The error δpi differs depending on whether the unit i is the output layer or the intermediate layer. First, the error signal δpi in the output layer
Becomes the following expression (7).

【0028】[0028]

【数式7】 δpi=(tpi−ypi)・fi’(ui) … (7)## EQU00007 ## .delta.pi = (tpi-ypi) .fi '(ui) (7)

【0029】一方、中間層における誤差信号δpiは次
の数式8に示す通りである。
On the other hand, the error signal δpi in the intermediate layer is as shown in the following expression 8.

【0030】[0030]

【数式8】 δpi=fi’(ui)・ΣδpkTki … (8)## EQU00008 ## .delta.pi = fi '(ui) .. SIGMA..delta.pkTki (8)

【0031】但し、fi’はfiの一階微分である。以
上よりΔTijを一般的に定式化したのが次の式(9)
である。
However, fi 'is the first derivative of fi. From the above, ΔTij is generally formulated as the following equation (9).
Is.

【0032】[0032]

【数式9】 ΔTij(n+1)=nδpiypj+αΔTij(n) … (9)Equation 9 ΔTij (n + 1) = nδpiypj + αΔTij (n) (9)

【0033】故に式(10)に示す通りである。ここで
nは学習の順位、ηは学習定数、αは安定化係数と呼ば
れる。上記式(9)の右辺第1項は、上記式(6)で求
めたΔT、第2項はエラーの振動を減らし、収束を早め
るために加えている。
Therefore, it is as shown in the equation (10). Here, n is a learning order, η is a learning constant, and α is a stabilizing coefficient. The first term on the right side of the above equation (9) is added to ΔT obtained by the above equation (6), and the second term is added to reduce the error vibration and accelerate the convergence.

【0034】[0034]

【数式10】 Tij(n+1)=Tij(n)+ΔTij(n+1) … (10)Equation 10 Tij (n + 1) = Tij (n) + ΔTij (n + 1) (10)

【0035】このように結合係数の変化量ΔTの計算
は、出力層のユニットから始めて中間層のユニットに移
る。学習は、入力データの処理とは逆方向、つまり後ろ
向きに進む。従って、バックプロパゲーションによる学
習は、まず、学習用のデータを入力し、結果を出力する
(前向き)。結果のエラーを減らすようにすべての結合
の強さを変える(後ろ向き)。再び、学習用データを入
力する。これを収束するまで繰り返すことになる。
Thus, the calculation of the variation ΔT of the coupling coefficient starts from the unit of the output layer and moves to the unit of the intermediate layer. Learning proceeds in the opposite direction to the processing of the input data, that is, backward. Therefore, in learning by back propagation, first, learning data is input and the result is output (forward). Change the strength of all joins to reduce the resulting error (backward). Input the learning data again. This will be repeated until it converges.

【0036】従来の階層型神経細胞回路網は、図2に示
すようなネットワークを形成する。このネットワークに
おいて、フォワードプロセスのデータの流れを示したの
が図4である。これは3層階層型ネットワークにおける
場合で、フォワードプロセスでは、入力層(図4の左側
の層A1 )に入力信号a1 〜a4 を与えて、出力層(図
4の右側の層A3 )より出力信号b1 〜b4 を得る。
The conventional hierarchical nerve cell network forms a network as shown in FIG. FIG. 4 shows the data flow of the forward process in this network. This is the case in a three-layer hierarchical network. In the forward process, input signals a1 to a4 are given to the input layer (the layer A1 on the left side of FIG. 4) and the output signal from the output layer (the layer A3 on the right side of FIG. 4). b1 to b4 are obtained.

【0037】一方、学習プロセスのデータの流れを示し
たのが図5である。学習プロセスでは、出力層(図5の
右側のA3 )に教師信号d1 〜d4 を与えて、各ニュー
ロン間の結合強度を更新し、ニューラルネットワークの
出力が教師信号に一致するように学習する。なお、この
学習プロセスによる処理は、今のところ多くの場合、外
部の汎用のコンピュータによって実行している。
On the other hand, FIG. 5 shows the data flow of the learning process. In the learning process, teacher signals d1 to d4 are given to the output layer (A3 on the right side of FIG. 5) to update the coupling strength between the neurons, and learning is performed so that the output of the neural network matches the teacher signal. Note that the processing by this learning process is currently executed by an external general-purpose computer in most cases.

【0038】図10は、前記ニューラルネットワークを
電気回路で実現したものの一例を図10に示す(特開昭
62−295188号公報参照)。この回路は、基本的
にはS字型の伝達関数を有する複数の増幅器34と、各
増幅器34の出力を他の層の増幅器の入力に一点鎖線で
示すように接続する抵抗性フィードバック回路網32と
が設けられている。各増幅器34の入力側には、接地さ
せたコンデンサCと接地された抵抗RとによるCR時定
数回路33が個別に接続されている。そして、入力電流
1 ,I2 〜IN が各増幅器34の入力に供給され、出
力はこれらの増幅器34の出力電圧の集合から得られ
る。
FIG. 10 shows an example in which the neural network is realized by an electric circuit (see Japanese Patent Application Laid-Open No. 62-295188). This circuit basically comprises a plurality of amplifiers 34 having an S-shaped transfer function, and a resistive feedback network 32 which connects the output of each amplifier 34 to the input of the amplifier of another layer as shown by the chain line. And are provided. A CR time constant circuit 33 including a grounded capacitor C and a grounded resistor R is individually connected to the input side of each amplifier 34. Then, the input current I 1, I 2 ~I N is supplied to the input of each amplifier 34, the output is obtained from the set of output voltages of the amplifiers 34.

【0039】ここに、入力や出力の信号の強度を電圧で
表し、神経細胞の結合の強さは、各細胞間の入出力ライ
ンを結ぶ抵抗31(抵抗性フィードバック回路網32中
の格子点)の抵抗値で表せられ神経細胞応答関数は各増
幅器34の伝達関数で表せられる。また、神経細胞間の
結合には前述のように興奮性と抑制性があり、数学的に
は結合関数の正負符号により表せられる。しかし、回路
上の定数で正負を実現するのは困難であるので、ここで
は、増幅器34の出力を2つに分け、一方の出力を反転
させることにより、正負の2つの信号34a,34bを
生成し、これを選択することにより実現するようにして
いる。また、図3に示したシグモイド関数に相当するも
のとしては増幅器34の伝達関数が用いられている。
Here, the strength of the input and output signals is represented by a voltage, and the strength of the coupling of nerve cells is the resistance 31 (the lattice point in the resistive feedback network 32) connecting the input / output lines between the cells. And the nerve cell response function is represented by the transfer function of each amplifier 34. Further, the connection between nerve cells has excitability and inhibitory property as described above, and is mathematically represented by the sign of the connection function. However, since it is difficult to realize positive and negative with a constant on the circuit, here, by dividing the output of the amplifier 34 into two and inverting one output, two positive and negative signals 34a and 34b are generated. Then, it is realized by selecting this. Further, the transfer function of the amplifier 34 is used as the one corresponding to the sigmoid function shown in FIG.

【0040】図11〜図13は、前記ニューラルネット
ワークをデジタル回路で実現した例を示す図で、図11
は、単一神経細胞の回路構成例を示し、シナプス回路4
1,樹状突起回路42,は細胞体回路43を示す。
11 to 13 are views showing an example in which the neural network is realized by a digital circuit.
Shows an example of the circuit configuration of a single nerve cell, and the synapse circuit 4
1, a dendrite circuit 42 indicates a cell body circuit 43.

【0041】図12は、図11に示したシナプス回路4
1の構成例を示す図で、係数回路41aを介して入力パ
ルスfに倍率a(フィードバック信号に掛ける倍率で1
または2)を掛けた値が入力されるレートマルチプライ
ヤ41bを設けてなり、レートマルチプライヤ41bに
は重み付けの値wを記憶したシナプス荷重レジスタ41
cが接続されている。また、図13は細胞体回路43の
構成例を示す図で、制御回路44、アップ/ダウンカウ
ンタ45、レートマルチプライヤ46及びゲート47を
順に接続してなり、さらに、アップ/ダウンメモリ48
が設けられている。
FIG. 12 shows the synapse circuit 4 shown in FIG.
1 is a diagram showing an example of the configuration of No. 1 in FIG.
Alternatively, a rate multiplier 41b to which a value obtained by multiplying 2) is input is provided, and the rate multiplier 41b stores the weighting value w in the synapse load register 41.
c is connected. FIG. 13 is a diagram showing a configuration example of the cell body circuit 43, in which a control circuit 44, an up / down counter 45, a rate multiplier 46 and a gate 47 are sequentially connected, and an up / down memory 48 is further provided.
Is provided.

【0042】これは、神経細胞ユニットの入出力をパル
ス列で表現し、そのパルス密度で信号の量を表してい
る。結合係数は2進数で取り扱い、シナプス荷重レジス
タ41cに保存している。信号演算処理は次のように行
う。まず、入力信号をレートマルチプライヤ41bへ入
力し、結合係数をレート値へ入力することによって、入
力信号のパルス密度もレート値に応じて減らしている。
これは、前述のバックプロパゲーションモデルの式のT
ij・yiの部分に相当する。またΣTij・yiのΣ
の部分は、樹状突起回路42によって示されるOR回路
で実現している。結合には、興奮性、抑制性があるの
で、あらかじめグループ分けしておき、それぞれのグル
ープ別に論理和(OR)をとる。図11において、F1
は興奮性、F2 は抑制性出力を示す。この2つの出力を
図13に示したカウンタ45のアップ側、ダウン側にそ
れぞれ入力してカウントすることで出力が得られる。こ
の出力は2進数であるので再びレートマルチプライヤ4
6を用いてパルス密度に変換する。この神経細胞ユニッ
トを複数個用いてネットワークを構成することによっ
て、ニューラルネットワークが実現できる。学習機能は
ネットワークの最終出力を外部のコンピュータに入力し
て、コンピュータ内部で数値計算を行い、その結果を結
合係数を保存するシナプス荷重レジスタ41cに書き込
むことによって実現している。
In this case, the input / output of the nerve cell unit is represented by a pulse train, and the amount of signal is represented by the pulse density. The coupling coefficient is treated as a binary number and stored in the synapse weight register 41c. The signal calculation process is performed as follows. First, the input signal is input to the rate multiplier 41b and the coupling coefficient is input to the rate value, whereby the pulse density of the input signal is also reduced according to the rate value.
This is the T in the backpropagation model equation above.
It corresponds to the part of ij and yi. Also, ΣTij · yi Σ
The part of is realized by the OR circuit shown by the dendrite circuit 42. Since the coupling has excitatory and inhibitory properties, it is divided into groups in advance and a logical sum (OR) is taken for each group. In FIG. 11, F 1
Is excitatory and F 2 is inhibitory output. An output can be obtained by inputting these two outputs to the up side and down side of the counter 45 shown in FIG. 13 and counting respectively. This output is a binary number, so again the rate multiplier 4
Convert to pulse density using 6. A neural network can be realized by constructing a network using a plurality of these nerve cell units. The learning function is realized by inputting the final output of the network to an external computer, performing numerical calculation inside the computer, and writing the result to the synapse weight register 41c that stores the coupling coefficient.

【0043】本出願人は、神経細胞模倣素子より構成さ
れた神経細胞回路網による信号処理装置をすでに特許出
願している(例えば、特願平1−34891号に詳し
い。)。本発明では、この先願に係る信号処理装置を一
実施例の例題として取り扱うので、以下この先願に係る
信号処理装置について述べる。
The present applicant has already filed a patent application for a signal processing device using a nerve cell network composed of nerve cell mimicking elements (see, for example, Japanese Patent Application No. 1-34891). In the present invention, the signal processing device according to this prior application is dealt with as an example of one embodiment, so the signal processing device according to this prior application will be described below.

【0044】この先願に係る信号処理装置においては、
神経回路網の一例として、デジタル論理回路を用いた神
経細胞ユニットとこれを用いて構成したネットワーク回
路による信号処理について提案している。
In the signal processing device according to this prior application,
As an example of the neural network, we have proposed a neural cell unit using a digital logic circuit and signal processing by a network circuit configured by using it.

【0045】ここで基本的な考え方は、以下のようなも
のである。 1.神経細胞ユニットにおける入出力信号、中間信号、
教師信号は、すべて、「0」,「1」の2値で表された
パルス列で表現する。 2.ネットワーク内部での信号の値は、パルス密度(あ
る一定時間内の「1」の数)で表す。 3.神経細胞ユニット内での演算は、パルス列同士の論
理演算で行う。 4.結合係数のパルス列は神経細胞ユニット内のメモリ
に格納する。 5.学習においては、与えられた教師信号パルス列を元
に誤差を計算し、これに基づいて、結合係数を変化させ
る。この時、誤差の計算、結合係数の変化分の計算もす
べて「0」,「1」のパルス列の論理演算で行う。
The basic idea here is as follows. 1. Input / output signals, intermediate signals in the nerve cell unit,
All the teacher signals are represented by a pulse train represented by binary values of "0" and "1". 2. The value of the signal inside the network is represented by the pulse density (the number of "1" s within a certain fixed time). 3. The calculation in the nerve cell unit is performed by a logical calculation between pulse trains. 4. The pulse train of the coupling coefficient is stored in the memory in the nerve cell unit. 5. In learning, an error is calculated based on a given teacher signal pulse train, and the coupling coefficient is changed based on this error. At this time, the calculation of the error and the change of the coupling coefficient are all performed by the logical operation of the pulse train of "0" and "1".

【0046】図6は、パルス密度方式において、一つの
ニューロン素子のフォワード処理の様子を示したもの
で、ネットワークの構成は、図2に示した階層型ニュー
ラルネットワークを考える。
FIG. 6 shows a state of forward processing of one neuron element in the pulse density method, and considers the hierarchical neural network shown in FIG. 2 as the network configuration.

【0047】まず、「0」,「1」に2値化され、パル
ス密度で、表現された入力yjと結合係数Tijとの論
理積(AND)をシナプスごとに求める。これは、前記
式(1)のTij・yjに相当する。このAND回路の
出力のパルス密度は、確率的に入力信号のパルス密度と
結合係数のパルス密度との積となる。
First, the logical product (AND) of the input yj and the coupling coefficient Tij which are binarized into "0" and "1" and expressed by the pulse density is obtained for each synapse. This corresponds to Tij · yj in the equation (1). The pulse density of the output of the AND circuit stochastically becomes the product of the pulse density of the input signal and the pulse density of the coupling coefficient.

【0048】前述したように、ニューロン間の結合には
興奮性結合と抑制性結合がある。数値演算の場合は、結
合係数の符号、例えば、興奮性の時プラス,抑制性の時
マイナスというようにして演算を行う。
As described above, the connections between neurons include excitatory connections and inhibitory connections. In the case of numerical calculation, the sign of the coupling coefficient, for example, plus when excitatory and minus when inhibitory is performed.

【0049】パルス密度方式の場合は、結合係数Tij
の正負により、各結合を興奮性結合と抑制性結合との2
つのグループに分け、このグループ別にOR操作による
論理和をとる。これは、式3のΣの処理と非線形飽和関
数fiの処理に相当する。
In the case of the pulse density method, the coupling coefficient Tij
Depending on the positive or negative of each, each connection is classified into an excitatory connection and an inhibitory connection.
It is divided into two groups, and the logical sum is calculated by OR operation for each group. This corresponds to the processing of Σ in Equation 3 and the processing of the nonlinear saturation function fi.

【0050】即ち、パルス密度による演算においては、
パルス密度が低い場合、OR処理を行った結果のパルス
密度は、OR入力のパルス密度の和に近似できる。
That is, in the calculation based on the pulse density,
When the pulse density is low, the pulse density resulting from the OR processing can be approximated to the sum of the pulse densities of the OR input.

【0051】パルス密度が高くなるにつれて、OR回路
の出力は徐々に飽和してくるので、パルス密度の和と
は、結果が一致せず、非線形性が出てくることになる。
Since the output of the OR circuit gradually becomes saturated as the pulse density becomes higher, the result does not match the sum of the pulse densities, and the nonlinearity appears.

【0052】このOR操作の場合、パルス密度の値Pは
0≦P≦1となり、さらに入力の大きさに対して、単調
増加関数となるので、式2或いは図3のシグモイド関数
による処理と同様になる。
In the case of this OR operation, the value P of the pulse density is 0≤P≤1, and since it is a monotonically increasing function with respect to the magnitude of the input, it is the same as the processing by the sigmoid function of equation 2 or FIG. become.

【0053】パルス密度方式による神経細胞素子の出力
は、上記により求められた興奮性グループのOR出力a
が“1”でかつ、抑制性グループのOR出力bが“0”
の時のみ“1”を出力する。即ち、次の数式11の(1
1)〜(13)に示すように表す。
The output of the nerve cell element by the pulse density method is the OR output a of the excitatory group obtained as described above.
Is "1" and the OR output b of the inhibitory group is "0"
"1" is output only when. That is, (1
It is expressed as shown in 1) to (13).

【0054】[0054]

【数式11】 a=∪(yi∩Tij+ )― 興奮性グループ(T>0) … (11) T>0 b=∪(yi∩Tij- )― 抑制性グループ(T<0) … (12) T<0 yi=g(a,b)=a∩b … (13)(11) a = ∪ (yi∩Tij + ) − Excitability group (T> 0) (11) T> 0 b = ∪ (yi∩Tij ) − Inhibitory group (T <0) (12) ) T <0 yi = g (a, b) = a∩b (13)

【0055】以下、パルス密度方式における学習プロセ
スについて述べる。学習が行われていないニューラルネ
ットワークにおいては、あるパターンを入力したときの
ネットワークの出力は必ずしも望ましい出力とはならな
い。従って、前述したBPアルゴリズムと同様に学習プ
ロセスによって、実際の出力値と望ましい出力値の誤差
を小さくするように結合係数を変更していく。
The learning process in the pulse density method will be described below. In a non-learned neural network, the output of the network when a certain pattern is input is not always the desired output. Therefore, similar to the BP algorithm described above, the learning process changes the coupling coefficient so as to reduce the error between the actual output value and the desired output value.

【0056】(出力層における誤差信号)最初に出力層
における誤差信号について述べる。ここで、誤差を数値
で表すと正負両方の値を取り得るが、パルス密度方式で
は、そのような表現ができないため、プラス成分を表す
信号の2つを使って、出力層における誤差信号を次の数
式12の(14),(15)のように定義する。
(Error Signal in Output Layer) First, the error signal in the output layer will be described. Here, when the error is expressed by a numerical value, both positive and negative values can be taken. However, since such an expression cannot be made in the pulse density method, two signals representing the positive component are used to calculate the error signal in the output layer as follows. It is defined as in (14) and (15) of Expression 12.

【0057】[0057]

【数式12】 [Equation 12]

【0058】誤差信号+成分(δ+ )は、出力結果
(y)が“0”で、教師信号(d)が“1”の時、
“1”となり、それ以外は“0”となる。
When the output result (y) is "0" and the teacher signal (d) is "1", the error signal + component (δ + ) is
It becomes "1", and otherwise it becomes "0".

【0059】他方、誤差信号−成分(δ- )は、出力結
果(y)が“1”で、教師信号(d)が“0”の時、
“1”となり、それ以外は“0”となる。
[0059] On the other hand, the error signal - component ([delta] -) is a output result (y) is "1", when the teacher signal (d) is "0",
It becomes "1", and otherwise it becomes "0".

【0060】この誤差信号δ+ ,δ- は、前述のBPア
ルゴリズムでは出力層の誤差信号を求める前記式(7)
に対応する。
These error signals δ + and δ are obtained by the above equation (7) for obtaining the error signal of the output layer in the above-mentioned BP algorithm.
Corresponding to.

【0061】(中間層における誤差信号)パルス密度方
式による中間層における誤差信号も前述のBPアルゴリ
ズムによる前記式(8)を参考にして求める。即ち、出
漁層における誤差信号を集めてきて自己の誤差信号とす
る。ここで、結合を興奮性か抑制性かにより2つのグル
ープに分け、積の部分は∩(AND),和(Σ)の部分
は∪(OR)で表現する。
(Error Signal in Intermediate Layer) The error signal in the intermediate layer based on the pulse density method is also obtained by referring to the above equation (8) based on the BP algorithm. That is, the error signals in the fishing layer are collected and used as the own error signal. Here, the connection is divided into two groups depending on whether it is excitatory or inhibitory, the product part is represented by ∩ (AND), and the sum (Σ) part is represented by ∪ (OR).

【0062】さらに、中間層における誤差信号を求める
場合、結合係数Tijの正負,誤差信号δの正負の4つ
に場合分けする。まず、興奮性結合の場合、出力層の誤
差信号プラス成分δ+ と、その結合係数のANDをとっ
たもの(δ+ i∩T+ ij)をすべての出力層のニュー
ロンについて求め、これらのORをとる。これが中間層
ニューロンの誤差信号プラス成分δ+ となる(数式13
の(16))。
Further, when the error signal in the intermediate layer is obtained, it is divided into four cases of positive and negative of the coupling coefficient Tij and positive and negative of the error signal δ. First, in the case of excitatory coupling, the error signal plus component δ + of the output layer and the AND of the coupling coefficients (δ + i∩T + ij) are obtained for all the neurons of the output layer, and these ORs are obtained. Take This becomes the error signal plus component δ + of the hidden layer neuron (Equation 13).
(16)).

【0063】[0063]

【数式13】 δ+ =∪(δ+ i∩T+ ij) … (16)[Mathematical formula-see original document] δ + = ∪ (δ + i ∩ T + ij) (16)

【0064】同様に、出力層の誤差信号マイナス成分δ
- と、その結合係数のANDをとったもの(δ- i∩T
+ ij)をすべての出力層のニューロンについて求め、
これらのORをとる。これが中間層ニューロンの誤差信
号マイナス成分δ- となる(数式14の(17))。
Similarly, the error signal of the output layer minus the component δ
- and that it took AND of the coupling coefficient (δ - i∩T
+ ij) for all output layer neurons,
These are ORed together. This becomes the error signal minus component δ − of the hidden layer neuron ((17) in Expression 14).

【0065】[0065]

【数式14】 δ- =∪(δ- i∩T+ ij) … (17)Mathematical Expression 14 δ = ∪ (δ i ∩T + ij) (17)

【0066】次に、抑制性結合の場合について述べる。
出力層の誤差信号マイナス成分δ-と、その結合係数と
のANDをとったもの(δ- i∩T- ij)をすべての
出力層のニューロンについて求め、これらのORをと
る。これが中間層の誤差信号プラス成分となる(数式1
5の(18))。
Next, the case of inhibitory binding will be described.
An AND (δ i∩T ij) of the error signal minus component δ − of the output layer and its coupling coefficient is obtained for all the neurons of the output layer, and the OR of these is taken. This becomes the error signal plus component of the intermediate layer (Formula 1)
5 (18)).

【0067】[0067]

【数式15】 δ+ =∪(δ- i∩T- ij) … (18)[Equation 15] δ + = ∪ (δ - i∩T - ij) ... (18)

【0068】同様に、出力層の誤差信号プラス成分δ+
とその結合係数とのANDをとったもの(δ+ i∩T-
ij)をすべてのニューロンについて求め、これらのO
Rをとる。これが中間層ニューロンの誤差信号マイナス
成分となる。
Similarly, the error signal of the output layer plus the component δ +
And those taking the AND between the coupling coefficient (δ + i∩T -
ij) is found for all neurons and these O
Take R. This becomes the error signal minus component of the hidden layer neuron.

【0069】[0069]

【数式16】 δ- =∪(δ+ i∩T- ij) … (19)[Equation 16] δ - = ∪ (δ + i∩T - ij) ... (19)

【0070】ある中間層のニューロンとこれと結合され
た出力層のニューロンとの結合には、興奮性結合と抑制
性結合がある。従って、中間層の誤差信号プラス成分と
しては、前記式(16)の興奮性結合のδ+ と式18の
抑制性結合のδ+ の論理和をとる。同様に、中間層の誤
差信号マイナス成分としては、前記式(17)の興奮性
結合δ- と前記式(19)の抑制性結合のδ- との論理
和をとる。即ち、前記式(20),(21)となる。こ
れは、BPアルゴリズムによる前記式(8)に対応す
る。
The connection between a neuron in a certain middle layer and the neuron in the output layer connected to the middle layer includes excitatory connection and inhibitory connection. Therefore, as the error signal plus component of the intermediate layer, the logical sum of δ + of the excitatory coupling of the equation (16) and δ + of the inhibitory coupling of the equation 18 is obtained. Similarly, the error signal minus component of the intermediate layer, excitatory coupling [delta] of the formula (17) - ORed with the - [delta] inhibitory binding of the formula (19). That is, the equations (20) and (21) are obtained. This corresponds to the above equation (8) according to the BP algorithm.

【0071】[0071]

【数式17】 δ+={∪(δ+i∩T+ij)}∪{∪(δ-i∩T-ij)} … (20) δ-={∪(δ-i∩T+ij)}∪{∪(δ+i∩T-ij)} … (21)Mathematical Expression 17 δ + = {∪ (δ + i∩T + ij)} ∪ {∪ (δ i∩T ij)} (20) δ = {∪ (δ i∩T + ij) } ∪ {∪ (δ + i∩T - ij)}… (21)

【0072】(学習定数ηによる処理)BPアルゴリズ
ムにおいて、結合係数の修正量ΔTを求める前記式
(6)にある学習定数ηの処理について述べる。数値演
算においては、式(6)にあるように、単純に学習定数
ηを乗算すればよいが、パルス密度方式の場合は、学習
定数ηの値に応じて、下に示すようにパルス列を間引く
ことで実現する。
(Processing by Learning Constant η) Processing of the learning constant η in the above equation (6) for obtaining the correction amount ΔT of the coupling coefficient in the BP algorithm will be described. In the numerical calculation, the learning constant η may be simply multiplied as shown in the equation (6), but in the case of the pulse density method, the pulse train is thinned out as shown below according to the value of the learning constant η. It will be realized.

【0073】[0073]

【数式18】 [Formula 18]

【0074】次に、学習による結合係数の修正量ΔTを
求める方法について述べる。まず、前述した出力層或い
は中間層の誤差信号(δ+ ,δ- )に学習定数ηによる
処理を施し、さらにニューロンへの入力信号との論理積
をとる(δ∩y)。但し、誤差信号はδ+ とδ- がある
ので、次式に示すようにそれぞれを演算してΔT+ ,Δ
- とする。
Next, a method of obtaining the correction amount ΔT of the coupling coefficient by learning will be described. First, the error signal (δ + , δ ) in the output layer or the intermediate layer described above is processed by the learning constant η, and the logical product with the input signal to the neuron is calculated (δ∩y). However, since the error signals have δ + and δ , they are calculated as shown in the following equations, and ΔT + , Δ
T - to.

【0075】[0075]

【数式19】ΔT+ =δ+ ∩y … (25) ΔT- =δ- ∩y … (26)[Equation 19] ΔT + = δ + ∩y ... ( 25) ΔT - = δ - ∩y ... (26)

【0076】これは、BPアルゴリズムにおけるΔTを
求める前記式(6)に対応する。これらを元にして新し
い結合係数New_Tijを求めるが、結合係数Tij
が興奮性か抑制性かにより場合分けをする。まず、興奮
性の場合には、元のT+ に対して、ΔT+ の成分を増や
し、ΔT- の成分を減らす。即ち式(27)となる。
This corresponds to the above equation (6) for obtaining ΔT in the BP algorithm. Based on these, a new coupling coefficient New_Tij is calculated.
The case is classified according to whether it is excitatory or inhibitory. First, in the case of excitability, the ΔT + component is increased and the ΔT component is decreased with respect to the original T + . That is, equation (27) is obtained.

【0077】[0077]

【数式20】 [Formula 20]

【0078】次に抑制性の場合には、元のT- に対し
て、ΔT+ の成分を減らし、ΔT- の成分を増やす。即
ち式(28)となる。
Next, in the case of the inhibitory property, the ΔT + component is reduced and the ΔT component is increased with respect to the original T . That is, equation (28) is obtained.

【0079】[0079]

【数式21】 [Formula 21]

【0080】以上がパルス密度方式による学習アルゴリ
ズムである。ここで、図2の階層型ネットワークにおい
て、パルス密度方式におけるフォワードプロセス及び学
習プロセスの処理の流れについて簡単に述べる。まず、
フォワードプロセスであるが、最初に入力層に信号を与
えると、この入力信号が中間層に伝播していき、中間層
の信号処理として、前述の式(11)〜(13)を行
い、その結果を出力層に伝播させる。
The learning algorithm based on the pulse density method has been described above. Here, the processing flow of the forward process and the learning process in the pulse density method in the hierarchical network of FIG. 2 will be briefly described. First,
Although it is a forward process, when a signal is first given to the input layer, this input signal propagates to the intermediate layer, and as the signal processing of the intermediate layer, the above equations (11) to (13) are performed, and the result is To the output layer.

【0081】出力層では、これらの伝播してきた信号に
対して、同様に式(11)〜(13)の処理を実行し、
これらの結果として出力信号が得られ、フォワードプロ
セスを終了する。
In the output layer, the processes of equations (11) to (13) are similarly performed on these propagated signals,
These results in an output signal, ending the forward process.

【0082】学習プロセスでは、以上のフォワードプロ
セスを行った後、更に出力層に教師信号を与える。出力
層では、式(14),(15)により出力層における誤
差信号を求め中間層に送る。同時にこの誤差信号に式
(22)〜(24)のηによる処理を施し、式(2
5),(26)により中間層からの入力信号との論理積
をとった後、式(27),(28)により出力層と中間
層との結合強度を変更する。
In the learning process, after performing the above forward process, a teacher signal is further given to the output layer. In the output layer, the error signal in the output layer is obtained by the equations (14) and (15) and sent to the intermediate layer. At the same time, this error signal is processed by η in equations (22) to (24) to obtain equation (2
5) and (26), the logical product with the input signal from the intermediate layer is calculated, and then the coupling strength between the output layer and the intermediate layer is changed by the equations (27) and (28).

【0083】次に中間層における処理として、出力層か
ら送られた誤差信号を元に、式(20),(21)によ
って中間層における誤差を求め、この誤差信号に式(2
2)〜(24)の学習定数ηによる処理を施し、式(2
5),(26)により入力層からの入力信号との論理積
をとった後、式(27),(28)により中間層と入力
層との結合強度を変更し、学習プロセスを終了する。以
降、収束するまで学習プロセスを繰り返す。
Next, as the processing in the intermediate layer, the error in the intermediate layer is obtained by the equations (20) and (21) based on the error signal sent from the output layer, and the error signal is given by the equation (2).
The processing by the learning constant η of 2) to (24) is performed, and the expression (2
5) and (26), the logical product with the input signal from the input layer is obtained, and then the coupling strength between the intermediate layer and the input layer is changed by the equations (27) and (28), and the learning process ends. After that, the learning process is repeated until it converges.

【0084】次に図7ないし図9を参照して、以上のア
ルゴリズムに基づく実際の回路構成を説明する。ニュー
ラルネットワークの構成は図2と同様である。図7は、
ニューロンのシナプスに相当する部分の回路を示す論理
回路図で、図8は、ニューロンの細胞体に相当する部分
の回路を示す論理回路図である。また、図9は、出力層
の出力と教師信号から出力層における誤差信号を求める
部分の回路を示す論理回路図である。これらの3つの回
路を図2のようにネットワークにすることによって、自
己学習が可能なデジタル式のニューラルネットワーク回
路が実現できる。
Next, an actual circuit configuration based on the above algorithm will be described with reference to FIGS. The structure of the neural network is the same as in FIG. Figure 7
FIG. 8 is a logic circuit diagram showing a circuit of a part corresponding to a synapse of a neuron, and FIG. 8 is a logic circuit diagram showing a circuit of a part corresponding to a cell body of the neuron. Further, FIG. 9 is a logic circuit diagram showing a circuit of a portion for obtaining an error signal in the output layer from the output of the output layer and the teacher signal. By forming a network of these three circuits as shown in FIG. 2, a digital neural network circuit capable of self-learning can be realized.

【0085】まず、図7について説明する。1は神経細
胞ユニットへの入力信号である。シナプスの結合係数は
シフトレジスタ8に保存しておく。端子8Aがデータの
取り出し口で、端子8Bがデータの入り口である。これ
はシフトレジスタと同様の機能を持つものであれば、そ
の他のもの、例えば、RAMとアドレスコントローラ等
を用いてもよい。回路9は、前記の式(11),(1
2)の(yi∩Tij)を実行する回路で、入力信号と
結合係数とのANDをとっている。この出力は結合が興
奮性か抑制性かによってグループ分けしなければならな
いが、あらかじめ各々のグループへの出力4,5を用意
し、どちらのグループに出すのかを切り換えるようにし
た方が汎用性が高い。このため、結合が興奮性か抑制性
かを表すビットをメモリ14に保存しておき、その情報
を用いて切り換えゲート回路13により信号を切り換え
る。また、図8に示すように各入力を処理する前記の式
(11),(12)の論理和に相当する複数のORゲー
ト構成のゲート回路15が設けられている。更に同図に
示すように式(13)で示した興奮性グループが「1」
でかつ、抑制性グループが「0」の時のみ出力を出すA
NDゲートとインバータによるゲート回路16が設けら
れている。
First, FIG. 7 will be described. 1 is an input signal to the nerve cell unit. The synapse coupling coefficient is stored in the shift register 8. The terminal 8A is a data outlet and the terminal 8B is a data inlet. Other components such as a RAM and an address controller may be used as long as they have the same function as the shift register. The circuit 9 has the above formulas (11), (1
In the circuit for executing (yi∩Tij) of 2), the input signal is ANDed with the coupling coefficient. This output must be grouped according to whether the coupling is excitatory or inhibitory, but it is more versatile to prepare outputs 4 and 5 for each group in advance and switch which group is output. high. Therefore, a bit indicating whether the coupling is excitatory or inhibitory is stored in the memory 14, and the signal is switched by the switching gate circuit 13 using the information. Further, as shown in FIG. 8, a gate circuit 15 having a plurality of OR gates corresponding to the logical sum of the equations (11) and (12) for processing each input is provided. Further, as shown in the figure, the excitability group shown in equation (13) is “1”.
And output only when the inhibitory group is "0" A
A gate circuit 16 including an ND gate and an inverter is provided.

【0086】次に、誤差信号について説明する。図9
は、出力層での誤差信号を生成する回路を示す図で、A
ND,インバータの組み合わせによる論理回路であり、
前記式(14),(15)に相当する。即ち、出力層か
らの出力19及び教師信号20より誤差信号21,22
を生成する。また、中間層における誤差信号を求める前
記の式(16)〜(19)は、図7中に示すANDゲー
ト構成のゲート回路10により行われ、+,−に応じた
出力2,3が得られる。このような結合が興奮性か抑制
性かで用いる誤差信号が異なるので、その場合分けを行
う必要があるが、この場合分けはメモリ14に記憶され
た興奮性か抑制性かの情報と、誤差信号の+,−信号
6,7とに応じて,AND,ORゲート構成のゲート回
路12により行われる。また、誤差信号を集める前記の
演算式(20),(21)は図8に示すORゲート構成
のゲート回路17で行われる。また、学習レートに相当
する式(22)〜(24)は、図8に示す分周回路18
により行われる。
Next, the error signal will be described. Figure 9
Is a diagram showing a circuit for generating an error signal in the output layer, where A
It is a logic circuit that combines ND and inverter,
This corresponds to the equations (14) and (15). That is, the error signals 21 and 22 are calculated from the output 19 from the output layer and the teacher signal 20.
To generate. Further, the above equations (16) to (19) for obtaining the error signal in the intermediate layer are performed by the gate circuit 10 having the AND gate configuration shown in FIG. 7, and outputs 2 and 3 corresponding to + and − are obtained. . Since the error signal to be used differs depending on whether such coupling is excitatory or inhibitory, it is necessary to make a distinction in that case. In this case, the excitatory or inhibitory information stored in the memory 14 and the error are stored. This is performed by the gate circuit 12 having an AND and OR gate configuration according to the +,-signals 6 and 7 of the signals. Further, the arithmetic expressions (20) and (21) for collecting the error signals are performed by the gate circuit 17 having the OR gate structure shown in FIG. Expressions (22) to (24) corresponding to the learning rate are given by the frequency dividing circuit 18 shown in FIG.
Done by.

【0087】最後に、誤差信号より新たな結合係数を計
算する部分について説明する。これは前記の式(25)
〜(28)で表せられ、図7に示すAND,インバー
タ,ORゲート構成のゲート回路11により行われる。
このゲート回路11も結合の興奮性・抑制性によって場
合分けしなければならないが、これは図7に示すゲート
回路12により行われる。
Finally, the part for calculating a new coupling coefficient from the error signal will be described. This is the above equation (25).
.About. (28), which is performed by the gate circuit 11 having the AND, inverter, and OR gate configurations shown in FIG.
This gate circuit 11 must also be classified depending on the excitability / inhibition property of the coupling, and this is performed by the gate circuit 12 shown in FIG.

【0088】先願のパルス密度方式によるニューラルネ
ットワーク回路(図6〜9)では学習プロセスによっ
て、ニューロン間の結合係数Tijを前記の式(14)
〜(28)、即ち図6〜9に示す回路によって更新でき
る。しかしながら、結合係数の符号(図7の14)は学
習によって変化できず、これがニューラルネットワーク
の学習スピードの低下や学習が収束しないという事態を
生む。
In the neural network circuit (FIGS. 6 to 9) based on the pulse density method of the prior application, the coupling coefficient Tij between neurons is calculated by the above equation (14) by a learning process.
~ (28), that is, the circuits shown in FIGS. However, the sign of the coupling coefficient (14 in FIG. 7) cannot be changed by learning, which causes a decrease in learning speed of the neural network and a situation in which learning does not converge.

【0089】具体的に学習が結束しない例をEXOR問
題にて説明する。一般的なEXOR問題を解くときのネ
ットワーク構成を図14に、真理値表を表1に表す。
The EXOR problem will be described as an example in which learning is not united. FIG. 14 shows a network configuration when solving a general EXOR problem, and Table 1 shows a truth table.

【0090】[0090]

【表1】 [Table 1]

【0091】[0091]

【発明が解決しようとする課題】表1の真理値表の機能
を図14のような構成のニューラルネットワークで実現
する場合、各結合係数の符号は決まっており、図15の
(a)か(b)の2通りである。なお、図中の+は興奮
性結合、−は抑制性結合を表す。通常、結合係数及び結
合係数の符号は、学習プロセスの初期化時にランダムに
設定される。この時、興奮性結合(+)と抑制性結合
(−)の割り振る確率を2分の1とすると、図15の
(a)のように割り振る確率は結合数が6なので26
の1、同様に図15の(b)のように割り振る確率は2
6 分の1となる。従って,EXORの機能を実現すると
きの結合係数の符号割当は、図15の(a)或いは
(b)でよく、個のように符号が割り振られる確率は2
5 分の1、即ち、32分の1となる。このことは32回
の符号設定を行って、やっと1回,EXOR機能が実現
できるということになる。従って、このようなやり方で
は学習が収束しない割合が多く、学習時間が長くかかる
ことになる。
When the function of the truth table of Table 1 is realized by the neural network having the configuration shown in FIG. 14, the sign of each coupling coefficient is fixed, and the sign of FIG. There are two ways, b). In addition, + in the figure represents an excitatory bond and − represents an inhibitory bond. Usually, the coupling coefficient and the sign of the coupling coefficient are randomly set at the initialization of the learning process. At this time, excitatory coupling (+) and inhibitory connections (-) to 1 and a half probability to allocate a, 1 probability is the number of bonds 6 because 2 6 minutes allocated as shown in (a) of FIG. 15, Similarly, the probability of allocation is 2 as shown in FIG.
It will be one sixth . Therefore, the code assignment of the coupling coefficient when implementing the EXOR function may be as shown in (a) or (b) of FIG. 15, and the probability of assigning the code like this is 2
It is 1/5 , that is, 1/32. This means that the EXOR function can be realized only once by performing the code setting 32 times. Therefore, in such a method, there is a large proportion of learning that does not converge, which results in a long learning time.

【0092】本発明は、以上の問題に対応するためにな
されたもので、結合係数の符号を学習によって変えられ
るようにし、上記の問題を解消することを課題としてい
る。
The present invention has been made to address the above problems, and an object thereof is to solve the above problems by making it possible to change the sign of the coupling coefficient by learning.

【0093】[0093]

【課題を解決するための手段】この発明の第1の発明
は、パルス密度方式により実現された神経細胞回路網に
よる信号処理装置において、学習プロセスによって、興
奮性結合においては、興奮性結合係数の値に興奮性結合
係数増加分を加算した値が抑制性結合係数増加分より小
さくなった場合に、結合係数の符号を興奮性結合から抑
制性結合に変化させ、抑制性結合においては、抑制性結
合の値に抑制性結合係数増加分を加算した値が、興奮性
結合係数増加分より小さくなった場合に、結合係数の符
号を抑制性結合から興奮性結合に変化させることを特徴
とする。
According to a first aspect of the present invention, in a signal processing device by a nerve cell network realized by a pulse density method, in the excitatory coupling, the excitatory coupling coefficient of If the value obtained by adding the excitatory coupling coefficient increase to the value becomes smaller than the inhibitory coupling coefficient increase, the sign of the coupling coefficient is changed from excitatory coupling to inhibitory coupling, and in the inhibitory coupling, the inhibitory It is characterized in that the sign of the coupling coefficient is changed from the inhibitory coupling to the excitatory coupling when the value obtained by adding the inhibitory coupling coefficient increment to the coupling value becomes smaller than the excitatory coupling coefficient increment.

【0094】この発明の第2の発明は、パルス密度方式
により実現された神経細胞回路網による信号処理装置に
おいて、学習プロセスにおいて、結合係数の値が、予め
設定した範囲以内であり、且つ予め設定した学習回数だ
けある場合に、興奮性結合においては、興奮性結合から
抑制性結合に、抑制性結合においては、抑制性結合から
興奮性結合に、結合係数の符号を変えるようにしたこと
を特徴とす。
A second invention of the present invention is, in a signal processing device by a nerve cell network realized by a pulse density method, in the learning process, the value of the coupling coefficient is within a preset range and is preset. When the number of learnings is the same, the sign of the coupling coefficient is changed from excitatory connection to inhibitory connection in excitatory connection and from inhibitory connection to excitatory connection in inhibitory connection. And

【0095】[0095]

【作用】この発明の信号処理方法によると、学習プロセ
スにより興奮性結合から抑制性結合又は抑制性結合から
興奮性結合へと、結合係数の符号を変えられるようにな
り、これにより学習速度及び学習の収束性を大幅に上げ
ることが可能となる。
According to the signal processing method of the present invention, the sign of the coupling coefficient can be changed from excitatory coupling to inhibitory coupling or from inhibitory coupling to excitatory coupling by the learning process, whereby the learning speed and learning can be improved. It is possible to significantly improve the convergence of the.

【0096】[0096]

【実施例】以下、この発明の実施例につき、図16ない
し図18を参照して説明する。この発明は、先願のパル
ス密度方式によるニューラルネットワークの回路(図6
〜図9)において、学習プロセスによって結合係数の符
号を変えられるようにするものである。
Embodiments of the present invention will be described below with reference to FIGS. This invention relates to a neural network circuit based on the pulse density method of the previous application (see FIG. 6).
9 to 9), the sign of the coupling coefficient can be changed by the learning process.

【0097】まず、この発明による学習プロセスによる
結合係数の符号を変換する方法の第一の方法につき説明
する。興奮性結合係数をT+ ,抑制性結合をT- とす
る。
First, the first method of converting the sign of the coupling coefficient by the learning process according to the present invention will be described. Let the excitatory coupling coefficient be T + and the inhibitory coupling be T .

【0098】学習プロセスにおいて、結合係数の1パル
ス分の更新量を求める前記の式(25),(26)をあ
る時間(1フレーム)だけ累積加算した値をΔT+,Δ
とする。
In the learning process, the values obtained by cumulatively adding the above equations (25) and (26) for obtaining the update amount of the coupling coefficient for one pulse for a certain time (one frame) are ΔT + , Δ.
T - to.

【0099】この実施例では、結合係数の符号の学習を
以下のように行う。
In this embodiment, the sign of the coupling coefficient is learned as follows.

【0100】興奮性結合T+ に対して、興奮性結合係数
増加分ΔT+ を加算した値が、抑制性結合係数増加分Δ
より小さい場合に、結合係数の符号を興奮性(+)
から抑制性(−)に変える。抑制性結合T- に対して抑
制性結合係数増加分ΔT- を加算した値が興奮性結合係
数増加分ΔT+ より小さい場合に結合係数の符号を抑制
性(−)から興奮性(+)に変える。以上をまとめると
以下の数式22の(29),(30)に示すようにな
る。
The value obtained by adding the excitatory coupling coefficient increase ΔT + to the excitatory coupling T + is the inhibitory coupling coefficient increase Δ.
The sign of the coupling coefficient is excitatory (+) when it is smaller than T −.
To suppressive (-). When the value obtained by adding the inhibitory coupling coefficient increment ΔT to the inhibitory coupling T is smaller than the excitatory coupling coefficient increment ΔT + , the sign of the coupling coefficient is changed from inhibitory (−) to excitatory (+). Change. The above can be summarized as shown in (29) and (30) of the following formula 22.

【0101】[0101]

【数式22】 興奮性結合T+ :T+ +ΔT+ −ΔT- <0のとき 結合係数符号 興奮性(+) → 抑制性(−)…(29) 抑制性結合T- :T- +ΔT- −ΔT+ <0のとき 結合係数符号 抑制性(−) → 興奮性(+)…(30)[Equation 22] Excitatory coupling T + : When T + + ΔT + −ΔT <0, the coupling coefficient sign Excitability (+) → Inhibitory (−) (29) Inhibitory coupling T : T + ΔT − When ΔT + <0: Coupling coefficient sign Inhibitivity (−) → Excitability (+) (30)

【0102】以上の方法を実現する回路の一例を図16
に示す。結合係数レジスタ50は、結合計数の値を格納
する結合係数格納部51と例えば、興奮性結合の時、
“0”を、抑制性結合の時“1”を格納する符号格納部
52とからなる。
FIG. 16 shows an example of a circuit that realizes the above method.
Shown in. The coupling coefficient register 50 and the coupling coefficient storage unit 51 that stores the value of the coupling count, for example, at the time of excitatory coupling,
The code storage unit 52 stores "0" and "1" at the time of inhibitory coupling.

【0103】学習プロセスの開始前に、この回路におい
て、アップ/ダウンカウンタ54のロード信号(LOA
D)をアクティブにして、結合係数の値が結合係数格納
部51からカウンタ54にロードされる。結合係数の符
号格納部52は、マルチプレクサ56とEXOR回路5
3に接続されている。マルチプレクサ56は興奮性結合
の時は、カウンタ54のインクリメント信号(INC)
を興奮性結合係数増加分ΔT+ によって、又、デクリメ
ント信号(DEC)を抑制性結合係数増加分ΔT- によ
って制御するように出力を選択する。
Before the start of the learning process, the load signal (LOA
D) is activated and the value of the coupling coefficient is loaded from the coupling coefficient storage unit 51 into the counter 54. The coupling coefficient code storage unit 52 includes a multiplexer 56 and an EXOR circuit 5.
Connected to 3. In the case of excitatory coupling, the multiplexer 56 outputs the increment signal (INC) of the counter 54.
The output is selected to control the excitatory coupling coefficient increment ΔT + and the decrement signal (DEC) by the inhibitory coupling coefficient increment ΔT .

【0104】抑制性結合の時は、カウンタ54のインク
リメント信号(INC)を抑制性結合係数増加分ΔT-
によって、又、デクリメント信号(DEC)を興奮性結
合係数増加分ΔT+ によって制御するように出力を選択
する。
At the time of inhibitory coupling, the increment signal (INC) of the counter 54 is changed to the increment ΔT − of the inhibitory coupling coefficient.
, And the output is selected to control the decrement signal (DEC) by the excitatory coupling coefficient increment ΔT + .

【0105】以上により、上記式(29),(30)の
不等式の左辺の演算が実現できる。式(29),(3
0)で左辺が0より小さいかどうかはカウンタ54の値
を格納する符号ビット格納部55の符号ビットにより判
断している。これはカウンタの値が負の場合、即ち、符
号ビット格納部55の符号ビット“1”の時に式(2
9),(30)が成立したことを表し、この符号ビット
が符号反転信号になり、EXOR回路53に入力され、
これにより現状の結合係数の符号が変換され、新しい符
号がレジスタの符号格納部52に格納される。以上によ
り、式(29),(30)が実現でき、学習によって結
合係数の符号が変えられることになる。
As described above, the operation on the left side of the inequalities of the above equations (29) and (30) can be realized. Formulas (29) and (3
In 0), whether the left side is smaller than 0 is determined by the sign bit of the sign bit storage unit 55 that stores the value of the counter 54. This is because when the value of the counter is negative, that is, when the sign bit of the sign bit storage unit 55 is “1”, the formula (2
9) and (30) are established, and this sign bit becomes a sign inversion signal and is input to the EXOR circuit 53,
As a result, the code of the current coupling coefficient is converted, and the new code is stored in the code storage unit 52 of the register. From the above, the equations (29) and (30) can be realized, and the sign of the coupling coefficient can be changed by learning.

【0106】次に、この発明の結合係数の符号の変更方
法の他の方法につき説明する。本来、結合係数の符号と
して、抑制性結合(−)であるべきなのに、興奮性結合
(+)と設定された場合の学習による結合係数の変化の
様子を図17(a)に示す。これからわかるように学習
が進むにつれ、正の初期設定値から徐々に減少して0付
近に達する。結合係数の符号を変えられない従来の方法
だと、以後学習を進めても0付近に停滞し、これ以上学
習は進まないことになる。
Next, another method of changing the sign of the coupling coefficient of the present invention will be described. Originally, the sign of the coupling coefficient should be the inhibitory coupling (-), but the change of the coupling coefficient due to learning when the excitatory coupling (+) is set is shown in Fig. 17 (a). As can be seen from this, as the learning progresses, the value gradually decreases from the positive initial setting value and reaches near 0. With the conventional method in which the sign of the coupling coefficient cannot be changed, even if the learning is advanced thereafter, it will stay around 0, and the learning will not proceed any further.

【0107】そこで、図17(b)に示すように結合係
数が0からある範囲(ΔW)に入り、この状態がある設
定回数(WNO)だけ続いた場合のみ、結合係数の符号
を変えるようにする。すると、図17(b)に示すよう
に本来あるべき抑制性結合となり、ある値で収束し、学
習が完了することになる。また、この結合が意味のない
場合、即ち、本来結合係数が0付近にあるのであれば、
符号を変えても0付近に停滞することになり、学習への
悪影響はない。
Therefore, as shown in FIG. 17B, the sign of the coupling coefficient is changed only when the coupling coefficient enters from 0 to a certain range (ΔW) and this state continues for a set number of times (WNO). To do. Then, as shown in FIG. 17 (b), the inhibitory coupling should be as it should be, and it converges at a certain value, and the learning is completed. Also, if this coupling is meaningless, that is, if the coupling coefficient originally is near 0,
Even if the sign is changed, it will stagnate near 0, and there is no adverse effect on learning.

【0108】以上の実現回路を図18に示す。図18の
結合係数レジスタ50(結合係数格納部58,符号格納
部52)及びEXOR回路53は前述の図16の結合係
数レジスタ50(結合係数格納部51,符号格納部5
2)及びEXOR回路53と同じものなので同じ番号を
付し、ここでは説明を省略する。
The circuit for realizing the above is shown in FIG. The combination coefficient register 50 (the combination coefficient storage unit 58, the code storage unit 52) and the EXOR circuit 53 in FIG. 18 are the combination coefficient register 50 (the combination coefficient storage unit 51, the code storage unit 5 in FIG. 16 described above.
2) and the EXOR circuit 53, the same reference numerals are given and the description thereof is omitted here.

【0109】結合係数の符号が変換される様子を図17
(b)及び図18により説明する。学習を開始すると、
結合係数レジスタ50の結合係数格納部51の値が減少
し、この値がΔW格納レジスタ61に設定された値より
小さくなったことがコンパレータ62により検出され
る。この検出信号がアクティブになったときは、カウン
タ65をインクリメントする。検出信号がアクティブで
ないときは、インバータ回路64によりカウンタのリセ
ット信号がアクティブになるためカウンタは“0”にリ
セットされる。コンバレータ62の検出信号がアクティ
ブになりカウンタが0からインクリメントされカウンタ
の値がWNO格納レジスタ63に設定された値になる
と、コンパレータ66により、結合係数がΔW以内にW
NO回以上停滞したことが検出される。これにより、符
号反転信号がアクティブになり、この信号と符号格納部
52の符号信号とのEXOR回路53により実現され、
結合係数の符号が反転され新しい符号が符号格納部52
に格納される。これにより図17(b)のように学習に
よって結合係数の符号が正規の値に設定され、学習が進
むことになる。
FIG. 17 shows how the sign of the coupling coefficient is converted.
This will be described with reference to FIG. When you start learning,
The comparator 62 detects that the value of the coupling coefficient storage unit 51 of the coupling coefficient register 50 has decreased and that this value has become smaller than the value set in the ΔW storage register 61. When this detection signal becomes active, the counter 65 is incremented. When the detection signal is not active, the inverter circuit 64 activates the reset signal of the counter, so that the counter is reset to "0". When the detection signal of the converter 62 becomes active, the counter is incremented from 0, and the counter value becomes the value set in the WNO storage register 63, the comparator 66 causes the coupling coefficient to reach W within ΔW.
It is detected that the vehicle is stagnant more than NO times. As a result, the sign inversion signal becomes active and is realized by the EXOR circuit 53 of this signal and the code signal of the code storage unit 52.
The sign of the coupling coefficient is inverted and the new sign is added to the sign storage unit 52.
Stored in. As a result, as shown in FIG. 17B, the sign of the coupling coefficient is set to a normal value by learning, and learning proceeds.

【0110】[0110]

【発明の効果】この発明の信号処理方法によると、パル
ス密度方式ニューラルネットワーク装置において、結合
係数の符号を学習によって変えられないという不具合点
を解消できる。即ち、学習プロセスにより結合係数の符
号を変えられるようになり、これにより学習速度及び学
習の収束性を大幅に上げることが可能となる。
According to the signal processing method of the present invention, it is possible to solve the problem that the sign of the coupling coefficient cannot be changed by learning in the pulse density type neural network apparatus. That is, the sign of the coupling coefficient can be changed by the learning process, and thereby the learning speed and learning convergence can be significantly improved.

【0111】また、従来のように、ニューラルネットワ
ークの各結合の符号をランダムに割り当てても学習によ
り本来の符号に変えられるため、冗長なシナプス結合が
不要になり、従って、最小構成のニューラルネットワー
クが構成可能となる。これによりハードウェアでニュー
ラルネットワークを実現する場合には、回路規模を必要
最小限に抑えることができる。
Further, as in the prior art, even if the code of each connection of the neural network is randomly assigned, the code can be changed to the original code by learning, so that redundant synapse connection is unnecessary, and therefore, the neural network having the minimum configuration can be obtained. It is configurable. As a result, when the neural network is realized by hardware, the circuit scale can be minimized.

【図面の簡単な説明】[Brief description of drawings]

【図1】神経細胞ユニットの模式図である。FIG. 1 is a schematic diagram of a nerve cell unit.

【図2】神経細胞回路網の模式図である。FIG. 2 is a schematic diagram of a nerve cell network.

【図3】シグモイド関数を示すグラフである。FIG. 3 is a graph showing a sigmoid function.

【図4】フォワードプロセスを説明する模式図である。FIG. 4 is a schematic diagram illustrating a forward process.

【図5】学習プロセスを説明する模式図である。FIG. 5 is a schematic diagram illustrating a learning process.

【図6】神経細胞ユニットの回路図である。FIG. 6 is a circuit diagram of a nerve cell unit.

【図7】図2の線(結線)に相当する部分の論理回路図
である。
FIG. 7 is a logic circuit diagram of a portion corresponding to the line (connection) in FIG.

【図8】図2の丸(神経細胞ユニット)に相当する部分
の論理回路図である。
8 is a logic circuit diagram of a portion corresponding to the circle (neuronal cell unit) in FIG.

【図9】出力層での誤差信号を生成する回路の論理回路
図である。
FIG. 9 is a logic circuit diagram of a circuit that generates an error signal in an output layer.

【図10】ニューラルネットワークに相当する電気回路
図である。
FIG. 10 is an electric circuit diagram corresponding to a neural network.

【図11】単一神経細胞に相当する電気回路図である。FIG. 11 is an electric circuit diagram corresponding to a single nerve cell.

【図12】シナプス回路のブロック回路図である。FIG. 12 is a block circuit diagram of a synapse circuit.

【図13】細胞体回路のブロック図である。FIG. 13 is a block diagram of a cell body circuit.

【図14】EXOR問題を解く場合のニューラルネット
ワーク構成を示す模式図である。
FIG. 14 is a schematic diagram showing a neural network configuration when solving the EXOR problem.

【図15】図14の構成における符号例を示す模式図で
ある。
FIG. 15 is a schematic diagram showing a code example in the configuration of FIG.

【図16】この発明の第1の実施例を示すブロック回路
図である。
FIG. 16 is a block circuit diagram showing a first embodiment of the present invention.

【図17】学習による結合係数の変化を示す模式図であ
る。
FIG. 17 is a schematic diagram showing changes in the coupling coefficient due to learning.

【図18】この発明の第2実施例を示すブロック回路図
である。
FIG. 18 is a block circuit diagram showing a second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

50 結合係数レジスタ 51 結合係数格納部 52 符号格納部 53 EXOR回路 54 アップ/ダウンカウンタ 56 マルチプレクサ 61 ΔW格納レジスタ 62 コンパレータ 63 WNO格納レジスタ 65 カウンタ 66 コンパレータ 50 Coupling coefficient register 51 Coupling coefficient storage section 52 Code storage section 53 EXOR circuit 54 Up / down counter 56 Multiplexer 61 ΔW storage register 62 Comparator 63 WNO storage register 65 Counter 66 Comparator

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 パルス密度方式により実現された神経細
胞回路網による信号処理装置において、学習プロセスに
よって、興奮性結合においては、興奮性結合係数の値に
興奮性結合係数増加分を加算した値が抑制性結合係数増
加分より小さくなった場合に、結合係数の符号を興奮性
結合から抑制性結合に変化させ、抑制性結合において
は、抑制性結合の値に抑制性結合係数増加分を加算した
値が、興奮性結合係数増加分より小さくなった場合に、
結合係数の符号を抑制性結合から興奮性結合に変化させ
ることを特徴とする信号処理回路網における結合係数符
号処理方法。
1. A signal processing device using a nerve cell network realized by a pulse density method, wherein a value obtained by adding an excitatory coupling coefficient increase amount to a value of an excitatory coupling coefficient in a excitatory coupling is obtained by a learning process. When it becomes smaller than the increase in inhibitory binding coefficient, the sign of the binding coefficient is changed from excitatory binding to inhibitory binding, and in inhibitory binding, the increment of inhibitory binding coefficient is added to the value of inhibitory binding When the value becomes smaller than the increase in excitatory coupling coefficient,
A coupling coefficient code processing method in a signal processing network, characterized in that the sign of a coupling coefficient is changed from inhibitory coupling to excitatory coupling.
【請求項2】 パルス密度方式により実現された神経細
胞回路網による信号処理装置において、学習プロセスに
おいて、結合係数の値が、予め設定した範囲以内であ
り、且つ予め設定した学習回数だけある場合に、興奮性
結合においては、興奮性結合から抑制性結合に、抑制性
結合においては、抑制性結合から興奮性結合に、結合係
数の符号を変えるようにしたことを特徴とする信号処理
回路網における結合係数符号処理方法。
2. A signal processing device using a nerve cell network realized by a pulse density method, wherein in a learning process, a value of a coupling coefficient is within a preset range and a preset number of times of learning. In the signal processing circuit, the sign of the coupling coefficient is changed from excitatory coupling to inhibitory coupling in excitatory coupling and from inhibitory coupling to excitatory coupling in inhibitory coupling. Coupling coefficient code processing method.
【請求項3】 パルス密度方式により実現された神経細
胞回路網による信号処理装置において、結合係数の値を
格納する結合係数格納手段と、結合係数の符号を格納す
る符号格納手段と、第1の符号の結合係数の値に第1の
符号の結合係数値の増加分を加算し、この加算した値と
第2の符号の結合係数の増加分を減算し、この演算結果
によって、結合係数の符号を変更するか否か判別する手
段と、この手段からの出力に応じて、上記符号格納手段
に格納されている符号を変更する手段と、を備えてなる
信号処理装置。
3. A signal processing device using a nerve cell network realized by a pulse density method, wherein a coupling coefficient storing means for storing a coupling coefficient value, a code storing means for storing a coupling coefficient sign, and a first The increment of the coupling coefficient value of the first code is added to the value of the coupling coefficient of the code, and the added value and the increment of the coupling coefficient of the second code are subtracted. And a means for determining whether to change the code stored in the code storage means according to the output from the means.
【請求項4】 パルス密度方式により実現された神経細
胞回路網による信号処理処理装置において、結合係数の
値を格納する結合係数格納手段と、結合係数の符号を格
納する符号格納手段と、結合係数の値が予め設定した範
囲以内か否か判定する手段と、結合係数の値が予め設定
した範囲以内で予め設定した学習回数であるか否か判別
する手段と、この手段からの出力に応じて上記符号格納
手段に格納されている符号を変更する手段と、を備えて
なる信号処理装置。
4. A signal processing device using a nerve cell network realized by a pulse density method, a coupling coefficient storing means for storing a value of a coupling coefficient, a code storing means for storing a code of the coupling coefficient, and a coupling coefficient. Means for determining whether or not the value of is within a preset range, means for determining whether or not the value of the coupling coefficient is within a preset range, and the number of learning times set in advance, and depending on the output from this means. A signal processing apparatus comprising: a means for changing the code stored in the code storage means.
JP5179571A 1993-07-21 1993-07-21 Connection coefficient code processing method for signal processing circuit network and device therefor Pending JPH0737016A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5179571A JPH0737016A (en) 1993-07-21 1993-07-21 Connection coefficient code processing method for signal processing circuit network and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5179571A JPH0737016A (en) 1993-07-21 1993-07-21 Connection coefficient code processing method for signal processing circuit network and device therefor

Publications (1)

Publication Number Publication Date
JPH0737016A true JPH0737016A (en) 1995-02-07

Family

ID=16068071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5179571A Pending JPH0737016A (en) 1993-07-21 1993-07-21 Connection coefficient code processing method for signal processing circuit network and device therefor

Country Status (1)

Country Link
JP (1) JPH0737016A (en)

Similar Documents

Publication Publication Date Title
US5630023A (en) Signal processor
JPH07111090A (en) Signal processor
US5485548A (en) Signal processing apparatus using a hierarchical neural network
JPH05165987A (en) Signal processor
JP3508783B2 (en) Coupling coefficient updating method and coupling coefficient updating apparatus in pulse density type signal processing network
JPH0737016A (en) Connection coefficient code processing method for signal processing circuit network and device therefor
JPH09185596A (en) Coupling coefficient updating method in pulse density type signal processing network
JP2612640B2 (en) Signal processing circuit, signal processing network, signal processing device, and signal processing method
JPH05307624A (en) Signal processor
JPH07113942B2 (en) Neurochip combiner
JP3338713B2 (en) Signal processing device
JPH05290014A (en) Signal processor
JPH096743A (en) Method and device for updating coupling coefficient for pulse density type signal processing circuit network
JP3130913B2 (en) Signal processing device
JP3276367B2 (en) Neural cell network
JP2607351B2 (en) Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network
JP2734374B2 (en) Neural network simulator
JP3255425B2 (en) Signal processing method
JPH05217010A (en) Signal processor
JPH06131482A (en) Analog neural network circuit
JPH05108597A (en) Signal processor
JPH05108599A (en) Signal processor
JPH05108598A (en) Signal processor
JPH07175773A (en) Teacher signal imparting method for signal processing circuit network
JPH05135001A (en) Signal processor