JPH096743A - Method and device for updating coupling coefficient for pulse density type signal processing circuit network - Google Patents

Method and device for updating coupling coefficient for pulse density type signal processing circuit network

Info

Publication number
JPH096743A
JPH096743A JP7155674A JP15567495A JPH096743A JP H096743 A JPH096743 A JP H096743A JP 7155674 A JP7155674 A JP 7155674A JP 15567495 A JP15567495 A JP 15567495A JP H096743 A JPH096743 A JP H096743A
Authority
JP
Japan
Prior art keywords
signal
value
neuron
pulse
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7155674A
Other languages
Japanese (ja)
Inventor
Sugitaka Otegi
杉高 樗木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP7155674A priority Critical patent/JPH096743A/en
Publication of JPH096743A publication Critical patent/JPH096743A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To provide a device for updating coupling coefficient for pulse density type signal processing circuit network with which learning processing with an arbitrary learning coefficient is enabled in a pulse density type neural network. CONSTITUTION: This device is provided with a storage means (η-Mem) 51 for holding a learning coefficient value η, random number generator (Ran-Gen) 50 for generating a random number value, comparator (CMP) 52 for generating a learning coefficient pulse having the learning coefficient value as pulse density by comparing the learning coefficient value with the random number value, and AND circuit 53 for ANDing the learning coefficient pulse and the error signal pulse sequence of a neuron.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、文字や図形認識、ロボ
ット等の運動制御、或いは連想記憶等に応用されるパル
ス密度型信号処理回路網における結合係数更新方法並び
に結合係数更新装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a coupling coefficient updating method and a coupling coefficient updating device in a pulse density type signal processing circuit network applied to character and graphic recognition, motion control of a robot or the like, or associative memory.

【0002】[0002]

【従来の技術】生体の情報処理の基本的な単位である神
経細胞(ニューロン)の機能を模倣した神経細胞模倣素
子をネットワークに構成し、情報の並列処理を目指した
のが、いわゆる神経細胞回路ネットワーク(ニューラル
ネットワーク)である。文字認識や連想記憶、運動制御
等は、生体においてはいとも簡単に行われていても、従
来のノイマン型コンピュータではなかなか達成できない
ものが多い。
2. Description of the Related Art A so-called nerve cell circuit is aimed at parallel processing of information by configuring a nerve cell mimicking element that mimics the function of a nerve cell (neuron), which is a basic unit of information processing of a living body, in a network to process information in parallel. It is a network (neural network). Although character recognition, associative memory, motion control, etc. are performed in the living body in a very simple manner, many cannot be easily achieved by the conventional Neumann computer.

【0003】そこで、生体の神経系、特に生体特有の機
能、すなわち並列処理や自己学習等を模倣して、これら
の問題を解決しようとする試みが、計算機シュミレーシ
ョンや専用ハードウェアの試作等によって、盛んに行わ
れている。
Therefore, attempts to solve these problems by imitating the functions of the nervous system of the living body, in particular, the functions peculiar to the living body, that is, parallel processing and self-learning, have been made by computer simulations and trial production of dedicated hardware. It is being actively conducted.

【0004】図1は、一つのニューロンのモデル(神経
細胞ユニット)を表すもので、他のニューロンから入力
を受ける部分、入力を一定の規則で変換する部分、結果
を出力する部分からなる。他のニューロンとの結合部に
はそれぞれ可変の重み“Wji”を付け、結合の強さを
表している。この値を変えるとネットワークの構造が変
わる。ネットワークの学習とはこの値を変えることであ
る。
FIG. 1 shows a model (nerve cell unit) of one neuron, which is composed of a part for receiving an input from another neuron, a part for converting the input according to a certain rule, and a part for outputting a result. A variable weight "Wji" is attached to each of the connection parts with other neurons to represent the connection strength. Changing this value changes the network structure. Learning the network means changing this value.

【0005】図2は、これをネットワークにし、階層型
ニューラルネットワークを形成した場合である。図中、
A1,A2,A3はそれぞれニューロンを表している。
各ニューロンA1,A2,A3は図1の模式図に示すニ
ューロンと同様に多数のニューロンと結合され、それか
ら受けた信号を処理して出力する。階層型ネットワーク
は、入力層、中間層、出力層から成り、各層内での結合
はなく、また出力層から入力層に向かう結合もない。一
つのニューロンは他の多数のニューロンと結合してい
る。
FIG. 2 shows a case where this is used as a network to form a hierarchical neural network. In the figure,
A1, A2 and A3 represent neurons, respectively.
Each of the neurons A1, A2, A3 is connected to a large number of neurons like the neuron shown in the schematic view of FIG. 1, and processes and outputs the signals received from them. The hierarchical network is composed of an input layer, an intermediate layer, and an output layer, and there is no connection within each layer and no connection from the output layer to the input layer. One neuron is connected to many other neurons.

【0006】なお、図2は、入力層、中間層、出力層の
三層ネットワークであるが、中間層を複数持つ多層ネッ
トワークも利用される。
Although FIG. 2 shows a three-layer network including an input layer, an intermediate layer, and an output layer, a multi-layer network having a plurality of intermediate layers is also used.

【0007】図1に示すニューロンを例にとり、図2の
各ニューロンA1,A2,A3の動作について説明す
る。まず、フォワードプロセスについて説明する。
The operation of each of the neurons A1, A2 and A3 shown in FIG. 2 will be described by taking the neuron shown in FIG. 1 as an example. First, the forward process will be described.

【0008】図2のニューラルネットワークにおいて、
入力層A1に入力された信号は、中間層A2に伝播し、
中間層A2にてフォワード処理を実行する。中間層A2
の処理結果は、出力層A3に伝播し、出力層A3にて、
フォワード処理を実行し、最終的にニューラルネットワ
ークの出力が得られる。
In the neural network of FIG.
The signal input to the input layer A1 propagates to the intermediate layer A2,
Forward processing is executed in the middle layer A2. Middle layer A2
The processing result of is propagated to the output layer A3, and at the output layer A3,
The forward process is executed, and the output of the neural network is finally obtained.

【0009】ここで、ニューロン間の結合の度合いを表
すのが、結合係数と呼ばれるもので、j番目のニューロ
ンとi番目のニューロンとの結合係数をWjiで表す。
結合には、相手のニューロンからの信号が大きいほど自
分の出力が大きくなる興奮性結合と、逆に相手のニュー
ロンからの信号が大きいほど自分の出力が小さくなる抑
制性結合があり、Wji>0のとき興奮性結合、Wji
<0のとき抑制性結合を表す。
The degree of coupling between neurons is called a coupling coefficient, and the coupling coefficient between the j-th neuron and the i-th neuron is represented by Wji.
There are two types of coupling: excitatory coupling, in which the output of the partner neuron increases as the signal from the partner neuron increases, and inhibitory coupling, in which the output of the partner neuron decreases, the output decreases. Excitatory coupling, Wji
When <0, it represents an inhibitory bond.

【0010】今、自分のニューロンがj番目であると
し、i番目のニューロンの出力をOiとすると、これに
結合係数Wjiを掛けWji・Oiが自分のニューロン
への入力となる。各ニューロンは多数のニューロンと結
合しているので、それらのニューロンに対するWji・
Oiを足し合わせた結果であるΣWji・Oiが、自分
のニューロンへの入力となる。これを内部電位と言い、
次式で示される。
Now, assuming that the own neuron is the j-th neuron and the output of the i-th neuron is Oi, this is multiplied by the coupling coefficient Wji, and Wji · Oi becomes the input to the own neuron. Since each neuron is connected to a large number of neurons, Wji ·
ΣWji · Oi, which is the result of adding Oi, becomes the input to the own neuron. This is called the internal potential,
It is shown by the following formula.

【0011】[0011]

【数1】netj =ΣWji・Oi … (1)[Equation 1] net j = ΣWji · Oi (1)

【0012】次に、この入力に対して非線形処理を施
し、出力をする。この時の関数を神経細胞応答関数と呼
び、例えば次の式(2)に示されるようなシグモイド関
数が用いられる。
Next, this input is subjected to non-linear processing and output. The function at this time is called a nerve cell response function, and for example, a sigmoid function represented by the following equation (2) is used.

【0013】[0013]

【数2】 f(netj )=1/{1+exp(−netj )} … (2)[Number 2] f (net j) = 1 / {1 + exp (-net j)} ... (2)

【0014】この関数を図3に示す。値域は“0〜1”
で、入力値が大きくなるにつれ“1”に、小さくなるに
つれ“0”に近づく。以上より、ニューロンjの出力O
jは次の式(3)で示される。
This function is shown in FIG. Value range is "0 to 1"
Then, as the input value increases, it approaches “1”, and as it decreases, it approaches “0”. From the above, the output O of the neuron j
j is expressed by the following equation (3).

【0015】[0015]

【数3】 Oj=f(netj ) =f(ΣWji・Oi) … (3)## EQU3 ## Oj = f (net j ) = f (ΣWji · Oi) (3)

【0016】次に、上記ニューラルネットワークの学習
機能について説明する。数値計算で用いられる学習プロ
セスとして、一般的なバックプロパゲーションアルゴリ
ズム(以後、略してBPアルゴリズムと呼ぶ。)につい
て簡単に述べる。
Next, the learning function of the neural network will be described. As a learning process used in the numerical calculation, a general back propagation algorithm (hereinafter, abbreviated as BP algorithm) will be briefly described.

【0017】学習プロセスでは、ある入力パターンpを
与えたとき、実際の出力値と望ましい出力値の誤差を小
さくするように結合係数を変更していく。この変更量を
求めるアルゴリズムがBPアルゴリズムである。
In the learning process, when a certain input pattern p is given, the coupling coefficient is changed so as to reduce the error between the actual output value and the desired output value. The BP algorithm is an algorithm for obtaining this change amount.

【0018】今、ある入力パターンpを与えたとき、ユ
ニットkの実際の出力値(Opk)と望ましい出力値
(tpk)の差を次の式(4)のように定義する。
Now, given a certain input pattern p, the difference between the actual output value (Opk) of the unit k and the desired output value (tpk) is defined by the following equation (4).

【0019】[0019]

【数4】Ep=(tpk−Opk)2 /2 … (4)[Number 4] Ep = (tpk-Opk) 2 /2 ... (4)

【0020】これは出力層のユニットkの誤差を表し、
tpkは人間が与える教師データである。学習ではこの
誤差を減らすようにすべての結合の強さを変えていく。
実際には、パターンpを与えた時のWkjの変化量を次
の式(5)で表す。
This represents the error of the unit k in the output layer,
tpk is teacher data given by a human. In learning, the strength of all connections is changed to reduce this error.
Actually, the change amount of Wkj when the pattern p is given is expressed by the following equation (5).

【0021】[0021]

【数5】ΔpWkj∝−ЭE/ЭWkj … (5)[Equation 5] ΔpWkj∝−ЭE / ЭWkj (5)

【0022】これを用いて、結合係数Wkjを変化させ
る。上記式(4)より、結果的に次の式(6)が得られ
る。
Using this, the coupling coefficient Wkj is changed. As a result, the following equation (6) is obtained from the above equation (4).

【0023】[0023]

【数6】ΔpWkj=η・δpk・Opj … (6)[Equation 6] ΔpWkj = η · δpk · Opj (6)

【0024】ここで、Opjは、ユニットjからユニッ
トkへの入力値である。誤差δpkは、ユニットkが出
力層か、中間層で異なる。まず、出力層における誤差信
号δpkは、次の式(7)となる。
Here, Opj is an input value from the unit j to the unit k. The error δpk differs depending on whether the unit k is the output layer or the intermediate layer. First, the error signal δpk in the output layer is given by the following equation (7).

【0025】[0025]

【数7】 δpk=(tpk−Opk)・f´(netk ) … (7)## EQU00007 ## .delta.pk = (tpk-Opk) .f '(net k ) (7)

【0026】一方、中間層における誤差信号δpjは次
の式(8)に示す通りである。
On the other hand, the error signal δpj in the intermediate layer is as shown in the following equation (8).

【0027】[0027]

【数8】 δpj=f´(netj )・ΣδpkWkj … (8)Δpj = f ′ (net j ) · ΣδpkWkj (8)

【0028】但し、f´(netj )はf(netj
の一階微分で、詳細は後述する。以上よりΔWjiを一
般的に定式化したのが次の式(9)である。
However, f '(net j ) is f (net j )
The first-order differential, which will be described in detail later. From the above, ΔWji is generally formulated as the following equation (9).

【0029】[0029]

【数9】 ΔWji(t+1)=η・δpj・Opi+α・ΔWji(t) … (9)ΔWji (t + 1) = η · δpj · Opi + α · ΔWji (t) (9)

【0030】故に式(10)に示す通りである。ここで
tは学習の順位、ηは学習定数、αは安定化係数と呼ば
れる。上記式(9)の右辺第1項は、上記式(6)で求
めたΔWji、第2項はエラーの振動を減らし、収束を
早めるために加えている。
Therefore, it is as shown in the equation (10). Here, t is a learning order, η is a learning constant, and α is a stabilizing coefficient. The first term on the right side of the above equation (9) is added to ΔWji obtained by the above equation (6), and the second term is added to reduce the error vibration and accelerate the convergence.

【0031】[0031]

【数10】 Wji(t+1)=Wji(t)+ΔWji(t+1) … (10)(10) Wji (t + 1) = Wji (t) + ΔWji (t + 1) (10)

【0032】このように結合係数の変化量ΔWjiの計
算は、出力層のユニットから始めて中間層のユニットに
移る。学習は、入力データの処理とは逆方向、つまり後
ろ向きに進む。従って、バックプロパゲーションによる
学習は、まず、学習用のデータを入力し、結果を出力す
る(前向き)。結果のエラーを減らすようにすべての結
合の強さを変える(後ろ向き)。再び、学習用データを
入力する。これを収束するまで繰り返すことになる。
As described above, the calculation of the variation ΔWji of the coupling coefficient starts from the unit of the output layer and proceeds to the unit of the intermediate layer. Learning proceeds in the opposite direction to the processing of the input data, that is, backward. Therefore, in learning by back propagation, first, learning data is input and the result is output (forward). Change the strength of all joins to reduce the resulting error (backward). Input the learning data again. This will be repeated until it converges.

【0033】従来の階層型ニューラルネットワークは、
図2に示すようなネットワークを形成する。このネット
ワークにおいて、フォワードプロセスのデータの流れを
示したのが図4である。これは3層階層型ネットワーク
における場合で、フォワードプロセスでは、入力層(図
4の左側の層)に入力信号Oi1 〜Oi4 を与えて、出
力層(図4の右側の層)より出力信号Ok1 〜Ok4 を
得る。
The conventional hierarchical neural network is
A network as shown in FIG. 2 is formed. FIG. 4 shows the data flow of the forward process in this network. This is the case in a three-layer hierarchical network. In the forward process, input signals Oi1 to Oi4 are given to the input layer (the layer on the left side of FIG. 4), and the output signals Ok1 to Oi from the output layer (the layer on the right side of FIG. 4). Get Ok4.

【0034】一方、学習プロセスのデータの流れを示し
たのが図5である。学習プロセスでは、出力層(図5の
右側の層)に教師信号tk1 〜tk4 を与えて、各ニュ
ーロン間の結合強度を更新し、ニューラルネットワーク
の出力が教師信号に一致するように学習する。なお、こ
の学習プロセスによる処理は、今のところ多くの場合、
外部の汎用のコンピュータによって実行している。
On the other hand, FIG. 5 shows the data flow of the learning process. In the learning process, the teacher signals tk1 to tk4 are given to the output layer (the layer on the right side of FIG. 5) to update the coupling strength between the neurons and learn so that the output of the neural network matches the teacher signal. It should be noted that the processing by this learning process is
It is executed by an external general-purpose computer.

【0035】前記ネットワークを電気回路で実現したも
のの一例を図6に示す(特開昭62−295188号公
報)。この回路は、基本的にはS字型の伝達関数を有す
る複数の増幅器4と、各増幅器4の出力を他の層の増幅
器の入力に一点鎖線で示すように接続する抵抗性フィー
ドバック回路網2とが設けられている。各増幅器4の入
力側には接地させたコンデンサCと接地された抵抗Rと
によるCR時定数回路3が個別に接続されている。そし
て、入力電流I1 ,I2 〜IN が各増幅器4の入力に供
給され、出力はこれらの増幅器4の出力電圧の集合から
得られる。
FIG. 6 shows an example in which the network is realized by an electric circuit (Japanese Patent Laid-Open No. 62-295188). This circuit basically comprises a plurality of amplifiers 4 having an S-shaped transfer function, and a resistive feedback network 2 for connecting the output of each amplifier 4 to the input of an amplifier of another layer as shown by a chain line. And are provided. A CR time constant circuit 3 including a grounded capacitor C and a grounded resistor R is individually connected to the input side of each amplifier 4. Then, the input current I 1, I 2 ~I N is supplied to the input of the amplifier 4, the output is obtained from a set of these output voltage of the amplifier 4.

【0036】ここに、入力や出力の信号の強度を電圧で
表し、神経細胞の結合の強さは、各細胞間の入出力ライ
ンを結ぶ抵抗1(抵抗性フィードバック回路網2中の格
子点)の抵抗値で表され、神経細胞応答関数は各増幅器
4の伝達関数で表される。また、神経細胞間の結合には
前述のように興奮性と抑制性があり、数学的には結合関
数の正負符号により表される。しかし、回路上の定数で
正負を実現するのは困難であるので、ここでは、増幅器
4の出力を2つに分け(4a,4b)、一方の出力を反
転させることにより、正負の2つの信号を生成し、これ
を選択することにより実現するようにしている。また、
図3に示したシグモイド関数f(net)に相当するも
のとしては増幅器が用いられている。
Here, the strength of the input and output signals is represented by a voltage, and the strength of the nerve cell coupling is the resistance 1 (the lattice point in the resistive feedback network 2) connecting the input / output lines between the cells. , And the nerve cell response function is represented by the transfer function of each amplifier 4. Further, the connection between nerve cells has excitability and inhibitory property as described above, and is mathematically represented by the sign of the connection function. However, since it is difficult to realize positive / negative with a constant on the circuit, here, the output of the amplifier 4 is divided into two (4a, 4b), and one output is inverted to obtain two positive / negative signals. Is generated and is selected so that it is realized. Also,
An amplifier is used as the one corresponding to the sigmoid function f (net) shown in FIG.

【0037】一般に、ニューラルネットワークをアナロ
グ回路により構成すると、単一神経回路素子の面積を小
さくできるため、ニューラルネットワークの集積度を大
きくできたり、或いは実行スピードが速いといった利点
を持っている。しかしながらその反面、各信号の値を電
位や電流等のアナログ量で表し、各演算も増幅器等のア
ナログ素子により実行するため、温度特性によるばらつ
きが存在し、また素子形成上のプロセスのばらつきのた
め、各素子の応答特性を同一にすることができず、出力
値が不安定になるといった問題もある。
In general, when the neural network is configured by analog circuits, the area of a single neural circuit element can be reduced, so that the degree of integration of the neural network can be increased or the execution speed is fast. However, on the other hand, the value of each signal is represented by an analog amount such as a potential or current, and each calculation is performed by an analog element such as an amplifier. Therefore, there are variations due to temperature characteristics, and there are variations in the process of forming elements. However, there is also a problem that the response characteristics of each element cannot be made the same and the output value becomes unstable.

【0038】また、ニューラルネットワークの結合係数
の値を学習によって任意に変更するということも難し
く、外部のコンピュータで学習を行い、学習後の各結合
係数の値をハードウェア上にダウンロードするといった
こともよく行われる。このような学習方法では、学習に
コンピュータを必要としたり、学習処理が著しく遅くな
るといった問題がある。
It is also difficult to arbitrarily change the value of the coupling coefficient of the neural network by learning, and it is also possible to perform learning by an external computer and download the value of each coupling coefficient after learning to the hardware. Often done. In such a learning method, there are problems that a computer is required for learning and the learning process is significantly slowed down.

【0039】次に、デジタル回路によりニューラルネッ
トワークを構成した例を示す。図7〜図9は、前記ニュ
ーラルネットワークをデジタル回路で実現した例を示す
図で、図7は、単一神経細胞の回路構成例を示す。これ
らにおいて図で、11はシナプス回路、12は樹状突起
回路、13は細胞体回路を示す。
Next, an example in which a neural network is composed of digital circuits will be shown. 7 to 9 are diagrams showing an example in which the neural network is realized by a digital circuit, and FIG. 7 shows a circuit configuration example of a single nerve cell. In these figures, 11 is a synaptic circuit, 12 is a dendrite circuit, and 13 is a cell body circuit.

【0040】図8は、図7に示したシナプス回路11の
構成例を示す図で、係数回路11aを介して入力パルス
fに倍率a(フィードバック信号に掛ける倍率で1また
は2)を掛けた値が入力されるレートマルチプライヤ1
1bを設けてなり、レートマルチプライヤ11bには重
み付けの値wを記憶したシナプス荷重レジスタ11cが
接続されている。また、図9は細胞体回路13の構成例
を示す図で、制御回路14、アップ/ダウンカウンタ1
5、レートマルチプライヤ16及びゲート17を順に接
続してなり、さらに、アップ/ダウンメモリ18が設け
られている。
FIG. 8 is a diagram showing a configuration example of the synapse circuit 11 shown in FIG. 7, which is a value obtained by multiplying the input pulse f by a factor a (a factor of 1 or 2 by which the feedback signal is multiplied) via the coefficient circuit 11a. Input rate multiplier 1
1b is provided, and the rate multiplier 11b is connected to a synapse weight register 11c that stores a weighting value w. FIG. 9 is a diagram showing a configuration example of the cell body circuit 13, which includes a control circuit 14 and an up / down counter 1.
5, a rate multiplier 16 and a gate 17 are sequentially connected, and an up / down memory 18 is further provided.

【0041】これは、神経細胞ユニットの入出力をパル
ス列で表現し、そのパルス密度で信号の量を表してい
る。結合係数は2進数で取り扱い、シナプス荷重レジス
タ11cに保存している。
In this case, the input and output of the nerve cell unit is represented by a pulse train, and the signal density is represented by the pulse density. The coupling coefficient is treated as a binary number and stored in the synapse weight register 11c.

【0042】信号演算処理は次のように行う。まず、入
力信号をレートマルチプライヤ11bへ入力し、結合係
数をレート値へ入力することによって、入力信号のパル
ス密度をレート値に応じて減らしている。これは、前述
のバックプロパゲーションモデルの式のWji・Oiの
部分に相当する。またΣWji・OiのΣの部分は、樹
状突起回路12によって示されるOR回路で実現してい
る。結合には、興奮性、抑制性があるので、あらかじめ
グループ分けしておき、それぞれのグループ別に論理和
(OR)をとる。図7において、F1 は興奮性、F2 は
抑制性出力を示す。この2つの出力を図9に示したカウ
ンタ15のアップ側、ダウン側にそれぞれ入力してカウ
ントすることで出力が得られる。この出力は2進数であ
るので、再びレートマルチプライヤ16を用いてパルス
密度に変換する。この神経細胞ユニットを複数個用いて
ネットワークを構成することによって、ニューラルネッ
トワークが実現できる。学習機能はネットワークの最終
出力を外部のコンピュータに入力して、コンピュータ内
部で数値計算を行い、その結果を結合係数を保存するシ
ナプス荷重レジスタ11cに書き込むことによって実現
している。
The signal calculation process is performed as follows. First, the input signal is input to the rate multiplier 11b and the coupling coefficient is input to the rate value to reduce the pulse density of the input signal according to the rate value. This corresponds to the Wji · Oi part of the expression of the back propagation model described above. The Σ portion of ΣWji · Oi is realized by the OR circuit shown by the dendrite circuit 12. Since the coupling has excitatory and inhibitory properties, it is divided into groups in advance and a logical sum (OR) is taken for each group. In FIG. 7, F1 indicates excitatory output and F2 indicates inhibitory output. An output is obtained by inputting these two outputs to the up side and the down side of the counter 15 shown in FIG. 9 and counting respectively. Since this output is a binary number, it is converted into a pulse density again using the rate multiplier 16. A neural network can be realized by constructing a network using a plurality of these nerve cell units. The learning function is realized by inputting the final output of the network to an external computer, performing numerical calculation inside the computer, and writing the result to the synapse weight register 11c that stores the coupling coefficient.

【0043】以上のように、ニューラルネットワークを
デジタル回路により構成すると、単一神経回路素子の面
積がアナログ回路に比べ大きくなるため、ニューラルネ
ットワークの集積度を上げられないといった難点がある
が、アナログ回路の欠点であった、温度特性や素子形成
上のプロセスのばらつきによる影響を受けず、回路を形
成することも比較的容易で、神経細胞素子(ニューロ
ン)の出力も安定し、信頼性が高いといった利点があ
る。
As described above, if the neural network is configured by a digital circuit, the area of a single neural circuit element becomes larger than that of an analog circuit, so that the integration degree of the neural network cannot be increased. However, it is relatively easy to form a circuit without being affected by temperature characteristics and process variations in device formation, which is a drawback of, and the output of nerve cell devices (neurons) is stable and highly reliable. There are advantages.

【0044】しかし、図7〜9に示した例では、ニュー
ラルネットワークの学習は、外部のコンピュータに頼っ
ているため、学習用のコンピュータを必要とし、また学
習時間が大きいといった問題は存在する。
However, in the examples shown in FIGS. 7 to 9, since learning of the neural network relies on an external computer, there is a problem that a learning computer is required and the learning time is long.

【0045】本出願人は、ニューロンより構成されたニ
ューラルネットワークによる信号処理装置をすでに提案
している(例えば、特願平5−118087号に詳し
い。)。この発明では、この先願に係る信号処理装置を
一実施例の例題として取り扱うので、以下この先願に係
る信号処理装置について述べる。
The present applicant has already proposed a signal processing device using a neural network composed of neurons (for example, see Japanese Patent Application No. 5-118087). In the present invention, the signal processing device according to this prior application is treated as an example of one embodiment, and therefore the signal processing device according to this prior application will be described below.

【0046】この先願に係る信号処理装置においては、
神経回路網の一例として、デジタル論理回路を用いた神
経細胞ユニットとこれを用いて構成したネットワーク回
路による信号処理について提案している。
In the signal processing device according to this prior application,
As an example of the neural network, we have proposed a neural cell unit using a digital logic circuit and signal processing by a network circuit configured by using it.

【0047】ここで基本的な考え方は、以下のようなも
のである。 1.神経細胞ユニットにおける入出力信号、中間信号、
教師信号は、すべて、「0」,「1」の2値で表された
パルス列で表現する。 2.ネットワーク内部での信号の値は、パルス密度(あ
る一定時間内の「1」の数)で表す。 3.神経細胞ユニット内での演算は、パルス列同士の論
理演算で行う。 4.結合係数のパルス列は神経細胞ユニット内のメモリ
に格納する。 5.学習においては、与えられた教師信号パルス列を元
に誤差を計算し、これに基づいて、結合係数を変化させ
る。この時、誤差の計算、結合係数の変化分の計算もす
べて「0」,「1」のパルス列の論理演算で行う。
Here, the basic idea is as follows. 1. Input / output signals, intermediate signals in the nerve cell unit,
All the teacher signals are represented by a pulse train represented by binary values of "0" and "1". 2. The value of the signal inside the network is represented by the pulse density (the number of "1" s within a certain fixed time). 3. The calculation in the nerve cell unit is performed by a logical calculation between pulse trains. 4. The pulse train of the coupling coefficient is stored in the memory in the nerve cell unit. 5. In learning, an error is calculated based on a given teacher signal pulse train, and the coupling coefficient is changed based on this error. At this time, the calculation of the error and the change of the coupling coefficient are all performed by the logical operation of the pulse train of "0" and "1".

【0048】図10は、パルス密度方式において、一つ
のニューロン素子のフォワード処理の様子を示したもの
で、ネットワークの構成は、図2に示した階層型ニュー
ラルネットワークを考える。
FIG. 10 shows a state of forward processing of one neuron element in the pulse density method, and considers the hierarchical neural network shown in FIG. 2 as the network configuration.

【0049】まず、「0」,「1」に2値化され、パル
ス密度で表現された入力Oiと結合係数Wjiとの論理
積(AND)をシナプスごとに求める。これは、前記式
(1)のWji・Oiに相当する。このAND回路の出
力のパルス密度は、確率的に入力信号のパルス密度と結
合係数のパルス密度との積となる。
First, a logical product (AND) of the input coefficient Oi, which is binarized into "0" and "1" and expressed in pulse density, and the coupling coefficient Wji is obtained for each synapse. This corresponds to Wji · Oi in the equation (1). The pulse density of the output of the AND circuit stochastically becomes the product of the pulse density of the input signal and the pulse density of the coupling coefficient.

【0050】前述したように、ニューロン間の結合には
興奮性結合と抑制性結合がある。数値演算の場合は、結
合係数の符号、例えば、興奮性の時プラス、抑制性の時
マイナスというようにして演算を行う。
As described above, the connections between neurons include excitatory connections and inhibitory connections. In the case of numerical calculation, the sign of the coupling coefficient, for example, plus when excitatory, minus when inhibitory is performed.

【0051】パルス密度方式の場合は、結合係数Wji
の正負により、各結合を興奮性結合と抑制性結合との2
つのグループに分け、このグループ別にOR操作による
論理和をとる。これは、式3のΣの処理と非線形飽和関
数f(net)の処理に相当する。
In the case of the pulse density method, the coupling coefficient Wji
Depending on the positive or negative of each, each connection is classified into an excitatory connection and an inhibitory connection.
It is divided into two groups, and the logical sum is calculated by OR operation for each group. This corresponds to the processing of Σ in Equation 3 and the processing of the nonlinear saturation function f (net).

【0052】即ち、パルス密度による演算においては、
パルス密度が低い場合、OR処理を行った結果のパルス
密度は、OR入力のパルス密度の和に近似できる。
That is, in the calculation based on the pulse density,
When the pulse density is low, the pulse density resulting from the OR processing can be approximated to the sum of the pulse densities of the OR input.

【0053】パルス密度が高くなるにつれて、OR回路
の出力は徐々に飽和してくるので、パルス密度の和と
は、結果が一致せず、非線形性が出てくることになる。
Since the output of the OR circuit gradually saturates as the pulse density increases, the result does not match the sum of the pulse densities, and non-linearity appears.

【0054】このOR操作の場合、パルス密度の値Pは
0≦P≦1となり、さらに入力の大きさに対して、単調
増加関数となるので、式(2)或いは図3のシグモイド
関数による処理と同様になる。
In the case of this OR operation, the value P of the pulse density is 0≤P≤1, and since it is a monotonically increasing function with respect to the magnitude of the input, processing by the equation (2) or the sigmoid function of FIG. 3 is performed. Will be similar to.

【0055】パルス密度方式による神経細胞素子の出力
は、上記の演算により求められた興奮性グループのOR
出力netj +が“1”でかつ、抑制性グループのOR出
力netj -が“0”の時のみ“1”を出力する。即ち、
次の式(11)〜(13)に示すように表す。
The output of the nerve cell element by the pulse density method is the OR of the excitability groups obtained by the above calculation.
And the output net Non j + is "1", OR output net Non j inhibitory group - outputs "1" only when "0". That is,
It is expressed as shown in the following equations (11) to (13).

【0056】[0056]

【数11】 [Equation 11]

【0057】次に、パルス密度方式における学習プロセ
スについて述べる。学習が行われていないニューラルネ
ットワークにおいては、あるパターンを入力したときの
ネットワークの出力は必ずしも望ましい出力とはならな
い。従って、前述したBPアルゴリズムと同様に学習プ
ロセスによって、実際の出力値と望ましい出力値の誤差
を小さくするように結合係数を変更していく。
Next, the learning process in the pulse density method will be described. In a non-learned neural network, the output of the network when a certain pattern is input is not always the desired output. Therefore, similar to the BP algorithm described above, the learning process changes the coupling coefficient so as to reduce the error between the actual output value and the desired output value.

【0058】(出力層における誤差信号)最初に出力層
における誤差信号について述べる。ここで、誤差を数値
で表すと正負両方の値を取り得るが、パルス密度方式で
は、そのような表現ができないため、プラス成分を表す
信号δk+ とマイナス成分を表すδk- 信号の2つを使
って、出力層における誤差信号を次の式(14),(1
5)のように定義する。
(Error Signal in Output Layer) First, the error signal in the output layer will be described. Here, when the error is expressed by a numerical value, both positive and negative values can be taken, but since such an expression cannot be performed in the pulse density method, two signals, a signal δk + representing a plus component and a signal δk representing a minus component, can be obtained. Using the error signal in the output layer, the following equations (14) and (1
Define as in 5).

【0059】[0059]

【数12】 (Equation 12)

【0060】誤差信号プラス成分δk+ は、出力結果O
kが“0”で、教師信号tkが“1”の時、“1”とな
り、それ以外は“0”となる。
The error signal plus component δk + is the output result O
When k is "0" and the teacher signal tk is "1", it becomes "1", and otherwise it becomes "0".

【0061】他方、誤差信号マイナス成分δk- は、出
力結果Okが“1”で、教師信号tkが“0”の時、
“1”となり、それ以外は“0”となる。
[0061] On the other hand, the error signal minus component .delta.k - the output result Ok is "1", when the teacher signal tk is "0",
It becomes "1", and otherwise it becomes "0".

【0062】この誤差信号δk+ ,δk- は、前述のB
Pアルゴリズムでは出力層の誤差信号を求める前記式
(7)の教師信号と実際の出力信号との差(tpk
pk)に対応する。
The error signals δk + and δk are the above-mentioned B
In the P algorithm, the difference (t pk − between the teacher signal of the above equation (7) for obtaining the error signal of the output layer and the actual output signal
O pk ).

【0063】次に、式(7)に示すように、これらの誤
差信号と出力関数f(net)の一階微分であるf´
(net)との積を求め、出力層における誤差信号を求
める。一般に、学習時における誤差信号の演算には、出
力信号を内部電位で微分した微係数が必要となる。前述
のBPアルゴリズムでは出力関数f(net)として、
シグモイド関数を用いた場合、その一階微分f´(ne
t)は式(16)で示される。
Next, as shown in equation (7), these error signals and the output function f (net), which is the first derivative f ′,
The product of (net) and the error signal in the output layer is obtained. Generally, a differential coefficient obtained by differentiating an output signal with an internal potential is required for calculating an error signal during learning. In the BP algorithm described above, the output function f (net) is
When a sigmoid function is used, its first derivative f ′ (ne
t) is shown by Formula (16).

【0064】[0064]

【数13】 f´(net)=df(net)/dnet =f(net)・{1−f(net)} … (16)F ′ (net) = df (net) / dnet = f (net) · {1-f (net)} (16)

【0065】パルス密度方式では、式(16)を参考に
して、出力層ニュロンにおける一階微分f´(net)
kのプラス成分f´(net)k+ 及びマイナス成分f
´(net)k- を式(17),(18)のように定義
する。
In the pulse density method, referring to the equation (16), the first-order differential f '(net) in the output layer neuron is used.
plus component f '(net) k + and minus component f of k
′ (Net) k is defined as in equations (17) and (18).

【0066】[0066]

【数14】 [Equation 14]

【0067】ここで、Ok(t−1)は、出力信号Ok
の1パルスディレイ値で、Ok(t−2)は、出力信号
Okの2パルスディレイ値である。従って、出力層にお
ける最終的な誤差信号は、次の式(19),(20)で
示される。これは、前述のBPアルゴリズムでは、出力
層の誤差信号を求める式(7)に対応する。
Here, Ok (t-1) is the output signal Ok.
Is a 1-pulse delay value, and Ok (t−2) is a 2-pulse delay value of the output signal Ok. Therefore, the final error signal in the output layer is expressed by the following equations (19) and (20). This corresponds to the equation (7) for obtaining the error signal of the output layer in the above-mentioned BP algorithm.

【0068】[0068]

【数15】 (Equation 15)

【0069】(中間層における誤差信号)パルス密度方
式による中間層における誤差信号も前述のBPアルゴリ
ズムによる前記式(8)を参考にして求める。即ち、出
力層における誤差信号を集めてきて中間層の誤差信号と
する。ここで、結合を興奮性か抑制性かにより2つのグ
ループに分け、積の部分は∩(AND),和(Σ)の部
分は∪(OR)で表現する。
(Error Signal in Intermediate Layer) The error signal in the intermediate layer based on the pulse density method is also obtained by referring to the above equation (8) based on the BP algorithm. That is, the error signals in the output layer are collected and used as the error signal in the intermediate layer. Here, the connection is divided into two groups depending on whether it is excitatory or inhibitory, the product part is represented by ∩ (AND), and the sum (Σ) part is represented by ∪ (OR).

【0070】さらに、中間層における誤差信号を求める
場合、結合係数Wkjの正負,誤差信号δkの正負の4
つに場合分けする。まず、興奮性結合の場合、出力層の
誤差信号プラス成分δk+ と、その結合係数のANDを
とったもの(δk+ ∩Wkj+ )をすべての出力層のニ
ューロンについて求め、これらのORをとる。これが中
間層ニューロンの誤差信号プラス成分δj+ となる(式
(21))。
Further, when obtaining the error signal in the intermediate layer, the coupling coefficient Wkj is positive or negative and the error signal δk is positive or negative.
There are two cases. First, in the case of excitatory coupling, an error signal plus component .delta.k output layer +, calculated for that which took AND coupling coefficient (δk + ∩Wkj +) neurons of all output layer, taking these OR . This becomes the error signal plus component δj + of the hidden layer neuron (equation (21)).

【0071】[0071]

【数16】 δj+ =∪(δk+ ∩Wkj+ ) … (21)[Number 16] δj + = ∪ (δk + ∩Wkj +) ... (21)

【0072】同様に、出力層の誤差信号マイナス成分δ
- と、その結合係数のANDをとったもの(δk-
Wkj+ )をすべての出力層のニューロンについて求
め、これらのORをとる。これが中間層ニューロンの誤
差信号マイナス成分となる(式(22))。
Similarly, the error signal of the output layer minus the component δ
AND of k and its coupling coefficient (δk
Wkj + ) is obtained for neurons in all output layers, and these are ORed. This becomes the error signal minus component of the hidden layer neuron (equation (22)).

【0073】[0073]

【数17】 δj- =∪(δk- ∩Wkj+ ) … (22)[Number 17] δj - = ∪ (δk - ∩Wkj +) ... (22)

【0074】次に、抑制性結合の場合について述べる。
出力層の誤差信号マイナス成分δk- と、その結合係数
とのANDをとったもの(δk- ∩Wkj- )をすべて
の出力層のニューロンについて求め、これらのORをと
る。これが中間層の誤差信号プラス成分となる(式(2
3))。
Next, the case of inhibitory binding will be described.
Error signal minus component .delta.k output layer - and that taking the AND between the coupling coefficient (δk - ∩Wkj -) asking for neurons of all output layer, taking these OR. This is the error signal plus component of the intermediate layer (equation (2
3)).

【0075】[0075]

【数18】 δj+ =∪(δk- ∩Wkj- ) … (23)[Number 18] δj + = ∪ (δk - ∩Wkj -) ... (23)

【0076】同様に、出力層の誤差信号プラス成分δk
+ とその結合係数とのANDをとったもの(δk+ ∩W
kj- )をすべての出力層のニューロンについて求め、
これらのORをとる。これが中間層ニューロンの誤差信
号マイナス成分となる。
Similarly, the error signal plus component δk of the output layer
AND of + and its coupling coefficient (δk + ∩W
kj -) a request for the neurons of all of the output layer,
These are ORed together. This becomes the error signal minus component of the hidden layer neuron.

【0077】[0077]

【数19】 δj- =∪(δk+ ∩Wkj- ) … (24)[Number 19] δj - = ∪ (δk + ∩Wkj -) ... (24)

【0078】ある中間層のニューロンとこれと結合され
た出力層のニューロンとの結合には、興奮性結合と抑制
性結合がある。従って、中間層の誤差信号プラス成分と
しては、式(21)の興奮性結合のδj+ と式(23)
の抑制性結合のδj+ の論理和をとる。同様に、中間層
の誤差信号マイナス成分としては、式(22)の興奮性
結合δj- と式(24)の抑制性結合のδj- との論理
和をとる。即ち、次の式(25),(26)のようにな
る。これは、BPアルゴリズムによる前記式(8)のΣ
δpkWkjに対応する。
The connection between a neuron in a certain middle layer and the neuron in the output layer connected to the middle layer includes excitatory connection and inhibitory connection. Therefore, as the error signal plus component of the intermediate layer, δj + of the excitatory coupling of the equation (21) and the equation (23)
OR the δj + of the inhibitory couplings of Similarly, the error signal minus component of the intermediate layer, excitatory coupling .delta.j of formula (22) - ORed with the - .delta.j inhibitory binding of the formula (24). That is, the following equations (25) and (26) are obtained. This is the Σ of the above equation (8) according to the BP algorithm.
Corresponds to δpkWkj.

【0079】[0079]

【数20】 δj+={∪(δk+∩Wkj+)}∪{∪(δk-∩Wkj-)} …(25) δj-={∪(δk-∩Wkj+)}∪{∪(δk+∩Wkj-)} …(26) Equation 20] δj + = {∪ (δk + ∩Wkj +)} ∪ {∪ (δk - ∩Wkj -)} ... (25) δj - = {∪ (δk - ∩Wkj +)} ∪ {∪ (δk + ∩Wkj - )}… (26)

【0080】次に、式(8)のBPアルゴリズムと同様
に、式(25),(26)で求めたδj+ ,δj- に式
(17),(18)の微係数(f´(net))による
処理を施す。ここで中間層ニューロンにおける一階微分
f´(net)jのプラス成分f´(net)j+ 及び
マイナス成分f´(net)j- を(27),(28)
のように定義する。ここで、Oj(t−1)は中間層ニ
ューロンの出力信号Ojの1パルスディレイ値である。
[0080] Then, similarly to the BP algorithm of formula (8), equation (25), .delta.j obtained in (26) +, .delta.j - in formula (17), the derivative of (18) (f'(net Non )) Is applied. Here, the positive component f ′ (net) j + and the negative component f ′ (net) j of the first-order differential f ′ (net) j in the intermediate layer neuron are (27) and (28).
Is defined as Here, Oj (t-1) is a one-pulse delay value of the output signal Oj of the hidden layer neuron.

【0081】従って、中間層における誤差信号(δj
+ ,δj- )は次の式(29),(30)で求められ
る。
Therefore, the error signal (δj in the intermediate layer is
+ , Δj ) is calculated by the following equations (29) and (30).

【0082】[0082]

【数21】 (Equation 21)

【0083】[0083]

【数22】 (Equation 22)

【0084】(学習定数ηによる処理)BPアルゴリズ
ムにおいて、結合係数の修正量ΔWを求める前記式
(6)にある学習定数ηの処理について述べる。数値演
算においては、式(6)にあるように、単純に学習定数
ηを乗算すればよいが、パルス密度方式の場合は、学習
定数ηの値に応じて、下に示すようにパルス列を間引く
ことで実現する。
(Processing by Learning Constant η) Processing of the learning constant η in the above equation (6) for obtaining the correction amount ΔW of the coupling coefficient in the BP algorithm will be described. In the numerical calculation, the learning constant η may be simply multiplied as shown in the equation (6), but in the case of the pulse density method, the pulse train is thinned out as shown below according to the value of the learning constant η. It will be realized.

【0085】[0085]

【数23】 (Equation 23)

【0086】次に、学習による結合係数の修正量ΔWを
求める方法について述べる。まず、前述した出力層或い
は中間層の誤差信号(δ+ ,δ- )に学習定数ηによる
処理を施し、さらにニューロンへの入力信号との論理積
をとる(δη∩O)。但し、誤差信号はδ+ とδ- があ
るので、次式に示すようにそれぞれを演算してΔW+
ΔW- とする。
Next, a method for obtaining the correction amount ΔW of the coupling coefficient by learning will be described. First, the error signal (δ +, δ−) in the output layer or the intermediate layer is processed by the learning constant η, and the logical product with the input signal to the neuron is taken (δη∩O). However, since there are δ + and δ in the error signal, ΔW + , ΔW + ,
ΔW - to.

【0087】[0087]

【数24】ΔW+ =δη+ ∩O … (34) ΔW- =δη- ∩O … (35)[Number 24] ΔW + = δη + ∩O ... ( 34) ΔW - = δη - ∩O ... (35)

【0088】これは、BPアルゴリズムにおけるΔWを
求める前記式(6)に対応する。これらを元にして新し
い結合係数New_Wを求めるが、結合係数Wが興奮性
か抑制性かにより場合分けをする。まず、興奮性の場合
には、元のW+ に対して、ΔW+ の成分を増やし、ΔW
- の成分を減らす。即ち式(36)となる。
This corresponds to the above equation (6) for obtaining ΔW in the BP algorithm. A new coupling coefficient New_W is obtained based on these, and cases are classified depending on whether the coupling coefficient W is excitatory or inhibitory. First, in the case of excitability, the component of ΔW + is increased with respect to the original W + , and ΔW +
- reduce the component of. That is, formula (36) is obtained.

【0089】[0089]

【数25】 (Equation 25)

【0090】次に抑制性の場合には、元のW- に対し
て、ΔW+ の成分を減らし、ΔW- の成分を増やす。即
ち式(37)となる。
Next, in the case of the suppressive property, the component of ΔW + is decreased and the component of ΔW is increased with respect to the original W . That is, equation (37) is obtained.

【0091】[0091]

【数26】 (Equation 26)

【0092】以上がパルス密度方式による学習アルゴリ
ズムである。ここで、図2の階層型ネットワークにおい
て、パルス密度方式におけるフォワードプロセス及び学
習プロセスの処理の流れについて簡単に述べる。まず、
フォワードプロセスであるが、最初に入力層に信号を与
えると、この入力信号が中間層に伝播していき、中間層
の信号処理として、前述の式(11)〜(13)を行
い、その結果を出力層に伝播させる。
The learning algorithm based on the pulse density method has been described above. Here, the processing flow of the forward process and the learning process in the pulse density method in the hierarchical network of FIG. 2 will be briefly described. First,
Although it is a forward process, when a signal is first given to the input layer, this input signal propagates to the intermediate layer, and as the signal processing of the intermediate layer, the above equations (11) to (13) are performed, and the result is To the output layer.

【0093】出力層では、これらの伝播してきた信号に
対して、同様に式(11)〜(13)の処理を実行し、
これらの結果として出力信号が得られ、フォワードプロ
セスを終了する。
In the output layer, the processes of equations (11) to (13) are similarly performed on these propagated signals,
These results in an output signal, ending the forward process.

【0094】学習プロセスでは、以上のフォワードプロ
セスを行った後、更に出力層に教師信号を与える。出力
層では、式(19),(20)により出力層における誤
差信号を求め中間層に送る。同時にこの誤差信号に式
(31)〜(33)の学習定数ηによる処理を施し、式
(34),(35)により中間層からの入力信号との論
理積をとった後、式(36),(37)により出力層と
中間層との結合強度を変更する。
In the learning process, after performing the above forward process, a teacher signal is further given to the output layer. In the output layer, the error signal in the output layer is obtained by the equations (19) and (20) and sent to the intermediate layer. At the same time, the error signal is processed by the learning constant η of the equations (31) to (33), and the logical product of the error signal and the input signal from the intermediate layer is obtained by the equations (34) and (35). , (37), the coupling strength between the output layer and the intermediate layer is changed.

【0095】次に中間層における処理として、出力層か
ら送られた誤差信号を元に、式(29),(30)によ
って中間層における誤差を求め、この誤差信号に式(3
1)〜(33)の学習定数ηによる処理を施し、式(3
4),(35)により入力層からの入力信号との論理積
をとった後、式(36),(37)により中間層と入力
層との結合強度を変更し、学習プロセスを終了する。以
降、収束するまで学習プロセスを繰り返す。
Next, as the processing in the intermediate layer, the error in the intermediate layer is obtained by the equations (29) and (30) based on the error signal sent from the output layer, and the error signal is given by the equation (3).
Processing with the learning constant η of 1) to (33) is performed, and the expression (3
4) and (35), the logical product with the input signal from the input layer is obtained, and then the coupling strength between the intermediate layer and the input layer is changed by the equations (36) and (37), and the learning process ends. After that, the learning process is repeated until it converges.

【0096】次に図11ないし図13を参照して、以上
のアルゴリズムに基づく実際の回路構成を説明する。ニ
ューラルネットワークの構成は図2と同様である。図1
1は、ニューロンのシナプスに相当する部分の回路を示
す図で、図12は、出力層のニューロンの細胞体と出力
層の出力と教師信号から出力層における誤差信号を求め
る回路を示す図である。また、図13は、中間層のニュ
ーロンの細胞体と出力層における誤差信号を集め、中間
層における誤差信号を求める部分の回路を示す図であ
る。これらの3つの回路を図2のようにネットワークに
することによって、自己学習が可能なデジタル式のニュ
ーラルネットワーク回路が実現できる。
Next, an actual circuit configuration based on the above algorithm will be described with reference to FIGS. 11 to 13. The structure of the neural network is the same as in FIG. FIG.
FIG. 1 is a diagram showing a circuit of a portion corresponding to a synapse of a neuron, and FIG. 12 is a diagram showing a circuit for obtaining an error signal in the output layer from the output of the neuron cell body of the output layer, the output of the output layer, and the teacher signal. . Further, FIG. 13 is a diagram showing a circuit of a portion for collecting error signals in the cell body of neurons in the intermediate layer and the output layer and obtaining an error signal in the intermediate layer. By forming a network of these three circuits as shown in FIG. 2, a digital neural network circuit capable of self-learning can be realized.

【0097】まず、図11について説明する。シナプス
の結合係数はシフトレジスタ21に保存しておく。端子
21Aがデータの取り出し口で、端子21Bがデータの
入り口である。これはシフトレジスタと同様の機能を持
つものであれば、その他のもの、例えば、RAMとアド
レスジュネレータ等を用いてもよい。シフトレジスタ2
1を備えた回路22は、前記の式(11),(12)の
(Oi∩Wji)を実行する回路で、入力信号と結合係
数とのANDをとっている。この出力は結合が興奮性か
抑制性かによってグループ分けしなければならないが、
あらかじめ各々のグループへの出力O+ ,O- を用意
し、どちらのグループに出すのかを切り換えるようにし
た方が汎用性が高い。このため、結合が興奮性か抑制性
かを表すビットをメモリ23に保存しておき、その情報
を用いて切り換えゲート回路24により信号を切り換え
る。また、図12,13に示すように各入力を処理する
前記の式(11),(12)の論理和に相当する複数の
ORゲート構成のゲート回路31が設けられている。更
に同図に示すように式(13)で示した興奮性グループ
が「1」でかつ、抑制性グループが「0」の時のみ出力
を出すANDゲートとインバータによるゲート回路32
が設けられている。
First, FIG. 11 will be described. The synapse coupling coefficient is stored in the shift register 21. The terminal 21A is a data outlet and the terminal 21B is a data inlet. Other components such as a RAM and an address generator may be used as long as they have the same function as the shift register. Shift register 2
The circuit 22 including 1 is a circuit that executes (Oi∩Wji) in the above equations (11) and (12), and ANDs the input signal and the coupling coefficient. This output must be grouped according to whether the connection is excitatory or inhibitory,
It is more versatile to prepare the outputs O + and O for each group in advance and switch which group to output to. Therefore, a bit indicating whether the coupling is excitatory or inhibitory is stored in the memory 23, and the information is used to switch the signal by the switching gate circuit 24. Further, as shown in FIGS. 12 and 13, a gate circuit 31 having a plurality of OR gates corresponding to the logical sum of the equations (11) and (12) for processing each input is provided. Further, as shown in the figure, a gate circuit 32 formed by an AND gate and an inverter that outputs only when the excitatory group represented by the equation (13) is "1" and the inhibitory group is "0".
Is provided.

【0098】次に、誤差信号について説明する。図12
における回路35,36は、出力層での出力関数の微分
係数を生成する回路を示す図で、AND(論理積),イ
ンバータの組み合わせによる論理回路であり、前記式
(17),(18)に相当する。そして、回路37は、
出力層での誤差信号を生成する回路を示す図で、AND
(論理積),インバータの組み合わせによる論理回路で
あり、前記式(19),(20)に相当する。即ち、出
力層からの出力Ok、教師信号tk、及び微係数生成回
路35,36により生成される微係数プラス成分及びマ
イナス成分により、出力層における誤差信号δk+ ,δ
- を生成する。また、中間層における誤差信号を求め
る前記の式(21)〜(24)は、図11中に示すAN
Dゲート構成のゲート回路26により行われ、プラス成
分、マイナス成分に応じた出力(f∩W)が得られる。
このように結合が興奮性か抑制性かで用いる誤差信号が
異なるので、その場合分けを行う必要があるが、この場
合分けはメモリ23に記憶された興奮性か抑制性かの情
報と、誤差信号のδ+ ,δ- 信号に応じて、AND,O
Rゲート構成のゲート回路25により行われる。また、
誤差信号を集める前記の演算式(25),(26)は図
13に示すORゲート構成のゲート回路39で行われ
る。中間層における誤差信号δj+ ,δj- を求める式
(29),(30)を実行する回路が図13における回
路40で中間出力Oj、レジスタ33により中間層出力
Ojをディレイさせた信号Oj(t−1)及びOR回路
39の出力である出力層からの誤差信号により、誤差信
号δj+ ,δj- が生成される。また、学習レートに相
当する式(31)〜(33)は、図14(a)に示すη
回路38により行われる。
Next, the error signal will be described. FIG.
The circuits 35 and 36 in FIG. 2 are circuits showing a circuit for generating a differential coefficient of an output function in the output layer, and are logical circuits by a combination of AND (logical product) and an inverter, and are expressed by the equations (17) and (18). Equivalent to. And the circuit 37
In the figure showing the circuit that generates the error signal in the output layer,
(Logical product), a logical circuit by a combination of inverters, which corresponds to the equations (19) and (20). That is, the error signals δk + , δ in the output layer are obtained by the output Ok from the output layer, the teacher signal tk, and the differential component plus and minus components generated by the differential coefficient generation circuits 35 and 36.
Generate k . Further, the above equations (21) to (24) for obtaining the error signal in the intermediate layer are AN shown in FIG.
This is performed by the gate circuit 26 having the D gate configuration, and an output (f∩W) according to the plus component and the minus component is obtained.
Since the error signal to be used is different depending on whether the coupling is excitatory or inhibitory, it is necessary to make a distinction in that case. In this case, the excitatory or inhibitory information stored in the memory 23 and the error are stored. AND, O depending on the δ + , δ signal of the signal
This is performed by the gate circuit 25 having an R gate configuration. Also,
The arithmetic expressions (25) and (26) for collecting the error signals are performed by the gate circuit 39 having the OR gate structure shown in FIG. A circuit that executes the equations (29) and (30) for obtaining the error signals δj + and δj in the intermediate layer is a signal Oj (t in which the intermediate output Oj is delayed by the circuit 40 in FIG. 13 and the intermediate layer output Oj is delayed by the register 33. −1) and the error signal from the output layer, which is the output of the OR circuit 39, generate error signals δj + and δj . Expressions (31) to (33) corresponding to the learning rate are η shown in FIG.
It is performed by the circuit 38.

【0099】図14(a)中のT−FF(トリガータイ
プフリップフロップ)41は、入力Tの立ち上がりを検
出したときに出力Qを反転する。また、マルチプレクサ
(MUX)42は、図に示すように、選択信号S1,S
0により、入力信号A,B,Cのいずれかを選択し、出
力する。同図(b)は、同図(a)の学習係数η回路の
動作を示したのタイミングチャートである。最初にリセ
ット信号(RES)が入力されることにより、T−FF
41の出力を初期化状態に設定し、マルチプレクサ42
の選択信号S1,S0により学習係数ηの値を設定す
る。
A T-FF (trigger type flip-flop) 41 in FIG. 14A inverts the output Q when it detects the rising edge of the input T. Further, the multiplexer (MUX) 42, as shown in FIG.
0 selects one of the input signals A, B, and C and outputs it. FIG. 11B is a timing chart showing the operation of the learning coefficient η circuit shown in FIG. When the reset signal (RES) is input first, the T-FF
The output of 41 is set to the initialization state, and the multiplexer 42
The value of the learning coefficient η is set by the selection signals S1 and S0.

【0100】誤差信号δが入力されると、マルチプレク
サ42の入力信号Aとして、学習係数η=1/4の処理
(パルスを3つおきに残す処理)が施されたパルスが生
成され(式31に相当)、入力信号Bとして、学習係数
η=1/2の処理(パルスを1つおきに残す処理)が施
されたパルスが生成され(式32に相当)、入力信号C
として、学習係数η=1の処理(パルスを元の信号と同
じとする処理)が施されたパルスが生成される(式33
に相当)。
When the error signal δ is input, as the input signal A of the multiplexer 42, a pulse subjected to the processing of the learning coefficient η = 1/4 (processing to leave every third pulse) is generated (Equation 31). (Corresponding to Eq. 32), a pulse with a learning coefficient η = 1/2 processing (leaving every other pulse) is generated as the input signal B (corresponding to Expression 32).
As a result, a pulse subjected to processing with the learning coefficient η = 1 (processing for making the pulse the same as the original signal) is generated (Equation 33).
Equivalent to).

【0101】そして、マルチプレクサ42の選択信号S
1,S0により、前記入力信号A,B,Cのいずれかが
パルスδηとして出力される。なお、図14(a)は、
学習係数ηによる処理を実行する主要な回路を示したも
ので、実際には信号のノイズ防止回路などが付加されて
いる。
Then, the selection signal S of the multiplexer 42
1, S0 outputs one of the input signals A, B, C as a pulse δη. In addition, FIG.
This shows a main circuit that executes processing by the learning coefficient η, and in actuality, a signal noise prevention circuit and the like are added.

【0102】最後に、誤差信号より新たな結合係数を計
算する部分について説明する。これは前記の式(34)
〜(37)で表せられ、図11に示すAND,インバー
タ,ORゲート構成のゲート回路27により行われる。
このゲート回路27も結合の興奮性・抑制性によって場
合分けしなければならないが、これは図11に示すゲー
ト回路25により行われる。
Finally, the part for calculating a new coupling coefficient from the error signal will be described. This is the above equation (34).
~ (37), which is performed by the gate circuit 27 having the AND, inverter, and OR gate configurations shown in FIG.
This gate circuit 27 must also be classified depending on the excitability / inhibition of the coupling, which is performed by the gate circuit 25 shown in FIG.

【発明が解決しようとする課題】数値演算により、ニュ
ーラルネットワーク処理を実行する場合には、前述した
ように、学習係数ηによる処理は、式(6)で示すよう
に、単に学習係数ηの値を乗算することで実現される。
しかし、先願のパルス密度型ニューラルネットワークの
学習処理における結合係数更新方法では、学習係数ηに
よる処理は、図14(a)の回路を用い、式(31)〜
(33)に示したように、パルスを間引くことにより行
っており、この間引き演算をパルス同士の論理演算で実
現しているため、任意の学習係数ηの値による処理を実
現することが難しい。
When the neural network processing is executed by numerical calculation, as described above, the processing by the learning coefficient η is simply the value of the learning coefficient η as shown in the equation (6). It is realized by multiplying by.
However, in the coupling coefficient updating method in the learning processing of the pulse density neural network of the prior application, the processing by the learning coefficient η uses the circuit of FIG.
As shown in (33), it is performed by thinning out the pulses, and since this thinning-out operation is realized by a logical operation between the pulses, it is difficult to realize the processing with an arbitrary learning coefficient η value.

【0103】即ち、先願の図14(a)の構成では、学
習係数ηの値は、1,1/2,1/4の3種類しか選べ
ず、任意の学習係数ηによる処理が実現できない。ニュ
ーラルネットワークの学習処理においては、学習する問
題によって、学習係数ηの値を微調整する必要が生じる
が、この微調整ができないと、誤差曲面上でローカルミ
ニマム(局所解)にトラップされたり、或いはグローバ
ルミニマム周辺の壁で振動を起こし、学習が収束しない
ということが生じる。
That is, in the configuration of FIG. 14 (a) of the prior application, the learning coefficient η can be selected from only three values of 1, 1/2 and 1/4, and the processing by the arbitrary learning coefficient η cannot be realized. . In the learning processing of the neural network, it is necessary to finely adjust the value of the learning coefficient η depending on the learning problem, but if this fine adjustment cannot be made, it is trapped in a local minimum (local solution) on the error curved surface, or The wall around the global minimum causes vibration, and learning does not converge.

【0104】本発明は、上記の事情に鑑み、パルス密度
型ニューラルネットワークにおいて、任意の学習係数η
による学習処理を可能とするパルス密度型信号処理回路
網の結合係数更新方法並びに装置を提供することを目的
とする。
In view of the above situation, the present invention provides an arbitrary learning coefficient η in the pulse density neural network.
It is an object of the present invention to provide a coupling coefficient updating method and apparatus for a pulse density type signal processing circuit network which enables learning processing by the method.

【0105】[0105]

【課題を解決するための手段】本発明の第1の方法は、
ニューロン模倣素子を網状に接続したパルス密度方式に
よる信号処理回路網の該ニューロンに他ニューロンから
の信号を伝播する際の信号の増減度を表すシナプス結合
係数を更新する方法において、学習係数値と乱数値とを
比較することにより学習係数値をパルス密度に持つ学習
係数パルスを生成し、この学習係数パルスと該ニューロ
ンの誤差信号パルス列との論理積を施した信号を、該ニ
ューロンにおける誤差信号に学習係数による処理を施し
た信号とし、結合係数の更新を行うことを特徴とする。
The first method of the present invention is as follows.
In a method of updating a synapse coupling coefficient indicating a degree of increase / decrease of a signal when a signal from another neuron is propagated to the neuron of a signal processing circuit network using a pulse density method in which neuron mimetic elements are connected in a mesh, a learning coefficient value and a disturbance A learning coefficient pulse having a learning coefficient value as a pulse density is generated by comparing with a numerical value, and a signal obtained by ANDing the learning coefficient pulse and the error signal pulse train of the neuron is learned as an error signal in the neuron. It is characterized in that the signal processed by the coefficient is used and the coupling coefficient is updated.

【0106】また、本発明の第2の方法は、上記第1の
方法において、二つの乱数値を生成し、一方の乱数値に
基づいて該ニューロンにおける誤差信号プラス成分に学
習係数による処理を施した信号を生成し、他方の乱数値
に基づいて該ニューロンにおける誤差信号マイナス成分
に学習係数による処理を施した信号を生成し、結合係数
の更新を行う。
The second method of the present invention is the same as the first method, except that two random number values are generated and the error signal plus component in the neuron is processed by the learning coefficient based on one of the random number values. The generated signal is generated, the error signal minus component in the neuron is processed by the learning coefficient based on the other random value, and the coupling coefficient is updated.

【0107】また、本発明の第3の方法は、ニューロン
模倣素子を網状に接続したパルス密度方式による信号処
理回路網の該ニューロンに他ニューロンからの信号を伝
播する際の信号の増減度を表すシナプス結合係数を更新
する方法において、該ニューロンにおける1フレーム分
の誤差信号パルスをバイナリー値に変換し、前記バイナ
リー値誤差信号と学習係数値との乗算値を求め、この乗
算値と乱数値とを比較することにより、学習係数と誤差
信号との積の値をパルス密度に持つパルス列信号を生成
し、このパルス列信号を、該ニューロンにおける誤差信
号に学習係数による処理を施した信号とし、結合係数の
更新を行うことを特徴とする。
The third method of the present invention represents the degree of increase / decrease of a signal when a signal from another neuron is propagated to the neuron of the signal processing circuit network of the pulse density method in which neuron mimicking elements are connected in a mesh. In the method of updating the synaptic coupling coefficient, an error signal pulse for one frame in the neuron is converted into a binary value, a multiplication value of the binary value error signal and a learning coefficient value is obtained, and the multiplication value and a random value are obtained. By comparing, a pulse train signal having a value of the product of the learning coefficient and the error signal in the pulse density is generated, and this pulse train signal is used as a signal obtained by processing the error signal in the neuron with the learning coefficient. It is characterized by updating.

【0108】また、本発明の第4の方法は、ニューロン
模倣素子を網状に接続したパルス密度方式による信号処
理回路網の該ニューロンに他ニューロンからの信号を伝
播する際の信号の増減度を表すシナプス結合係数を更新
する方法において、該ニューロンにおける誤差信号プラ
ス成分を、1フレーム分の誤差信号をカウントするカウ
ンタのインクリメント(又はデクリメント)信号とし、
該ニューロンにおける誤差信号マイナス成分を、1フレ
ーム分の誤算信号をカウントする前記カウンタのデクリ
メント(又はインクリメント)信号とし、1フレームの
間カウントした後、このカウンタの値と学習係数値との
乗算値を求め、この乗算値と乱数値とを比較することに
より学習係数と誤差信号との積の値をパルス密度に持つ
パルス列信号を生成し、前記カウンタの値が正(又は
負)のときには、前記パルス列信号を該ニューロンにお
ける誤差信号プラス成分に学習係数による処理を施した
信号とし、前記カウンタの値が負(又は正)のときに
は、前記パルス列信号を該ニューロンにおける誤差信号
マイナス成分に学習係数による処理を施した信号とし、
結合係数の更新を行うことを特徴とする。
The fourth method of the present invention represents the degree of increase / decrease of a signal when a signal from another neuron is propagated to the neuron of the signal processing circuit network of the pulse density method in which neuron mimicking elements are connected in a mesh. In the method of updating the synapse coupling coefficient, the error signal plus component in the neuron is an increment (or decrement) signal of a counter that counts the error signal for one frame,
An error signal minus component in the neuron is used as a decrement (or increment) signal of the counter that counts an erroneous calculation signal for one frame, and after counting for one frame, a multiplication value of this counter value and a learning coefficient value is calculated. Then, a pulse train signal having a product value of the learning coefficient and the error signal as a pulse density is generated by comparing this multiplication value with a random number value, and when the value of the counter is positive (or negative), the pulse train The signal is a signal obtained by processing the error signal plus component in the neuron with the learning coefficient, and when the value of the counter is negative (or positive), the pulse train signal is processed into the error signal minus component in the neuron with the learning coefficient. The given signal,
The feature is that the coupling coefficient is updated.

【0109】また、本発明の第1の装置は、ニューロン
模倣素子を網状に接続したパルス密度方式による信号処
理回路網の該ニューロンに他ニューロンからの信号を伝
播する際の信号の増減度を表すシナプス結合係数を更新
する装置において、学習係数値を保持する記憶手段と、
乱数値を生成する乱数発生器と、前記学習係数値と乱数
値とを比較することにより学習係数値をパルス密度に持
つ学習係数パルスを生成する比較手段と、前記学習係数
パルスと該ニューロンの誤差信号パルス列との論理積を
求める論理積回路とを備えたことを特徴とする。
Further, the first device of the present invention represents the degree of increase / decrease of a signal when a signal from another neuron is propagated to the neuron of the signal processing circuit network of the pulse density method in which neuron mimicking elements are connected in a mesh. In the device that updates the synapse coupling coefficient, a storage unit that holds the learning coefficient value,
A random number generator for generating a random number value, a comparing means for generating a learning coefficient pulse having a learning coefficient value as a pulse density by comparing the learning coefficient value and the random number value, an error between the learning coefficient pulse and the neuron And a logical product circuit for obtaining a logical product with the signal pulse train.

【0110】また、本発明の第2の装置は、ニューロン
模倣素子を網状に接続したパルス密度方式による信号処
理回路網の該ニューロンに他ニューロンからの信号を伝
播する際の信号の増減度を表すシナプス結合係数を更新
する装置において、学習係数値を保持する記憶手段と、
第1の乱数値を生成する第1乱数発生器と、第2の乱数
値を生成する第2乱数発生器と、前記学習係数値と第1
の乱数値とを比較することにより学習係数値をパルス密
度に持つ学習係数パルスを生成する第1の比較手段と、
前記学習係数値と第2の乱数値とを比較することにより
学習係数値をパルス密度に持つ学習係数パルスを生成す
る第2の比較手段と、前記第1の比較手段からの学習係
数パルスと該ニューロンの誤差信号プラス成分パルス列
との論理積を求める第1の論理積回路と、前記第2の比
較手段からの学習係数パルスと該ニューロンの誤差信号
マイナス成分パルス列との論理積を求める第2の論理積
回路とを備えたことを特徴とする。
The second device of the present invention represents the degree of increase / decrease of a signal when a signal from another neuron is propagated to the neuron of the signal processing circuit network of the pulse density method in which neuron mimicking elements are connected in a mesh. In the device that updates the synapse coupling coefficient, a storage unit that holds the learning coefficient value,
A first random number generator for generating a first random number value, a second random number generator for generating a second random number value, the learning coefficient value, and a first
First comparing means for generating a learning coefficient pulse having a learning coefficient value as a pulse density by comparing with a random number value of
Second learning means for generating a learning coefficient pulse having a learning coefficient value as a pulse density by comparing the learning coefficient value with a second random value; and the learning coefficient pulse from the first comparing means. A first AND circuit for obtaining a logical product of the error signal plus component pulse train of the neuron, and a second AND circuit for obtaining the logical product of the learning coefficient pulse from the second comparing means and the error signal minus component pulse train of the neuron. And a logical product circuit.

【0111】また、本発明の第3の装置は、ニューロン
模倣素子を網状に接続したパルス密度方式による信号処
理回路網の該ニューロンに他ニューロンからの信号を伝
播する際の信号の増減度を表すシナプス結合係数を更新
する装置において、乱数値を生成する乱数発生器と、該
ニューロンにおける1フレーム分の誤差信号パルスをバ
イナリー値に変換するバイナリー値変換手段と、学習係
数値を保持する記憶手段と、バイナリー値変換手段から
のバイナリー値誤差信号と前記記憶手段からの学習係数
値との乗算値を求める乗算手段と、この乗算手段からの
乗算値と前記乱数発生器からの乱数値とを比較すること
により、学習係数と誤差信号との積の値をパルス密度に
持つパルス列信号を生成する比較手段とを備えたことを
特徴とする。
The third device of the present invention represents the degree of increase / decrease of a signal when a signal from another neuron is propagated to the neuron of the signal processing circuit network of the pulse density method in which neuron mimicking elements are connected in a mesh. In an apparatus for updating synapse coupling coefficient, a random number generator for generating a random value, a binary value conversion means for converting an error signal pulse for one frame in the neuron into a binary value, and a storage means for holding a learning coefficient value. , A multiplication means for obtaining a multiplication value of the binary value error signal from the binary value conversion means and the learning coefficient value from the storage means, and a multiplication value from the multiplication means and a random number value from the random number generator. Thus, a comparison means for generating a pulse train signal having a product value of a learning coefficient and an error signal as a pulse density is provided.

【0112】また、本発明の第4の装置は、ニューロン
模倣素子を網状に接続したパルス密度方式による信号処
理回路網の該ニューロンに他ニューロンからの信号を伝
播する際の信号の増減度を表すシナプス結合係数を更新
する装置において、学習係数値を保持する記憶手段と、
乱数値を生成する乱数発生器と、該ニューロンにおける
誤差信号プラス成分をインクリメント(又はデクリメン
ト)信号とし、該ニューロンにおける誤差信号マイナス
成分をデクリメント(又はインクリメント)信号とし、
1フレーム分の誤算信号をカウントするカウンタと、前
記カウンタによる1フレーム間のカウント値と前記記憶
手段からの学習係数値との乗算値を求める乗算手段と、
前記乗算手段からの乗算値と前記乱数発生器からの乱数
値とを比較することにより学習係数と誤差信号との積の
値をパルス密度に持つパルス列信号を生成する比較手段
と、前記カウンタの値が正(又は負)のときには、前記
パルス列信号を該ニューロンにおける誤差信号プラス成
分に学習係数による処理を施した信号として出力させ、
前記カウンタの値が負(又は正)のときには、前記パル
ス列信号を該ニューロンにおける誤差信号マイナス成分
に学習係数による処理を施した信号として出力させる選
択手段とを備えたことを特徴とする。
The fourth device of the present invention represents the degree of increase / decrease of a signal when a signal from another neuron is propagated to the neuron of the signal processing circuit network of the pulse density method in which neuron mimicking elements are connected in a mesh. In the device that updates the synapse coupling coefficient, a storage unit that holds the learning coefficient value,
A random number generator that generates a random number value, an error signal plus component in the neuron is an increment (or decrement) signal, and an error signal minus component in the neuron is a decrement (or increment) signal,
A counter for counting an erroneous calculation signal for one frame; and a multiplication means for obtaining a multiplication value of the count value for one frame by the counter and the learning coefficient value from the storage means,
Comparing means for generating a pulse train signal having a pulse density of a product value of a learning coefficient and an error signal by comparing a multiplication value from the multiplying means and a random number value from the random number generator, and a value of the counter. Is positive (or negative), the pulse train signal is output as a signal obtained by processing the error signal plus component in the neuron with a learning coefficient,
When the counter value is negative (or positive), the pulse train signal is output as a signal obtained by processing the minus component of the error signal in the neuron with a learning coefficient.

【0113】[0113]

【作用】上記第1の方法及び装置によれば、学習係数値
と乱数値とを比較することにより学習係数値をパルス密
度に持つ学習係数パルスを生成するので、学習係数値と
して任意の値を設定し、該ニューロンにおける誤差信号
に任意の学習係数値による処理を施した信号を生成して
結合係数の更新を行うことができる。
According to the first method and apparatus described above, the learning coefficient pulse having the learning coefficient value in the pulse density is generated by comparing the learning coefficient value with the random number value. Therefore, any value can be set as the learning coefficient value. By setting the error signal in the neuron, a signal obtained by processing the error signal with an arbitrary learning coefficient value can be generated to update the coupling coefficient.

【0114】上記第2の方法及び装置によれば、該ニュ
ーロンにおける誤差信号プラス成分および誤差信号マイ
ナス成分のそれぞれに任意の学習係数値による処理を施
した信号を生成して結合係数の更新を行うことができ
る。
According to the second method and apparatus, the error coefficient plus component and the error signal minus component in the neuron are processed with arbitrary learning coefficient values to generate a signal, and the coupling coefficient is updated. be able to.

【0115】上記第3の方法及び装置によれば、該ニュ
ーロンにおける1フレーム分の誤差信号パルスをバイナ
リー値に変換する方式において、学習係数値として任意
の値を設定し、該ニューロンにおける誤差信号に任意の
学習係数値による処理を施した信号を生成して結合係数
の更新を行うことができる。
According to the third method and apparatus, in the method of converting the error signal pulse for one frame in the neuron into the binary value, an arbitrary value is set as the learning coefficient value and the error signal in the neuron is set. The coupling coefficient can be updated by generating a signal that has been processed with an arbitrary learning coefficient value.

【0116】上記第4の方法及び装置によれば、該ニュ
ーロンにおける1フレーム分の誤差信号パルスをバイナ
リー値に変換する方式において、該ニューロンにおける
誤差信号プラス成分および誤差信号マイナス成分のそれ
ぞれに任意の学習係数値による処理を施した信号を生成
して結合係数の更新を行うことができる。
According to the fourth method and apparatus described above, in the method of converting the error signal pulse for one frame in the neuron into the binary value, the error signal plus component and the error signal minus component in the neuron are arbitrarily set. The coupling coefficient can be updated by generating a signal processed by the learning coefficient value.

【0117】[0117]

【実施例】以下、この発明の実施例につき説明する。こ
の発明は、前述した先行技術における問題点を解決する
ために、先に示した図14(a)のη回路38を改良
し、学習係数ηとして任意の値を選択できるようにした
ものである。
Embodiments of the present invention will be described below. In order to solve the above-mentioned problems in the prior art, the present invention improves the η circuit 38 shown in FIG. 14A so that an arbitrary value can be selected as the learning coefficient η. .

【0118】(実施例1)第1の実施例におけるη回路
を図15に示す。
(Embodiment 1) FIG. 15 shows an η circuit in the first embodiment.

【0119】記憶手段(η−Mem)51は、任意の学
習係数ηの値をバイナリーデータ(2進数表示データ)
の形で記憶する。勿論、記憶手段51は書き込み可能な
メモリであり、学習係数ηの値を書き換えることができ
る。
The storage means (η-Mem) 51 stores the value of any learning coefficient η in binary data (binary number display data).
Memorize in the form of. Of course, the storage unit 51 is a writable memory and can rewrite the value of the learning coefficient η.

【0120】乱数発生器(Ran−Gen)50は、所
定の範囲で乱数値を生成するようになっている。
The random number generator (Ran-Gen) 50 is adapted to generate a random number value within a predetermined range.

【0121】コンパレータ(CMP)52は、乱数発生
器50にて生成される乱数値と前記の記憶手段51から
読み出された任意の学習係数ηとを比較し、乱数値が学
習係数η以下のときにパルスを生成する。これにより、
学習係数ηをパルス密度に持つようなパルス列(ηパル
ス)が生成される。
The comparator (CMP) 52 compares the random number value generated by the random number generator 50 with an arbitrary learning coefficient η read from the storage means 51, and the random number value is less than or equal to the learning coefficient η. Sometimes it produces a pulse. This allows
A pulse train (η pulse) having a learning coefficient η in pulse density is generated.

【0122】アンド回路53は、前記このηパルスと誤
差信号(誤差信号入力パルス)δとを入力し、両者の論
理積(AND)をとる。この論理積をとって得られた信
号は、誤差信号δに学習係数ηによる処理を施した誤差
信号δη、即ち、誤算信号δと学習係数ηとの積の値
(η×δ)をパルス密度に持つようなパルス列δηとな
る。なお、図15において、単線はパルス列の伝播を、
二重線はバイナリーデータの伝播を示している。
The AND circuit 53 inputs the η pulse and the error signal (error signal input pulse) δ and takes the logical product (AND) of both. The signal obtained by taking the logical product is the error signal δη obtained by processing the error signal δ with the learning coefficient η, that is, the value (η × δ) of the product of the miscalculation signal δ and the learning coefficient η and the pulse density Pulse train δη. In addition, in FIG. 15, the single line indicates the propagation of the pulse train,
Double lines indicate the propagation of binary data.

【0123】パルス列δηは、図11に示した回路に入
力されることにより結合係数の更新が行われ、その更新
値がレジスタ22に格納される。
The pulse train δη is input to the circuit shown in FIG. 11 to update the coupling coefficient, and the updated value is stored in the register 22.

【0124】上記の構成によれば、学習係数ηと乱数値
とを比較することにより学習係数ηをパルス密度に持つ
ようなパルス列(ηパルス)を生成するので、学習係数
ηとして任意の値を設定し、該ニューロンにおける誤差
信号δに任意の学習係数ηによる処理を施した信号を生
成して結合係数の更新を行うことができる。
According to the above configuration, since the pulse train (η pulse) having the learning coefficient η in the pulse density is generated by comparing the learning coefficient η with the random number value, any value can be set as the learning coefficient η. By setting the error signal δ in the neuron, a signal obtained by processing the error signal δ with an arbitrary learning coefficient η can be generated to update the coupling coefficient.

【0125】(実施例2)第2の実施例におけるη回路
を図16に示す。なお、説明の便宜上、実施例1と同一
の機能を有する部材には同一の符号を付記している。
(Embodiment 2) FIG. 16 shows an η circuit in the second embodiment. For convenience of explanation, members having the same functions as those in the first embodiment are designated by the same reference numerals.

【0126】この実施例のη回路は、学習係数ηを保持
する記憶手段51と、第1の乱数値を生成する第1乱数
発生器(Ran−Gen1)50aと、第2の乱数値を
生成する第2乱数発生器(Ran−Gen2)50b
と、前記学習係数ηと第1の乱数値とを比較することに
より学習係数値をパルス密度に持つ学習係数パルスを生
成する第1のコンパレータ52aと、前記学習係数ηと
第2の乱数値とを比較することにより学習係数値をパル
ス密度に持つ学習係数パルスを生成する第2のコンパレ
ータ52bと、前記第1のコンパレータ52aからの学
習係数パルス(ηパルス1)と該ニューロンの誤差信号
プラス成分(パルス列)δ+ との論理積を求める第1の
アンド回路53aと、前記第2のコンパレータ52bか
らの学習係数パルス(ηパルス2)と該ニューロンの誤
差信号マイナス成分(パルス列)δ- との論理積を求め
る第2のアンド回路53bとを備える。
The η circuit of this embodiment stores the learning coefficient η, a storage means 51, a first random number generator (Ran-Gen1) 50a for generating a first random number value, and a second random number value. Second random number generator (Ran-Gen2) 50b
And a first comparator 52a for generating a learning coefficient pulse having a learning coefficient value in pulse density by comparing the learning coefficient η with a first random value, the learning coefficient η and a second random value. A second comparator 52b for generating a learning coefficient pulse having a learning coefficient value as a pulse density by comparing with the learning coefficient pulse (η pulse 1) from the first comparator 52a and the error signal plus component of the neuron. The first AND circuit 53a for obtaining the logical product of (pulse train) δ + , the learning coefficient pulse (η pulse 2) from the second comparator 52b, and the error signal minus component (pulse train) δ of the neuron. A second AND circuit 53b for obtaining a logical product.

【0127】第1,第2乱数発生器50a,50bの乱
数列を変更するには、例えばよく知られたM系列乱数の
場合、初期値と生成多項式の選択により異なった値をそ
れぞれ誤差信号プラス成分用(MODE1)とマイナス
成分用(MODE2)として与えればよい。
In order to change the random number sequence of the first and second random number generators 50a and 50b, for example, in the case of well-known M-series random numbers, different values are added to the error signal plus the initial value and the generator polynomial. It may be given as a component (MODE1) and a minus component (MODE2).

【0128】上記の構成によれば、誤差信号プラス成分
δ+ と誤差信号マイナス成分δ- のそれぞれについて、
実施例1と同様の方法により、学習係数ηによる処理を
施した誤差信号δη+ および誤差信号δη- が得られ
る。
According to the above configuration, for each of the error signal plus component δ + and the error signal minus component δ ,
By the same method as in the first embodiment, the error signal δη + and the error signal δη processed by the learning coefficient η can be obtained.

【0129】ここで、ニューロンの細胞体回路で生成さ
れる誤差信号は、前述の図12や図13に示したよう
に、誤差信号プラス成分δ+ と誤差信号マイナス成分δ
- とがあるため、これらに学習係数ηによる処理を施す
際に、誤差信号プラス成分δ+と誤差信号マイナス成分
δ- になるべく相関がないようにし、パルス列のランダ
ム性を向上させる必要があり、本実施例の構成であれ
ば、かかる要求を実現することができる。
Here, as shown in FIGS. 12 and 13, the error signal generated in the cell body circuit of the neuron is the error signal plus component δ + and the error signal minus component δ.
- because there is a, in performing these processes by learning coefficient eta, the error signal plus component [delta] + and the error signal minus component [delta] - so there is no possible correlation, it is necessary to improve the randomness of the pulse train, With the configuration of this embodiment, such a request can be realized.

【0130】また、本実施例の構成であれば、上記要求
を実現しつつ、学習係数ηを誤差信号プラス成分生成用
と誤差信号マイナス成分生成用とで共用し、一つの記憶
手段51を備える構成としたので、回路の簡素化が図れ
る。更に、乱数発生器50a,50b、コンパレータ、
及びアンド回路は共通のものが使用でき、回路部品の共
通化によりコスト低減も図ることができる。
Further, according to the configuration of this embodiment, the learning coefficient η is shared by the error signal plus component generation and the error signal minus component generation while realizing the above requirement, and one storage means 51 is provided. Since the configuration is adopted, the circuit can be simplified. Furthermore, random number generators 50a and 50b, a comparator,
The AND circuit and the AND circuit can be used in common, and the cost can be reduced by sharing the circuit components.

【0131】(実施例3)本実施例のη回路は、実施例
1,2のη回路が誤差信号(パルス)δの1パルス毎の
処理を行うように構成されているのに対し、フレーム毎
の処理(パイプライン処理)を行うように構成されたも
のである点で異なっている。
(Third Embodiment) The η circuit of the present embodiment is configured so that the η circuit of the first and second embodiments processes the error signal (pulse) δ for each pulse. They are different in that they are configured to perform each process (pipeline process).

【0132】本実施例におけるη回路を図16に示す。
なお、説明の便宜上、実施例1と同一の機能を有する部
材には同一の符号を付記している。
The η circuit in this embodiment is shown in FIG.
For convenience of explanation, members having the same functions as those in the first embodiment are designated by the same reference numerals.

【0133】記憶手段(η−Mem)51は、任意の学
習係数ηの値をバイナリーデータ(2進数表示データ)
の形で記憶し、乱数発生器(Ran−Gen)50は、
所定の範囲で乱数値を生成する。
The storage means (η-Mem) 51 stores the value of any learning coefficient η in binary data (binary number display data).
In the form of a random number generator (Ran-Gen) 50,
A random number value is generated within a predetermined range.

【0134】カウンタ(バイナリー値変換手段)57
は、誤差信号(パルス列)δを入力して1フレームの間
カウントする。
Counter (binary value conversion means) 57
Inputs an error signal (pulse train) δ and counts for one frame.

【0135】マルチプライヤ(乗算手段)56は、前記
カウンタ57からのカウント値(バイナリー値誤差信
号)と前記記憶手段51からの学習係数ηとの乗算値を
求め、これをコンパレータ52に出力する。
The multiplier (multiplier) 56 finds the product of the count value (binary value error signal) from the counter 57 and the learning coefficient η from the memory 51, and outputs this to the comparator 52.

【0136】コンパレータ(CMP)52は、前記マル
チプライヤ56からの乗算値と前記乱数発生器50から
の乱数値とを比較することにより、学習係数ηと誤差信
号との積の値をパルス密度に持つパルス列信号を生成す
る。
The comparator (CMP) 52 compares the multiplication value from the multiplier 56 with the random number value from the random number generator 50 to determine the product value of the learning coefficient η and the error signal as the pulse density. Generate a pulse train signal having.

【0137】上記の構成においては、前記カウンタ57
は、前述のように、誤差信号(パルス列)δを入力して
1フレームの間カウントするが、これにより、該ニュー
ロンにおける1フレーム分の誤差信号(パルス列)δが
バイナリー値に変換されることになる。従って、マルチ
プライヤ56には、共にバイナリー値である誤差信号パ
ルス数と乱数値とが入力され、それらの積が求められ
る。コンパレータ52は、前記マルチプライヤ56から
の積と乱数発生器50からの乱数値とを比較し、乱数値
が積の値以下のときにパルスを出力する。これにより、
上記積の値をパルス密度に持つようなパルス列が生成さ
れる。即ち、誤差信号δに学習係数ηによる処理を施し
たパルス列δηが得られる。
In the above arrangement, the counter 57
As described above, the error signal (pulse train) δ is input and counting is performed for one frame. By this, the error signal (pulse train) δ for one frame in the neuron is converted into a binary value. Become. Therefore, the multiplier 56 receives the error signal pulse number and the random number value, both of which are binary values, and obtains the product of them. The comparator 52 compares the product from the multiplier 56 with the random number value from the random number generator 50, and outputs a pulse when the random number value is less than or equal to the product value. This allows
A pulse train having a pulse density having the value of the above product is generated. That is, a pulse train δη obtained by processing the error signal δ with the learning coefficient η is obtained.

【0138】これにより、該ニューロンにおける1フレ
ーム分の誤差信号パルスをバイナリー値に変換する方式
において、学習係数ηとして任意の値を設定し、該ニュ
ーロンにおける誤差信号δに任意の学習係数ηによる処
理を施した信号を生成して結合係数の更新を行うことが
できる。
As a result, in the method of converting the error signal pulse for one frame in the neuron into the binary value, an arbitrary value is set as the learning coefficient η, and the error signal δ in the neuron is processed by the arbitrary learning coefficient η. It is possible to update the coupling coefficient by generating a signal subjected to.

【0139】(実施例4)本実施例のη回路は、実施例
1,2のη回路が誤差信号(パルス)δの1パルス毎の
処理を行うように構成されているのに対し、フレーム毎
の処理(パイプライン処理)を行うように構成されたも
のである点で実施例3と共通するものであり、誤差信号
プラス成分δ+ と誤差信号マイナス成分δ- のそれぞれ
について、学習係数ηによる処理を施した誤差信号δη
+ および誤差信号δη- を得る点で実施例2と共通する
ものである。
(Embodiment 4) In the η circuit of this embodiment, the η circuit of the first and second embodiments is configured to process the error signal (pulse) δ for each pulse, whereas It is common to the third embodiment in that it is configured to perform each process (pipeline process), and the learning coefficient η for each of the error signal plus component δ + and the error signal minus component δ −. Error signal δη processed by
This is common to the second embodiment in that + and the error signal δη are obtained.

【0140】本実施例におけるη回路を図18に示す。
なお、説明の便宜上、実施例3と同一の機能を有する部
材には同一の符号を付記している。
The η circuit in this embodiment is shown in FIG.
For convenience of explanation, members having the same functions as those in the third embodiment are designated by the same reference numerals.

【0141】記憶手段(η−Mem)51は、任意の学
習係数ηの値をバイナリーデータ(2進数表示データ)
の形で記憶し、乱数発生器(Ran−Gen)50は、
所定の範囲で乱数値を生成する。
The storage means (η-Mem) 51 stores the value of any learning coefficient η in binary data (binary number display data).
In the form of a random number generator (Ran-Gen) 50,
A random number value is generated within a predetermined range.

【0142】アップダウンカウンタ58は、該ニューロ
ンにおける誤差信号プラス成分δ+をインクリメント信
号とし、該ニューロンにおける誤差信号マイナス成分δ
- をデクリメント信号とし、1フレーム分の誤算信号を
カウントする。なお、誤差生成回路である図12の回路
37及び図13の回路40の構成により、誤差信号プラ
ス成分δ+ とマイナス成分δ- は、共にパルスが存在す
る状態(共に“1”レベルを持つ状態)はないので、プ
ラス成分δ+ がインクリメント信号とし、マイナス成分
δ- がデクリメント信号として、それぞれカウンタ58
に入力されても動作としては問題はない。
The up / down counter 58 uses the error signal plus component δ + in the neuron as an increment signal, and the error signal minus component δ in the neuron.
- a decrement signal, counts the miscalculation signals for one frame. Note that, due to the configurations of the circuit 37 of FIG. 12 and the circuit 40 of FIG. 13, which are error generation circuits, both the error signal plus component δ + and the minus component δ have a pulse (both have a “1” level). ), The positive component δ + serves as an increment signal and the negative component δ serves as a decrement signal.
There is no problem in operation even if input to.

【0143】マルチプライヤ(乗算手段)56は、前記
アップダウンカウンタ58による1フレーム間のカウン
ト値と前記記憶手段51からの学習係数ηとの乗算値を
求める。
The multiplier (multiplier) 56 finds the product of the count value for one frame by the up / down counter 58 and the learning coefficient η from the memory 51.

【0144】コンパレータ(比較手段)52は、前記マ
ルチプライヤ56からの乗算値と前記乱数発生器50か
らの乱数値とを比較することにより学習係数ηと誤差信
号δとの積の値をパルス密度に持つパルス列信号を生成
する。
The comparator (comparing means) 52 compares the multiplication value from the multiplier 56 with the random number value from the random number generator 50 to obtain the product value of the learning coefficient η and the error signal δ as the pulse density. To generate a pulse train signal.

【0145】選択回路(OUTSEL)59は、前記ア
ップダウンカウンタ58からの正/負信号(SGN)を
入力し、前記アップダウンカウンタ58の値が正のとき
には、前記コンパレータ52の出力であるパルス列信号
を該ニューロンにおける誤差信号プラス成分δ+ に学習
係数ηによる処理を施した信号δη+ として出力し、前
記カウンタ58の値が負のときには、前記パルス列信号
を該ニューロンにおける誤差信号マイナス成分δ- に学
習係数ηによる処理を施した信号δη- として出力す
る。
The selection circuit (OUTSEL) 59 inputs the positive / negative signal (SGN) from the up / down counter 58, and when the value of the up / down counter 58 is positive, the pulse train signal output from the comparator 52. the output as signal .DELTA..eta + subjected to processing by the learning coefficient η in the error signal plus component [delta] + in the neurons, and when the value of the counter 58 is negative, the error signal minus component [delta] said pulse train signal in said neurons - the The signal is output as a signal δη processed by the learning coefficient η.

【0146】上記の構成によれば、アップダウンカウン
タ58は、1フレームの間誤差信号プラス成分δ+ によ
りインクリメントを、誤差信号マイナス成分δ- により
デクリメントを行い、誤差入力の合計値をマルチプライ
ヤ56に出力するとともに、カウンタ値の正負信号(S
GN)を選択回路59に出力する。そして、マルチプラ
イヤ56は、アップダウンカウンタ58からのバイナリ
ーの誤差信号と記憶手段51からの学習係数ηとの乗算
を行い、その積の値をコンパレータ52に出力する。コ
ンパレータ52は、マルチププライヤ56から出力され
る乗算値よりも乱数発生器50からの乱数値が小さいと
きにパルスを出力し、選択回路59に出力する。選択回
路59は、コンパレータ52からの入力を、アップダウ
ンカウンタ58の正負信号が正を示すときはA出力、即
ち誤差信号プラス成分δη+ として出力し、アップダウ
ンカウンタ58の正負信号が負を示すときはB出力、即
ち誤差信号マイナス成分δη- として出力する。
According to the above arrangement, the up / down counter 58 increments by the error signal plus component δ + and decrements by the error signal minus component δ − for one frame, and the total value of the error inputs is multiplied by the multiplier 56. To the counter value plus / minus signal (S
GN) to the selection circuit 59. Then, the multiplier 56 multiplies the binary error signal from the up / down counter 58 by the learning coefficient η from the storage means 51, and outputs the product value to the comparator 52. The comparator 52 outputs a pulse when the random number value from the random number generator 50 is smaller than the multiplication value output from the multiplier 56, and outputs the pulse to the selection circuit 59. The selection circuit 59 outputs the input from the comparator 52 as an A output when the positive / negative signal of the up / down counter 58 is positive, that is, an error signal plus component δη + , and the positive / negative signal of the up / down counter 58 is negative. In this case, B output, that is, the error signal minus component δη is output.

【0147】これにより、該ニューロンにおける1フレ
ーム分の誤差信号パルスをバイナリー値に変換する方式
において、該ニューロンにおける誤差信号プラス成分お
よび誤差信号マイナス成分のそれぞれに任意の学習係数
値による処理を施した信号を生成して結合係数の更新を
行うことができる。更に、誤差信号プラス成分δ+ にマ
イナス成分δ- を加算し、その合計値により誤差信号出
力を得ることができるため、ばらつきの少ない安定した
学習能力を得ることができる。
As a result, in the method of converting the error signal pulse for one frame in the neuron into the binary value, the error signal plus component and the error signal minus component in the neuron are processed with arbitrary learning coefficient values. A signal can be generated to update the coupling coefficient. Further, since the minus component δ is added to the plus component δ + of the error signal and the error signal output can be obtained by the total value thereof, stable learning ability with less variation can be obtained.

【0148】[0148]

【発明の効果】以上のように、本発明によれば、任意の
学習係数が設定できるようになるため、ニューラルネッ
トワークの学習時に、学習係数の微調整が可能となり、
誤差曲面上でローカルミニマムへのトラップやグローバ
ルミニマム周辺の壁同士での振動を減らせる能力が向上
し、学習の収束率が高まり、学習能力を向上できるとい
う効果を奏する。また、ばらつきの少ない安定した学習
能力を得ることができるという効果を奏する。
As described above, according to the present invention, an arbitrary learning coefficient can be set, so that the learning coefficient can be finely adjusted at the time of learning the neural network.
The ability to reduce traps to the local minimum and vibration between the walls around the global minimum on the error curved surface is improved, the convergence rate of learning is increased, and the learning ability can be improved. In addition, it is possible to obtain a stable learning ability with little variation.

【図面の簡単な説明】[Brief description of drawings]

【図1】神経細胞ユニットの模式図である。FIG. 1 is a schematic diagram of a nerve cell unit.

【図2】ニューラルネットワークの模式図である。FIG. 2 is a schematic diagram of a neural network.

【図3】シグモイド関数を示すグラフである。FIG. 3 is a graph showing a sigmoid function.

【図4】フォワードプロセスを説明する模式図である。FIG. 4 is a schematic diagram illustrating a forward process.

【図5】学習プロセスを説明する模式図である。FIG. 5 is a schematic diagram illustrating a learning process.

【図6】ニューラルネットワークに相当する電気回路図
である。
FIG. 6 is an electric circuit diagram corresponding to a neural network.

【図7】単一神経細胞に相当する電気回路図である。FIG. 7 is an electric circuit diagram corresponding to a single nerve cell.

【図8】シナプス回路のブロック図である。FIG. 8 is a block diagram of a synapse circuit.

【図9】細胞体回路のブロック図である。FIG. 9 is a block diagram of a cell body circuit.

【図10】パルス密度方式における1つのニューロン素
子のフォワード処理の様子を示す模式図である。
FIG. 10 is a schematic diagram showing a state of forward processing of one neuron element in the pulse density method.

【図11】ニューロンのシナプスに相当する部分の回路
を示すブロック図である。
FIG. 11 is a block diagram showing a circuit of a portion corresponding to a synapse of a neuron.

【図12】出力層での誤差信号を生成する回路の論理回
路図である。
FIG. 12 is a logic circuit diagram of a circuit that generates an error signal in an output layer.

【図13】中間層での誤差信号を生成する回路の論理回
路図である。
FIG. 13 is a logic circuit diagram of a circuit that generates an error signal in the intermediate layer.

【図14】同図(a)は従来のη回路を示すブロック図
であり、同図(b)は該回路の動作タイミングチャート
である。
14A is a block diagram showing a conventional η circuit, and FIG. 14B is an operation timing chart of the circuit.

【図15】本発明の第1の実施例のη回路を示すブロッ
ク図である。
FIG. 15 is a block diagram showing an η circuit according to the first embodiment of the present invention.

【図16】本発明の第2の実施例のη回路を示すブロッ
ク図である。
FIG. 16 is a block diagram showing an η circuit according to a second embodiment of the present invention.

【図17】本発明の第3の実施例のη回路を示すブロッ
ク図である。
FIG. 17 is a block diagram showing an η circuit according to a third embodiment of the present invention.

【図18】本発明の第4の実施例のη回路を示すブロッ
ク図である。
FIG. 18 is a block diagram showing an η circuit according to a fourth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

38 η回路 50 乱数発生器 50a 第1の乱数発生器 50b 第2の乱数発生器 51 記憶手段 52 コンパレータ 52a 第1のコンパレータ 52b 第2のコンパレータ 53 アンド回路 53a 第1のアンド回路 53b 第2のアンド回路 56 マルチプライヤ 57 カウンタ 58 アップダウンカウンタ 59 選択回路 38 η circuit 50 random number generator 50a first random number generator 50b second random number generator 51 storage means 52 comparator 52a first comparator 52b second comparator 53 AND circuit 53a first AND circuit 53b second AND circuit Circuit 56 Multiplier 57 Counter 58 Up-down counter 59 Selection circuit

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 ニューロン模倣素子を網状に接続したパ
ルス密度方式による信号処理回路網の該ニューロンに他
ニューロンからの信号を伝播する際の信号の増減度を表
すシナプス結合係数を更新する方法において、学習係数
値と乱数値とを比較することにより学習係数値をパルス
密度に持つ学習係数パルスを生成し、この学習係数パル
スと該ニューロンの誤差信号パルス列との論理積を施し
た信号を、該ニューロンにおける誤差信号に学習係数に
よる処理を施した信号とし、結合係数の更新を行うこと
を特徴とするパルス密度型信号処理回路網における結合
係数更新方法。
1. A method for updating a synapse coupling coefficient representing a degree of increase or decrease of a signal when a signal from another neuron is propagated to the neuron of a signal processing circuit network by a pulse density method in which neuron mimicking elements are connected in a mesh. A learning coefficient pulse having a learning coefficient value as a pulse density is generated by comparing the learning coefficient value and a random value, and a signal obtained by performing a logical product of the learning coefficient pulse and the error signal pulse train of the neuron is output to the neuron. A method for updating a coupling coefficient in a pulse density type signal processing network, characterized in that the error signal is processed by a learning coefficient and the coupling coefficient is updated.
【請求項2】 二つの乱数値を生成し、一方の乱数値に
基づいて該ニューロンにおける誤差信号プラス成分に学
習係数による処理を施した信号を生成し、他方の乱数値
に基づいて該ニューロンにおける誤差信号マイナス成分
に学習係数による処理を施した信号を生成し、結合係数
の更新を行うことを特徴とする請求項1に記載のパルス
密度型信号処理回路網における結合係数更新方法。
2. Two random number values are generated, an error signal plus component in the neuron is processed by a learning coefficient based on one of the random number values, and a signal is generated based on the other random number value in the neuron. 2. The method for updating a coupling coefficient in a pulse density type signal processing circuit network according to claim 1, wherein a signal obtained by processing the error signal minus component with a learning coefficient is generated and the coupling coefficient is updated.
【請求項3】 ニューロン模倣素子を網状に接続したパ
ルス密度方式による信号処理回路網の該ニューロンに他
ニューロンからの信号を伝播する際の信号の増減度を表
すシナプス結合係数を更新する方法において、該ニュー
ロンにおける1フレーム分の誤差信号パルスをバイナリ
ー値に変換し、前記バイナリー値誤差信号と学習係数値
との乗算値を求め、この乗算値と乱数値とを比較するこ
とにより、学習係数と誤差信号との積の値をパルス密度
に持つパルス列信号を生成し、このパルス列信号を、該
ニューロンにおける誤差信号に学習係数による処理を施
した信号とし、結合係数の更新を行うことを特徴とする
パルス密度型信号処理回路網における結合係数更新方
法。
3. A method of updating a synapse coupling coefficient, which represents a degree of increase or decrease of a signal when a signal from another neuron is propagated to the neuron of a signal processing circuit network based on a pulse density method in which neuron mimetic elements are connected in a mesh. The error signal pulse for one frame in the neuron is converted into a binary value, the multiplication value of the binary value error signal and the learning coefficient value is obtained, and the multiplication value and the random number value are compared to obtain the learning coefficient and the error. A pulse characterized by generating a pulse train signal having a product of the signal and the pulse density as a pulse density, and using this pulse train signal as a signal obtained by processing an error signal in the neuron with a learning coefficient, and updating the coupling coefficient. A method for updating coupling coefficient in a density type signal processing network.
【請求項4】 ニューロン模倣素子を網状に接続したパ
ルス密度方式による信号処理回路網の該ニューロンに他
ニューロンからの信号を伝播する際の信号の増減度を表
すシナプス結合係数を更新する方法において、該ニュー
ロンにおける誤差信号プラス成分を、1フレーム分の誤
差信号をカウントするカウンタのインクリメント(又は
デクリメント)信号とし、該ニューロンにおける誤差信
号マイナス成分を、1フレーム分の誤算信号をカウント
する前記カウンタのデクリメント(又はインクリメン
ト)信号とし、1フレームの間カウントした後、このカ
ウンタの値と学習係数値との乗算値を求め、この乗算値
と乱数値とを比較することにより学習係数と誤差信号と
の積の値をパルス密度に持つパルス列信号を生成し、前
記カウンタの値が正(又は負)のときには、前記パルス
列信号を該ニューロンにおける誤差信号プラス成分に学
習係数による処理を施した信号とし、前記カウンタの値
が負(又は正)のときには、前記パルス列信号を該ニュ
ーロンにおける誤差信号マイナス成分に学習係数による
処理を施した信号とし、結合係数の更新を行うことを特
徴とするパルス密度型信号処理回路網における結合係数
更新方法。
4. A method of updating a synapse coupling coefficient representing a degree of increase / decrease of a signal when a signal from another neuron is propagated to the neuron of a signal processing circuit by a pulse density method in which neuron mimicking elements are connected in a mesh. The error signal plus component in the neuron is used as the increment (or decrement) signal of the counter that counts the error signal for one frame, and the error signal minus component in the neuron is decremented by the counter that counts the miscalculation signal for one frame. (Or increment) signal, after counting for one frame, the multiplication value of the value of this counter and the learning coefficient value is obtained, and the multiplication value and the random number value are compared to determine the product of the learning coefficient and the error signal. A pulse train signal having a pulse density equal to the value of When the value of the counter is negative (or positive), the pulse train signal is the error signal in the neuron. A coupling coefficient updating method in a pulse density type signal processing circuit network, wherein a signal obtained by processing a negative component with a learning coefficient is used to update the coupling coefficient.
【請求項5】 ニューロン模倣素子を網状に接続したパ
ルス密度方式による信号処理回路網の該ニューロンに他
ニューロンからの信号を伝播する際の信号の増減度を表
すシナプス結合係数を更新する装置において、学習係数
値を保持する記憶手段と、乱数値を生成する乱数発生器
と、前記学習係数値と乱数値とを比較することにより学
習係数値をパルス密度に持つ学習係数パルスを生成する
比較手段と、前記学習係数パルスと該ニューロンの誤差
信号パルス列との論理積を求める論理積回路とを備えた
ことを特徴とするパルス密度型信号処理回路網における
結合係数更新装置。
5. A device for updating a synapse coupling coefficient representing a degree of increase or decrease of a signal when a signal from another neuron is propagated to the neuron of a signal processing circuit network of a pulse density method in which neuron mimicking elements are connected in a mesh. Storage means for holding a learning coefficient value, a random number generator for generating a random number value, and comparison means for generating a learning coefficient pulse having a learning coefficient value as a pulse density by comparing the learning coefficient value and the random number value. A coupling coefficient updating device in a pulse density type signal processing circuit network, comprising: a logical product circuit for obtaining a logical product of the learning coefficient pulse and an error signal pulse train of the neuron.
【請求項6】 ニューロン模倣素子を網状に接続したパ
ルス密度方式による信号処理回路網の該ニューロンに他
ニューロンからの信号を伝播する際の信号の増減度を表
すシナプス結合係数を更新する装置において、学習係数
値を保持する記憶手段と、第1の乱数値を生成する第1
乱数発生器と、第2の乱数値を生成する第2乱数発生器
と、前記学習係数値と第1の乱数値とを比較することに
より学習係数値をパルス密度に持つ学習係数パルスを生
成する第1の比較手段と、前記学習係数値と第2の乱数
値とを比較することにより学習係数値をパルス密度に持
つ学習係数パルスを生成する第2の比較手段と、前記第
1の比較手段からの学習係数パルスと該ニューロンの誤
差信号プラス成分パルス列との論理積を求める第1の論
理積回路と、前記第2の比較手段からの学習係数パルス
と該ニューロンの誤差信号マイナス成分パルス列との論
理積を求める第2の論理積回路とを備えたことを特徴と
するパルス密度型信号処理回路網における結合係数更新
装置。
6. A device for updating a synapse coupling coefficient, which represents a degree of increase or decrease of a signal when a signal from another neuron is propagated to the neuron of a signal processing circuit network of a pulse density method in which neuron mimicking elements are connected in a mesh, Storage means for holding the learning coefficient value, and a first for generating a first random value
A random number generator, a second random number generator that generates a second random number value, and a learning coefficient pulse having a learning coefficient value as a pulse density are generated by comparing the learning coefficient value and the first random number value. A first comparing means, a second comparing means for generating a learning coefficient pulse having a learning coefficient value as a pulse density by comparing the learning coefficient value with a second random value, and the first comparing means. Of the learning coefficient pulse from the second comparison means and the learning signal pulse from the second comparing means and the error signal minus component pulse train of the neuron. A coupling coefficient updating device in a pulse density type signal processing circuit network, comprising: a second AND circuit for obtaining a logical product.
【請求項7】 ニューロン模倣素子を網状に接続したパ
ルス密度方式による信号処理回路網の該ニューロンに他
ニューロンからの信号を伝播する際の信号の増減度を表
すシナプス結合係数を更新する装置において、乱数値を
生成する乱数発生器と、該ニューロンにおける1フレー
ム分の誤差信号パルスをバイナリー値に変換するバイナ
リー値変換手段と、学習係数値を保持する記憶手段と、
バイナリー値変換手段からのバイナリー値誤差信号と前
記記憶手段からの学習係数値との乗算値を求める乗算手
段と、この乗算手段からの乗算値と前記乱数発生器から
の乱数値とを比較することにより、学習係数と誤差信号
との積の値をパルス密度に持つパルス列信号を生成する
比較手段とを備えたことを特徴とするパルス密度型信号
処理回路網における結合係数更新装置。
7. A device for updating a synapse coupling coefficient representing a degree of increase / decrease of a signal when a signal from another neuron is propagated to the neuron of a signal processing circuit network by a pulse density method in which neuron mimicking elements are connected in a mesh. A random number generator for generating a random number value, a binary value conversion means for converting an error signal pulse for one frame in the neuron into a binary value, and a storage means for holding a learning coefficient value,
Multiplication means for obtaining a multiplication value of the binary value error signal from the binary value conversion means and the learning coefficient value from the storage means, and comparing the multiplication value from the multiplication means with the random number value from the random number generator. According to another aspect of the present invention, there is provided a coupling coefficient updating device in a pulse density type signal processing circuit network, comprising: a comparison means for generating a pulse train signal having a pulse density of a product value of a learning coefficient and an error signal.
【請求項8】 ニューロン模倣素子を網状に接続したパ
ルス密度方式による信号処理回路網の該ニューロンに他
ニューロンからの信号を伝播する際の信号の増減度を表
すシナプス結合係数を更新する装置において、学習係数
値を保持する記憶手段と、乱数値を生成する乱数発生器
と、該ニューロンにおける誤差信号プラス成分をインク
リメント(又はデクリメント)信号とし、該ニューロン
における誤差信号マイナス成分をデクリメント(又はイ
ンクリメント)信号とし、1フレーム分の誤算信号をカ
ウントするカウンタと、前記カウンタによる1フレーム
間のカウント値と前記記憶手段からの学習係数値との乗
算値を求める乗算手段と、前記乗算手段からの乗算値と
前記乱数発生器からの乱数値とを比較することにより学
習係数と誤差信号との積の値をパルス密度に持つパルス
列信号を生成する比較手段と、前記カウンタの値が正
(又は負)のときには、前記パルス列信号を該ニューロ
ンにおける誤差信号プラス成分に学習係数による処理を
施した信号として出力させ、前記カウンタの値が負(又
は正)のときには、前記パルス列信号を該ニューロンに
おける誤差信号マイナス成分に学習係数による処理を施
した信号として出力させる選択手段とを備えたことを特
徴とするパルス密度型信号処理回路網における結合係数
更新装置。
8. A device for updating a synapse coupling coefficient representing a degree of increase / decrease of a signal when a signal from another neuron is propagated to the neuron of a signal processing circuit network of a pulse density method in which neuron mimicking elements are connected in a mesh. A storage unit that holds the learning coefficient value, a random number generator that generates a random number value, an error signal plus component in the neuron is an increment (or decrement) signal, and an error signal minus component in the neuron is a decrement (or increment) signal. A counter for counting miscalculation signals for one frame, multiplication means for obtaining a multiplication value of the count value for one frame by the counter and the learning coefficient value from the storage means, and a multiplication value from the multiplication means. By comparing the random number value from the random number generator with the learning coefficient and the error signal When the value of the comparing means for generating a pulse train signal having a product value of the pulse density as a pulse density and the counter is positive (or negative), the pulse train signal is processed by the learning coefficient as an error signal plus component in the neuron. Selecting means for outputting the pulse train signal as a signal obtained by processing the minus component of the error signal in the neuron with a learning coefficient when the counter value is negative (or positive). Coupling coefficient updating apparatus for pulse density type signal processing network.
JP7155674A 1995-06-22 1995-06-22 Method and device for updating coupling coefficient for pulse density type signal processing circuit network Pending JPH096743A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7155674A JPH096743A (en) 1995-06-22 1995-06-22 Method and device for updating coupling coefficient for pulse density type signal processing circuit network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7155674A JPH096743A (en) 1995-06-22 1995-06-22 Method and device for updating coupling coefficient for pulse density type signal processing circuit network

Publications (1)

Publication Number Publication Date
JPH096743A true JPH096743A (en) 1997-01-10

Family

ID=15611105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7155674A Pending JPH096743A (en) 1995-06-22 1995-06-22 Method and device for updating coupling coefficient for pulse density type signal processing circuit network

Country Status (1)

Country Link
JP (1) JPH096743A (en)

Similar Documents

Publication Publication Date Title
JPH07114524A (en) Signal processor
JP3102918B2 (en) Neural network learning method and signal processing device using this learning method
US5588090A (en) Signal processing apparatus
US5485548A (en) Signal processing apparatus using a hierarchical neural network
JP3508783B2 (en) Coupling coefficient updating method and coupling coefficient updating apparatus in pulse density type signal processing network
JPH09185596A (en) Coupling coefficient updating method in pulse density type signal processing network
JPH096743A (en) Method and device for updating coupling coefficient for pulse density type signal processing circuit network
JP3130326B2 (en) Hierarchical network configuration arithmetic element
JPH05165987A (en) Signal processor
JPH05307624A (en) Signal processor
JPH07175773A (en) Teacher signal imparting method for signal processing circuit network
JP2612640B2 (en) Signal processing circuit, signal processing network, signal processing device, and signal processing method
JP2549454B2 (en) Neuron mimetic network and neuron mimicking unit
JP3338713B2 (en) Signal processing device
JP3256553B2 (en) Learning method of signal processing device
JPH05217010A (en) Signal processor
JP3276367B2 (en) Neural cell network
JPH0737016A (en) Connection coefficient code processing method for signal processing circuit network and device therefor
JP3130913B2 (en) Signal processing device
JP3137669B2 (en) Hierarchical network configuration arithmetic element
JPH05108594A (en) Signal processor
JP2559879B2 (en) Fuzzy controller
JP2517662B2 (en) Chain controller
JP3255425B2 (en) Signal processing method
JPH05108597A (en) Signal processor

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040914

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050125