JPH04229361A - Learning method for neural network and signal processor using the same - Google Patents

Learning method for neural network and signal processor using the same

Info

Publication number
JPH04229361A
JPH04229361A JP3097822A JP9782291A JPH04229361A JP H04229361 A JPH04229361 A JP H04229361A JP 3097822 A JP3097822 A JP 3097822A JP 9782291 A JP9782291 A JP 9782291A JP H04229361 A JPH04229361 A JP H04229361A
Authority
JP
Japan
Prior art keywords
neuron
coupling coefficient
output
learning
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3097822A
Other languages
Japanese (ja)
Inventor
Shuji Motomura
本村 修二
Toshiyuki Furuta
俊之 古田
Hirotoshi Eguchi
裕俊 江口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP3097822A priority Critical patent/JPH04229361A/en
Publication of JPH04229361A publication Critical patent/JPH04229361A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To adapt a back-propagation learning rule by adding a learning function to a digital neural network of simple circuit constitution. CONSTITUTION:An error signal regarding a neuron is found in each step of learning and a coupling coefficient T is varied by using the error signal to performs a learning process. The error signal is found first as to the neurons in a final layer and the error signal of this final layer is used to find errors of layers in order toward the front. This learning method can be applied to a neural network wherein differentiation is impossible because of the internal potential of a neural cell response function and a neural network wherein an internal potential itself can not be defined.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、神経細胞回路網の情報
処理機能を人工的に実現することを目指した並列分散型
情報処理装置なるニューロコンピュータ用のニューラル
ネットワークの学習方法及びこの方法を用いた信号処理
装置に関する。
[Industrial Application Field] The present invention relates to a neural network learning method for a neurocomputer, which is a parallel distributed information processing device, which aims to artificially realize the information processing function of a neuronal network, and the use of this method. This invention relates to a signal processing device.

【0002】0002

【従来の技術】生体の情報処理の基本的な単位である神
経細胞(ニューロン)の機能を模倣し、さらに、この「
神経細胞模倣素子」をネットワークにし、情報の並列処
理を目指したのが、いわゆるニューラルネットワークで
ある。文字認識や連想記憶、運動制御等、生体ではいと
も簡単に行われていても、従来のノイマン型コンピュー
タではなかなか達成しないものが多い。生体の神経系、
特に生体特有の機能、即ち並列処理、自己学習等をニュ
ーラルネットワークにより模倣して、これらの問題を解
決しようとする試みが盛んに行われている。これらの試
みは、計算機シミュレーションで行われているものが多
く、本来の機能を発揮するには、並列処理が必要であり
、そのためにはニューラルネットワークのハードウエア
化が必要である。一部では、既にハードウエア化の試み
も行われているが、ニューラルネットワークの特徴の一
つである自己学習機能が実現できず、大きなネックとな
っている。また、殆どのものがアナログ回路で実現され
ており、後述するように動作の点で問題がある。
[Prior Art] The function of nerve cells (neurons), which are the basic unit of information processing in living organisms, is imitated, and this
The so-called neural network is a network of "neuron mimicking elements" that aims to process information in parallel. Many things, such as character recognition, associative memory, and motor control, are difficult to achieve with conventional von Neumann computers, even though they are easily accomplished in living organisms. biological nervous system,
In particular, many attempts are being made to solve these problems by imitating functions unique to living organisms, such as parallel processing and self-learning, using neural networks. Many of these attempts have been carried out using computer simulations, and parallel processing is required to achieve the original functionality, and for this purpose it is necessary to implement neural networks in hardware. Some attempts have already been made to turn it into hardware, but the self-learning function, which is one of the characteristics of neural networks, has not been realized, which has been a major bottleneck. Furthermore, most of them are implemented using analog circuits, which poses problems in terms of operation, as will be described later.

【0003】以下、従来方式を順に検討する。まず、従
来のニューラルネットワークのモデルについて説明する
。図17はある1つの神経細胞ユニットAを表す図であ
り、図18はこれをネットワークにしたものである。 A1,A2,A3 は各々神経細胞ユニットを表す。1
つの神経細胞ユニットは多数の他の神経細胞ユニットと
結合し信号を受け、それを処理して出力を出す。図18
の場合、ネットワークは階層型であり、神経細胞ユニッ
トA2 は1つ前(左側)の層の神経細胞ユニットA1
より信号を受け、1つ後(右側)の層の神経細胞ユニッ
トA3 へ出力する。
[0003] The conventional methods will be considered in order below. First, a conventional neural network model will be explained. FIG. 17 is a diagram showing one nerve cell unit A, and FIG. 18 is a diagram showing this as a network. A1, A2, and A3 each represent a neuron unit. 1
One neuron unit connects with many other neuron units, receives signals, processes them, and produces output. Figure 18
In this case, the network is hierarchical, and neuron unit A2 is connected to neuron unit A1 in the previous (left) layer.
It receives signals from the neuron unit A3 and outputs them to the neuron unit A3 in the next layer (on the right).

【0004】より詳細に説明する。まず、図17の神経
細胞ユニットAにおいて、他の神経細胞ユニットと自分
のユニットとの結合の度合いを表すのが結合係数と呼ば
れるもので、i番目の神経細胞ユニットとj番目の神経
細胞ユニットの結合係数を、一般にTi,j で表す。 いま、自分の神経細胞ユニットがj番目のユニットであ
るとし、i番目の神経細胞ユニットの出力をyi とす
るとこれに結合係数Ti,j を掛けたTi,jyiが
、自分のユニットへの入力となる。前述したように、1
つの神経細胞ユニットは多数の神経細胞ユニットと結合
しているので、それらのユニットに対するTi,j y
i を足し合わせた結果なるΣTi,jyiが、ネット
ワーク内における自分の神経細胞ユニットへの入力とな
る。これを内部電位といい、uj で表す。
[0004] This will be explained in more detail. First, in neuron unit A in Fig. 17, what is called the coupling coefficient represents the degree of coupling between other neuron units and the own unit. The coupling coefficient is generally denoted by Ti,j. Now, assuming that your neuron unit is the j-th unit, and the output of the i-th neuron unit is yi, Ti,jyi, which is multiplied by the coupling coefficient Ti,j, is the input to your unit. Become. As mentioned above, 1
Since one neuron unit is connected to many neuron units, Ti,j y for those units
ΣTi,jyi, which is the result of adding up i, becomes the input to its own neuron unit within the network. This is called the internal potential and is expressed as uj.

【0005】[0005]

【数18】[Math. 18]

【0006】次に、この入力に対して非線形な処理をす
ることで、その神経細胞ユニットの出力とする。この時
に用いる関数を神経細胞応答関数と呼び、非線形関数と
して、(2)式及び図19に示すようなシグモイド関数
を用いる。
[0006]Next, by performing nonlinear processing on this input, it becomes the output of that neuron unit. The function used at this time is called a neuron response function, and a sigmoid function as shown in equation (2) and FIG. 19 is used as the nonlinear function.

【0007】[0007]

【数19】[Math. 19]

【0008】このような神経細胞ユニットを図18に示
すようにネットワークに構成した時には、各結合係数T
i,j を与え、(1)(2)式を次々と計算すること
により、情報の並列処理が可能となり、最終的な出力が
得られるものである。
When such neuron units are configured into a network as shown in FIG.
By giving i and j and calculating equations (1) and (2) one after another, parallel processing of information becomes possible and the final output is obtained.

【0009】このようなネットワークを電気回路により
実現したものの一例として、図20に示すようなものが
ある。これは、特開昭62−295188号公報中に示
されるもので、S字形伝達関数を有する複数の増幅器1
と、各増幅器1の出力を他の層の増幅器の入力に接続す
る抵抗性フィードバック回路網2とが設けられている。 各増幅器1の入力側には接地されたコンデンサと接地さ
れた抵抗とによるCR時定数回路3が個別に接続されて
いる。そして、入力電流I1,I2,〜,In が各増
幅器1の入力に供給され、出力はこれらの増幅器1の出
力電圧の集合から得られる。
An example of such a network realized by an electric circuit is shown in FIG. 20. This is disclosed in Japanese Patent Application Laid-Open No. 62-295188, and is based on a plurality of amplifiers 1 having an S-shaped transfer function.
and a resistive feedback network 2 connecting the output of each amplifier 1 to the input of the amplifier in the other layer. A CR time constant circuit 3 consisting of a grounded capacitor and a grounded resistor is individually connected to the input side of each amplifier 1. Input currents I1, I2, .

【0010】ここに、ネットワークへの入力や出力の信
号強度を電圧で表し、神経細胞ユニット間の結合の強さ
は、各細胞間の入出力ラインを結ぶ抵抗4(抵抗性フィ
ードバック回路網2中の格子点)の抵抗値で表され、神
経細胞応答関数は各増幅器1の伝達関数で表される。即
ち、図20において複数の増幅器1は反転出力及び非反
転出力を有し、かつ、各増幅器1の入力には入力電流供
給手段なるCR時定数回路3を有しており、予め選定さ
れた値である抵抗4(Ti,j)で増幅器1の各々の出
力を入力に接続するフィードバック回路網2を有してい
る。抵抗4はi番目の増幅器出力とj番目の増幅器入力
との間の相互コンダクタンスを表し、回路網が平衡する
複数の極小値を作るように選定され、複数の極小値を持
ったエネルギー関数を最小にするようにしている。また
、神経細胞間の結合には、興奮性と抑制性とがあり数学
的には結合係数の正負符号により表されるが、回路上の
定数で正負を実現するのは困難であるので、ここでは、
増幅器1の出力を2つに分け、一方の出力を反転させる
ことにより、正負の2つの信号を生成し、これを適当に
選択することにより実現するようにしている。また、図
19に示したシグモイド関数に相当するものとしては増
幅器が用いられている。
Here, the signal strength of the input and output to the network is expressed by voltage, and the strength of the connection between neuron units is determined by the resistance 4 (in the resistive feedback network 2) connecting the input and output lines between each cell. The nerve cell response function is represented by the transfer function of each amplifier 1. That is, in FIG. 20, the plurality of amplifiers 1 have inverted outputs and non-inverted outputs, and the input of each amplifier 1 has a CR time constant circuit 3 serving as an input current supply means, and a pre-selected value. It has a feedback network 2 connecting the output of each of the amplifiers 1 to the input with a resistor 4 (Ti,j) . Resistor 4 represents the transconductance between the i-th amplifier output and the j-th amplifier input, and is chosen so that the network produces equilibrium minima, minimizing the energy function with the minima. I try to do that. In addition, connections between neurons have excitatory and inhibitory properties, which are mathematically expressed by the positive and negative signs of the coupling coefficient, but it is difficult to realize positive and negative signs using constants on the circuit, so here So,
By dividing the output of the amplifier 1 into two and inverting one output, two positive and negative signals are generated, and this is realized by appropriately selecting one of the two signals. Furthermore, an amplifier is used as an equivalent to the sigmoid function shown in FIG.

【0011】しかしながら、このようなアナログ回路方
式には、次のような問題点がある。■  信号の強度を
電位や電流などのアナログ値で表し、内部の演算もアナ
ログ的に行わせる場合、温度特性や電源投入直後のドリ
フト等により、その値が変化する。■  ネットワーク
であるので、素子の数も多く必要とするが、各々の特性
を揃えることは困難である。■  1つの素子の精度や
安定性が問題となったとき、それをネットワークにした
とき、新たな問題を生ずる可能性があり、ネットワーク
全体で見たときの動きが予想できない。■  結合係数
Ti,jが固定であり、予めシミュレーションなどの他
の方法で学習させた値を使うしかなく、自己学習ができ
ない。
However, such an analog circuit system has the following problems. ■ When signal strength is expressed as an analog value such as electric potential or current, and internal calculations are also performed in an analog manner, the value changes due to temperature characteristics, drift immediately after power-on, etc. ■ Since it is a network, it requires a large number of elements, but it is difficult to match the characteristics of each element. ■ When the accuracy or stability of one element becomes a problem, when it is made into a network, new problems may arise, and the behavior of the entire network cannot be predicted. - The coupling coefficients Ti,j are fixed, and the only way to do this is to use values learned in advance by other methods such as simulation, and self-learning is not possible.

【0012】一方、数値計算で用いられる学習法則とし
ては、バックプロパゲーション学習則と呼ばれる下記の
ようなものがある。
On the other hand, as a learning rule used in numerical calculations, there is the following one called a backpropagation learning rule.

【0013】まず、各神経細胞ユニット間の結合係数を
最初はランダムな値に設定しておく。この状態で、ネッ
トワークに入力を与えると、その出力結果は必ずしも望
ましいものではない。例えば、文字認識の場合、手書き
の「1」の文字を与えたとすると、出力結果として「こ
の文字は『1』である」と出るのが望ましい結果である
が、結合係数がランダムであると必ずしも望ましい結果
とはならない。そこで、このネットワークに正解(教師
信号)を与えて、再び、同じ入力があったとき正解とな
るように各結合係数を変化させる。このとき、結合係数
を変化させる量を求めるアルゴリズムが、バックプロパ
ゲーションと呼ばれているものである。
First, the coupling coefficient between each neuron unit is initially set to a random value. If input is given to the network in this state, the output result will not necessarily be desirable. For example, in the case of character recognition, if the handwritten character "1" is given, the desired output result would be "This character is '1'", but if the coupling coefficient is random, this is not necessarily the case. This is not a desirable result. Therefore, a correct answer (teacher signal) is given to this network, and each coupling coefficient is changed so that the correct answer is obtained when the same input is received again. At this time, the algorithm for determining the amount by which the coupling coefficient is changed is called backpropagation.

【0014】例えば、図18に示したような階層型のネ
ットワークにおいて、最終層(A3)のj番目の神経細
胞ユニットの出力をyj とし、その神経細胞ユニット
に対する教師信号をdj とすると、
For example, in a hierarchical network as shown in FIG. 18, if the output of the j-th neuron unit in the final layer (A3) is yj, and the teacher signal for that neuron unit is dj, then

【数20】 で表されるEが最小となるように、[Math. 20] So that E expressed by is minimized,

【数21】 を用いて、結合係数Ti,j を変化させる。さらに具
体的には、まず、出力層A3と、その1つ前の層A2 
との結合係数を求める場合には、
The coupling coefficient Ti,j is changed using the following equation. More specifically, first, the output layer A3 and the layer A2 immediately before it.
When calculating the coupling coefficient with

【数22】 を用いて、誤差信号δを求め、それよりさらに前の中間
層A2 とその1つ前の層A1 との結合係数を求める
場合には、
[Equation 22] When calculating the error signal δ and calculating the coupling coefficient between the intermediate layer A2 further before it and the layer A1 immediately before it,

【数23】 を用いて、誤差信号δを求める。f′はシグモイド関数
fの1階微分関数である。
The error signal δ is determined using the following equation. f' is the first differential function of the sigmoid function f.

【0015】これを用いて、[0015] Using this,

【数24】 を求めて、Ti,j を変化させる。ここに、ηは学習
定数、αは安定化定数と呼ばれるものである。各々論理
的には求められないので、経験的に求める。Ti,j′
 ,ΔTi,j′ は前回学習時の値である。
[Formula 24] is obtained and Ti,j is varied. Here, η is a learning constant, and α is a stabilization constant. Each cannot be determined logically, so they are determined empirically. Ti,j′
, ΔTi,j' are the values from the previous learning.

【0016】このようにして学習をし、その後、再び入
力を与えて出力を計算し、学習をする。この操作を何回
も繰返すうちに、やがて、与えられた入力に対し望まし
い結果が得られるような結合係数Ti,j が決定され
る。 このことにより、ネットワークの学習機能を実現できる
[0016] Learning is performed in this manner, and then input is given again to calculate the output and learning is performed. By repeating this operation many times, a coupling coefficient Ti,j that will yield a desired result for a given input is eventually determined. This allows the learning function of the network to be realized.

【0017】このようなバックプロパゲーション学習則
に従った学習方式をそのままの形でハードウエア化しよ
うとした場合、多量の四則演算を実行しなければならな
いため、回路が大規模になってしまう。また、内部電位
ui に相当する量を定義できなかったり、或るいは、
神経細胞応答関数が内部電位の1価関数でないために応
答関数の微分f′を定義できないようなネットワークの
場合には、このバックプロパゲーション学習則は適用で
きない。
If a learning method based on such a backpropagation learning rule is intended to be implemented in hardware as it is, the circuit will become large-scale because a large number of four arithmetic operations must be executed. In addition, it is not possible to define the amount corresponding to the internal potential ui, or
In the case of a network in which the differential f' of the response function cannot be defined because the neuron response function is not a monovalent function of the internal potential, this backpropagation learning rule cannot be applied.

【0018】一方、デジタル回路でニューラルネットを
実現したものの例を図21ないし図23を参照して説明
する。図21は単一の神経細胞の回路構成を示し、各シ
ナプス回路6を樹状突起回路7を介して細胞体回路8に
接続してなる。図22はその内のシナプス回路6の構成
例を示し、係数回路9を介して入力パルスfに倍率a(
フィードバック信号に掛ける倍率で1又は2)を掛けた
値が入力されるレートマルチプライヤ10を設けてなり
、レートマルチプライヤ10には重み付けの値wを記憶
したシナプス荷重レジスタ11が接続されている。また
、図23は細胞体回路8の構成例を示し、制御回路12
、アップ/ダウンカウンタ13、レートマルチプライヤ
14及びゲート15を順に接続してなり、さらに、アッ
プ/ダウンメモリ16が設けられている。
On the other hand, an example of a neural network implemented using a digital circuit will be explained with reference to FIGS. 21 to 23. FIG. 21 shows the circuit configuration of a single neuron, in which each synaptic circuit 6 is connected to a cell body circuit 8 via a dendrite circuit 7. FIG. 22 shows an example of the configuration of the synapse circuit 6, which is applied to the input pulse f via the coefficient circuit 9 by a magnification a(
A rate multiplier 10 is provided to which a value obtained by multiplying the feedback signal by a factor of 1 or 2 is input, and a synapse load register 11 that stores a weighting value w is connected to the rate multiplier 10. Further, FIG. 23 shows a configuration example of the cell body circuit 8, and the control circuit 12
, an up/down counter 13, a rate multiplier 14, and a gate 15 are connected in this order, and an up/down memory 16 is further provided.

【0019】これは、神経細胞ユニットの入出力をパル
ス列で表し、そのパルス密度で信号の量を表している。 結合係数は2進数で表し、レジスタ11上に保存してお
く。入力信号をレートマルチプライヤ10のクロックへ
入力し、結合係数をレート値へ入力することによって、
入力信号のパルス密度をレート値に応じて減らしている
。これは、バックプロパゲーションモデルの式のTi,
jyiの部分に相当する。次に、ΣTi,jyiのΣの
部分は、樹状突起回路7によって示されるOR回路で実
現している。結合には興奮性、抑制性があるので、予め
グループ分けしておき、各々のグループ別にORをとる
。この2つの出力をカウンタ13のアップ側、ダウン側
に入力しカウントすることで出力が得られる。この出力
は2進数であるので、再びレートマルチプライヤ14を
用いて、パルス密度に変換する。このユニットをネット
ワークにすることによって、ニューラルネットワークが
実現できる。学習については、最終出力を外部のコンピ
ュータに入力して、コンピュータ内部で数値計算を行い
、その結果を結合係数のレジスタ11に書込むことによ
り実現している。従って、自己学習機能は全くない。ま
た、回路構成もパルス密度の信号をカウンタを用いて一
旦数値(2進数)に変換し、その後、再びパルス密度に
変換しており、複雑なものになっている。
[0019] This represents the input and output of the neuron unit as a pulse train, and the pulse density represents the amount of signal. The coupling coefficient is expressed as a binary number and stored in the register 11. By inputting the input signal to the clock of the rate multiplier 10 and inputting the coupling coefficient to the rate value,
The pulse density of the input signal is reduced according to the rate value. This is based on the backpropagation model equation Ti,
This corresponds to the jyi part. Next, the Σ portion of ΣTi, jyi is realized by an OR circuit represented by a dendrite circuit 7. Since the connections have excitatory and inhibitory properties, they are divided into groups in advance and OR'd for each group. An output is obtained by inputting these two outputs to the up side and down side of the counter 13 and counting them. Since this output is a binary number, the rate multiplier 14 is used again to convert it into a pulse density. By making these units into a network, a neural network can be realized. Learning is realized by inputting the final output to an external computer, performing numerical calculations inside the computer, and writing the results to the register 11 for coupling coefficients. Therefore, there is no self-learning function at all. Furthermore, the circuit configuration is complicated, as the pulse density signal is first converted into a numerical value (binary number) using a counter, and then converted back into pulse density.

【0020】[0020]

【発明が解決しようとする課題】このように従来技術に
よる場合、アナログ回路方式では動作に確実性がなく、
数値計算による学習方法も計算が複雑であり、ハードウ
エア化に適さず、動作が確実なデジタル方式のものは回
路構成が複雑である。また、ハードウエア上で自己学習
ができないという欠点がある。
[Problems to be Solved by the Invention] As described above, in the case of the conventional technology, the analog circuit system does not operate reliably;
Learning methods based on numerical calculations also require complicated calculations, making them unsuitable for use in hardware, and digital systems that ensure reliable operation have complex circuit configurations. Another drawback is that self-learning cannot be performed on the hardware.

【0021】特に、簡単な回路構成のデジタル方式のニ
ューラルネットワークに自己学習機能を付加することに
より、これらの欠点を解決しようとする場合、ニューロ
ンの内部状態或いは応答関数を適切に定義できないため
バックプロパゲーション学習則を適用できない。従って
、このような場合に適用できる学習則を案出し、その学
習則をデジタル回路により実現し得ることが要望される
In particular, when attempting to solve these drawbacks by adding a self-learning function to a digital neural network with a simple circuit configuration, it is difficult to properly define the internal states or response functions of neurons, so backproperization is required. gation learning rules cannot be applied. Therefore, it is desired to devise a learning rule that can be applied in such a case and to realize this learning rule using a digital circuit.

【0022】[0022]

【課題を解決するための手段】請求項1記載の発明では
、階層型ニューラルネットワークにおけるある層のニュ
ーロンiと次層のニューロンjとの間の結合係数をTi
,j とし、この結合係数Ti,j を正成分T(+)
i,j と負成分T(−)i,j との差として
In the invention as claimed in claim 1, the coupling coefficient between a neuron i in a certain layer and a neuron j in the next layer in a hierarchical neural network is Ti.
,j, and this coupling coefficient Ti,j is the positive component T(+)
As the difference between i,j and the negative component T(-)i,j

【数25】 と表し、ニューロンiからの出力値をyi 、ニューロ
ンjの出力感度をZ(+)i,j,Z(−)i,j 、
ニューロンjにおける誤差信号をδ(+)j ,δ(−
)j  としたとき、学習の1ステップ毎に、
[Formula 25], the output value from neuron i is yi, the output sensitivity of neuron j is Z(+)i,j, Z(-)i,j,
The error signal in neuron j is expressed as δ(+)j, δ(−
)j, then for each step of learning,

【数26】 なる量ΔT(+)i,j を結合係数T(+)i,j 
に加えて得られる(T(+)i,j+ΔT(+)i,j
 )の値、又は、この値に慣性項を付加した値を新しい
T(+)i,j とし、
[Formula 26] The amount ΔT(+)i,j is defined as the coupling coefficient T(+)i,j
(T(+)i,j+ΔT(+)i,j
) or the value obtained by adding the inertia term to this value as the new T(+)i,j,

【数27】 なる量ΔT(−)i,j を結合係数T(−)i,j 
に加えて得られる(T(−)i,j +ΔT(−)i,
j )の値、又は、この値に慣性項を付加した値を新し
いT(−)i,j とすることにより学習するようにし
た。ただし、出力感度Z(+)i,j ,Z(−)i,
j は、nについての積
[Formula 27] The amount ΔT(-)i,j is expressed as the coupling coefficient T(-)i,j
(T(-)i,j +ΔT(-)i,
The learning is performed by setting the value of T(-)i,j or the value obtained by adding an inertia term to this value as the new T(-)i,j. However, the output sensitivity Z(+)i,j, Z(-)i,
j is the product with respect to n

【数28】 が、ニューロンiの属する層にあってニューロンjと結
合しているニューロンの内でニューロンi以外の全ての
ニューロンnについて積をとることを意味するものとす
ると、
Assuming that [Equation 28] means calculating the product for all neurons n other than neuron i among neurons connected to neuron j in the layer to which neuron i belongs, then

【数29】 により算出し、kについての和[Math. 29] The sum of k is calculated by

【数30】 が、ニューロンjの属する層の次の層にあってニューロ
ンjと結合している全てのニューロンkについて和をと
ることを意味するものとすると、誤差信号δ(+)j,
δ(−)j は、出力層では、教師信号をdj とする
と、
If [Equation 30] means that the sum is calculated for all neurons k connected to neuron j in the layer next to the layer to which neuron j belongs, then the error signal δ(+)j,
δ(-)j is, in the output layer, if the teacher signal is dj,

【数31】 中間層では、[Math. 31] In the middle class,

【数32】 により算出するものとする。また、T(+)i,j ,
T(−)i,j 及びyi が1より大きい値をとり得
るときは、それらをそれらのとり得る値の最大値で割っ
てT(+)i,j ≦1,T(−)i,j ≦1,yi
≦1に規格化したものとする。
It is calculated by [Equation 32]. Also, T(+)i,j,
When T(-)i,j and yi can take values larger than 1, divide them by the maximum value that they can take and get T(+)i,j ≦1, T(-)i,j ≦1,yi
It is assumed that it is normalized to ≦1.

【0023】また、請求項2記載の発明では、階層型ニ
ューラルネットワークにおけるある層のニューロンiと
次層のニューロンjとの間の興奮性の結合係数をT(+
)i,j、抑制性の結合係数をT(−)i,j 、ニュ
ーロンiからの出力値をyi 、 ニューロンjの出力
感度をZ(+)i,j ,Z(−)i,j 、ニューロ
ンjにおける誤差信号をδ(+)j ,δ(−)j と
したとき、これらのT(+)i,j ,T(−)i,j
 ,yi ,Z(+)i,j,Z(−)i,j ,δ(
+)j ,δ(−)j  全てをパルス列で表し、これ
らのパルス列の論理和、論理積、論理否定及びパルス列
中のパルスの間引き演算を用いて、学習の1ステップ毎
に、
In the invention as claimed in claim 2, the excitatory coupling coefficient between the neuron i in a certain layer and the neuron j in the next layer in the hierarchical neural network is expressed as T(+
)i,j, the inhibitory coupling coefficient is T(-)i,j, the output value from neuron i is yi, the output sensitivity of neuron j is Z(+)i,j, Z(-)i,j, When the error signals in neuron j are δ(+)j and δ(-)j, these T(+)i,j and T(-)i,j
,yi ,Z(+)i,j,Z(-)i,j ,δ(
+)j, δ(-)j are all expressed as a pulse train, and by using the logical sum, logical product, and logical negation of these pulse trains, and the thinning operation of the pulses in the pulse train, for each step of learning,

【数33】 という論理演算の結果得られるパルス列を新しいT(+
)i,j とし、
The pulse train obtained as a result of the logical operation [Equation 33] is transformed into a new T(+
)i,j,

【数34】 という論理演算の結果得られるパルス列を新しいT(−
)i,j とすることにより学習するようにした。ただ
し、2つのパルス列X,Yの論理和はX∪Y、論理積は
X∩Yという記号で示し、パルス列Xの論理否定は〜(
X)という記号で示し、パルス列X中のパルスを間引く
演算を∧(X)という記号で示すものとする。また、n
についての論理和
The pulse train obtained as a result of the logical operation [Equation 34] is transformed into a new T(-
) i, j. However, the logical sum of two pulse trains X and Y is represented by the symbol X∪Y, the logical product is represented by the symbol X∩Y, and the logical negation of the pulse train X is expressed by ~(
The symbol ∧(X) indicates an operation for thinning out pulses in the pulse train X. Also, n
disjunction for

【数35】 を、ニューロンiの属する層にあってニューロンjと興
奮性の結合係数をもって結合しているニューロンの内で
ニューロンi以外の全てのニューロンnについて和をと
ることを意味し、nについての論理和
[Equation 35] means to calculate the sum of all neurons n other than neuron i among the neurons in the layer to which neuron i belongs and which are connected to neuron j with an excitatory coupling coefficient, and for n, logical sum of

【数36】 を、ニューロンiの属する層にあってニューロンjと抑
制性の結合係数をもって結合しているニューロンの内で
ニューロンi以外の全てのニューロンnについて和をと
ることを意味するものと定義したとき、Z(+)i,j
 ,Z(−)i,j は
Define [Equation 36] to mean the sum of all neurons n other than neuron i among the neurons in the layer to which neuron i belongs and which are connected to neuron j with an inhibitory coupling coefficient. When Z(+)i,j
, Z(-)i,j is

【数37】 により算出するものとする。また、パルス列X中のパル
スを間引いてパルス密度を半分にする演算を∇(X)と
いう記号で表し、kについての論理和
It is calculated by [Equation 37]. In addition, the operation to thin out the pulses in the pulse train X to half the pulse density is expressed by the symbol ∇(X), and the logical

【数38】 がニューロンjの属する層の次の層にあってニューロン
jと興奮性の結合係数をもって結合している全てのニュ
ーロンkについて論理和をとることを意味し、kについ
ての論理和
[Equation 38] means to perform a logical sum on all neurons k that are in the layer next to the layer to which neuron j belongs and are connected to neuron j with an excitatory coupling coefficient, and the logical sum on k is

【数39】 がニューロンjの属する層の次の層にあってニューロン
jと抑制性の結合係数をもって結合している全てのニュ
ーロンkについて論理和をとることを意味するものと定
義したとき、δ(+)j  ,δ(−)j は、出力層
では、教師信号をdj  とすると、
When [Equation 39] is defined as meaning the logical OR of all neurons k that are in the layer next to the layer to which neuron j belongs and are connected to neuron j with an inhibitory coupling coefficient, then δ (+)j, δ(-)j are, in the output layer, if the teacher signal is dj,

【数40】 中間層では、[Math. 40] In the middle class,

【数41】 により算出するものとする。[Math. 41] It shall be calculated as follows.

【0024】また、請求項3記載の発明では、このよう
な学習方法を用いる信号処理装置として、入力信号を受
けて出力信号を出力する複数個の回路ユニットとして、
ネットワーク外からの信号を入力するものと、ネットワ
ーク内の他の回路ユニットからの信号を入力とするもの
と、ネットワーク外へ信号を出力するものとを各々少な
くとも1個以上有して、これらの回路ユニットを網状に
連結したデジタル論理回路による階層型ニューラルネッ
トワークを設け、ある回路ユニットが他の回路ユニット
からの出力信号を入力信号として受け取る際の入力信号
に重み付けをするための重みデータを結合係数として記
憶したメモリを設け、ネットワーク外へ出力する回路ユ
ニットからの出力信号とネットワーク外から与えられる
信号との差に基づいて前記結合係数値を可変する可変処
理を請求項2記載の学習方法を用いて行うデジタル論理
回路による係数可変回路を回路ユニット内又はネットワ
ーク内の回路ユニット外に設けた。
[0024] Furthermore, in the invention as set forth in claim 3, a signal processing device using such a learning method includes a plurality of circuit units that receive an input signal and output an output signal.
These circuits have at least one circuit that receives signals from outside the network, one circuit that receives signals from other circuit units within the network, and one circuit that outputs signals to the outside of the network. A hierarchical neural network consisting of digital logic circuits in which units are connected in a network is provided, and when one circuit unit receives an output signal from another circuit unit as an input signal, weight data for weighting the input signal is used as a coupling coefficient. The learning method according to claim 2 is provided with a memory for storing the information, and performs variable processing of varying the coupling coefficient value based on a difference between an output signal from a circuit unit outputting to the outside of the network and a signal given from outside the network. A coefficient variable circuit based on a digital logic circuit that performs this function is provided within the circuit unit or outside the circuit unit within the network.

【0025】また、請求項4記載の発明では、ビット列
表現の入力信号をデジタル論理演算により処理してビッ
ト列表現の出力信号を出す複数個のニューロンを階層型
に連結してニューラルネットワークを形成し、あるニュ
ーロンが他のニューロンからの出力信号を入力信号とし
て受け取る際の入力信号に重み付けをするための重みデ
ータをビット列表現の結合係数として各結合毎に興奮性
の結合係数と抑制性の結合係数との2種類を記憶させて
おき、前記ニューラルネットワークからの出力値を所望
値に近付けるために前記ニューロン中に記憶された結合
係数値を可変する可変処理を請求項1又は2記載の学習
方法を用いて行うニューラルネットワークの学習方法に
おいて、前記学習の1サイクル毎に、興奮性の結合係数
のビット列を抑制性の結合係数のビット列に対して相対
的に1ビット以上ずらすようにした。
[0025] Furthermore, in the invention as set forth in claim 4, a neural network is formed by connecting a plurality of neurons in a hierarchical manner to process an input signal representing a bit string representation by digital logic operations and outputting an output signal representing a bit string representation. When a neuron receives an output signal from another neuron as an input signal, weight data for weighting the input signal is used as a bit string representation of a connection coefficient, and for each connection, an excitatory connection coefficient and an inhibitory connection coefficient are calculated. The learning method according to claim 1 or 2 is used to perform variable processing of varying the coupling coefficient values stored in the neurons in order to bring the output value from the neural network closer to a desired value. In the neural network learning method carried out, the bit string of the excitatory coupling coefficient is shifted by one bit or more relative to the bit string of the inhibitory coupling coefficient for each cycle of the learning.

【0026】また、請求項5記載の発明では、このよう
な学習方法を用いる信号処理装置として、ビット列表現
の入力信号をデジタル論理回路により処理してビット列
表現の出力信号を出す複数個のニューロンを階層型に連
結してニューラルネットワークを形成し、あるニューロ
ンが他のニューロンからの出力信号を入力信号として受
け取る際の入力信号に重み付けをするための重みデータ
をビット列表現の結合係数として各結合毎に興奮性の結
合係数と抑制性の結合係数との2種類を記憶するメモリ
を設け、前記ニューラルネットワークからの出力値を所
望値に近付けるために前記ニューロン中に記憶された結
合係数値を可変する可変処理を請求項1又は2記載の学
習方法を用いて行うデジタル論理回路による係数可変回
路を設け、この係数可変回路中に前記学習の1サイクル
毎に興奮性の結合係数のビット列を抑制性の結合係数の
ビット列に対して相対的に1ビット以上ずらすシフト手
段を設けた。
In the invention as claimed in claim 5, the signal processing device using such a learning method includes a plurality of neurons that process an input signal represented by a bit string by a digital logic circuit and output an output signal represented by a bit string. A neural network is formed by connecting in a hierarchical manner, and when one neuron receives an output signal from another neuron as an input signal, weight data for weighting the input signal is used as a connection coefficient in a bit string representation for each connection. A memory for storing two types of coupling coefficients, an excitatory coupling coefficient and an inhibitory coupling coefficient, is provided, and the coupling coefficient value stored in the neuron is varied in order to bring the output value from the neural network closer to a desired value. A coefficient variable circuit is provided which is a digital logic circuit that performs processing using the learning method according to claim 1 or 2, and in this coefficient variable circuit, a bit string of excitatory coupling coefficients is coupled to an inhibitory coupling coefficient every cycle of the learning. A shift means is provided for shifting one or more bits relative to the bit string of the coefficient.

【0027】[0027]

【作用】請求項1記載の発明の学習方法によれば、ニュ
ーロンの内部電位による神経細胞応答関数の微分成分が
含まれていないので、神経細胞応答関数が内部電位の1
価関数でないこと等により神経細胞応答関数の内部電位
による微分が定義できないニューラルネットワークや内
部電位自体が定義できないニューラルネットワークに対
しても適用可能となる。この場合、結合係数の変更量が
常に負にならない値をとる量のみの演算で算出されるの
で、パルス密度を信号として扱うような、負の値を表現
することが困難なハードウエアに対しても容易に適用し
得るものとなる。特に、請求項2記載の発明の学習方法
によれば、ニューラルネットワークの学習が、パルス列
の論理演算とパルスの間引き演算のみでできるので、デ
ジタル回路によるハードウエア化が容易である。
[Operation] According to the learning method of the invention as set forth in claim 1, since the differential component of the neuron response function due to the internal potential of the neuron is not included, the neuron response function is 1 of the internal potential.
This method can also be applied to neural networks in which the differentiation of a neuron response function by internal potential cannot be defined because it is not a value function, or to neural networks in which the internal potential itself cannot be defined. In this case, the amount of change in the coupling coefficient is calculated by calculating only the amount that always takes a non-negative value, so it is suitable for hardware that is difficult to express negative values, such as those that treat pulse density as a signal. can also be easily applied. In particular, according to the learning method of the invention as set forth in claim 2, learning of the neural network can be performed only by logical operations on pulse trains and pulse thinning operations, so it is easy to implement the learning method in hardware using digital circuits.

【0028】また、請求項3記載の信号処理装置によれ
ば、自己学習機能を含めてニューラルネットワークの機
能をハードウエア上で並列的に高速で行わせることがで
きる。特に、デジタル論理回路構成としているので、ア
ナログ回路方式のような温度特性、ドリフト等の問題も
なくなる。さらには、結合係数がメモリ上に格納されて
いるので、書換えが容易であり、汎用性を持つものとな
る。
Further, according to the signal processing device according to the third aspect, the functions of the neural network including the self-learning function can be performed in parallel on hardware at high speed. In particular, since it has a digital logic circuit configuration, problems such as temperature characteristics and drift that occur with analog circuit systems are eliminated. Furthermore, since the coupling coefficients are stored in memory, they can be easily rewritten and have versatility.

【0029】請求項4記載の発明の学習方法ないしは請
求項5記載の信号処理装置によれば、学習の1サイクル
毎に、興奮性の結合係数のビット列を抑制性の結合係数
のビット列に対して相対的に1ビット以上ずらすので、
興奮性の結合係数のビット列と抑制性の結合係数のビッ
ト列との間のビット配置の相関が消されることになり、
望ましい結合係数値に到達する前に学習の進行が止まっ
てしまうのを防ぐことができ、かつ、ニューラルネット
ワークの学習効果が学習後の結合係数のビット配置の揺
らぎに対して強い耐性を持つものとなり、学習能力が上
がるものとなる。
According to the learning method of the invention described in claim 4 or the signal processing device described in claim 5, the bit string of excitatory coupling coefficients is changed to the bit string of inhibitory coupling coefficients in each cycle of learning. Since it is relatively shifted by more than 1 bit,
The correlation in the bit arrangement between the bit string of the excitatory coupling coefficient and the bit string of the inhibitory coupling coefficient is erased,
It is possible to prevent the learning progress from stopping before reaching the desired coupling coefficient value, and the learning effect of the neural network is highly resistant to fluctuations in the bit arrangement of the coupling coefficients after learning. , which improves learning ability.

【0030】[0030]

【実施例】本発明の第一の実施例を図1ないし図12に
基づいて説明する。本実施例は、デジタル論理回路構成
を前提とし、■  神経細胞ユニットに関する入出力信
号、中間信号、結合係数、教師信号などは全て、「0」
「1」の2値で表されたビット列で表す。■  ネット
ワーク内部での信号の量は、パルス密度で表す(ビット
列中のある一定時間内の「1」の数)。■  神経細胞
ユニット内での計算は、ビット列同士の論理演算で表す
。■  結合係数のビット列はメモリ上に置く。■  
学習は、このビット列を書換えることで実現する。■ 
 学習については、与えられた教師信号ビット列を元に
誤差を計算し、これに基づいて、結合係数ビット列を変
化させる。 このとき、誤差の計算、結合係数の変化分の計算も、全
て、「0」「1」のビット列の論理演算で行う。ように
したものである。
Embodiment A first embodiment of the present invention will be explained based on FIGS. 1 to 12. This example assumes a digital logic circuit configuration, and all input/output signals, intermediate signals, coupling coefficients, teacher signals, etc. related to neuron units are "0".
It is represented by a bit string expressed as a binary value of "1". ■ The amount of signals inside the network is expressed in terms of pulse density (the number of 1's within a certain period of time in a bit string). ■ Calculations within a neuron unit are expressed by logical operations between bit strings. ■ Place the coupling coefficient bit string in memory. ■
Learning is achieved by rewriting this bit string. ■
Regarding learning, the error is calculated based on the given teaching signal bit string, and the coupling coefficient bit string is changed based on this. At this time, calculation of errors and calculation of changes in coupling coefficients are all performed by logical operations on bit strings of "0" and "1". This is how it was done.

【0031】以下、この思想を具体化したパルス密度型
階層ニューラルネットワークの例に基づき説明する。ま
ず、信号演算部分の構成を図2を参照して説明する。図
2は1つのニューロン(回路ユニット)Aに相当する部
分を示し、ネットワーク構成したものは図18の場合の
ように階層型とされる。入出力は、全て、「1」「0」
に2値化され、かつ、同期化されたものが用いられる。 入力信号yi の強度はビット列のパルス密度で表現す
る。例えば図3に示すビット列のように、ある一定時間
内にある、「1」の状態数で表す。図示例は、4/6を
表し、同期パルス6個中に信号は「1」が4個、「0」
が2個である。このとき、「1」と「0」の並び方は、
ランダムであることが望ましい。
An explanation will be given below based on an example of a pulse density hierarchical neural network that embodies this idea. First, the configuration of the signal calculation section will be explained with reference to FIG. FIG. 2 shows a portion corresponding to one neuron (circuit unit) A, and the network configuration is hierarchical as in the case of FIG. 18. All input and output are "1" and "0"
The data that has been binarized and synchronized is used. The intensity of the input signal yi is expressed by the pulse density of the bit string. For example, as in the bit string shown in FIG. 3, it is expressed by the number of states of "1" within a certain period of time. The illustrated example represents 4/6, and the signal is 4 “1”s and 0 “0” out of 6 synchronization pulses.
There are 2 pieces. At this time, the arrangement of "1" and "0" is
Preferably random.

【0032】一方、結合係数Ti,j も同様にビット
列のパルス密度で表現し、「0」と「1」とのビット列
として予めメモリ上に用意しておく。図4は、「101
010」=3/6を表す。この場合も、「1」と「0」
の並び方はランダムであることが望ましい。
On the other hand, the coupling coefficient Ti,j is similarly expressed by the pulse density of a bit string, and is prepared in advance in the memory as a bit string of "0" and "1". Figure 4 shows “101
010'' = 3/6. In this case as well, "1" and "0"
It is desirable that the arrangement of the items be random.

【0033】そして、このビット列を同期クロックに応
じてメモリ上より順次読出し、図2に示すように各々A
NDゲート21により入力信号ビット列との論理積をと
る(yi ∩ Ti,j )。これを、神経細胞jへの
入力とする。上例の場合で説明すると、入力信号が「1
01101」として入力されたとき、これと同期してメ
モリ上よりビット列を呼出し、順次ANDをとることに
より、図5に示すような「101000」が得られ、こ
れは入力yi が結合係数Ti,j により変換されパ
ルス密度が2/6となることを示している。
Then, this bit string is sequentially read out from the memory in accordance with the synchronous clock, and as shown in FIG.
The ND gate 21 performs AND with the input signal bit string (yi ∩ Ti,j). This is taken as an input to neuron j. To explain in the case of the above example, the input signal is “1”.
01101", by reading the bit string from the memory in synchronization with this and sequentially ANDing it, "101000" as shown in FIG. 5 is obtained, which means that the input yi is the coupling coefficient Ti,j This shows that the pulse density is converted to 2/6.

【0034】ANDゲート21の出力のパルス密度は、
近似的には入力信号のパルス密度と結合係数のパルス密
度との積となり、アナログ方式の結合係数と同様の機能
を有する。これは、信号の列が長いほど、また、「1」
と「0」との並び方がランダムであるほど、積に近い機
能を持つことになる。なお、入力ビット列に比べて結合
係数のビット列が短く、読出すべきデータがなくなった
ら、再びデータの先頭に戻って読出しを繰返えせばよい
The pulse density of the output of the AND gate 21 is:
Approximately, it is the product of the pulse density of the input signal and the pulse density of the coupling coefficient, and has the same function as the coupling coefficient of the analog system. This means that the longer the signal train is, the more
The more random the arrangement of and "0" is, the closer the function is to a product. Note that when the bit string of the coupling coefficient is shorter than the input bit string and there is no more data to be read, it is sufficient to return to the beginning of the data and repeat the reading.

【0035】1つの神経細胞ユニットは多入力であるの
で、前述した「入力信号と結合係数とのAND」も多数
あり、次にOR回路22によりこれらの論理和をとる。 入力は同期化されているので、例えば1番目のデータが
「101000」、2番目のデータが「010000」
の場合、両者のORをとると、「111000」となる
。これをm個の多入力分を同時に計算して出力とする。 即ち、図6に示すようになる。これは、アナログ計算に
おける和の計算及び非線形関数(シグモイド関数)の部
分に対応している。
Since one neuron unit has multiple inputs, there are many "ANDs of input signals and coupling coefficients" as described above, and then the OR circuit 22 performs a logical OR of these. The inputs are synchronized, so for example, the first data is "101000" and the second data is "010000".
In this case, the OR of the two results in "111000". The m multi-input components are simultaneously calculated and output. That is, it becomes as shown in FIG. This corresponds to the sum calculation and nonlinear function (sigmoid function) part in analog calculation.

【0036】パルス密度が低い場合、そのORをとった
もののパルス密度は、各々のパルス密度の和に近似的に
一致する。パルス密度が高くなるにつれ、OR回路22
の出力は段々飽和してくるので、パルス密度の和とは一
致せず、非線形性が出てくる。ORの場合、パルス密度
は1よりも大きくなることがなく、かつ、0より小さく
なることもなく、さらには、単調増加関数であり、シグ
モイド関数と近似的に同様となる。
When the pulse density is low, the ORed pulse density approximately matches the sum of the respective pulse densities. As the pulse density increases, the OR circuit 22
Since the output gradually becomes saturated, it does not match the sum of the pulse densities, and nonlinearity appears. In the case of OR, the pulse density is neither greater than 1 nor less than 0, and is a monotonically increasing function, approximately similar to a sigmoid function.

【0037】ところで、ニューラルネットワークの機能
を実用的なものとするためには、結合係数を、正値だけ
でなく負値もとれるようにすることが望ましい。結合係
数が正である結合を興奮性結合、負である結合を抑制性
結合と呼ぶ。アナログ回路では、抑制性結合の場合、増
幅器を用いて出力を反転させ、結合係数に相当する抵抗
値で他のニューロンへ結合させている。パルス密度は常
に正であるが、以下のa,b,cで示す3種類の何れか
の方法を用いれば、結合係数をパルス密度で表している
場合でも結合の興奮性と抑制性への対応が可能となる。
By the way, in order to make the function of the neural network practical, it is desirable that the coupling coefficient can take not only positive values but also negative values. A connection with a positive coupling coefficient is called an excitatory connection, and a connection with a negative coefficient is called an inhibitory connection. In analog circuits, in the case of inhibitory coupling, an amplifier is used to invert the output and couple it to another neuron with a resistance value corresponding to the coupling coefficient. Pulse density is always positive, but if you use one of the three methods shown below (a, b, c), even if the coupling coefficient is expressed by pulse density, it will be possible to deal with the excitatory and inhibitory properties of the coupling. becomes possible.

【0038】まず、aの方法として、各結合に対して興
奮性か抑制性かを予め設定しておき、興奮性結合グルー
プと抑制性結合グループとで別々に上述した論理和をと
る。又は、各入力に対して予め興奮性か抑制性かを設定
しておき、興奮性の入力グループと抑制性の入力グルー
プとで別々に論理和をとる。例えば、図7に示すように
入力段階では予め興奮性結合グループaと抑制性結合グ
ループbとにグループ分けしておき、各入力に対し結合
係数Ti,j を記憶したシフトレジスタ23a,23
bを設ければよい。入力信号と結合係数Ti,j のビ
ット列の論理積はANDゲート24a,24bによりと
られる。 そして、グループa,b別にORゲート25a,25b
により論理和がとられる。
First, as method a, it is set in advance whether each bond is excitatory or inhibitory, and the above-mentioned logical OR is performed separately for the excitatory bond group and the inhibitory bond group. Alternatively, whether each input is excitatory or inhibitory is set in advance, and the excitatory input group and the inhibitory input group are logically ORed separately. For example, as shown in FIG. 7, at the input stage, groups are divided in advance into excitatory connection group a and inhibitory connection group b, and shift registers 23a and 23 that store connection coefficients Ti,j for each input are used.
b may be provided. The input signal and the bit string of the coupling coefficient Ti,j are ANDed by AND gates 24a and 24b. Then, OR gates 25a and 25b are set for each group a and b.
The logical sum is calculated by

【0039】ここで、このようにして得られた興奮性グ
ループaのOR結果(ORゲート25a出力)と抑制性
グループbのOR結果(ORゲート25b出力)とを、
ゲート回路26により以下のように組合せることにより
、ニューロンからの出力値を算出する。まず、両ORゲ
ート25a,25bのOR結果が不一致であれば、興奮
性グループaのORゲート25aからの出力をニューロ
ン、即ちゲート回路26からの出力値とする。つまり、
興奮性グループaのOR結果が「0」で抑制性グループ
bのOR結果が「1」であれば「0」を出力し、興奮性
グループaのOR結果が「1」で抑制性グループbのO
R結果が「0」であれば「1」を出力する。また、両O
Rゲート25a,25bのOR結果が一致した場合には
、別に用意された別入力信号をそのまま出力する。
Here, the OR result of excitatory group a (OR gate 25a output) obtained in this way and the OR result of inhibitory group b (OR gate 25b output) are expressed as follows.
The gate circuit 26 performs the following combination to calculate the output value from the neuron. First, if the OR results of both OR gates 25a and 25b do not match, the output from the OR gate 25a of excitatory group a is taken as the output value from the neuron, that is, the gate circuit 26. In other words,
If the OR result of excitatory group a is "0" and the OR result of inhibitory group b is "1", output "0", and if the OR result of excitatory group a is "1" and the OR result of inhibitory group b is O
If the R result is "0", output "1". Also, both O
If the OR results of the R gates 25a and 25b match, a separately prepared separate input signal is output as is.

【0040】bの方法として、図8に示すように、結合
毎に、その結合が興奮性であるか抑制性であるかを表す
メモリ27を持ち、その内容によって結合の興奮性、抑
制性をゲート回路28により任意に設定できるようにす
る。このメモリ27の内容によって決まる興奮性の結合
のグループと抑制性の結合のグループとでORゲート2
9a,29bにより別々に論理和をとる。このようにし
て得られたグループ別の論理和結果を、図7の場合と同
様にゲート回路26による処理を経てニューロンからの
出力とする。
As method b, as shown in FIG. 8, each connection has a memory 27 indicating whether the connection is excitatory or inhibitory, and the excitatory or inhibitory characteristics of the connection are determined depending on the contents of the memory 27. The gate circuit 28 allows for arbitrary setting. An OR gate 2 is formed between the excitatory connection group and the inhibitory connection group determined by the contents of this memory 27.
A logical sum is calculated separately using 9a and 29b. The logical OR results for each group thus obtained are processed by the gate circuit 26 and outputted from the neuron as in the case of FIG.

【0041】cの方法として、結合毎に興奮性の結合係
数と抑制性の結合係数とを持たせ、図9に示すように、
両者を各々メモリ30,31上に置く。これは、結合係
数を正の量と負の量との和の形に分解して表したことに
相当する。そして、全ての入力信号とメモリ30に記憶
された興奮性の結合係数との論理積をANDゲート32
によりとり、これらのANDゲート32の出力同士の論
理和をORゲート33aによりとる。一方、全ての入力
信号とメモリ31に記憶された抑制性の結合係数との論
理積をANDゲート34によりとり、これらのANDゲ
ート34の出力同士の論理和をORゲート33bにより
とる。このようにして得られたグループ別の論理和結果
を、図7の場合と同様にゲート回路26により処理を経
てニューロンからの出力とする。
As method c, each connection has an excitatory coupling coefficient and an inhibitory coupling coefficient, as shown in FIG.
Both are placed on memories 30 and 31, respectively. This corresponds to decomposing and expressing the coupling coefficient into the sum of a positive quantity and a negative quantity. Then, the AND gate 32 performs a logical product of all the input signals and the excitatory coupling coefficients stored in the memory 30.
The outputs of these AND gates 32 are logically summed by an OR gate 33a. On the other hand, the AND gate 34 calculates the logical products of all input signals and the inhibitory coupling coefficients stored in the memory 31, and the logical sum of the outputs of these AND gates 34 is calculated by the OR gate 33b. The logical OR results for each group thus obtained are processed by the gate circuit 26 and output from the neuron as in the case of FIG.

【0042】何れにしても、本発明が適用されるニュー
ラルネットワークは、このような出力機能を持つニュー
ロンを組合せて、図18に示すような階層型ネットワー
クとして構成したものである。ネットワーク全体を同期
させておけば、各層とも、上述したような機能で並列的
に演算処理することが可能となる。
In any case, the neural network to which the present invention is applied is configured as a hierarchical network as shown in FIG. 18 by combining neurons having such output functions. If the entire network is synchronized, each layer can perform calculations in parallel using the functions described above.

【0043】しかして、本実施例の要旨とする学習方法
について説明する。なお、本例では、興奮性結合と抑制
性結合とに対する対応方式としては、図9方式のように
、結合毎に興奮性の結合係数と抑制性の結合係数とをメ
モリ30,31に持つ方式によるものとする。
[0043]The learning method, which is the gist of this embodiment, will now be explained. In this example, as a method for dealing with excitatory connections and inhibitory connections, there is a method in which excitatory connection coefficients and inhibitory connection coefficients are stored in the memories 30 and 31 for each connection, as shown in the method shown in FIG. It shall be based on the following.

【0044】本実施例の学習方法としては、まず、各ニ
ューロンに対する誤差信号を求め、次いで、この誤差信
号を用いて結合係数値を変化させることにより学習を行
う。誤差信号は、まず、最終層のニューロンについて求
め、次に今求めた最終層の誤差信号を使ってその1つ前
の層のニューロンについて求め、次に今求めた層の誤差
信号を使ってその1つ前の層のニューロンについて求め
る、という具合に、最終層から前の方に層を順に遡って
求めていく。誤差は、負の値も取り得るが、本実施例の
場合、信号はパルス密度で表しているため、1つの信号
で正負両方の値を取り得る量を表現することはできない
。従って、ここでは正成分を表す信号と負成分を表す信
号との2種類の信号を用いて誤差信号を表現するものと
する。
The learning method of this embodiment is to first obtain an error signal for each neuron, and then perform learning by changing the coupling coefficient value using this error signal. The error signal is first calculated for the neurons in the final layer, then calculated for the neurons in the previous layer using the error signal of the final layer just calculated, and then calculated using the error signal of the layer just calculated. Find the neurons in the previous layer, and so on, going backwards through the layers, starting from the last layer. The error can also take a negative value, but in the case of this embodiment, the signal is expressed in terms of pulse density, so it is not possible to express a quantity that can take both positive and negative values with one signal. Therefore, here, the error signal is expressed using two types of signals: a signal representing a positive component and a signal representing a negative component.

【0045】■  最終層(出力層)における誤差信号
最終層(仮に、第N層を最終層とする)におけるニュー
ロンjの誤差信号を、次のδ(+)j,N ,δ(−)
j,N とする。即ち、j番目のニューロンにおける出
力信号をyj と表し、教師信号をdj で表すものと
すると、正成分を表す誤差信号δ(+)j,N は、
■ Error signal in the final layer (output layer) The error signal of neuron j in the final layer (assuming the Nth layer is the final layer) is expressed as the following δ(+)j, N, δ(-)
Let j, N. That is, if the output signal of the j-th neuron is expressed as yj and the teacher signal is expressed as dj, then the error signal δ(+)j,N representing the positive component is

【数42】 とし、負成分を表す誤差信号δ(−)j,N は、[Math. 42] The error signal δ(-)j,N representing the negative component is

【数
43】 とする。次に、前述したビット列により信号を伝達する
方式のニューラルネットワーク構造において、これらの
誤差信号を算出する方法について説明する。この場合、
上述した式中に現れる掛け算をAND処理し、1からの
引き算をNOT処理に置き換えることにより、上述した
式をニューラルネットワーク上で計算できる。即ち、y
j(1−dj ) をyj ∩(〜dj )で、dj(
1−yj )をdj ∩(〜yj )で置き換える。こ
こで、AND処理を∩で、NOT処理を〜という記号で
表した。この論理式による計算は、図10に示した排他
的ORゲート35とANDゲート36,37とを組合せ
たゲート回路により実現できる。
[Formula 43]. Next, a method for calculating these error signals in the above-described neural network structure that transmits signals using bit strings will be described. in this case,
The above equation can be calculated on a neural network by performing AND processing on the multiplications appearing in the above equation and replacing subtraction from 1 with NOT processing. That is, y
j(1-dj) by yj ∩(~dj), dj(
1-yj ) by dj ∩(~yj ). Here, AND processing is represented by ∩, and NOT processing is represented by ~. Calculation based on this logical formula can be realized by a gate circuit that is a combination of exclusive OR gate 35 and AND gates 36 and 37 shown in FIG.

【0046】■  中間層における誤差信号本実施例で
は、第L番目の層のj番目のニューロンにおける誤差信
号δ(+)j,L,δ(−)j,L  を次式より求め
る。
(1) Error Signal in Intermediate Layer In this embodiment, the error signal δ(+)j,L, δ(-)j,L in the j-th neuron of the L-th layer is obtained from the following equation.

【0047】[0047]

【数44】[Math. 44]

【0048】ここに、kについての論理和Σは、第L番
目の層の1つ先の(L+1)番目の層にあり、ニューロ
ンjと結合している全てのニューロンについて和をとる
ことを意味する。また、T(+)j,k,L+1 は第
L番目の層の第j番目のニューロンとその1つ先の(L
+1)番目の層中の第k番目のニューロンとの間の興奮
性の結合係数であり、T(−)j,k,L+1  は第
L番目の層の第j番目のニューロンとその1つ先の(L
+1)番目の層中の第k番目のニューロンとの間の抑制
性の結合係数である。
Here, the logical sum Σ for k means to calculate the sum of all neurons that are in the (L+1)th layer one layer ahead of the Lth layer and are connected to neuron j. do. Also, T(+)j,k,L+1 is the j-th neuron of the L-th layer and the one ahead (L
+1) is the excitatory coupling coefficient between the kth neuron in the Lth layer and the excitatory coupling coefficient between the jth neuron in the Lth layer and the of (L
+1) is the inhibitory coupling coefficient with the kth neuron in the kth layer.

【0049】また、Z(+)j,k,L+1 ,Z(−
)j,k,L+1 は、次式により求める。
[0049] Also, Z(+)j, k, L+1, Z(-
)j, k, L+1 are determined by the following formula.

【数45】[Math. 45]

【0050】ここで、yn,L は第L番目の層の第n
番目のニューロンからの出力であり、T(+)n,k,
L+1  は第L番目の層の第n番目のニューロンと第
(L+1)番目の層の第k番目のニューロンとの間の興
奮性の結合係数であり、T(−)n,k,L+1  は
第L番目の層の第n番目のニューロンと第(L+1)番
目の層の第k番目のニューロンとの間の抑制性の結合係
数である。また、nについての論理積Πは第(L+1)
番目の層の第k番目のニューロンと結合している第L番
目の層のニューロン中の第j番目のニューロン以外の全
てのニューロンnについて積をとることを意味する。
Here, yn,L is the nth layer of the Lth layer.
is the output from the th neuron, T(+)n,k,
L+1 is the excitatory coupling coefficient between the nth neuron of the Lth layer and the kth neuron of the (L+1)th layer, and T(-)n,k,L+1 is the excitatory coupling coefficient between the nth neuron of the Lth layer and the kth neuron of the (L+1)th layer. It is the inhibitory coupling coefficient between the nth neuron of the Lth layer and the kth neuron of the (L+1)th layer. Also, the logical product Π for n is the (L+1)th
This means taking the product for all neurons n other than the j-th neuron among the neurons of the L-th layer that are connected to the k-th neuron of the L-th layer.

【0051】次に、前述したビット列により信号を伝達
する方式のニューラルネットワーク構造において、上記
の学習演算を実現する方法について説明する。この場合
、上述した式中に現れる掛け算をAND処理、足し算を
OR処理、1からの引き算をNOT処理に置き換えるこ
とにより、ニューラルネットワーク上で計算できる。 この処理操作を図1及び図11の回路を参照して説明す
る。なお、図1の回路と図11の回路とは■■部分で各
々接続されているものとする。
Next, a method for realizing the above-mentioned learning operation in the above-described neural network structure in which signals are transmitted using bit strings will be explained. In this case, calculation can be performed on the neural network by replacing multiplication in the above equation with AND processing, addition with OR processing, and subtraction from 1 with NOT processing. This processing operation will be explained with reference to the circuits of FIGS. 1 and 11. It is assumed that the circuit in FIG. 1 and the circuit in FIG. 11 are connected at the portions marked with ■■.

【0052】まず、第(L+1)番目の層の第k番目の
ニューロンが第L番目の層の第i番目のニューロンから
受け取る入力信号をyi,L、 その入力に関するメモ
リ30に格納の興奮性結合係数をT(+)i,k,L+
1 、 メモリ31に格納の抑制性結合係数をT(−)
i,k,L+1  と表すものとする。この時、第L番
目の層の第j番目のニューロンでの誤差信号δ(+)j
,L ,δ(−)j,L は次のように求める。まず、
第(L+1)番目の層の第k番目のニューロンにおいて
、以下の処理により、後で定義する誤差信号算出用信号
Δ(+)j,k,L+1,Δ(−)j,k,L+1 を
求める。i≠jである全てのiについて入力信号yi,
L と興奮性結合係数T(+)i,k,L+1との論理
積をANDゲート32によりとり、これらのANDゲー
ト32の出力の論理和をORゲート38によりとり、O
Rゲート38の出力をNOTゲート39により反転させ
る。この否定出力をZ(+)j,k,L+1 とする。 同様に、i≠jなる全てのiについて入力信号yi,L
 と抑制性結合係数T(−)i,k,L+1  との論
理積をANDゲート33によりとり、これらのANDゲ
ート33の出力の論理和をORゲート40によりとり、
ORゲート40の出力をNOTゲート41で反転させる
。この否定出力をZ(−)j,k,L+1 とする。
First, the input signal that the k-th neuron of the (L+1)-th layer receives from the i-th neuron of the L-th layer is yi,L, and the excitatory connections stored in the memory 30 regarding the input are The coefficients are T(+)i,k,L+
1. The inhibitory coupling coefficient stored in the memory 31 is T(-)
Let it be expressed as i, k, L+1. At this time, the error signal δ(+)j at the j-th neuron of the L-th layer
, L, δ(-)j, L are determined as follows. first,
In the kth neuron of the (L+1)th layer, the error signal calculation signal Δ(+)j,k,L+1,Δ(-)j,k,L+1, which will be defined later, is obtained by the following processing. . For all i such that i≠j, the input signal yi,
The logical product of L and the excitatory coupling coefficient T(+)i,k,L+1 is taken by an AND gate 32, the logical sum of the outputs of these AND gates 32 is taken by an OR gate 38, and O
The output of R gate 38 is inverted by NOT gate 39. Let this negative output be Z(+)j,k,L+1. Similarly, for all i such that i≠j, the input signal yi,L
and the inhibitory coupling coefficient T(-)i,k,L+1 by an AND gate 33, and the outputs of these AND gates 33 are logically summed by an OR gate 40,
The output of the OR gate 40 is inverted by the NOT gate 41. Let this negative output be Z(-)j,k,L+1.

【0053】次に、NOTゲート39の否定出力Z(+
)j,k,L+1と結合係数T(+)j,k,L+1 
との論理積をANDゲート42によりとり、このAND
ゲート42の出力と■接続部分から入力される誤差信号
δ(+)k,L+1  との論理積をANDゲート43
によりとる。同様に、NOTゲート41の否定出力Z(
−)j,k,L+1 と結合係数T(−)j,k,L+
1  との論理積をANDゲート44によりとり、この
ANDゲート44の出力と■接続部分から入力される誤
差信号δ(−)k,L+1  との論理積をANDゲー
ト48によりとる。これらのANDゲート43,48の
出力の論理和をORゲート46によりとる。このような
処理により得られた信号Δ(+)j,k,L+1  は
、1つ前の層の第j番目のニューロンへ送信する。この
Δ(+)j,k,L+1  を式で表すと、次のように
なる。
Next, the NOT output Z(+
)j, k, L+1 and coupling coefficient T(+)j, k, L+1
The AND gate 42 performs a logical product with
The output of the gate 42 is ANDed with the error signal δ(+)k,L+1 input from the connection part and the AND gate 43
Depends on it. Similarly, the negative output Z(
-)j,k,L+1 and coupling coefficient T(-)j,k,L+
1 by an AND gate 44, and an AND gate 48 performs a logical product between the output of the AND gate 44 and the error signal δ(-)k,L+1 inputted from the connecting portion. The outputs of these AND gates 43 and 48 are logically summed by an OR gate 46. The signal Δ(+)j,k,L+1 obtained by such processing is transmitted to the jth neuron of the previous layer. This Δ(+)j,k,L+1 can be expressed as follows.

【0054】[0054]

【数46】 ただし、この式ではANDを∩、ORを∪という記号で
表した。
[Formula 46] However, in this equation, AND is represented by the symbol ∩, and OR is represented by the symbol ∪.

【0055】同様に、ANDゲート42の出力と■接続
部分から入力される誤差信号δ(−)k,L+1  と
の論理積をANDゲート47によりとる。また、AND
ゲート44の出力と■接続部分から入力される誤差信号
δ(+)k,L+1  との論理積をANDゲート45
によりとる。これらのANDゲート47,45の出力の
論理和をORゲート49によりとる。このような処理に
より得られた値Δ(−)j,k,L+1  は、1つ前
の層の第j番目のニューロンへ送信する。Δ(−)j,
k,L+1  を式で表すと、次のようになる。
Similarly, the AND gate 47 calculates the logical product of the output of the AND gate 42 and the error signal δ(-)k,L+1 inputted from the connection part (2). Also, AND
The output of the gate 44 is ANDed with the error signal δ(+)k,L+1 input from the connection part and the AND gate 45
Depends on it. The outputs of these AND gates 47 and 45 are logically summed by an OR gate 49. The value Δ(-)j,k,L+1 obtained through such processing is transmitted to the j-th neuron in the previous layer. Δ(-)j,
When k, L+1 is expressed as an equation, it is as follows.

【0056】[0056]

【数47】[Math. 47]

【0057】次に、第L番目の層の第j番目のニューロ
ンにおいて、第(L+1)番目の層の全てのニューロン
から受取ったΔ(+)j,k,L+1  について、図
7に示すORゲート群50により論理和をとる。同様に
、第L番目の層の第j番目のニューロンにおいて、第(
L+1)番目の層の全てのニューロンから受取ったΔ(
−)j,k,L+1について、図11に示すORゲート
群51により論理和をとる。これらのORゲート群50
,51の出力を各々1/2分周回路52,53を通して
パルス密度を半分にして、求める誤差信号δ(+)j,
L ,δ(−)j,L とする。即ち、
Next, in the j-th neuron of the L-th layer, the OR gate shown in FIG. A logical OR is performed using the group 50. Similarly, in the jth neuron of the Lth layer, the
Δ(
-) For j, k, and L+1, perform a logical sum using the OR gate group 51 shown in FIG. 50 of these OR gates
, 51 through 1/2 frequency divider circuits 52 and 53, respectively, to halve the pulse density and obtain the error signal δ(+)j,
Let L, δ(-)j, L. That is,

【0058】[0058]

【数48】 となる。ここに、kについての∪は、全てのk、即ち第
(L+1)番目の層の全てのニューロンについてORを
とることを意味する。また、1/2分周回路52,53
は入力が1の時に確率1/2で1を出力させるための回
路である。これは、乱数の発生源としてトランジスタの
熱雑音を用い、これとある電圧値とをコンパレータによ
り比較することにより容易に実現できる。別の手段とし
て、パルスを1つ置きに消去する方式でもよく、この場
合には、通常市販されている回路を用い、カウンタの出
力を論理演算する構成や、フリップフロップなどによっ
て容易に実現できる。
[Formula 48]. Here, ∪ for k means ORing all k, ie, all neurons of the (L+1)th layer. In addition, 1/2 frequency dividing circuits 52, 53
is a circuit for outputting 1 with probability 1/2 when the input is 1. This can be easily achieved by using the thermal noise of the transistor as a random number generation source and comparing this with a certain voltage value using a comparator. Alternatively, a method of erasing every other pulse may be used, and in this case, this can be easily realized using a commonly available circuit, such as a configuration that performs logical operations on the output of a counter, or a flip-flop.

【0059】■  誤差信号を用いた結合係数の変更上
述した■■の演算処理により求めた誤差信号δ(+)j
,L ,δ(−)j,L を用いて、以下のようにして
、各結合係数を変化させる。まず、
■ Change of coupling coefficient using error signal Error signal δ(+)j obtained by the calculation process of ■■ mentioned above
, L , δ(-)j, L , each coupling coefficient is changed as follows. first,

【数49】 によりΔT(+)i,j,L  を求める。また、[Math. 49] Find ΔT(+)i,j,L by: Also,

【数
50】 によりΔT(−)i,j,L  を求める。ここに、η
は1より小さい任意の正実数であり、yi,L−1 は
第(L−1)番目の層の第i番目のニューロンからの出
力であり、Z(+)i,j,L ,Z(−)i,j,L
 は次式により求まる量である。
∆T(-)i, j, L is determined by Equation 50. Here, η
is any positive real number smaller than 1, yi,L-1 is the output from the i-th neuron of the (L-1)th layer, and Z(+)i,j,L,Z( -) i, j, L
is the quantity determined by the following equation.

【0060】[0060]

【数51】 ここで、ym,L−1 は第(L−1)番目の層の第m
番目のニューロンからの出力である。T(+)m,j,
L  は第(L−1)番目の層の第m番目のニューロン
と第L番目の層の第j番目のニューロンとの間の興奮性
の結合係数である。同様に、T(−)m,j,L  は
第(L−1)番目の層の第m番目のニューロンと第L番
目の層の第j番目のニューロンとの間の抑制性の結合係
数である。また、mについての積Πは、第L番目の層の
第j番目のニューロンと結合している第(L−1)番目
の層のニューロンの内の第i番目のニューロン以外の全
てのニューロンmについて積をとることを意味する。
[Formula 51] Here, ym,L-1 is the m-th layer of the (L-1)th layer.
This is the output from the th neuron. T(+)m,j,
L is the excitatory coupling coefficient between the mth neuron of the (L-1)th layer and the jth neuron of the Lth layer. Similarly, T(-)m,j,L is the inhibitory coupling coefficient between the m-th neuron of the (L-1)th layer and the j-th neuron of the L-th layer. be. Also, the product Π for m is the sum of all neurons m other than the i-th neuron among the neurons in the (L-1)th layer that are connected to the j-th neuron in the L-th layer. means to take the product of

【0061】こうして算出の結合係数ΔT(+)i,j
,L ,ΔT(−)i,j,L を用いて、T(+)i
,j,L+ΔT(+)i,j,L  を新しいT(+)
i,j,L とし、T(−)i,j,L +ΔT(−)
i,j,L  を新しいT(−)i,j,L  とする
The coupling coefficient ΔT(+)i,j thus calculated
, L , ΔT(-)i, j, L , T(+)i
,j,L+ΔT(+)i,j,L as new T(+)
i, j, L, T (-) i, j, L + ΔT (-)
Let i,j,L be new T(-)i,j,L.

【0062】次に、前述したビット列で信号を伝達する
方式のニューラルネットワーク上でこのような演算処理
を実現する方法について説明する。この場合、上述した
式中に現れる掛け算をANDをとる操作で、足し算をO
Rをとる操作で、引き算をNOTとANDをとる操作に
置き換えることにより、上式をニューラルネットワーク
上で計算できる。この処理を図1を参照して説明する。
Next, a method for realizing such arithmetic processing on the neural network of the above-mentioned method of transmitting signals using bit strings will be explained. In this case, by ANDing the multiplications that appear in the above formula, the addition can be reduced to O
By replacing subtraction with NOT and AND in the operation of taking R, the above equation can be calculated on a neural network. This process will be explained with reference to FIG.

【0063】今、変化させようとする結合係数が、第L
番目の層の第j番目のニューロンと第(L−1)番目の
層の第i番目のニューロンとの間の結合係数であるとす
る。
Now, the coupling coefficient to be changed is Lth
Let it be the coupling coefficient between the j-th neuron of the (L-1)th layer and the i-th neuron of the (L-1)th layer.

【0064】まず、m≠iである全てのmについて、入
力信号ym,L−1 とメモリ30に記憶された結合係
数T(+)m,j,L  との論理積をANDゲート3
2によりとり、それらの論理和をORゲート38でとり
、NOTゲート39で否定する。その値をZ(+)i,
j,L  とする。同様に、m≠iである全てのmにつ
いて、入力信号ym,L−1 とメモリ31に記憶され
た結合係数T(−)m,j,L  との論理積をAND
ゲート33によりとり、それらの論理和をORゲート4
0でとり、NOTゲート41で否定する。 その値をZ(−)i,j,L とする。次に、否定出力
Z(+)i,j,L と入力yi,L−1 との論理積
をANDゲート54でとり、このANDゲート54出力
と接続部■から与えられる誤差信号δ(−)j,L+1
  との論理積をANDゲート55でとる。また、AN
Dゲート54の出力と接続部■から与えられる誤差信号
δ(+)j,L+1  との論理積をANDゲートで5
9でとる。同様に、否定出力Z(−)i,j,L と入
力yi,L−1  との論理積をANDゲート56でと
り、このANDゲート56出力と接続部■から与えられ
る誤差信号δ(−)j,L+1  との論理積をAND
ゲート57でとる。
First, for all m where m≠i, the AND gate 3 calculates the logical product of the input signal ym,L-1 and the coupling coefficient T(+)m,j,L stored in the memory 30.
2, their logical sum is taken by an OR gate 38, and it is negated by a NOT gate 39. The value is Z(+)i,
Let j, L. Similarly, for all m where m≠i, the AND of the input signal ym,L-1 and the coupling coefficient T(-)m,j,L stored in the memory 31 is ANDed.
gate 33 and their logical sum is OR gate 4.
0 is taken, and NOT gate 41 is used to negate. Let the value be Z(-)i,j,L. Next, the AND gate 54 takes the AND of the negative output Z(+)i, j, L and the input yi, L-1, and the error signal δ(-) given from the AND gate 54 output and the connection part j, L+1
The AND gate 55 performs a logical product with the following. Also, AN
The AND gate calculates the logical product of the output of the D gate 54 and the error signal δ(+)j,L+1 given from the connection point ■.
Take it at 9. Similarly, the AND gate 56 takes the AND of the negative output Z(-)i, j, L and the input yi, L-1, and the error signal δ(-) given from the AND gate 56 output and the connection part AND the logical product with j, L+1
Take it at gate 57.

【0065】また、ANDゲート56の出力と接続部■
から与えられる誤差信号δ(+)j,L+1との論理積
をANDゲート60でとる。
In addition, the output of the AND gate 56 and the connection section ■
An AND gate 60 performs a logical product with the error signal δ(+)j,L+1 given from δ(+)j,L+1.

【0066】次に、パルス密度変換回路61によりAN
Dゲート55の出力のパルス密度を減らした後、T(+
)i,j,L  との論理和をORゲート62によりと
る。また、パルス密度変換回路58によりANDゲート
59の出力のパルス密度を減らした後、NOTゲート6
3により論理否定をとる。ここで、パルス密度変換回路
によりパルス密度を減らすことは、結合係数の変化量を
算出する際の学習定数ηを掛ける操作に相当する。さら
に、このNOTゲート63の出力とORゲート62の出
力との論理積をANDゲート64によりとり、新しい結
合係数T(+)i,j,L とする。この処理の結果、
得られる新しい結合係数T(+)i,j,L  を式で
表すと、次のようになる。
Next, the pulse density conversion circuit 61 converts the AN
After reducing the pulse density of the output of the D gate 55, T(+
) i, j, and L using the OR gate 62. Further, after reducing the pulse density of the output of the AND gate 59 by the pulse density conversion circuit 58, the NOT gate 6
3 takes logical negation. Here, reducing the pulse density by the pulse density conversion circuit corresponds to an operation of multiplying by a learning constant η when calculating the amount of change in the coupling coefficient. Further, the output of the NOT gate 63 and the output of the OR gate 62 are ANDed by an AND gate 64 to obtain a new coupling coefficient T(+)i,j,L. As a result of this process,
The resulting new coupling coefficient T(+)i,j,L can be expressed as follows.

【0067】[0067]

【数52】 ここに、ORを∪という記号で、ANDを∩という記号
で、NOTを〜という記号で各々表した。また、η(X
)をXのパルス密度を減らす操作を表すものとすると、
[Equation 52] Here, OR is represented by the symbol ∪, AND is represented by the symbol ∩, and NOT is represented by the symbol ~. Also, η(X
) represents the operation of reducing the pulse density of X, then

【数53】 である。[Math. 53] It is.

【0068】同様に、パルス密度変換回路65によりA
NDゲート60の出力のパルス密度を減らした後、T(
−)i,j,L  との論理和をORゲート67により
とる。また、パルス密度変換回路66によりANDゲー
ト57の出力のパルス密度を減らした後、NOTゲート
68により論理否定をとる。ここで、パルス密度変換回
路によりパルス密度を減らすことは、結合係数の変化量
を算出する際の学習定数ηを掛ける操作に相当する。さ
らに、このNOTゲート68の出力とORゲート67の
出力との論理積をANDゲート69によりとり、新しい
結合係数T(−)i,j,L  とする。この処理の結
果、得られる新しい結合係数T(−)i,j,L  を
式で表すと、次のようになる。
Similarly, the pulse density conversion circuit 65 converts A
After reducing the pulse density of the output of the ND gate 60, T(
-) The OR gate 67 calculates the logical sum with i, j, and L. Further, after the pulse density of the output of the AND gate 57 is reduced by the pulse density conversion circuit 66, a logical negation is performed by the NOT gate 68. Here, reducing the pulse density by the pulse density conversion circuit corresponds to an operation of multiplying by a learning constant η when calculating the amount of change in the coupling coefficient. Further, the output of the NOT gate 68 and the output of the OR gate 67 are ANDed by an AND gate 69 to obtain a new coupling coefficient T(-)i,j,L. The new coupling coefficient T(-)i,j,L obtained as a result of this process can be expressed as follows.

【0069】[0069]

【数54】[Math. 54]

【0070】ここに、Here,

【数55】 である。[Math. 55] It is.

【0071】パルス密度を減らすには、パルスを間引け
ばよい。例えば、ビット列を1つ置きに消去すれば、パ
ルス密度が半分となる。このような間引き操作は、通常
市販されている回路を用いて、カウンタの出力を論理演
算することや、フリップフロップなどによって容易に実
現できる。カウンタを用いた場合、パルス密度を減らす
割合を任意かつ容易に設定できるので、ネットワーク回
路の特性を制御することが可能となる。
To reduce the pulse density, pulses may be thinned out. For example, if every other bit string is erased, the pulse density is halved. Such a thinning operation can be easily realized using a commercially available circuit, by performing a logical operation on the output of a counter, or by using a flip-flop or the like. When a counter is used, the rate at which the pulse density is reduced can be arbitrarily and easily set, making it possible to control the characteristics of the network circuit.

【0072】なお、上述した結合係数の変更は、ネット
ワーク内の全ての結合係数について実施するのが望まし
いが、必ずしもこれに限定されず、場合によっては一部
の結合係数については変更処理を実施しない場合もある
[0072] Although it is desirable that the above-described modification of the coupling coefficients be carried out for all coupling coefficients in the network, it is not necessarily limited to this, and in some cases, the modification process may not be carried out for some coupling coefficients. In some cases.

【0073】また、図1に示したORゲート33a,3
3bに続く部分を図12に示すが、これは図9等に示し
たゲート回路26である。即ち、フォワードプロセスに
おけるニューロンからの出力を生成する部分である。
Furthermore, the OR gates 33a and 3 shown in FIG.
The part following 3b is shown in FIG. 12, which is the gate circuit 26 shown in FIG. 9, etc. That is, it is the part that generates the output from the neuron in the forward process.

【0074】ついで、このような本実施例方式による学
習例を具体例1,2として挙げる。まず、具体例1の条
件としては、層の数は4で、ニューロンの数は第1層が
1、第2層が9、第3層が9、第4層が1、入力信号値
は0.2、教師信号値は0.8として、1000ステッ
プの学習後、入力信号0.2に対する出力の採取を10
00回繰返して出力値の分布を見たところ、出力信号は
0.8を最頻値とする分布を持つ結果が得られ、正しく
学習できたものである。
[0074] Next, examples of learning using the method of this embodiment will be given as specific examples 1 and 2. First, the conditions for specific example 1 are that the number of layers is 4, the number of neurons is 1 in the first layer, 9 in the second layer, 9 in the third layer, 1 in the fourth layer, and the input signal value is 0. .2, the teacher signal value is 0.8, and after 1000 steps of learning, the output is collected for an input signal of 0.2 by 10
When the distribution of the output values was observed after repeating the process 00 times, it was found that the output signal had a distribution with the mode value being 0.8, indicating that learning was performed correctly.

【0075】また、具体例2の条件としては、層の数は
3で、ニューロンの数は第1層が2、第2層が3、第3
層が1、入力信号値が(1.0,0.0)のとき教師信
号値が0.0、入力信号値が(0.0,1.0)のとき
教師信号値が1.0として、1000ステップの学習後
、入力信号値(1.0,0.0)の組に対する出力の採
取を1000回繰返して出力値の分布を見たところ、出
力信号は0.0を最頻値とする鋭い分布が得られ、また
、入力信号値(0.0,1.0)の組に対する出力の採
取を1000回繰返して出力値の分布を見たところ、出
力信号は1.0を最頻値とする鋭い分布が得られ、正し
く学習できたものである。
Furthermore, the conditions for specific example 2 are that the number of layers is 3, the number of neurons is 2 in the first layer, 3 in the second layer, and 3 in the third layer.
When the layer is 1 and the input signal value is (1.0, 0.0), the teacher signal value is 0.0, and when the input signal value is (0.0, 1.0), the teacher signal value is 1.0. , after 1000 steps of learning, we repeated sampling of the output for the set of input signal values (1.0, 0.0) 1000 times and looked at the distribution of the output values, and found that the output signal has 0.0 as the mode. A sharp distribution with a sharp distribution of A sharp distribution of values was obtained, and the learning was successful.

【0076】つづいて、本発明の第二の実施例を図13
ないし図16を参照して説明する。本実施例は、前記実
施例の学習能力を一層高めるようにしたものである。ま
ず、本実施例が適用される前記実施例のようなパルス密
度型階層ニューラルネットワークにおいては、学習過程
において、興奮性結合係数(正の結合係数)と抑制性結
合係数(負の結合係数)との両者を含む論理演算を実行
しているが、これらが意図した効果を発揮するためには
、AND演算がパルス密度の積を作る作用を示し、OR
演算がパルス密度の和を作る作用を示す必要がある。 そのためには、正の結合係数のビット列のビット配置と
負の結合係数のビット列のビット配置とが相関を持たな
いようにする必要がある。実際、パルス密度がaである
ビット列Aとパルス密度がbであるビット列Bとのビッ
ト配置が互いに無関係であれば(即ち、ビット列A中の
ビットがオンになっている位置とビット列B中のビット
がオンになっている位置とが無関係であれば)、A∪B
を何回も実行した時、その結果のパルス密度は平均とし
てaとbとの和に近い値となり、A∩Bを何回も実行し
た時、その結果のパルス密度は平均としてaとbとの積
に近い値となる。
Next, a second embodiment of the present invention is shown in FIG.
This will be explained with reference to FIGS. This embodiment further improves the learning ability of the previous embodiment. First, in a pulse density hierarchical neural network like the above embodiment to which this embodiment is applied, in the learning process, the excitatory coupling coefficient (positive coupling coefficient) and the inhibitory coupling coefficient (negative coupling coefficient) are determined. However, in order for these to have the intended effect, the AND operation has the effect of creating a product of pulse densities, and the OR
It is necessary to show that the operation creates the sum of pulse densities. For this purpose, it is necessary to ensure that the bit arrangement of the bit string with a positive coupling coefficient and the bit arrangement of the bit string with a negative coupling coefficient have no correlation. In fact, if the bit arrangements of bit string A with pulse density a and bit string B with pulse density b are independent of each other (i.e., the position where the bit in bit string A is turned on and the bit in bit string B is unrelated to the position where is turned on), A∪B
When A∩B is executed many times, the resulting pulse density will be on average close to the sum of a and b, and when A∩B is executed many times, the resulting pulse density will be on average close to the sum of a and b. The value is close to the product of

【0077】しかし、ビット列A,B両者のビット配置
に相関があると、例えばA=「01010101」とB
=「00010001」のように両者のオン・ビットの
位置が重なる傾向にある場合は、A∪Bのパルス密度は
aとbの和ではなくaに近い値となり、A∩Bのパルス
密度はaとbとの積ではなくbに近い値となってしまう
。従って、正の結合係数のビット列と負の結合係数のビ
ット列の間のオン・ビット位置の相関が大きくなると、
学習能力が低下してしまう。
However, if there is a correlation between the bit arrangements of both bit strings A and B, for example, A=“01010101” and B
= "00010001" where the positions of the on bits of both tend to overlap, the pulse density of A∪B is not the sum of a and b but a value close to a, and the pulse density of A∩B is a The value is not the product of and b, but a value close to b. Therefore, when the correlation of the on bit positions between the bit string with a positive coupling coefficient and the bit string with a negative coupling coefficient increases,
Learning ability decreases.

【0078】ここに、前述したように各結合毎に正と負
の2種類の結合係数が存在する場合、正の結合係数のビ
ット列のビット配置と負の結合係数のビット列のビット
配置とが相関を持つ方向に学習が進んでしまうことはし
ばしばあり得る。例えば、学習が進むにつれて、正の結
合係数のビット列のオン・ビット位置と負の結合係数の
ビット列のオン・ビット位置とが一致している結合が増
えたり、或いは、逆に、正の結合係数のビット列のオン
・ビット位置と負の結合係数のビット列のオフ・ビット
位置とが一致している結合が増えたりすることはしばし
ばあり得るからである。
Here, if there are two types of coupling coefficients, positive and negative, for each coupling as described above, the bit arrangement of the bit string with a positive coupling coefficient and the bit arrangement of the bit string with a negative coupling coefficient are correlated. It is often possible that learning progresses in the direction of having. For example, as learning progresses, the number of connections in which the on-bit position of a bit string with a positive coupling coefficient matches the on-bit position of a bit string with a negative coupling coefficient, or conversely, This is because the number of combinations in which the on bit position of the bit string of and the off bit position of the bit string of the negative coupling coefficient match often increases.

【0079】このような場合には、学習が望ましい水準
に到達する前に学習の進行が止まってしまうことがある
。また、学習後の結合係数のビット列が何らかの原因で
わずかにずれただけで、学習効果が失われてしまう。 そこで、本実施例では、正の結合係数のビット列のビッ
ト配置と負の結合係数のビット列のビット配置とが相関
を持つ方向に学習が進むことにより、パルス密度型階層
ニューラルネットワークの学習の進行が止まってしまう
のを防止するようにし、かつ、その学習効果が、学習後
の結合係数のオン・ビット位置の揺らぎに対して強い耐
性を持ち、学習能力が高まるようにしたものである。
In such a case, the progress of learning may stop before it reaches a desired level. Further, even if the bit string of the coupling coefficient after learning is slightly shifted for some reason, the learning effect will be lost. Therefore, in this embodiment, the learning progresses in the direction in which the bit arrangement of the bit string with a positive coupling coefficient and the bit arrangement of the bit string with a negative coupling coefficient have a correlation, so that the learning progress of the pulse density hierarchical neural network is This is to prevent the learning from stopping, and the learning effect has strong resistance to fluctuations in the on-bit position of the coupling coefficient after learning, thereby increasing the learning ability.

【0080】基本的には、学習過程において、学習の1
サイクル毎に正の結合係数のビット列を負の結合係数の
ビット列に対して1ビット以上ずらし、又は、逆に、負
の結合係数のビット列を正の結合係数のビット列に対し
て1ビット以上ずらすことにより、正の結合係数のビッ
ト列のビット配置と負の結合係数のビット列のビット配
置とが相関を持つ方向に進んでしまうのを防止するよう
にしたものである。
Basically, in the learning process,
Shifting a bit string with a positive coupling coefficient by 1 bit or more with respect to a bit string with a negative coupling coefficient, or conversely, shifting a bit string with a negative coupling coefficient by 1 bit or more with respect to a bit string with a positive coupling coefficient every cycle. This prevents the bit arrangement of a bit string with a positive coupling coefficient and the bit arrangement of a bit string with a negative coupling coefficient from proceeding in a direction in which there is a correlation.

【0081】即ち、ビット列同士の相関関係が進むのを
防止する方法としては、幾つかの方法が考えられるが、
本実施例では、上記のように学習の1サイクル毎に正の
結合係数のビット列と負の結合係数のビット列とを相対
的に1ビット以上ずらすという極めて簡単な方法により
実現するようにしたものである。この場合、結合係数を
収容しているメモリ内の結合係数のビット列のビットを
全て更新し終わった時点で正,負の結合係数のビット列
を互いに1ビット以上ずらしてもよいが、結合係数のビ
ット列のビットを1ビット処理する毎に正又は負の結合
係数のビットを1ビット以上ずらすほうが、手続きが簡
単でそのための回路も簡単となる。
That is, several methods can be considered to prevent the correlation between bit strings from increasing.
In this embodiment, as described above, this is achieved using an extremely simple method of relatively shifting the bit string of the positive coupling coefficient and the bit string of the negative coupling coefficient by one bit or more every cycle of learning. be. In this case, the bit strings of positive and negative coupling coefficients may be shifted by one or more bits from each other after all the bits of the bit string of the coupling coefficient in the memory that stores the coupling coefficients have been updated, but the bit string of the coupling coefficient It is easier to shift the bit of the positive or negative coupling coefficient by one or more bits each time one bit of is processed, and the procedure is simpler and the circuit for this purpose is simpler.

【0082】ついで、本実施例による具体的な学習方法
を説明する。まず、正の結合係数のビット列のn番目の
ビットと負の結合係数のビット列のn+1番目のビット
とを使って、第一の実施例で説明したような論理演算に
より新しい正の結合係数のビットの値と新しい負の結合
係数のビットの値とを算出する。又は、逆に、正の結合
係数のビット列のn+1番目のビットと負の結合係数の
ビット列のn番目のビットとを使って、第一の実施例で
説明したような論理演算により新しい正の結合係数のビ
ットの値と新しい負の結合係数のビットの値とを算出す
る。これらの新しい結合係数をメモリ内に格納する時、
新しい正の結合係数のビットの値は正の結合係数のビッ
ト列のn番目のビット位置に格納し、新しい負の結合係
数のビットの値は負の結合係数のビット列のn番目のビ
ット位置に格納する。このような処理を、n=1,2,
3,…というように、nの値が増える方向に繰返してい
き、結合係数のビット列の全ビットの処理が終了したら
、最初に戻って同様の処理を繰返す。
Next, a specific learning method according to this embodiment will be explained. First, using the n-th bit of the positive coupling coefficient bit string and the n+1-th bit of the negative coupling coefficient bit string, a new positive coupling coefficient bit is created by the logical operation as explained in the first embodiment. and the values of the bits of the new negative coupling coefficient. Or, conversely, by using the n+1st bit of the bit string with a positive coupling coefficient and the nth bit of the bit string with a negative coupling coefficient, a new positive coupling is created by the logical operation as explained in the first embodiment. Compute the values of the bits of the coefficient and the bits of the new negative coupling coefficient. When storing these new coupling coefficients in memory,
The new positive coupling coefficient bit value is stored in the nth bit position of the positive coupling coefficient bit string, and the new negative coupling coefficient bit value is stored in the nth bit position of the negative coupling coefficient bit string. do. Such processing is performed with n=1, 2,
3, . . . are repeated in the direction in which the value of n increases, and when all bits of the bit string of the coupling coefficient have been processed, return to the beginning and repeat the same process.

【0083】或いは、上記の方法に限らず、例えば正の
結合係数のビット列のn番目のビットと負の結合係数の
ビット列のn番目のビットとを用い、前述したような論
理演算により新しい正の結合係数のビットの値と新しい
負の結合係数のビットの値とを算出する。算出されたこ
れらの新しい結合係数をメモリ内に格納する時、新しい
正の結合係数のビットの値は正の結合係数のビット列の
n番目のビット位置に格納するが、新しい負の結合係数
のビットの値は負の結合係数のビット列のn−1番目の
ビット位置に格納する。又は、逆に、新しい正の結合係
数のビットの値は正の結合係数のビット列のn−1番目
のビット位置に格納するが、新しい負の結合係数のビッ
トの値は負の結合係数のビット列のn番目のビット位置
に格納する。このような処理を、n=1,2,3,…と
いうように、nの値が増える方向に繰返していき、結合
係数のビット列の全ビットの処理が終了したら、最初に
戻って同様の処理を繰返すようにしてもよい。
Alternatively, without being limited to the above method, for example, using the n-th bit of the bit string with a positive coupling coefficient and the n-th bit of the bit string with a negative coupling coefficient, a new positive Compute the values of the bits of the coupling coefficient and the bits of the new negative coupling coefficient. When storing these new calculated coupling coefficients in memory, the value of the bit of the new positive coupling coefficient is stored in the nth bit position of the bit string of the positive coupling coefficient, but the value of the bit of the new negative coupling coefficient is stored in the nth bit position of the bit string of the positive coupling coefficient. The value is stored in the n-1th bit position of the bit string of the negative coupling coefficient. Or, conversely, the value of the bit of the new positive coupling coefficient is stored in the n-1 bit position of the bit string of the positive coupling coefficient, but the value of the bit of the new negative coupling coefficient is stored in the bit string of the negative coupling coefficient. is stored in the nth bit position of . This process is repeated in the direction of increasing the value of n, such as n = 1, 2, 3, etc. When all bits of the bit string of the coupling coefficient have been processed, return to the beginning and repeat the same process. may be repeated.

【0084】このような学習方法によれば、同時に更新
された正と負の結合係数のビットは次の学習サイクルで
使われる時は同時には使われないので、正の結合係数の
ビット列のビット配置と負の結合係数のビット列のビッ
ト配置とが相関を持つ方向に学習が進んでしまうのを防
止できる。なお、上記説明ではビット列を相対的に1ビ
ットだけずらすようにしたが、1ビットに限らず、要は
、1ビット以上であればよい。
According to such a learning method, the bits of the positive and negative coupling coefficients updated at the same time are not used simultaneously in the next learning cycle, so the bit arrangement of the bit string of the positive coupling coefficient It is possible to prevent learning from proceeding in a direction in which there is a correlation between the bit string and the bit arrangement of the bit string having a negative coupling coefficient. In the above description, the bit strings are relatively shifted by 1 bit, but the shift is not limited to 1 bit, and any shift of 1 bit or more is sufficient.

【0085】このような学習方法は、図13ないし図1
6に例示するような回路により実現される。これらの図
示例では構成要素は共通であり、まず、メモリ30に相
当して正の結合係数のビット列を格納したメモリ71と
、メモリ31に相当して負の結合係数のビット列を格納
したメモリ72とが設けられている。各々のメモリ71
,72にはビット格納回路73,74と、ビット取出回
路75,76とが付設させている。ビット取出回路75
,76の出力側には出力算出回路77とともに、新結合
係数算出回路78が接続され、新結合係数算出回路78
の出力側は各々前記ビット格納回路73,74を通して
メモリ71,72にフィードバックされ、更新書換え自
在とされている。前記出力算出回路77は例えば図9に
示した回路構成のものであり、新結合係数算出回路78
は例えば図1及び図11に示した回路構成よりなるもの
である(ただし、図9及び図1では、これらの図13な
いし図16において回路77,78外に示したメモリ7
1,72が、メモリ30,31で示す如く各々の回路中
に含めて示されている)。
[0085] Such a learning method is illustrated in FIGS. 13 to 1.
This is realized by a circuit as illustrated in 6. These illustrated examples have the same components; first, a memory 71 which corresponds to the memory 30 and stores a bit string with a positive coupling coefficient; and a memory 72 which corresponds to the memory 31 and stores a bit string with a negative coupling coefficient. and is provided. each memory 71
, 72 are provided with bit storage circuits 73, 74 and bit extraction circuits 75, 76. Bit extraction circuit 75
, 76 are connected to a new coupling coefficient calculation circuit 78 together with an output calculation circuit 77.
The output sides of are fed back to the memories 71 and 72 through the bit storage circuits 73 and 74, respectively, so that they can be updated and rewritten. The output calculation circuit 77 has the circuit configuration shown in FIG. 9, for example, and the new coupling coefficient calculation circuit 78
has the circuit configuration shown in FIGS. 1 and 11, for example (However, in FIGS. 9 and 1, the memory 7 shown outside the circuits 77 and 78 in FIGS. 13 to 16)
1 and 72 are shown included in their respective circuits as indicated by memories 30 and 31).

【0086】さらに、メモリ71,72内でのビット列
上のビット位置を特定するための第1ポインタ79と第
2ポインタ80とが設けられている。ここに、第1ポイ
ンタ79の値(ビット指示位置)は第2ポインタ80の
値(ビット指示位置)よりも1以上大きく設定されてお
り、正と負の結合係数を各1ビット、合計2ビット更新
し終わる毎に、これらのポインタ79,80の値はとも
に1だけ増やされるものである。図13ないし図16で
はこれらのポインタ79,80の位置、接続関係を異な
らせたものである。これらのポインタ79,80がシフ
ト手段となる。
Furthermore, a first pointer 79 and a second pointer 80 are provided for specifying the bit position on the bit string in the memories 71 and 72. Here, the value of the first pointer 79 (bit indicated position) is set to be 1 or more larger than the value of the second pointer 80 (bit indicated position), and the positive and negative coupling coefficients are set to 1 bit each, 2 bits in total. Each time the update is completed, the values of these pointers 79 and 80 are both incremented by 1. 13 to 16, the positions and connection relationships of these pointers 79 and 80 are different. These pointers 79 and 80 serve as shifting means.

【0087】まず、図13方式にあっては、正の結合係
数のビット列を格納しているメモリ71中から第1ポイ
ンタ79の指示している位置のビットを取出し、負の結
合係数のビット列を格納しているメモリ72中から第2
ポインタ80の指示している位置のビットを取出す。取
出されたこれらのビットを使って新結合係数算出回路7
8により新しい正の結合係数のビットを算出した後、そ
のビットをメモリ71内で第2ポインタ80の指示して
いるビット位置に格納し、同じく新結合係数算出回路7
8により新しい負の結合係数のビットを算出した後、そ
のビットをメモリ72内で第2ポインタ80の指示して
いるビット位置に格納させる。
First, in the method shown in FIG. 13, the bit at the position indicated by the first pointer 79 is extracted from the memory 71 storing the bit string of the positive coupling coefficient, and the bit string of the negative coupling coefficient is extracted. The second memory from the memory 72 that stores
The bit at the position indicated by pointer 80 is extracted. Using these extracted bits, the new coupling coefficient calculation circuit 7
After calculating the bit of the new positive coupling coefficient by 8, the bit is stored in the bit position indicated by the second pointer 80 in the memory 71, and the new coupling coefficient calculation circuit 7
After calculating the bit of the new negative coupling coefficient by 8, the bit is stored in the bit position pointed to by the second pointer 80 in the memory 72.

【0088】図14方式にあっては、正の結合係数のビ
ット列を格納しているメモリ71中から第2ポインタ8
0の指示している位置のビットを取出し、負の結合係数
のビット列を格納しているメモリ72中から第1ポイン
タ79の指示している位置のビットを取出す。取出され
たこれらのビットを使って新結合係数算出回路78によ
り新しい正及び負の結合係数のビットを各々算出した後
、そのビットをメモリ71,72内で第2ポインタ80
の指示しているビット位置に各々格納させる。
In the system of FIG. 14, the second pointer 8 is selected from the memory 71 storing the bit string of the positive coupling coefficient.
The bit at the position indicated by 0 is retrieved, and the bit at the position indicated by the first pointer 79 is retrieved from the memory 72 storing the bit string of the negative coupling coefficient. Using these extracted bits, the new coupling coefficient calculating circuit 78 calculates new positive and negative coupling coefficient bits, respectively, and then stores the bits in the memories 71 and 72 to the second pointer 80.
are stored in the bit positions indicated by .

【0089】また、図15方式にあっては、正の結合係
数のビット列を格納しているメモリ71中から第1ポイ
ンタ79の指示している位置のビットを取出し、負の結
合係数のビット列を格納しているメモリ72中からも第
1ポインタ79の指示している位置のビットを取出す。 取出されたこれらのビットを使って新結合係数算出回路
78により新しい正の結合係数のビットを算出した後、
そのビットをメモリ71内で第1ポインタ79の指示し
ているビット位置に格納する一方、新結合係数算出回路
78により新しい負の結合係数のビットを算出した後、
そのビットはメモリ72内で第2ポインタ80の指示し
ているビット位置に格納させる。
In addition, in the method shown in FIG. 15, the bit at the position indicated by the first pointer 79 is retrieved from the memory 71 storing the bit string of the positive coupling coefficient, and the bit string of the negative coupling coefficient is extracted. The bit at the position pointed to by the first pointer 79 is also retrieved from the stored memory 72. After calculating new positive coupling coefficient bits by the new coupling coefficient calculation circuit 78 using these extracted bits,
After storing that bit in the bit position indicated by the first pointer 79 in the memory 71, and calculating a new negative coupling coefficient bit by the new coupling coefficient calculation circuit 78,
The bit is stored in memory 72 at the bit location pointed to by second pointer 80.

【0090】図16方式にあっては、正、負の結合係数
のビット列を格納しているメモリ71,72中から各々
第1ポインタ79の指示している位置のビットを取出し
、取出されたこれらのビットを使って新結合係数算出回
路78により新しい正の結合係数のビットを算出した後
、そのビットはメモリ71内で第2ポインタ80の指示
しているビット位置に格納する一方、新結合係数算出回
路78により新しい負の結合係数のビットを算出した後
、そのビットをメモリ72内で第1ポインタ79の指示
しているビット位置に格納させる。
In the method shown in FIG. 16, the bits at the positions indicated by the first pointer 79 are extracted from the memories 71 and 72 storing bit strings of positive and negative coupling coefficients, and these extracted bits are After calculating a bit of a new positive coupling coefficient using the bit of the new coupling coefficient calculation circuit 78, the bit is stored in the bit position indicated by the second pointer 80 in the memory 71, while After the calculation circuit 78 calculates a new negative coupling coefficient bit, the bit is stored in the memory 72 at the bit position pointed to by the first pointer 79.

【0091】ついで、このような本実施例方式による学
習例を具体的な実験例により説明する。ここでは、本実
施例の機能を備え、3つの層を持ち、各層は全て3個の
ニューロンで構成された階層型ニューラルネットワーク
において、3つの入力信号と教師信号との組入力信号 
           教師信号(1,0,0)  →
  (1,0,0)(0,1,0)  →  (0,1
,0)(0,0,1)  →  (0,0,1)を各々
対応させた組を2000回提示して学習させた後、これ
らの3種類の入力信号を各々1000回ずつ提示して各
提示毎に正及び負の結合係数のビット配列のオン・ビッ
トの総数を変えないでビットがオンになっているビット
位置だけをランダムに変えながら、出力信号の採取を行
ったところ、3種類の入力信号全てについて、各々の教
師信号値に近い値を最頻値とする出力値分布が得られた
ものである。
Next, a learning example using the method of this embodiment will be explained using a specific experimental example. Here, in a hierarchical neural network that is equipped with the functions of this embodiment and has three layers, and each layer is composed of three neurons, a set of input signals of three input signals and a teacher signal is used.
Teacher signal (1,0,0) →
(1,0,0)(0,1,0) → (0,1
, 0) (0, 0, 1) → (0, 0, 1) were presented 2,000 times for learning, and then each of these three types of input signals was presented 1,000 times. For each presentation, output signals were collected while randomly changing only the bit positions where bits were turned on without changing the total number of on bits in the bit array of positive and negative coupling coefficients. For all of the input signals, an output value distribution is obtained in which the mode is a value close to each teacher signal value.

【0092】ちなみに、比較例として、本実施例の機能
を備えない、即ち、学習過程で結合係数のビット列をシ
フトさせない以外は上記実験例と全く同じニューラルネ
ットワークにおいて、上記実験例と全く同じに学習させ
た後、上記実験例と全く同じ出力信号の採取を行ったと
ころ、出力値が1になるべきニューロンからの出力値も
出力値が0になるべきニューロンからの出力値も、殆ど
同じ平均値と広がりを持った出力値分布となり、学習効
果が失われたものである。
By the way, as a comparative example, a neural network that is exactly the same as the above experimental example except that it does not have the function of this embodiment, that is, the bit string of the coupling coefficient is not shifted during the learning process, is trained in exactly the same way as the above experimental example. When the output signals were collected in exactly the same manner as in the above experimental example, the output values from the neurons whose output value should be 1 and the output values from the neurons whose output value should be 0 were almost the same average value. The output value distribution becomes wider, and the learning effect is lost.

【0093】[0093]

【発明の効果】本発明は、上述したように構成したので
、請求項1記載の発明の学習方法によれば、ニューロン
の内部電位による神経細胞応答関数の微分成分が含まれ
ていないため、神経細胞応答関数が内部電位の1価関数
でないこと等により神経細胞応答関数の微分が定義でき
ないニューラルネットワークや内部電位自体が定義でき
ないニューラルネットワークに対しても適用可能となり
、この場合、結合係数の変更量が常に負にならない値を
とる量のみの演算で算出されるので、パルス密度を信号
として扱うような、負の値を表現することが困難なハー
ドウエアに対しても容易に適用し得るものとなり、特に
、請求項2記載の発明によれば、ニューラルネットワー
クの学習が、パルス列の論理演算とパルスの間引き演算
のみでできるので、デジタル回路によるハードウエア化
が容易なものとなる。
Effects of the Invention Since the present invention is configured as described above, according to the learning method of the invention as claimed in claim 1, since the differential component of the neuron response function due to the internal potential of the neuron is not included, It can also be applied to neural networks in which the differential of the neuron response function cannot be defined because the cell response function is not a monovalent function of the internal potential, or to neural networks in which the internal potential itself cannot be defined. Since it is calculated by calculating only quantities that always take non-negative values, it can be easily applied to hardware that is difficult to express negative values, such as those that treat pulse density as a signal. In particular, according to the second aspect of the invention, learning of the neural network can be performed only by logical operations on pulse trains and thinning operations on pulses, making it easy to implement hardware using digital circuits.

【0094】また、請求項3記載の発明の信号処理装置
によれば、自己学習機能を含めてニューラルネットワー
クの機能をハードウエア上で並列的に高速で行わせるこ
とができ、特に、デジタル論理回路構成としているので
、アナログ回路方式のような温度特性、ドリフト等の問
題もなくなり、さらには、結合係数がメモリ上に格納さ
れているので、書換えが容易であり、汎用性を持たせる
ことができる。
Further, according to the signal processing device of the invention as set forth in claim 3, the functions of the neural network including the self-learning function can be performed in parallel on hardware at high speed, and in particular, the functions of the neural network including the self-learning function can be performed in parallel at high speed. This structure eliminates the problems of temperature characteristics, drift, etc. that occur with analog circuit systems.Furthermore, since the coupling coefficient is stored in memory, it is easy to rewrite and has versatility. .

【0095】さらに、請求項4記載の発明の学習方法な
いしは請求項5記載の信号処理装置によれば、学習の1
サイクル毎に、興奮性の結合係数のビット列を抑制性の
結合係数のビット列に対して相対的に1ビット以上ずら
すようにしたので、興奮性の結合係数のビット列と抑制
性の結合係数のビット列との間のビット配置の相関を消
すことができ、よって、望ましい水準に達する前に学習
の進行が止まってしまうのを防止でき、ニューラルネッ
トワークの学習効果を学習後の結合係数のビット配置の
揺らぎに対して強い耐性を持つものとし、学習能力を上
げることができる。
Furthermore, according to the learning method of the invention set forth in claim 4 or the signal processing device set forth in claim 5, one of the learning
Since the bit string of the excitatory coupling coefficient is shifted by one bit or more relative to the bit string of the inhibitory coupling coefficient in each cycle, the bit string of the excitatory coupling coefficient and the bit string of the inhibitory coupling coefficient are It is possible to eliminate the correlation in the bit arrangement between the two, thereby preventing the learning progress from stopping before reaching the desired level, and to reduce the learning effect of the neural network to fluctuations in the bit arrangement of the coupling coefficient after learning. It has a strong resistance to this and can improve learning ability.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の第一の実施例を示すあるニューロンの
回路図である。
FIG. 1 is a circuit diagram of a neuron showing a first embodiment of the present invention.

【図2】ニューロンにおける信号処理の基本を示す模式
的回路図である。
FIG. 2 is a schematic circuit diagram showing the basics of signal processing in neurons.

【図3】パルス密度信号処理例を示すタイミングチャー
トである。
FIG. 3 is a timing chart showing an example of pulse density signal processing.

【図4】パルス密度信号処理例を示すタイミングチャー
トである。
FIG. 4 is a timing chart showing an example of pulse density signal processing.

【図5】パルス密度信号処理例を示すタイミングチャー
トである。
FIG. 5 is a timing chart showing an example of pulse density signal processing.

【図6】パルス密度信号処理例を示すタイミングチャー
トである。
FIG. 6 is a timing chart showing an example of pulse density signal processing.

【図7】興奮性/抑制性結合に対する処理を行う回路図
である。
FIG. 7 is a circuit diagram for processing excitatory/inhibitory connections.

【図8】興奮性/抑制性結合に対する処理を行う回路図
である。
FIG. 8 is a circuit diagram for processing excitatory/inhibitory connections.

【図9】興奮性/抑制性結合に対する処理を行う回路図
である。
FIG. 9 is a circuit diagram for processing excitatory/inhibitory connections.

【図10】誤差信号生成のための回路図である。FIG. 10 is a circuit diagram for generating an error signal.

【図11】誤差信号の論理和をとるための回路図である
FIG. 11 is a circuit diagram for calculating the logical sum of error signals.

【図12】ニューロン出力用のゲート回路の回路図であ
る。
FIG. 12 is a circuit diagram of a gate circuit for neuron output.

【図13】本発明の第二の実施例を示すブロック図であ
る。
FIG. 13 is a block diagram showing a second embodiment of the present invention.

【図14】ブロック図である。FIG. 14 is a block diagram.

【図15】ブロック図である。FIG. 15 is a block diagram.

【図16】ブロック図である。FIG. 16 is a block diagram.

【図17】従来例を示す1つのユニット構成を示す概念
図である。
FIG. 17 is a conceptual diagram showing one unit configuration showing a conventional example.

【図18】ニューラルネットワーク構成の概念図である
FIG. 18 is a conceptual diagram of a neural network configuration.

【図19】シグモイド関数を示すグラフである。FIG. 19 is a graph showing a sigmoid function.

【図20】1つのニューラルネットワークの具体的回路
図である。
FIG. 20 is a specific circuit diagram of one neural network.

【図21】デジタル構成例を示すブロック図である。FIG. 21 is a block diagram showing an example of a digital configuration.

【図22】その一部の回路図である。FIG. 22 is a circuit diagram of a part thereof.

【図23】その一部の回路図である。FIG. 23 is a circuit diagram of a part thereof.

【符号の説明】[Explanation of symbols]

23,30,31    メモリ 23, 30, 31 Memory

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】  階層型ニューラルネットワークにおけ
るある層のニューロンiと次層のニューロンjとの間の
結合係数をTi,j とし、この結合係数Ti,j を
正成分T(+)i,j と負成分T(−)i,j との
差として【数1】 と表し、ニューロンiからの出力値をyi 、ニューロ
ンjの出力感度をZ(+)i,j,Z(−)i,j 、
ニューロンjにおける誤差信号をδ(+)j ,δ(−
)j  としたとき、学習の1ステップ毎に、 【数2】 なる量ΔT(+)i,j を結合係数T(+)i,j 
に加えて得られる(T(+)i,j +ΔT(+)i,
j )の値、又は、この値に慣性項を付加した値を新し
いT(+)i,j とし、【数3】 なる量ΔT(−)i,j を結合係数T(−)i,j 
に加えて得られる(T(−)i,j+ΔT(−)i,j
 )の値、又は、この値に慣性項を付加した値を新しい
T(−)i,j とすることにより学習するようにした
ことを特徴とするニューラルネットワークの学習方法。 ただし、出力感度Z(+)i,j ,Z(−)i,j 
は、nについての積 【数4】 が、ニューロンiの属する層にあってニューロンjと結
合しているニューロンの内でニューロンi以外の全ての
ニューロンnについて積をとることを意味するものとす
ると、 【数5】 により算出し、kについての和 【数6】 が、ニューロンjの属する層の次の層にあってニューロ
ンjと結合している全てのニューロンkについて和をと
ることを意味するものとすると、誤差信号δ(+)j,
δ(−)j は、出力層では、教師信号をdj とする
と、【数7】 中間層では、 【数8】 により算出するものとする。 また、T(+)i,j ,T(−)i,j 及びyi 
が1より大きい値をとり得るときは、それらをそれらの
とり得る値の最大値で割ってT(+)i,j ≦1,T
(−)i,j ≦1,yi≦1に規格化したものとする
[Claim 1] Let Ti,j be the coupling coefficient between neuron i in a certain layer and neuron j in the next layer in a hierarchical neural network, and let this coupling coefficient Ti,j be a positive component T(+)i,j. The difference from the negative component T(-)i,j is expressed as [Equation 1], the output value from neuron i is yi, and the output sensitivity of neuron j is Z(+)i,j, Z(-)i,j ,
The error signal in neuron j is expressed as δ(+)j, δ(−
)j, then at each step of learning, the quantity ΔT(+)i,j becomes the coupling coefficient T(+)i,j
(T(+)i,j +ΔT(+)i,
j) or the value obtained by adding an inertia term to this value as the new T(+)i,j, and the amount ΔT(-)i,j as [Equation 3] as the coupling coefficient T(-)i,j
(T(-)i,j+ΔT(-)i,j
) or a value obtained by adding an inertia term to this value as a new T(-)i,j. However, the output sensitivity Z(+)i,j, Z(-)i,j
Assuming that the product with respect to n [Equation 4] means taking the product with respect to all neurons n other than neuron i among the neurons that are in the layer to which neuron i belongs and are connected to neuron j. , [Formula 5], and the sum for k [Formula 6] means that the sum is calculated for all neurons k that are connected to neuron j in the layer next to the layer to which neuron j belongs. Then, the error signal δ(+)j,
In the output layer, δ(-)j is calculated by the following equation (7), where dj is the teacher signal, and in the intermediate layer, by the following equation (8). Also, T(+)i,j, T(-)i,j and yi
can take a value greater than 1, divide them by the maximum value of those values and get T(+)i,j ≦1, T
(−) It is assumed that i, j ≦1, yi≦1.
【請求項2】  階層型ニューラルネットワークにおけ
るある層のニューロンiと次層のニューロンjとの間の
興奮性の結合係数をT(+)i,j 、抑制性の結合係
数をT(−)i,j 、ニューロンiからの出力値をy
i 、 ニューロンjの出力感度をZ(+)i,j ,
Z(−)i,j 、ニューロンjにおける誤差信号をδ
(+)j,δ(−)j としたとき、これらのT(+)
i,j ,T(−)i,j ,yi ,Z(+)i,j
 ,Z(−)i,j ,δ(+)j ,δ(−)j 全
てをパルス列で表し、これらのパルス列の論理和、論理
積、論理否定及びパルス列中のパルスの間引き演算を用
いて、学習の1ステップ毎に、 【数9】 という論理演算の結果得られるパルス列を新しいT(+
)i,j とし、 【数10】 という論理演算の結果得られるパルス列を新しいT(−
)i,j とすることにより学習するようにしたことを
特徴とするニューラルネットワークの学習方法。 ただし、2つのパルス列X,Yの論理和はX∪Y、論理
積はX∩Yという記号で示し、パルス列Xの論理否定は
〜(X)という記号で示し、パルス列X中のパルスを間
引く演算を∧(X)という記号で示すものとする。また
、nについての論理和 【数11】 を、ニューロンiの属する層にあってニューロンjと興
奮性の結合係数をもって結合しているニューロンの内で
ニューロンi以外の全てのニューロンnについて和をと
ることを意味し、nについての論理和 【数12】 を、ニューロンiの属する層にあってニューロンjと抑
制性の結合係数をもって結合しているニューロンの内で
ニューロンi以外の全てのニューロンnについて和をと
ることを意味するものと定義したとき、Z(+)i,j
 ,Z(−)i,j は 【数13】 により算出するものとする。また、パルス列X中のパル
スを間引いてパルス密度を半分にする演算を∇(X)と
いう記号で表し、kについての論理和 【数14】 がニューロンjの属する層の次の層にあってニューロン
jと興奮性の結合係数をもって結合している全てのニュ
ーロンkについて論理和をとることを意味し、kについ
ての論理和 【数15】 がニューロンjの属する層の次の層にあってニューロン
jと抑制性の結合係数をもって結合している全てのニュ
ーロンkについて論理和をとることを意味するものと定
義したとき、δ(+)j ,δ(−)j は、出力層で
は、教師信号をdj  とすると、 【数16】 中間層では、 【数17】 により算出するものとする。
2. In a hierarchical neural network, the excitatory coupling coefficient between neuron i in a certain layer and neuron j in the next layer is T(+)i,j, and the inhibitory coupling coefficient is T(-)i. ,j, the output value from neuron i as y
i, the output sensitivity of neuron j is Z(+)i,j,
Z(-)i,j, the error signal at neuron j is δ
(+)j, δ(-)j, these T(+)
i, j , T (-) i, j , yi , Z (+) i, j
, Z(-)i, j , δ(+)j , δ(-)j are all expressed as a pulse train, and using logical sum, logical product, logical negation of these pulse trains, and thinning operation of pulses in the pulse train, For each step of learning, the pulse train obtained as a result of the logical operation [Equation 9] is transformed into a new T(+
)i,j, and the pulse train obtained as a result of the logical operation [Equation 10] is expressed as a new T(-
) A learning method for a neural network, characterized in that learning is performed by setting i, j. However, the logical sum of two pulse trains X and Y is shown by the symbol X∪Y, the logical product is shown by the symbol X∩Y, and the logical negation of the pulse train X is shown by the symbol ~(X). is denoted by the symbol ∧(X). Also, the logical sum [Equation 11] for n is summed for all neurons n other than neuron i among the neurons in the layer to which neuron i belongs and which are connected to neuron j with an excitatory coupling coefficient. This means that the logical sum [Equation 12] for n is calculated for all neurons n other than neuron i among the neurons in the layer to which neuron i belongs and which are connected to neuron j with an inhibitory coupling coefficient. When defined as meaning taking the sum, Z(+)i,j
, Z(-)i,j shall be calculated using the following equation. In addition, the operation to thin out the pulses in the pulse train This means to perform a logical sum for all neurons k that are connected to neuron j with an excitatory coupling coefficient. and δ(+)j and δ(-)j are defined as the logical OR of all neurons k connected with an inhibitory coupling coefficient, then in the output layer, δ(+)j and δ(-)j are dj, then [Formula 16] In the middle layer, it is calculated by [Formula 17].
【請求項3】  入力信号を受けて出力信号を出力する
複数個の回路ユニットとして、ネットワーク外からの信
号を入力するものと、ネットワーク内の他の回路ユニッ
トからの信号を入力とするものと、ネットワーク外へ信
号を出力するものとを各々少なくとも1個以上有して、
これらの回路ユニットを網状に連結したデジタル論理回
路による階層型ニューラルネットワークを設け、ある回
路ユニットが他の回路ユニットからの出力信号を入力信
号として受け取る際の入力信号に重み付けをするための
重みデータを結合係数として記憶したメモリを設け、ネ
ットワーク外へ出力する回路ユニットからの出力信号と
ネットワーク外から与えられる信号との差に基づいて前
記結合係数値を可変する可変処理を請求項2記載の学習
方法を用いて行うデジタル論理回路による係数可変回路
を回路ユニット内又はネットワーク内の回路ユニット外
に設けたことを特徴とする信号処理装置。
3. A plurality of circuit units that receive input signals and output output signals include one that receives signals from outside the network and one that receives signals from other circuit units within the network; each having at least one or more outputting a signal to the outside of the network,
A hierarchical neural network consisting of digital logic circuits in which these circuit units are connected in a network is provided, and when one circuit unit receives an output signal from another circuit unit as an input signal, weight data is used to weight the input signal. 3. The learning method according to claim 2, wherein a memory for storing coupling coefficients is provided, and variable processing is performed to vary the coupling coefficient value based on a difference between an output signal from a circuit unit outputted to the outside of the network and a signal given from outside the network. A signal processing device characterized in that a coefficient variable circuit using a digital logic circuit is provided inside a circuit unit or outside a circuit unit in a network.
【請求項4】  ビット列表現の入力信号をデジタル論
理演算により処理してビット列表現の出力信号を出す複
数個のニューロンを階層型に連結してニューラルネット
ワークを形成し、あるニューロンが他のニューロンから
の出力信号を入力信号として受け取る際の入力信号に重
み付けをするための重みデータをビット列表現の結合係
数として各結合毎に興奮性の結合係数と抑制性の結合係
数との2種類を記憶させておき、前記ニューラルネット
ワークからの出力値を所望値に近付けるために前記ニュ
ーロン中に記憶された結合係数値を可変する可変処理を
請求項1又は2記載の学習方法を用いて行うニューラル
ネットワークの学習方法において、前記学習の1サイク
ル毎に、興奮性の結合係数のビット列を抑制性の結合係
数のビット列に対して相対的に1ビット以上ずらすよう
にしたことを特徴とするニューラルネットワークの学習
方法。
4. A neural network is formed by connecting a plurality of neurons in a hierarchical manner that processes an input signal represented by a bit string using digital logic operations and outputs an output signal represented by a bit string, and one neuron receives input signals from other neurons. When receiving an output signal as an input signal, two types of weight data, an excitatory coupling coefficient and an inhibitory coupling coefficient, are stored as coupling coefficients in a bit string representation for weighting the input signal. 3. A neural network learning method using the learning method according to claim 1 or 2, wherein variable processing is performed to vary the coupling coefficient value stored in the neuron in order to bring the output value from the neural network closer to a desired value. . A neural network learning method, characterized in that, for each cycle of the learning, a bit string of excitatory coupling coefficients is shifted by one bit or more relative to a bit string of inhibitory coupling coefficients.
【請求項5】  ビット列表現の入力信号をデジタル論
理回路により処理してビット列表現の出力信号を出す複
数個のニューロンを階層型に連結してニューラルネット
ワークを形成し、あるニューロンが他のニューロンから
の出力信号を入力信号として受け取る際の入力信号に重
み付けをするための重みデータをビット列表現の結合係
数として各結合毎に興奮性の結合係数と抑制性の結合係
数との2種類を記憶するメモリを設け、前記ニューラル
ネットワークからの出力値を所望値に近付けるために前
記ニューロン中に記憶された結合係数値を可変する可変
処理を請求項1又は2記載の学習方法を用いて行うデジ
タル論理回路による係数可変回路を設け、この係数可変
回路中に前記学習の1サイクル毎に興奮性の結合係数の
ビット列を抑制性の結合係数のビット列に対して相対的
に1ビット以上ずらすシフト手段を設けたことを特徴と
する信号処理装置。
5. A neural network is formed by connecting a plurality of neurons in a hierarchical manner that processes an input signal expressed as a bit string by a digital logic circuit and outputs an output signal expressed as a bit string. A memory that stores two types of weight data for each connection, an excitatory coupling coefficient and an inhibitory coupling coefficient, as a bit string representation of a coupling coefficient for weighting an input signal when an output signal is received as an input signal. 3. A coefficient formed by a digital logic circuit that performs a variable process of varying the coupling coefficient value stored in the neuron in order to bring the output value from the neural network closer to a desired value using the learning method according to claim 1 or 2. A variable circuit is provided, and a shift means is provided in the coefficient variable circuit for shifting the bit string of the excitatory coupling coefficient by one bit or more relative to the bit string of the inhibitory coupling coefficient every cycle of the learning. Characteristic signal processing device.
JP3097822A 1990-11-22 1991-04-30 Learning method for neural network and signal processor using the same Pending JPH04229361A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3097822A JPH04229361A (en) 1990-11-22 1991-04-30 Learning method for neural network and signal processor using the same

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP32047290 1990-11-22
JP2-320472 1991-04-23
JP3097822A JPH04229361A (en) 1990-11-22 1991-04-30 Learning method for neural network and signal processor using the same

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP4035905A Division JPH0567066A (en) 1992-02-24 1992-02-24 Learning method and signal processor for neural network

Publications (1)

Publication Number Publication Date
JPH04229361A true JPH04229361A (en) 1992-08-18

Family

ID=26438966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3097822A Pending JPH04229361A (en) 1990-11-22 1991-04-30 Learning method for neural network and signal processor using the same

Country Status (1)

Country Link
JP (1) JPH04229361A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104834216A (en) * 2015-04-22 2015-08-12 上海晟矽微电子股份有限公司 Binomial-based wireless sensor network trust management method
CN106255259A (en) * 2016-07-26 2016-12-21 浙江大学 A kind of inverse-excitation type LED drive circuit based on BP neuron network PI controller control method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104834216A (en) * 2015-04-22 2015-08-12 上海晟矽微电子股份有限公司 Binomial-based wireless sensor network trust management method
CN106255259A (en) * 2016-07-26 2016-12-21 浙江大学 A kind of inverse-excitation type LED drive circuit based on BP neuron network PI controller control method

Similar Documents

Publication Publication Date Title
US5131073A (en) Neuron unit and neuron unit network
US5588090A (en) Signal processing apparatus
US5485548A (en) Signal processing apparatus using a hierarchical neural network
JPH04229361A (en) Learning method for neural network and signal processor using the same
US5481646A (en) Neuron unit and neuron unit network
JPH05165987A (en) Signal processor
JP2549454B2 (en) Neuron mimetic network and neuron mimicking unit
JPH056356A (en) Method and device for processing signal
US5185851A (en) Neuron unit and neuron unit network
JP2612640B2 (en) Signal processing circuit, signal processing network, signal processing device, and signal processing method
JP3256553B2 (en) Learning method of signal processing device
JP3255425B2 (en) Signal processing method
Pavan et al. Reusable Spiking Neural Network Architecture
JPH05108594A (en) Signal processor
JPH05217010A (en) Signal processor
JP2517662B2 (en) Chain controller
JPH0567066A (en) Learning method and signal processor for neural network
JPH03294979A (en) Signal processor
JPH03260785A (en) Signal processing method and its network
JPH03256184A (en) Signal processing circuit
JPH04235663A (en) Method and device for signal processing
JPH056351A (en) Signal processor
Castillo et al. Introduction to Neural Networks
JPH05135001A (en) Signal processor
JPH05307624A (en) Signal processor