JPH0567066A - Learning method and signal processor for neural network - Google Patents

Learning method and signal processor for neural network

Info

Publication number
JPH0567066A
JPH0567066A JP4035905A JP3590592A JPH0567066A JP H0567066 A JPH0567066 A JP H0567066A JP 4035905 A JP4035905 A JP 4035905A JP 3590592 A JP3590592 A JP 3590592A JP H0567066 A JPH0567066 A JP H0567066A
Authority
JP
Japan
Prior art keywords
bit
coupling coefficient
bit string
learning
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4035905A
Other languages
Japanese (ja)
Inventor
Shuji Motomura
修二 本村
Toshiyuki Furuta
俊之 古田
Hirotoshi Eguchi
裕俊 江口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP4035905A priority Critical patent/JPH0567066A/en
Publication of JPH0567066A publication Critical patent/JPH0567066A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To improve a learning capability by changing the arrangement sequence of one bit of each bit column of each connection coefficient of an excitability/suppressiveness relatively to the other bit, in every cycle of a learning. CONSTITUTION:The bit at a position indicated by a first pointer 89 is taken out from a memory 81 which stores the bit column of the positive connection coefficient. The bit at the position indicated by a second pointer 90 is taken out from a memory 82 which stores the bit column of the negative connection coefficient. The bit of the new positive connection coefficient is calculated by a new connection coefficient calculating circuit 88 by using those bits, and then the bit is stored at the bit position indicated by the second pointer 90 in the memory 81. In the same way, the bit of the new negative connection coefficient is calculated by the new connection coefficient calculating circuit 88, and then the bit is stored at the bit position indicated by the second pointer 90 in the memory 82. Thus, the arrangement sequence of each bit is relatively changed in every cycle of the learning.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、神経細胞回路網の情報
処理機能を人工的に実現することを目指した並列分散型
情報処理装置なるニューロコンピュータ用のニューラル
ネットワークの学習方法及び信号処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network learning method and a signal processing device for a neurocomputer which is a parallel distributed information processing device aiming at artificially realizing the information processing function of a nerve cell network. ..

【0002】[0002]

【従来の技術】生体の情報処理の基本的な単位である神
経細胞(ニューロン)の機能を模倣し、さらに、この
「神経細胞模倣素子」をネットワークにし、情報の並列
処理を目指したのが、いわゆるニューラルネットワーク
である。文字認識や連想記憶、運動制御等、生体ではい
とも簡単に行われていても、従来のノイマン型コンピュ
ータではなかなか達成しないものが多い。生体の神経
系、特に生体特有の機能、即ち並列処理、自己学習等を
ニューラルネットワークにより模倣して、これらの問題
を解決しようとする試みが盛んに行われている。
2. Description of the Related Art The aim of parallel processing of information is to imitate the function of nerve cells (neurons), which are the basic units of information processing in the living body, and to use this "nerve cell mimicking element" as a network to process information in parallel. This is a so-called neural network. Although it is easy to perform character recognition, associative memory, motion control, etc. in a living body, there are many things that conventional Neumann computers cannot easily achieve. There have been many attempts to solve these problems by imitating a neural system of a living body, in particular, a function peculiar to the living body, that is, parallel processing, self-learning, etc. by a neural network.

【0003】まず、従来のニューラルネットワークのモ
デルについて説明する。図33はある1つの神経細胞ユ
ニットAを表す図であり、図34はこれをネットワーク
にしたものである。A1,A2,A3 は各々神経細胞ユニ
ットを表す。1つの神経細胞ユニットは多数の他の神経
細胞ユニットと結合し信号を受け、それを処理して出力
を出す。図34の場合、ネットワークは階層型であり、
神経細胞ユニットA2は1つ前(左側)の層の神経細胞
ユニットA1 より信号を受け、1つ後(右側)の層の神
経細胞ユニットA3 へ出力する。
First, a conventional neural network model will be described. FIG. 33 is a diagram showing a certain nerve cell unit A, and FIG. 34 is a network thereof. A 1 , A 2 , and A 3 each represent a nerve cell unit. One nerve cell unit combines with many other nerve cell units to receive a signal, process it, and output it. In the case of FIG. 34, the network is hierarchical,
The nerve cell unit A 2 receives a signal from the nerve cell unit A 1 in the previous layer (left side) and outputs it to the nerve cell unit A 3 in the next layer (right side).

【0004】より詳細に説明する。まず、図33の神経
細胞ユニットAにおいて、他の神経細胞ユニットと自分
のユニットとの結合の度合いを表すのが結合係数と呼ば
れるもので、i番目の神経細胞ユニットとj番目の神経
細胞ユニットの結合係数を一般にTijで表す。今、自分
の神経細胞ユニットがj番目のユニットであるとし、i
番目の神経細胞ユニットの出力をyi とすると、これに
結合係数Tijを掛けたTiji が、自分のユニットへの
入力となる。前述したように、1つの神経細胞ユニット
は多数の神経細胞ユニットと結合しているので、それら
のユニットに対するTiji を足し合わせた結果なるΣ
iji が、ネットワーク内における自分の神経細胞ユ
ニットへの入力となる。これを内部電位といい、uj
表す。
A more detailed description will be given. First, in the nerve cell unit A of FIG. 33, the degree of coupling between another nerve cell unit and its own unit is called a coupling coefficient, and the coupling coefficient of the i-th nerve cell unit and the j-th nerve cell unit. The coupling coefficient is generally represented by T ij . Now, let's say that my nerve cell unit is the jth unit, and i
Assuming that the output of the nth nerve cell unit is y i , T ij y i obtained by multiplying this by the coupling coefficient T ij becomes the input to its own unit. As described above, since one nerve cell unit is connected to many nerve cell units, the result of adding T ij y i for these units is Σ
T ij y i are the inputs to our neuronal unit in the network. This is called the internal potential and is represented by u j .

【0005】[0005]

【数1】 [Equation 1]

【0006】次に、この入力に対して非線形な処理をす
ることで、その神経細胞ユニットの出力とする。この時
に用いる関数を神経細胞応答関数と呼び、非線形関数と
して、(2)式及び図35に示すようなシグモイド関数を
用いる。
Then, the input is subjected to a non-linear process to obtain the output of the nerve cell unit. The function used at this time is called a nerve cell response function, and the sigmoid function as shown in equation (2) and FIG. 35 is used as the nonlinear function.

【0007】[0007]

【数2】 [Equation 2]

【0008】このような神経細胞ユニットを図34に示
すようにネットワークに構成した時には、各結合係数T
ijを与え、(1)(2)式を次々と計算することにより、情
報の並列処理が可能となり、最終的な出力が得られるも
のである。
When such a nerve cell unit is constructed in a network as shown in FIG. 34, each coupling coefficient T
By providing ij and sequentially calculating equations (1) and (2), parallel processing of information becomes possible and a final output is obtained.

【0009】このようなネットワークを電気回路により
実現したものの一例として、図36に示すようなものが
ある。これは、特開昭62−295188号公報中に示
されるもので、基本的には、S字形伝達関数を有する複
数の増幅器1と、各増幅器1の出力を他の層の増幅器の
入力に一点鎖線で示すように接続する抵抗性フィードバ
ック回路網2とが設けられている。各増幅器1の入力側
には接地されたコンデンサと接地された抵抗とによるC
R時定数回路3が個別に接続されている。そして、入力
電流I1,I2,〜,In が各増幅器1の入力に供給さ
れ、出力はこれらの増幅器1の出力電圧の集合から得ら
れる。
An example of such a network realized by an electric circuit is shown in FIG. This is disclosed in Japanese Patent Application Laid-Open No. 62-295188, and basically, a plurality of amplifiers 1 having an S-shaped transfer function, and the output of each amplifier 1 is input to the input of the amplifier of another layer. A resistive feedback network 2 is provided which is connected as shown by the dashed line. The input side of each amplifier 1 has a C connected by a grounded capacitor and a grounded resistor.
The R time constant circuits 3 are individually connected. Then, the input current I 1, I 2, ~, I n is supplied to the input of the amplifier 1, the output is obtained from a set of these amplifiers 1 output voltage.

【0010】ここに、ネットワークへの入力や出力の信
号強度を電圧で表し、神経細胞ユニット間の結合の強さ
は、各細胞間の入出力ラインを結ぶ抵抗4(抵抗性フィ
ードバック回路網2中の格子点)の抵抗値で表され、神
経細胞応答関数は各増幅器1の伝達関数で表される。即
ち、図36において複数の増幅器1は反転出力及び非反
転出力を有し、かつ、各増幅器1の入力には入力電流供
給手段なるCR時定数回路3を有しており、予め選定さ
れた第1の値、又は予め選定された第2の値である抵抗
4(Tij)で増幅器1の各々の出力を入力に接続するフ
ィードバック回路網2とされている。抵抗4はi番目の
増幅器出力とj番目の増幅器入力との間の相互コンダク
タンスを表し、回路網が平衡する複数の極小値を作るよ
うに選定され、複数の極小値を持ったエネルギー関数を
最小にするようにしている。また、神経細胞間の結合に
は、興奮性と抑制性とがあり数学的には結合係数の正負
符号により表されるが、回路上の定数で正負を実現する
のは困難であるので、ここでは、増幅器1の出力を2つ
に分け、一方の出力を反転させることにより、正負の2
つの信号を生成し、これを適当に選択することにより実
現するようにしている。また、図35に示したシグモイ
ド関数に相当するものとしては増幅器が用いられてい
る。
Here, the signal strength of the input and output to the network is represented by a voltage, and the strength of the coupling between the nerve cell units is determined by the resistance 4 (in the resistive feedback network 2) connecting the input / output lines between the cells. Is represented by the resistance value of each of the amplifiers 1, and the nerve cell response function is represented by the transfer function of each amplifier 1. That is, in FIG. 36, the plurality of amplifiers 1 have an inverting output and a non-inverting output, and the input of each amplifier 1 has a CR time constant circuit 3 as an input current supply means. A feedback network 2 connects the output of each of the amplifiers 1 to the input by a resistor 4 (T ij ) which is a value of 1 or a preselected second value. Resistor 4 represents the transconductance between the i-th amplifier output and the j-th amplifier input and is chosen to create multiple minima that the network will balance to minimize the energy function with multiple minima. I am trying to In addition, the coupling between nerve cells has excitability and inhibitory property, and is mathematically represented by the sign of the coupling coefficient, but it is difficult to realize the sign with a constant on the circuit. Then, by dividing the output of the amplifier 1 into two and inverting one output, positive and negative 2
It is realized by generating two signals and selecting them appropriately. An amplifier is used as the one corresponding to the sigmoid function shown in FIG.

【0011】しかしながら、このようなアナログ回路方
式には、次のような問題点がある。 信号の強度を電位や電流などのアナログ値で表し、
内部の演算もアナログ的に行わせる場合、温度特性や電
源投入直後のドリフト等により、その値が変化する。 ネットワークであるので、素子の数も多く必要とす
るが、各々の特性を揃えることは困難である。 1つの素子の精度や安定性が問題となったとき、そ
れをネットワークにしたとき、新たな問題を生ずる可能
性があり、ネットワーク全体で見たときの動きが予想で
きない。 結合係数Tijが固定であり、予めシミュレーション
などの他の方法で学習させた値を使うしかなく、自己学
習ができない。
However, such an analog circuit system has the following problems. The signal strength is represented by an analog value such as electric potential or current,
When the internal calculation is also performed in an analog manner, its value changes due to temperature characteristics, drift immediately after power-on, and the like. Since it is a network, a large number of elements are required, but it is difficult to make the respective characteristics uniform. When the accuracy or stability of one element becomes a problem, it may cause a new problem when it is used as a network, and the behavior when viewed in the whole network cannot be predicted. Since the coupling coefficient T ij is fixed and the value learned in advance by another method such as simulation is used, self-learning cannot be performed.

【0012】一方、デジタル回路でニューラルネットを
実現したものの例を図37ないし図39を参照して説明
する。図37は単一の神経細胞の回路構成を示し、各シ
ナプス回路6を樹状突起回路7を介して細胞体回路8に
接続してなる。図38はその内のシナプス回路6の構成
例を示し、係数回路9を介して入力パルスfに倍率a
(フィードバック信号に掛ける倍率で1又は2)を掛け
た値が入力されるレートマルチプライヤ10を設けてな
り、レートマルチプライヤ10には重み付けの値wを記
憶したシナプス荷重レジスタ11が接続されている。ま
た、図39は細胞体回路8の構成例を示し、制御回路1
2、アップ/ダウンカウンタ13、レートマルチプライ
ヤ14及びゲート15を順に接続してなり、さらに、ア
ップ/ダウンメモリ16が設けられている。
On the other hand, an example in which a neural network is realized by a digital circuit will be described with reference to FIGS. 37 to 39. FIG. 37 shows a circuit configuration of a single nerve cell, in which each synapse circuit 6 is connected to a cell body circuit 8 via a dendrite circuit 7. FIG. 38 shows an example of the configuration of the synapse circuit 6 in which the input pulse f is multiplied by a factor a through the coefficient circuit 9.
A rate multiplier 10 to which a value obtained by multiplying (a multiplication factor of 1 or 2 by the feedback signal) is input is provided, and the rate multiplier 10 is connected to a synapse weight register 11 that stores a weighting value w. . Further, FIG. 39 shows a configuration example of the cell body circuit 8, and the control circuit 1
2, an up / down counter 13, a rate multiplier 14 and a gate 15 are sequentially connected, and an up / down memory 16 is further provided.

【0013】これは、神経細胞ユニットの入出力をパル
ス列で表し、そのパルス密度で信号の量を表している。
結合係数は2進数で表し、メモリ16上に保存してお
く。入力信号をレートマルチプライヤ14のクロックへ
入力し、結合係数をレート値へ入力することによって、
入力信号のパルス密度をレート値に応じて減らしてい
る。これは、バックプロパゲーションモデルの式のTij
i の部分に相当する。次に、ΣTiji のΣの部分
は、樹状突起回路7によって示されるOR回路で実現し
ている。結合には興奮性、抑制性があるので、予めグル
ープ分けしておき、各々のグループ別にORをとる。こ
の2つの出力をカウンタ13のアップ側、ダウン側に入
力しカウントすることで出力が得られる。この出力は2
進数であるので、再びレートマルチプライヤ14を用い
て、パルス密度に変換する。このユニットをネットワー
クにすることによって、ニューラルネットワークが実現
できる。学習については、最終出力を外部のコンピュー
タに入力して、コンピュータ内部で数値計算を行い、そ
の結果を結合係数のメモリ16に書込むことにより実現
している。従って、自己学習機能は全くない。また、回
路構成もパルス密度の信号をカウンタを用いて一旦数値
(2進数)に変換し、その後、再びパルス密度に変換し
ており、複雑なものになっている。
In this case, the input and output of the nerve cell unit is represented by a pulse train, and the pulse density represents the amount of signal.
The coupling coefficient is represented by a binary number and stored in the memory 16. By inputting the input signal into the clock of the rate multiplier 14 and inputting the coupling coefficient into the rate value,
The pulse density of the input signal is reduced according to the rate value. This is the T ij of the backpropagation model equation.
It corresponds to the part of y i . Next, the Σ portion of ΣT ij y i is realized by the OR circuit shown by the dendrite circuit 7. Since the coupling has excitatory and inhibitory properties, it is divided into groups in advance and OR is taken for each group. An output is obtained by inputting these two outputs to the up side and down side of the counter 13 and counting. This output is 2
Since it is a decimal number, the rate multiplier 14 is used again to convert it into a pulse density. A neural network can be realized by making this unit a network. The learning is realized by inputting the final output to an external computer, performing numerical calculation inside the computer, and writing the result in the memory 16 of the coupling coefficient. Therefore, there is no self-learning function. Also, the circuit configuration is complicated because the pulse density signal is once converted into a numerical value (binary number) using a counter and then converted into the pulse density again.

【0014】このように従来技術による場合、アナログ
回路方式では動作に確実性がなく、数値計算による学習
方法も計算が複雑であり、ハードウエア化に適さず、動
作が確実なデジタル方式のものは回路構成が複雑であ
る。また、ハードウエア上で自己学習ができないという
欠点がある。
As described above, in the case of the conventional technique, the analog circuit system is not reliable in operation, and the learning method by numerical calculation is also complicated in calculation, and is not suitable for hardware implementation. The circuit configuration is complicated. Further, there is a drawback that self-learning cannot be performed on hardware.

【0015】このような欠点を解消するため、デジタル
方式の自己学習機能付きニューロンモデルが特願平2−
412448号、特願平3−29342号等として本出
願人により提案されている。このような既提案による自
己学習機能を持つデジタル論理回路を用いたニューロン
素子構成のニューラルネットワークについての基本的思
想及びその各種構成例について、図5ないし図32によ
り説明する。提案例の前提とするニューラルネットワー
クは、結合係数可変回路とこの結合係数可変回路の可変
結合係数値を教師信号に対する誤差信号に基づいて生成
する結合係数生成回路とを有する自己学習回路を付設し
たデジタル論理回路による複数の神経細胞模倣素子より
なる信号処理手段を網状に接続して構成される。
In order to solve such a defect, a digital neuron model with a self-learning function is disclosed in Japanese Patent Application No.
No. 4,12,448 and Japanese Patent Application No. 3-29342 have been proposed by the present applicant. A basic idea of a neural network having a neuron element structure using such a digital logic circuit having a self-learning function according to the already proposed method and various structural examples thereof will be described with reference to FIGS. The neural network that is the premise of the proposed example is a digital circuit equipped with a self-learning circuit having a coupling coefficient variable circuit and a coupling coefficient generating circuit that generates a variable coupling coefficient value of the coupling coefficient variable circuit based on an error signal for a teacher signal. It is configured by connecting a signal processing means composed of a plurality of nerve cell mimicking elements by a logic circuit in a mesh.

【0016】まず、提案例におけるニューラルネットワ
ークはデジタル構成によりハードウエア化したものであ
るが、基本的な考え方としては、 神経細胞ユニットに関する入出力信号、中間信号、
結合係数、教師信号などは全て、「0」「1」の2値で
表されたパルス列で表す。 ネットワーク内部での信号の量は、パルス密度で表
す(ある一定時間内の「1」の数)。 神経細胞ユニット内での計算は、パルス列同士の論
理演算で表す。 結合係数のパルス列はメモリ上に置く。 学習は、このパルス列を書換えることで実現する。 学習については、与えられた教師信号パルス列を基
に誤差を計算し、これに基づいて、結合係数パルス列を
変化させる。このとき、誤差の計算、結合係数の変化分
の計算も、全て、「0」「1」のパルス列の論理演算で
行う。 ようにしたものである。
First, the neural network in the proposed example is implemented by hardware by a digital configuration, but the basic idea is to input / output signals, intermediate signals,
The coupling coefficient, the teacher signal, etc. are all represented by a binary pulse train of "0" and "1". The amount of signal inside the network is represented by the pulse density (the number of "1" s within a certain fixed time). The calculation in the nerve cell unit is represented by a logical operation between pulse trains. The pulse train of the coupling coefficient is placed in the memory. Learning is realized by rewriting this pulse train. For learning, an error is calculated based on the given teacher signal pulse train, and the coupling coefficient pulse train is changed based on the error. At this time, the calculation of the error and the change of the coupling coefficient are all performed by the logical operation of the pulse train of "0" and "1". It was done like this.

【0017】以下、この思想について説明する。まず、
デジタル論理回路による信号処理に関し、フォワードプ
ロセスにおける信号処理を説明する。図5は1つの神経
細胞ユニット(神経細胞模倣素子)20に相当する部分
を示し、ニューラルネットワーク全体としては例えば図
6に示すように階層型とされる。入出力は、全て、
「1」「0」に2値化され、かつ、同期化されたものが
用いられる。入力信号yi の強度はパルス密度で表現
し、例えば図7に示すパルス列のようにある一定時間内
にある「1」の状態数で表す。即ち、図7の例は、4/
6を表し、同期パルス6個中に信号は「1」が4個、
「0」が2個である。このとき、「1」と「0」の並び
方はランダムであることが望ましい。
This idea will be described below. First,
Regarding signal processing by a digital logic circuit, signal processing in the forward process will be described. FIG. 5 shows a portion corresponding to one nerve cell unit (nerve cell mimicking element) 20, and the entire neural network is of a hierarchical type as shown in FIG. 6, for example. Input and output are all
The one that is binarized into “1” and “0” and synchronized is used. The intensity of the input signal y i is represented by a pulse density, and is represented by the number of states of “1” within a certain fixed time as in the pulse train shown in FIG. 7, for example. That is, the example of FIG.
6, the signal is 4 "1" in 6 sync pulses,
There are two "0" s. At this time, it is desirable that the arrangement of "1" and "0" is random.

【0018】一方、各神経細胞ユニット20間の結合の
度合を示す結合係数Tijも同様にパルス密度で表現し、
「0」と「1」とのパルス列として予めメモリ上に用意
しておく。図8の例は、「101010」=3/6を表
す式である。この場合も、「1」と「0」の並び方はラ
ンダムであることが望ましい。
On the other hand, the coupling coefficient T ij indicating the degree of coupling between the nerve cell units 20 is similarly expressed by pulse density,
The pulse train of "0" and "1" is prepared in advance in the memory. The example of FIG. 8 is an expression representing “101010” = 3/6. Also in this case, it is desirable that the arrangement of "1" and "0" is random.

【0019】そして、このパルス列を同期クロックに応
じてメモリ上より順次読出し、図5に示すように各々A
NDゲート21により入力信号パルス列との論理積をと
る(yi ∩ Tij)。これを、神経細胞jへの入力とす
る。上例の場合で説明すると、入力信号が「10110
1」として入力されたとき、これと同期してメモリ上よ
りパルス列を呼出し、順次ANDをとることにより、図
9に示すような「101000」が得られ、これは入力
i が結合係数Tijにより変換されパルス密度が2/6
となることを示している。
Then, this pulse train is sequentially read from the memory in accordance with the synchronous clock, and as shown in FIG.
The ND gate 21 takes the logical product of the input signal pulse train (y i ∩ T ij ). This is used as an input to the nerve cell j. In the case of the above example, the input signal is “10110
When "1" is input, a pulse train is called from the memory in synchronism with this, and "101000" as shown in FIG. 9 is obtained by sequentially performing AND, which means that the input y i is the coupling coefficient T ij. And the pulse density is 2/6
It shows that it becomes.

【0020】ANDゲート21の出力のパルス密度は、
近似的には入力信号のパルス密度と結合係数のパルス密
度との積となり、アナログ方式の結合係数と同様の機能
を有する。これは、信号の列が長いほど、また、「1」
と「0」との並び方がランダムであるほど、数値の積に
近い機能を持つことになる。ランダムでないとは、
「1」(又は、「0」)が密集(密接)していることを
意味する。なお、入力パルス列に比べて結合係数のパル
ス列が短く、読出すべきデータがなくなったら、再びデ
ータの先頭に戻って読出しを繰返えせばよい。
The pulse density of the output of the AND gate 21 is
It is approximately the product of the pulse density of the input signal and the pulse density of the coupling coefficient, and has the same function as the analog coupling coefficient. This is because the longer the signal train is, the more "1"
The more random the arrangement of "0" and "0", the closer to the product of numerical values it has. Not random means
It means that "1" (or "0") is dense (close). When the pulse train of the coupling coefficient is shorter than the input pulse train and there is no data to be read, the head of the data may be returned to and the reading may be repeated.

【0021】1つの神経細胞ユニット20は多入力であ
るので、前述した「入力信号と結合係数とのAND」も
多数あり、次にOR回路22によりこれらの論理和をと
る。入力は同期化されているので、例えば1番目のデー
タが「101000」、2番目のデータが「01000
0」の場合、両者のORをとると、「111000」と
なる。これを多入力同時に計算し出力とすると、例えば
入力数がm個の場合、図10に示すようになる。これ
は、アナログ計算における和の計算及び非線形関数(シ
グモイド関数)の部分に対応している。
Since one nerve cell unit 20 has multiple inputs, there are also many "ANDs of the input signal and the coupling coefficient" described above, and then the OR circuit 22 takes the logical sum of these. Since the inputs are synchronized, for example, the first data is "101000" and the second data is "01000".
In the case of “0”, the OR of both is “111000”. If multiple inputs are simultaneously calculated and output, for example, when the number of inputs is m, the result is as shown in FIG. This corresponds to the sum calculation and the non-linear function (sigmoid function) in the analog calculation.

【0022】パルス密度が低い場合、そのORをとった
もののパルス密度は、各々のパルス密度の和に近似的に
一致する。パルス密度が高くなるにつれ、OR回路22
の出力は段々飽和してくるので、パルス密度の和とは一
致せず、非線形性が出てくる。ORの場合、パルス密度
は1よりも大きくなることがなく、かつ、0より小さく
なることもなく、さらには、単調増加関数であり、シグ
モイド関数と近似的に同等となる。
When the pulse density is low, the pulse density of the OR of the pulse density approximately matches the sum of the respective pulse densities. As the pulse density increases, the OR circuit 22
Since the output of is gradually saturated, it does not match the sum of pulse densities, and nonlinearity appears. In the case of OR, the pulse density does not become larger than 1 and does not become smaller than 0, and is a monotonically increasing function, which is approximately equivalent to the sigmoid function.

【0023】ところで、結合には興奮性と抑制性があ
り、数値計算の場合には、結合係数の符号で表し、アナ
ログ回路の場合はTijが負となる場合(抑制性結合)は
増幅器を用いて出力を反転させてTijに相当する抵抗値
で他の神経細胞ユニットに結合させている。この点、デ
ジタル方式の本実施例にあっては、まず、Tijの正負に
より各結合を興奮性結合と抑制性結合との2つのグルー
プに分け、次いで、「入力信号と結合係数のパルス列の
AND」同士のORをこのグループ別に計算する。そし
て、興奮性結合グループの出力のみが「1」のとき、
「1」を出力し、抑制性結合グループの出力のみが
「1」のとき、「0」を出力する。両方とも「1」のと
き、又は「0」のときは「1」「0」の何れを出力して
もよく、或いは、確率1/2程度で「1」を出力しても
よい。ここでは、興奮性結合グループの出力が「1」で
抑制性結合グループの出力が「0」のときのみ出力
「1」を出すようにする。この機能を実現するために
は、(抑制性結合グループの出力のNOT)と(興奮性
結合グループの出力)とのANDをとればよい。即ち、
図11に示すようになる。論理式で表現すると、次の
(3)〜(5)式で示される。
By the way, the coupling has excitability and inhibitory ability. In the case of numerical calculation, it is represented by the sign of the coupling coefficient. In the case of an analog circuit, when T ij is negative (inhibitory coupling), an amplifier is used. It is used to invert the output and connect it to another nerve cell unit with a resistance value corresponding to T ij . In this respect, in the present embodiment of the digital system, first, each coupling is divided into two groups of excitatory coupling and inhibitory coupling according to the positive or negative of T ij , and then “the pulse train of the input signal and the coupling coefficient is divided. The OR of “AND” is calculated for each group. And when only the output of the excitatory coupling group is "1",
When "1" is output and only the output of the inhibitory binding group is "1", "0" is output. When both are "1" or "0", either "1" or "0" may be output, or "1" may be output with a probability of about 1/2. Here, the output "1" is output only when the output of the excitatory coupling group is "1" and the output of the inhibitory coupling group is "0". In order to realize this function, the AND of the output of the inhibitory coupling group and the output of the excitatory coupling group may be ANDed. That is,
As shown in FIG. Expressed as a logical expression,
It is shown by the equations (3) to (5).

【0024】[0024]

【数3】 [Equation 3]

【0025】神経細胞ユニット20のネットワークは、
バックプロパゲーションと同様な階層型(即ち、図6)
とする。そして、ネットワーク全体を同期させておけ
ば、各層とも上述した機能により計算できる。
The network of nerve cell units 20 is
Hierarchical type similar to backpropagation (ie, Figure 6)
And If the entire network is synchronized, each layer can be calculated by the functions described above.

【0026】一方、Tijの正負により各結合を興奮性結
合と抑制性結合との2つのグループに分け、次いで、
「入力信号と結合係数のパルス列のAND」同士のOR
をこのグループ別に計算し、その後、興奮性結合グルー
プの出力が「0」で抑制性結合グループの出力が「1]
のとき以外出力を出すようにする場合であれば、(抑制
性結合グループの出力のNOT)と(興奮性結合グルー
プの出力)とのORをとればよい。
On the other hand, each connection is divided into two groups, an excitatory connection and an inhibitory connection, depending on whether T ij is positive or negative.
OR between "AND of input signal and pulse train of coupling coefficient"
Is calculated for each group, and then the output of the excitatory coupling group is “0” and the output of the inhibitory coupling group is “1”.
In the case of outputting an output other than in the case of, the (NOT of output of inhibitory coupling group) and (output of excitatory coupling group) may be ORed.

【0027】次に、学習(バックプロパゲーション)に
おける信号演算処理について説明する。基本的には、以
下のa又はbにより誤差信号を求め、次いで、cの方法
により結合係数の値を変化させるようにすればよい。
Next, the signal calculation processing in learning (back propagation) will be described. Basically, the error signal may be obtained by the following a or b, and then the value of the coupling coefficient may be changed by the method of c.

【0028】まず、aとして最終層における誤差信号に
ついて説明する。最終層で各神経細胞ユニットにおける
誤差信号を計算し、それを基にその神経細胞ユニットに
関わる結合係数を変化させる。そのための、誤差信号の
計算法について述べる。ここに、「誤差信号」を以下の
ように定義する。誤差を数値で表すと、一般には+,−
の両方をとり得るが、パルス密度の場合には、正、負の
両方を同時に表現できないので、+成分を表す信号と、
−成分を表す信号との2種類を用いて誤差信号を表現す
る。即ち、j番目の神経細胞ユニットの誤差信号は、図
12のように示される。つまり、誤差信号の+成分は教
師信号パルスと出力パルスとの違っている部分(1,
0)又は(0,1)の内、教師信号側に存在するパル
ス、他方、−成分は同様に出力側に存在するパルスであ
る。換言すれば、出力パルスに誤差信号+パルスを付け
加え、誤差信号−パルスを取り除くと、教師パルスとな
ることになる。即ち、これらの正負の誤差信号δj(+)
δj(-)を論理式で表現すると、各々(6)(7)式のように
なる。式中、EXORは排他的論理和を表す。このよう
な誤差信号パルスを基に結合係数を後述するように変化
させることになる。
First, the error signal in the final layer will be described as a. The error signal in each nerve cell unit is calculated in the final layer, and the coupling coefficient relating to that nerve cell unit is changed based on the error signal. The calculation method of the error signal for that is described. Here, the "error signal" is defined as follows. When the error is expressed numerically, it is generally +,-
However, in the case of pulse density, both positive and negative cannot be expressed at the same time.
Express the error signal using two types: the signal representing the component. That is, the error signal of the jth nerve cell unit is shown in FIG. In other words, the + component of the error signal is the difference between the teacher signal pulse and the output pulse (1,
0) or (0, 1) is a pulse existing on the teacher signal side, while the − component is a pulse existing on the output side as well. In other words, if the error signal + pulse is added to the output pulse and the error signal−pulse is removed, it becomes a teacher pulse. That is, these positive and negative error signals δ j (+) ,
When δ j (-) is expressed by a logical expression, it becomes the expressions (6) and (7), respectively. In the formula, EXOR represents an exclusive OR. The coupling coefficient is changed based on such an error signal pulse as described later.

【0029】[0029]

【数4】 [Equation 4]

【0030】次に、bとして中間層における誤差信号を
求める方法を説明する。まず、上記の誤差信号を逆伝播
させ、最終層とその1つ前の層との結合係数だけでな
く、さらにその前の層の結合係数も変化する。そのた
め、中間層における各神経細胞ユニットでの誤差信号を
計算する必要がある。中間層のある神経細胞ユニットか
ら、さらに1つ先の層の各神経細胞ユニットへ信号を伝
播させたのとは、丁度逆の要領で1つ先の層の各神経細
胞ユニットにおける誤差信号を集めてきて、自己の誤差
信号とする。このことは、神経細胞ユニット内での前述
した演算式(3)〜(5)や図7〜図11に示した場合と同
じような要領で行うことができる。ただし、神経細胞ユ
ニット内での前述した処理と異なるのは、yは1つの信
号であるのに対して、δは正、負を表す信号として2つ
の信号を持ち、その両方の信号を考慮する必要があるこ
とである。従って、結合係数Tの正負、誤差信号δの正
負に応じて4つの場合に分ける必要がある。
Next, a method of obtaining an error signal in the intermediate layer as b will be described. First, the above-mentioned error signal is back-propagated to change not only the coupling coefficient between the final layer and the layer immediately before it but also the coupling coefficient of the layer before that. Therefore, it is necessary to calculate the error signal in each nerve cell unit in the middle layer. Signals were propagated from the neuron unit with an intermediate layer to each neuron unit in the next layer, which is exactly the reverse of the procedure of collecting error signals in each neuron unit in the next layer. And use it as its own error signal. This can be performed in the same manner as the above-described arithmetic expressions (3) to (5) and the cases shown in FIGS. 7 to 11 in the nerve cell unit. However, the difference from the above-mentioned processing in the nerve cell unit is that y is one signal, while δ has two signals as positive and negative signals, and both signals are considered. It is necessary. Therefore, it is necessary to divide into four cases depending on whether the coupling coefficient T is positive or negative and the error signal δ is positive or negative.

【0031】まず、興奮性結合の場合を説明する。この
場合、中間層のある神経細胞ユニットについて、1つ先
の層(図6における最終層)のk番目の神経細胞ユニッ
トでの誤差信号+と、その神経細胞ユニットと自己(図
6における中間層のあるj番目の神経細胞ユニット)と
の結合係数のANDをとったもの(δk(+) ∩ Tjk)を
各神経細胞ユニットについて求め、さらに、これら同士
のORをとる{∪(δk(+) ∩ Tjk)}。これをこの層
の誤差信号δj(+)とする。即ち、1つ先の層の神経細胞
ユニット数をn個とすると、図13に示すようになる。
First, the case of excitatory coupling will be described. In this case, for a nerve cell unit having an intermediate layer, the error signal + at the k-th nerve cell unit of the next layer (final layer in FIG. 6), the nerve cell unit and self (intermediate layer in FIG. 6) J-th neuronal cell unit) with the coupling coefficient AND (δ k (+) ∩ T jk ) is obtained for each neuron cell unit, and the OR between them is taken {∪ (δ k (+) ∩ T jk )}. This is the error signal δ j (+) of this layer. That is, assuming that the number of nerve cell units in the layer one layer ahead is n, the result is as shown in FIG.

【0032】同様に、1つ先の層の神経細胞ユニットで
の誤差信号−と結合係数とのANDをとり、さらにこれ
ら同士のORをとることにより、この層の誤差信号δ
j(-)とする。即ち、図14に示すようになる。
Similarly, the error signal δ of this layer is obtained by ANDing the error signal − and the coupling coefficient in the nerve cell unit of the layer one layer ahead and further ORing them.
j (-) . That is, it becomes as shown in FIG.

【0033】次に、抑制性結合の場合を説明する。この
場合、1つ先の層の神経細胞ユニットでの誤差信号−と
その神経細胞ユニットと自己との結合係数のANDをと
り、さらにこれら同士のORをとる。これを、この層の
誤差信号δj(+)とする。即ち、図15に示すようにな
る。
Next, the case of inhibitory binding will be described. In this case, the AND of the error signal in the nerve cell unit of the layer one layer ahead and the coupling coefficient of the nerve cell unit and the self is taken, and further the OR between them is taken. This is the error signal δ j (+) of this layer. That is, it becomes as shown in FIG.

【0034】また、1つ先の誤差信号+と結合係数との
ANDをとり、さらにこれら同士のORをとることによ
り、同様に、この層の誤差信号δj(-)とする。即ち、図
16に示すようになる。
Similarly, the AND of the error signal + which is one ahead and the coupling coefficient are ANDed, and the OR of these is taken to obtain the error signal δ j (-) of this layer in the same manner. That is, it becomes as shown in FIG.

【0035】1つの神経細胞ユニットから別の神経細胞
ユニットへは興奮性で結合しているものもあれば、抑制
性で結合しているものもあるので、図13のように求め
た誤差信号δj(+)と図15のように求めた誤差信号δ
j(+)とのORをとり、それを自分の神経細胞ユニットの
誤差信号δj(+)とする。同様に、図14のように求めた
誤差信号δj(-)と図16のように求めた誤差信号δj(-)
とのORをとり、それを自分の神経細胞ユニットの誤差
信号δj(-)とする。
Since some nerve cell units are excitatoryly coupled to other nerve cell units and some are inhibitoryly coupled, the error signal δ obtained as shown in FIG. 13 is used. j (+) and the error signal δ obtained as shown in FIG.
OR with j (+) and use it as the error signal δ j (+) of its own nerve cell unit. Similarly, the error signal [delta] j determined as in FIG. 14 (-) and the error signal [delta] j determined as in FIG. 16 (-)
Is taken as the error signal δ j (-) of its own nerve cell unit.

【0036】以上をまとめると、(8)式に示すようにな
る。
The above is summarized as shown in equation (8).

【0037】[0037]

【数5】 [Equation 5]

【0038】さらに、学習のレート(学習定数)に相当
する機能を設けてもよい。数値計算でレートが1以下の
とき、さらに学習能力が高まる。これはパルス列の演算
ではパルス列を間引くことによって実現できる。ここで
は、カウンタ的な考え方をし、図17、図18に示すよ
うなものとした。例えば、学習レートη=0.5では元
の信号のパルス列を1つ置きに間引くが、元の信号のパ
ルスが等間隔でなくても、元のパルス列に対して間引く
ことができる。図17,18中、η=0.5の場合はパ
ルスを1つ置きに間引き、η=0.33の場合はパルス
を2つ置きに残し、η=0.67の場合はパルスを2つ
置きに1回間引くことを示す。
Further, a function corresponding to the learning rate (learning constant) may be provided. When the rate is 1 or less in the numerical calculation, the learning ability is further enhanced. This can be realized by thinning out the pulse train in the pulse train calculation. Here, a counter-like concept is adopted, and the ones shown in FIGS. 17 and 18 are adopted. For example, at the learning rate η = 0.5, every other pulse train of the original signal is thinned out, but even if the pulses of the original signal are not evenly spaced, the original pulse train can be thinned out. 17 and 18, in the case of η = 0.5, every other pulse is thinned out, in the case of η = 0.33, every two pulses are left, and in the case of η = 0.67, two pulses are left. It indicates that one thinning is performed every other time.

【0039】このようにして、誤差信号を間引くことに
より学習レートの機能を持たせる。このような誤差信号
の間引きは、通常市販されているカウンタの出力を論理
演算することやフリップフロップを用いることにより容
易に実現できる。特に、カウンタを用いた場合、学習定
数ηの値を任意、かつ、容易に設定できるので、ネット
ワークの特性を制御することも可能となる。
In this way, the function of the learning rate is provided by thinning out the error signal. Such thinning out of the error signal can be easily realized by logically operating the output of a counter commercially available or using a flip-flop. In particular, when a counter is used, the value of the learning constant η can be set arbitrarily and easily, so that the characteristics of the network can be controlled.

【0040】ところで、誤差信号には、常に学習定数を
掛けておく必要はない。例えば、次に述べる結合係数を
求める演算にのみ用いてもよい。また、誤差信号を逆向
きに伝播させるときの学習定数と、結合係数を求める演
算で用いる学習定数とは異なっていてもよい。このこと
は、ネットワークがおかれた神経細胞ユニットの特性を
個々に設定できることを意味し、極めて汎用性の高いシ
ステムを構築できる。従って、ネットワークの持つ性能
を適宜調整することが可能となる。
By the way, it is not always necessary to multiply the error signal by a learning constant. For example, it may be used only for the calculation for obtaining the coupling coefficient described below. Further, the learning constant for propagating the error signal in the opposite direction may be different from the learning constant used in the calculation for obtaining the coupling coefficient. This means that it is possible to individually set the characteristics of the nerve cell units provided with the network, and it is possible to construct an extremely versatile system. Therefore, it is possible to appropriately adjust the performance of the network.

【0041】さらに、cとして、このような誤差信号に
より各結合係数を変化させる方法について説明する。変
化させたい結合係数が属しているライン(図6参照)を
流れる信号と誤差信号のANDをとる(δj∩yi)。た
だし、本実施例では誤差信号には+,−の2つの信号が
あるので、各々演算して図19,図20に示すように求
める。このようにして得られた2つの信号を各々ΔT
ij(+),ΔTij(-)とする。
Further, as c, a method of changing each coupling coefficient by such an error signal will be described. The signal flowing through the line (see FIG. 6) to which the coupling coefficient to be changed belongs and the error signal are ANDed (δ j ∩ y i ). However, in this embodiment, the error signal has two signals of + and −, and therefore, the error signals are respectively calculated and obtained as shown in FIGS. The two signals thus obtained are respectively denoted by ΔT
Let ij (+) and ΔT ij (-) .

【0042】ついで、今度はこのΔTijを基に新しいT
ijを求めるが、このTijは絶対値成分であるので、元の
ijが興奮性か抑制性かで場合分けする。興奮性の場
合、元のTijに対してΔTij(+)の成分を増やし、ΔT
ij(-)の成分を減らす。即ち、図21に示すようにな
る。逆に、抑制性の場合は元のTijに対しΔTij(+)
成分を減らし、ΔTij(-)の成分を増やす。即ち、図2
2に示すようになる。
Next, based on this ΔT ij , a new T
ij is obtained. Since this T ij is an absolute value component, it is classified depending on whether the original T ij is excitatory or inhibitory. In the case of excitability, the component of ΔT ij (+) is increased with respect to the original T ij , and ΔT
Reduce the components of ij (-) . That is, it becomes as shown in FIG. On the contrary, in the case of the suppressive property, the component of ΔT ij (+) is reduced and the component of ΔT ij (−) is increased with respect to the original T ij . That is, FIG.
As shown in 2.

【0043】以上の学習則に基づいてネットワークの計
算をする。
The network is calculated based on the above learning rule.

【0044】次に、以上のアルゴリズムに基づく実際の
回路構成を説明する。図23ないし図25にその回路構
成例を示すが、ネットワーク全体の構成は図6と同様で
ある。図23は図6中のライン(結線)に相当する部分
の回路を示し、図24は図6中の丸(各神経細胞ユニッ
ト20)に相当する部分の回路を示す。また、図25は
最終層の出力と教師信号から最終層における誤差信号を
求める部分の回路を示す。これらの図23ないし図25
構成の3つの回路を図6のようにネットワークにするこ
とにより、自己学習可能なデジタル式のニューラルネッ
トワークが実現できる。
Next, an actual circuit configuration based on the above algorithm will be described. 23 to 25 show examples of the circuit configuration, the configuration of the entire network is similar to that of FIG. FIG. 23 shows a circuit corresponding to a line (connection) in FIG. 6, and FIG. 24 shows a circuit corresponding to a circle (each nerve cell unit 20) in FIG. Further, FIG. 25 shows a circuit of a portion for obtaining an error signal in the final layer from the output of the final layer and the teacher signal. 23 to 25.
A digital neural network capable of self-learning can be realized by forming the network of the three circuits as shown in FIG.

【0045】まず、図23から説明する。図中、25は
神経細胞ユニットへの入力信号であり、図7に相当す
る。図8に示したような結合係数の値はシフトレジスタ
26に保存しておく。このシフトレジスタ26は取出し
口26aと入口26bとを有するが、通常のシフトレジ
スタと同様の機能を持つものであればよく、例えば、R
AMとアドレスコントローラとの組合せによるもの等で
あってもよい。入力信号25とシフトレジスタ26内の
結合係数とはANDゲート27を備えて図9に示した処
理を行なう論理回路28によりANDがとられる。この
論理回路28の出力は結合が興奮性か抑制性かによって
グループ分けしなければならないが、予め各々のグルー
プへの出力29,30を用意し、何れに出力するのかを
切換えるようにした方が汎用性の高いものとなる。この
ため、ここでは結合が興奮性か抑制性かを表すビットを
グループ分け用メモリ31に保存しておき、その情報を
用いて切換えゲート回路32により切換える。切換えゲ
ート回路32は2つのANDゲート32a,32bと一
方の入力に介在されたインバータ32cとよりなる。
First, FIG. 23 will be described. In the figure, 25 is an input signal to the nerve cell unit and corresponds to FIG. 7. The value of the coupling coefficient as shown in FIG. 8 is stored in the shift register 26. The shift register 26 has an outlet 26a and an inlet 26b, but may have the same function as a normal shift register, for example, R
It may be a combination of an AM and an address controller. The input signal 25 and the coupling coefficient in the shift register 26 are ANDed by a logic circuit 28 having an AND gate 27 and performing the processing shown in FIG. The output of the logic circuit 28 must be divided into groups depending on whether the coupling is excitatory or inhibitory. However, it is better to prepare the outputs 29 and 30 for each group in advance and switch which one is output. It is highly versatile. Therefore, here, a bit indicating whether the coupling is excitatory or inhibitory is stored in the grouping memory 31, and the switching gate circuit 32 switches using the information. The switching gate circuit 32 includes two AND gates 32a and 32b and an inverter 32c interposed at one input.

【0046】また、図24に示すように各入力処理(図
10に相当)をする複数のORゲート構成のゲート回路
33a,33bが設けられている。さらに、同図に示す
ように図11に示した興奮性結合グループが「1」で、
抑制性結合グループが「0」のときにのみ出力「1」を
出すANDゲート34aとインバータ34bとによるゲ
ート回路34が設けられている。
Further, as shown in FIG. 24, gate circuits 33a and 33b having a plurality of OR gate configurations for performing respective input processes (corresponding to FIG. 10) are provided. Furthermore, as shown in the figure, the excitatory coupling group shown in FIG. 11 is “1”,
A gate circuit 34 including an AND gate 34a and an inverter 34b that outputs an output "1" only when the inhibitory coupling group is "0" is provided.

【0047】次に、誤差信号について説明する。最終層
での誤差信号を生成するのが図25に示すAND,排他
的ORの組合せによる論理回路35であり、(6)(7)式
に相当する。即ち、最終層からの出力36及び教師信号
37により誤差信号38,39を作るものである。中間
層における誤差信号を計算するため図13〜図16に示
したような処理は、図23中に示すANDゲート構成の
ゲート回路42により行われ、+,−に応じた出力4
3,44が得られる。このように結合が興奮性か抑制性
かにより場合分けする必要があるが、この場合分けはメ
モリ31に記憶された興奮性か抑制性かの情報と、誤差
信号の+,−信号45,46とに応じて、AND,OR
ゲート構成のゲート回路47により行われる。また、誤
差信号を集める計算式(8)は図24に示すORゲート構
成のゲート回路48により行われる。さらに、学習レー
トに相当する図17,18の処理は図24中に示す分周
回路49により行われる。最後に、誤差信号より新たな
結合係数を計算する部分、即ち、図19〜図22の処理
に相当する部分は、図23中に示すAND,インバー
タ、ORゲート構成のゲート回路50により行われ、シ
フトレジスタ26の内容、即ち、結合係数の値が書換え
られる。このゲート回路50も結合の興奮性、抑制性に
よって場合分けが必要であるが、ゲート回路47により
行われる。
Next, the error signal will be described. The error signal in the final layer is generated by the logic circuit 35 based on the combination of AND and exclusive OR shown in FIG. 25, which corresponds to equations (6) and (7). That is, the error signals 38 and 39 are produced by the output 36 from the final layer and the teacher signal 37. The processing as shown in FIGS. 13 to 16 for calculating the error signal in the intermediate layer is performed by the gate circuit 42 having the AND gate configuration shown in FIG. 23, and the output 4 according to + and − is output.
3,44 is obtained. As described above, it is necessary to classify the connection depending on whether it is excitatory or inhibitory. In this case, the information on excitatory or inhibitory stored in the memory 31 and the +,-signals 45 and 46 of the error signal are used. AND, OR depending on
This is performed by the gate circuit 47 having a gate configuration. The calculation formula (8) for collecting the error signals is performed by the gate circuit 48 having the OR gate structure shown in FIG. Further, the processing of FIGS. 17 and 18 corresponding to the learning rate is performed by the frequency dividing circuit 49 shown in FIG. Finally, a portion for calculating a new coupling coefficient from the error signal, that is, a portion corresponding to the processing of FIGS. 19 to 22 is performed by the gate circuit 50 having the AND, inverter and OR gate configurations shown in FIG. The contents of the shift register 26, that is, the value of the coupling coefficient is rewritten. This gate circuit 50 also needs to be classified depending on the excitability and inhibitory property of the coupling, but the gate circuit 47 performs this.

【0048】ここに、図23及び図24に示したグルー
プ分け方式及び出力決定方式を抽出して示すと、図26
のようになる。即ち、入力段階ではグループ分けしてお
らず、各入力25ijに対して結合係数を記憶したメモリ
なるシフトレジスタ26ijが個別に設けられ、ANDゲ
ート27ijによる論理結果をグループ分け用メモリ31
の内容に応じて切換え回路32を経て、2つのグループ
に分け、興奮性結合グループであればORゲート33a
側で論理和を求め、抑制性結合グループであればORゲ
ート33b側で論理和を求める。この後、ゲート回路3
4による論理積処理により出力を決定するというもので
ある。
The grouping method and the output determining method shown in FIGS. 23 and 24 are extracted and shown in FIG.
become that way. That is, the input stage is not divided into groups, but a shift register 26 ij, which is a memory storing coupling coefficients, is individually provided for each input 25 ij , and the logical result by the AND gate 27 ij is divided into the grouping memory 31.
The OR gate 33a is divided into two groups via the switching circuit 32 in accordance with
The OR gate 33b side obtains a logical sum, and the OR gate 33b side obtains a logical sum in the case of an inhibitory coupling group. After this, the gate circuit 3
The output is determined by the logical product process of 4.

【0049】なお、このような興奮性結合と抑制性結合
とのグループ分け方式については、例えば図27に示す
ように構成してもよい。即ち、入力段階で予め興奮性結
合のグループaと抑制性結合のグループbとにグループ
分けしておき、各入力25ijに対して結合係数Tijを記
憶した少なくとも2ビット以上のメモリ、具体的にはシ
フトレジスタ51を設けたものである。以後は、グルー
プ毎にORゲート33a,33b等を通して同様に処理
すればよい。52はANDゲートである。
Note that such a grouping method of excitatory coupling and inhibitory coupling may be configured as shown in FIG. 27, for example. That is, at the input stage, a group of excitatory coupling and a group of inhibitory coupling are grouped in advance, and a coupling coefficient T ij is stored for each input 25 ij . Is provided with a shift register 51. After that, the same processing may be performed for each group through the OR gates 33a and 33b. 52 is an AND gate.

【0050】また、ゲート回路34については、図28
に示すように、ANDゲート34aに代えてORゲート
34cを用いた構成として論理和処理を行なうようにし
てもよい。
FIG. 28 shows the gate circuit 34.
As shown in, the OR gate 34c may be used in place of the AND gate 34a to perform the OR operation.

【0051】また、図29に示すように、結合係数可変
回路で用いる学習定数を外部から任意に可変設定させる
学習定数設定手段62を設けるようにしてもよい。即
ち、前述の〜に示した基本的な考えに、 で示した学習時に用いる学習定数(学習レート)
を可変とし、応用面に即した性能のネットワーク回路を
得る。 の機能を付加するようにしたものである。
Further, as shown in FIG. 29, a learning constant setting means 62 for arbitrarily and variably setting the learning constant used in the coupling coefficient variable circuit from the outside may be provided. That is, the learning constant (learning rate) used during learning shown in
Variable to obtain a network circuit with performance suitable for the application. The function of is added.

【0052】まず、この学習定数設定手段62は図24
中に示した分周回路49に代えて設けられるもので、誤
差信号が入力されるカウンタ63と、このカウンタ63
の出力を論理演算して学習定数の処理を行うORゲート
64〜67及び1つのANDゲート68とよりなる。よ
り詳細には、カウンタ63のバイナリ出力A〜Dに接続
されたORゲート64〜67の各々の入力側に設けたス
イッチSa〜Sdを全てHレベル側にするとη=1.0
となり、スイッチSa〜Sdを全てLレベル側にすると
η=1/16となる。よって、Hレベル側になっている
スイッチの数をNとすると、η=(2のN乗)/16と
なる。従って、スイッチ(或いは、スイッチに代えた外
部信号)を用いることにより、学習定数を任意に設定す
ることができる。なお、パルス密度をカウンタ63のク
ロック入力として用いる場合、誤差信号の入力に対して
ANDゲート69を適宜設けてもよい。学習定数設定手
段62はこのような回路構成に限らない。また、このよ
うな学習定数設定手段62を複数備えるか、又は、外部
信号により適宜制御することにより、結合係数の演算に
用いる学習定数の値と、誤差信号の逆伝播に用いる学習
定数の値とを異ならせることも可能となる。
First, the learning constant setting means 62 is shown in FIG.
The counter 63, which is provided in place of the frequency dividing circuit 49 shown in FIG.
It is composed of OR gates 64 to 67 and one AND gate 68 which logically operate the output of the above to process the learning constant. More specifically, when all the switches Sa to Sd provided on the input sides of the OR gates 64 to 67 connected to the binary outputs A to D of the counter 63 are set to the H level side, η = 1.0.
When all the switches Sa to Sd are set to the L level side, η = 1/16. Therefore, if the number of switches on the H level side is N, then η = (2 to the Nth power) / 16. Therefore, the learning constant can be arbitrarily set by using the switch (or an external signal in place of the switch). When the pulse density is used as the clock input of the counter 63, the AND gate 69 may be appropriately provided for the input of the error signal. The learning constant setting means 62 is not limited to such a circuit configuration. Further, by providing a plurality of such learning constant setting means 62 or appropriately controlling by an external signal, the value of the learning constant used for the calculation of the coupling coefficient and the value of the learning constant used for the back propagation of the error signal. It is also possible to make different.

【0053】さらに、図30ないし図32に示すように
構成してもよい。即ち、前述のように〜に示した基
本的な考えに、 結合係数を、興奮性と抑制性との2種類用意してお
き、入力信号に対する演算結果を、各々の結合係数を用
いた結果の割合から多数決で決定し、ネットワークの柔
軟性を高める。 の機能を付加するようにしたものである。
Further, it may be configured as shown in FIGS. That is, as described above, two types of coupling coefficients, excitatory and inhibitory, are prepared in the basic idea shown in to, and the calculation result for the input signal is the result of using each coupling coefficient. Increase the flexibility of the network by making a majority decision based on the ratio. The function of is added.

【0054】まず、1つの神経細胞ユニットは、興奮性
と抑制性との2つの結合係数を備えているが、「入力信
号と結合係数とのAND」による出力結果を、興奮性結
合の場合と抑制性結合の場合との割合で処理するように
したものである。ここに、割合で処理するとは、同期し
て演算される複数の入力信号について、興奮性の結合係
数を用いて得られた出力結果が「1」である場合の数
と、抑制性の結合係数を用いて得られた出力結果が
「1」である場合の数とを比較し、後者が前者より多い
場合は「0」、それ以外の場合は「1」を、その神経細
胞ユニットが出力することを意味する。或いは、両者が
等しい場合は「0」を出力するようにしてもよい。
First, one nerve cell unit has two coupling coefficients of excitability and inhibitory property. The output result of "AND of input signal and coupling coefficient" is different from that of excitatory coupling. The processing is carried out at a ratio to the case of inhibitory binding. Here, processing with a ratio means the number of cases where the output result obtained by using the excitatory coupling coefficient is “1” and the inhibitory coupling coefficient for a plurality of input signals that are calculated in synchronization. Is compared with the number when the output result obtained by using is 1, and when the latter is greater than the former, "0" is output, and in other cases, the neuron unit outputs Means that. Alternatively, when both are the same, “0” may be output.

【0055】図30及び図31はこのための回路構成例
を示すものである。まず、各入力25に対しては個別に
1組ずつのメモリ、具体的にはシフトレジスタ70a,
70bが設けられている。これらのシフトレジスタ70
a,70bはシフトレジスタ26と同様にデータ取出し
口とデータ入口とを有するものであるが、一方のシフト
レジスタ70aは興奮性結合係数を記憶し、他方のシフ
トレジスタ70bは抑制性結合係数を記憶したものであ
る。これらのシフトレジスタ70a,70bから読出し
手段(図示せず)により順次読出された内容は入力25
とともに対応するANDゲート71a,71bに入力さ
れ論理積がとられる。このような論理結果は、結合が興
奮性のものと抑制性のものと2通りあるが、ここでは、
多数決回路72に入力されて出力が決定される。即ち、
シフトレジスタ70aに基づく興奮性結合係数を用いた
演算グループはそのデジタル信号が増幅器73aにより
加算処理され、同様にシフトレジスタ70bに基づく抑
制性結合係数を用いた演算グループはそのデジタル信号
が増幅器73bにより加算処理され、両者の大小が比較
器74により多数決決定される。なお、多数決回路72
は図示例に限らず、一般的な多数決回路であってもよ
い。
30 and 31 show examples of circuit configurations for this purpose. First, one memory for each input 25, specifically, the shift register 70a,
70b is provided. These shift registers 70
Like the shift register 26, a and 70b have a data outlet and a data inlet, but one shift register 70a stores the excitatory coupling coefficient and the other shift register 70b stores the inhibitory coupling coefficient. It was done. The contents sequentially read by the reading means (not shown) from these shift registers 70a and 70b are input 25.
Along with this, they are input to the corresponding AND gates 71a and 71b and the logical product is obtained. There are two kinds of such logical results: excitatory and inhibitory, but here
It is input to the majority decision circuit 72 and the output is determined. That is,
The digital signal of the operation group using the excitatory coupling coefficient based on the shift register 70a is added by the amplifier 73a. Similarly, the digital signal of the operation group using the excitatory coupling coefficient based on the shift register 70b is processed by the amplifier 73b. The addition processing is performed, and the size of both is decided by the comparator 74 by majority. The majority circuit 72
Is not limited to the illustrated example, and may be a general majority circuit.

【0056】ここに、図24に示したグループ分け方式
を抽出して示すと、図32のようになる。即ち、各入力
毎に興奮性結合と抑制性結合との結合係数を記憶した1
組のメモリ(シフトレジスタ)70を用意して、メモリ
の組別に分けられたグループ別に論理積を求めるまでの
処理を行わせるものである。
Here, the grouping method shown in FIG. 24 is extracted and shown as shown in FIG. That is, the coupling coefficient of excitatory coupling and inhibitory coupling is stored for each input 1
A set of memories (shift register) 70 is prepared, and processing is performed until a logical product is obtained for each group divided by the set of memories.

【0057】なお、図32図示例では多数決回路72に
代えて、図26や図27の場合と同じく、グループ別に
論理和をとるORゲート33a,33b以下が示されて
いる。この場合のゲート回路34も図27又は図28の
ようにしてもよい。
In the example shown in FIG. 32, instead of the majority decision circuit 72, OR gates 33a and 33b and below for obtaining the logical sum for each group are shown as in the case of FIG. 26 and FIG. The gate circuit 34 in this case may also be configured as shown in FIG. 27 or 28.

【0058】ところで、図32にあっては各入力25毎
に1組のシフトレジスタ70a,70bを持つため、自
己学習機能による結合係数の書換えも各々のシフトレジ
スタ70a,70bについて行われる。このため、図3
0中に示すように+,−の誤差信号を用いて、新たな結
合係数を計算するための図13〜図16及び(8)式の処
理を行う自己学習回路75が設けられ、各シフトレジス
タ70a,70bのデータ入口側に接続されている。こ
の方式によれば、神経細胞ユニットの結合が、興奮性か
抑制性かに限定されないため、ネットワークが柔軟性を
持ち、実際の応用において汎用性を持つことになる。
By the way, in FIG. 32, since each input 25 has one set of shift registers 70a and 70b, rewriting of the coupling coefficient by the self-learning function is also performed for each shift register 70a and 70b. Therefore, in FIG.
As shown in 0, a self-learning circuit 75 that performs the processing of FIGS. 13 to 16 and the equation (8) for calculating a new coupling coefficient using the + and − error signals is provided, and each shift register It is connected to the data entrance side of 70a and 70b. According to this method, the connection of the nerve cell units is not limited to excitatory or inhibitory, so that the network has flexibility and has versatility in actual applications.

【0059】図31の場合の分周回路49も図29に示
したような学習定数設定手段62に代えてもよい。
The frequency dividing circuit 49 in the case of FIG. 31 may also be replaced with the learning constant setting means 62 as shown in FIG.

【0060】また、多数決回路72による出力決定方式
は、図30に示したように各入力毎に2つのメモリ(シ
フトレジスタ70a,70b)を持つ方式のものに限ら
ず、各入力毎に1つのメモリ26を持つものにも同様に
適用できる。即ち、図23と図24との組合せに代え
て、図23と図31との組合せとしてもよい。
The output decision system by the majority decision circuit 72 is not limited to the system having two memories (shift registers 70a and 70b) for each input as shown in FIG. 30, but one for each input. The same can be applied to the one having the memory 26. That is, instead of the combination of FIG. 23 and FIG. 24, the combination of FIG. 23 and FIG. 31 may be used.

【0061】[0061]

【発明が解決しようとする課題】ところが、前述した既
提案例のようなパルス密度型階層ニューラルネットワー
クにおいては、学習過程において、興奮性結合係数(正
の結合係数)と抑制性結合係数(負の結合係数)との両
者を含む論理演算を実行しているが、これらが意図した
効果を発揮するためには、AND演算がパルス密度の積
を作る作用を示し、OR演算がパルス密度の和を作る作
用を示す必要がある。そのためには、正の結合係数のビ
ット列のビット配置と負の結合係数のビット列のビット
配置とが相関を持たないようにする必要がある。実際、
パルス密度がaであるビット列Aとパルス密度がbであ
るビット列Bとのビット配置が互いに無関係であれば
(即ち、ビット列A中のビットがオンになっている位置
とビット列B中のビットがオンになっている位置とが無
関係であれば)、A∪Bを何回も実行した時、その結果
のパルス密度は平均としてaとbとの和に近い値とな
り、A∩Bを何回も実行した時、その結果のパルス密度
は平均としてaとbとの積に近い値となる。
However, in the pulse density type hierarchical neural network as in the above-mentioned proposed example, the excitatory coupling coefficient (positive coupling coefficient) and the inhibitory coupling coefficient (negative coupling coefficient) in the learning process. The logical operation including both the coupling coefficient) is performed, and in order for these to exert the intended effect, the AND operation has a function of producing the product of the pulse densities, and the OR operation shows the sum of the pulse densities. It is necessary to show the action to make. For that purpose, it is necessary that the bit arrangement of the bit string of the positive coupling coefficient and the bit arrangement of the bit string of the negative coupling coefficient have no correlation. In fact
If the bit arrangements of the bit string A having the pulse density a and the bit string B having the pulse density b are irrelevant to each other (that is, the positions in which the bits in the bit string A are turned on and the bits in the bit string B are turned on). If A∪B is executed many times, the resulting pulse density will be a value close to the sum of a and b on average, and A∩B will be repeated many times. When executed, the resulting pulse density has a value close to the product of a and b on average.

【0062】しかし、ビット列A,B両者のビット配置
に相関があると、例えばA=「01010101」とB
=「00010001」のように両者のオン・ビットの
位置が重なる傾向にある場合は、A∪Bのパルス密度は
aとbの和ではなくaに近い値となり、A∩Bのパルス
密度はaとbとの積ではなくbに近い値となってしま
う。従って、正の結合係数のビット列と負の結合係数の
ビット列の間のオン・ビット位置の相関が大きくなる
と、学習能力が低下してしまう。
However, if there is a correlation between the bit arrangements of the bit strings A and B, for example, A = “01010101” and B
When the on-bit positions of both of them tend to overlap with each other, as in “= 00010001”, the pulse density of A∪B is not the sum of a and b but a value close to a, and the pulse density of A∩B is a. It becomes a value close to b instead of the product of and b. Therefore, when the correlation of the on-bit position between the bit string of the positive coupling coefficient and the bit string of the negative coupling coefficient becomes large, the learning ability is deteriorated.

【0063】ここに、前述したように各結合毎に正と負
の2種類の結合係数が存在する場合、正の結合係数のビ
ット列のビット配置と負の結合係数のビット列のビット
配置とが相関を持つ方向に学習が進んでしまうことはし
ばしばあり得る。例えば、学習が進むにつれて、正の結
合係数のビット列のオン・ビット位置と負の結合係数の
ビット列のオン・ビット位置とが一致している結合が増
えたり、或いは、逆に、正の結合係数のビット列のオン
・ビット位置と負の結合係数のビット列のオフ・ビット
位置とが一致している結合が増えたりすることはしばし
ばあり得るからである。
As described above, when there are two types of coupling coefficients, positive and negative, for each coupling, the bit arrangement of the bit string of the positive coupling coefficient and the bit arrangement of the bit string of the negative coupling coefficient are correlated. It is possible for learning to proceed in the direction of. For example, as learning progresses, the number of combinations in which the on-bit position of the bit string of the positive coupling coefficient and the on-bit position of the bit string of the negative coupling coefficient match, or conversely, the positive coupling coefficient This is because it is possible that the number of couplings in which the on-bit position of the bit string of 1 and the off-bit position of the bit string of the negative coupling coefficient match is increased.

【0064】このような場合には、学習が望ましい水準
に到達する前に学習の進行が止まってしまうことがあ
る。また、学習後の結合係数のビット列が何らかの原因
でわずかにずれただけで、学習効果が失われてしまう。
In such a case, the progress of learning may stop before the learning reaches a desired level. Further, the learning effect is lost if the bit string of the coupling coefficient after learning is slightly shifted for some reason.

【0065】[0065]

【課題を解決するための手段】請求項1記載の発明で
は、ビット列表現の入力信号をデジタル論理演算により
処理してビット列表現の出力信号を出す複数個のニュー
ロンを階層型に連結してニューラルネットワークを形成
し、あるニューロンが他のニューロンからの出力信号を
入力信号として受け取る際の入力信号に重み付けをする
ための重みデータをビット列表現の結合係数として各結
合毎に興奮性の結合係数と抑制性の結合係数との2種類
を記憶させておき、前記ニューラルネットワークからの
出力値を所望値に近付けるために前記ニューロン中に記
憶された結合係数値を可変するニューラルネットワーク
の学習方法において、前記学習の1サイクル毎に、興奮
性の結合係数のビット列と抑制性の結合係数のビット列
との内の何れか一方のビット列内のビットの配置順序を
他方のビット列内のビットの配置順序に対して相対的に
変えるようにした。
According to a first aspect of the present invention, a neural network is constructed by hierarchically connecting a plurality of neurons which process an input signal of bit string representation by a digital logic operation and output an output signal of bit string representation. And the weighting data for weighting the input signal when one neuron receives the output signal from another neuron as an input signal is used as the coupling coefficient of the bit string representation, and the excitatory coupling coefficient and the inhibitory property for each coupling. In the neural network learning method for changing the coupling coefficient value stored in the neuron so that the output value from the neural network approaches a desired value. One of a bit string of excitatory coupling coefficient and a bit string of inhibitory coupling coefficient for each cycle The arrangement order of the bits of the bit Retsunai was so changed relative to the arrangement order of the bits of the other bit Retsunai.

【0066】また、請求項2記載の発明では、このよう
な学習方法を用いる信号処理装置として、ビット列表現
の入力信号をデジタル論理回路により処理してビット列
表現の出力信号を出す複数個のニューロンを階層型に連
結してニューラルネットワークを形成し、あるニューロ
ンが他のニューロンからの出力信号を入力信号として受
け取る際の入力信号に重み付けをするための重みデータ
をビット列表現の結合係数として各結合毎に興奮性の結
合係数と抑制性の結合係数との2種類を記憶するメモリ
を設け、前記ニューラルネットワークからの出力値を所
望値に近付けるために前記ニューロン中に記憶された結
合係数値を可変する係数可変回路を設け、この係数可変
回路中に、前記学習の1サイクル毎に、興奮性の結合係
数のビット列と抑制性の結合係数のビット列との内の何
れか一方のビット列内のビットの配置順序を他方のビッ
ト列内のビットの配置順序に対して相対的に変えるビッ
ト配置替え手段を設けた。
According to the second aspect of the present invention, as a signal processing device using such a learning method, a plurality of neurons for processing an input signal represented by a bit string by a digital logic circuit and outputting an output signal represented by the bit string are provided. A neural network is formed by connecting hierarchically, and weighting data for weighting an input signal when a neuron receives an output signal from another neuron as an input signal is used as a coupling coefficient of a bit string representation for each coupling. A coefficient is provided for storing two kinds of excitatory coupling coefficient and inhibitory coupling coefficient, and a coefficient for varying the coupling coefficient value stored in the neuron in order to bring the output value from the neural network close to a desired value. A variable circuit is provided, and the bit string of the excitatory coupling coefficient and the suppression coefficient are provided in the coefficient variable circuit for each cycle of the learning. Provided bit rearrangements means for changing relative either the arrangement order of the bits of one bit Retsunai with respect to the arrangement order of the bits of the other bit Retsunai of the bit string of the coupling coefficient of sex.

【0067】[0067]

【作用】請求項1記載の発明の学習方法ないしは請求項
2記載の信号処理装置によれば、学習の1サイクル毎
に、興奮性の結合係数のビット列を抑制性の結合係数の
ビット列に対して相対的に1ビット以上ずらすので、興
奮性の結合係数のビット列と抑制性の結合係数のビット
列との間のビット配置の相関が消されることになり、望
ましい結合係数値に到達する前に学習の進行が止まって
しまうのを防ぐことができ、かつ、ニューラルネットワ
ークの学習効果が学習後の結合係数のビット配置の揺ら
ぎに対して強い耐性を持つものとなり、学習能力が上が
るものとなる。
According to the learning method of the first aspect of the invention or the signal processing apparatus of the second aspect, the bit string of the excitatory coupling coefficient is compared with the bit string of the inhibitory coupling coefficient for each learning cycle. Since it is shifted by 1 bit or more relatively, the bit arrangement correlation between the bit string of the excitatory coupling coefficient and the bit string of the inhibitory coupling coefficient is canceled, and the learning coefficient before the desired coupling coefficient value is reached. It is possible to prevent the progress from being stopped, and the learning effect of the neural network becomes highly resistant to fluctuations in the bit arrangement of the coupling coefficient after learning, and the learning ability is improved.

【0068】[0068]

【実施例】本発明の一実施例を図1ないし図4に基づい
て説明する。パルス密度型階層ニューラルネットワーク
ないしはニューロン構成等については、前述した既提案
例等によるものをベースとするものであり、図5ないし
図32で示した部分と同一部分は同一符号を用いて示
す。なお、本実施例では興奮性結合と抑制性結合とに対
する対応方式としては、図32方式のように、結合毎に
興奮性の結合係数と抑制性の結合係数とをメモリ70
aij,70bijに持つ方式によるものとする。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described with reference to FIGS. The pulse density type hierarchical neural network or the neuron configuration is based on the previously proposed example and the like, and the same parts as those shown in FIGS. 5 to 32 are denoted by the same reference numerals. In this embodiment, as a method for dealing with excitatory coupling and inhibitory coupling, the excitatory coupling coefficient and the inhibitory coupling coefficient are stored in the memory 70 for each coupling as shown in FIG.
It is based on the method of aij and 70 bij .

【0069】本実施例では、正の結合係数のビット列の
ビット配置と負の結合係数のビット列のビット配置とが
相関を持つ方向に学習が進むことにより、パルス密度型
階層ニューラルネットワークの学習の進行が止まってし
まうのを防止するようにし、かつ、その学習効果が、学
習後の結合係数のオン・ビット位置の揺らぎに対して強
い耐性を持ち、学習能力が高まるようにしたものであ
る。
In this embodiment, learning proceeds in a direction in which the bit arrangement of the bit string of the positive coupling coefficient and the bit arrangement of the bit string of the negative coupling coefficient have a correlation, whereby the learning of the pulse density type hierarchical neural network progresses. The learning effect has a strong tolerance to fluctuations in the on-bit position of the coupling coefficient after learning, and the learning ability is enhanced.

【0070】基本的には、学習過程において、学習の1
サイクル毎に正の結合係数のビット列を負の結合係数の
ビット列に対して1ビット以上ずらし、又は、逆に、負
の結合係数のビット列を正の結合係数のビット列に対し
て1ビット以上ずらすことにより、正の結合係数のビッ
ト列のビット配置と負の結合係数のビット列のビット配
置とが相関を持つ方向に進んでしまうのを防止するよう
にしたものである。
Basically, in the learning process,
For each cycle, shift the bit string of the positive coupling coefficient by 1 bit or more with respect to the bit string of the negative coupling coefficient, or conversely, shift the bit string of the negative coupling coefficient by 1 bit or more with respect to the bit string of the positive coupling coefficient. Thus, it is possible to prevent the bit arrangement of the bit string of the positive coupling coefficient and the bit arrangement of the bit string of the negative coupling coefficient from proceeding in a direction having a correlation.

【0071】即ち、ビット列同士の相関関係が進むのを
防止する方法としては、幾つかの方法が考えられるが、
本実施例では、上記のように学習の1サイクル毎に正の
結合係数のビット列と負の結合係数のビット列とのビッ
ト配置順序を相対的にずらす、例えば相対的に1ビット
以上ずらすという極めて簡単な方法により実現するよう
にしたものである。この場合、結合係数を収容している
メモリ内の結合係数のビット列のビットを全て更新し終
わった時点で正,負の結合係数のビット列を互いに1ビ
ット以上ずらしてもよいが、結合係数のビット列のビッ
トを1ビット処理する毎に正又は負の結合係数のビット
を1ビット以上ずらすほうが、手続きが簡単でそのため
の回路も簡単となる。
That is, there are several possible methods for preventing the progress of the correlation between bit strings.
In the present embodiment, as described above, the bit arrangement order of the bit string of the positive coupling coefficient and the bit string of the negative coupling coefficient is relatively shifted for each cycle of learning, for example, relatively shifted by 1 bit or more, which is extremely simple. This is realized by any method. In this case, the bit strings of the positive and negative coupling coefficients may be shifted from each other by 1 bit or more at the time when all the bits of the bit string of the coupling coefficient in the memory containing the coupling coefficient have been updated. If the bit of the positive or negative coupling coefficient is shifted by 1 bit or more every time the bit of 1 is processed, the procedure becomes simpler and the circuit therefor becomes simpler.

【0072】ついで、本実施例による具体的な学習方法
を説明する。まず、正の結合係数のビット列のn番目の
ビットと負の結合係数のビット列のn+1番目のビット
とを使って、第一の実施例で説明したような論理演算に
より新しい正の結合係数のビットの値と新しい負の結合
係数のビットの値とを算出する。又は、逆に、正の結合
係数のビット列のn+1番目のビットと負の結合係数の
ビット列のn番目のビットとを使って、第一の実施例で
説明したような論理演算により新しい正の結合係数のビ
ットの値と新しい負の結合係数のビットの値とを算出す
る。これらの新しい結合係数をメモリ内に格納する時、
新しい正の結合係数のビットの値は正の結合係数のビッ
ト列のn番目のビット位置に格納し、新しい負の結合係
数のビットの値は負の結合係数のビット列のn番目のビ
ット位置に格納する。このような処理を、n=1,2,
3,…というように、nの値が増える方向に繰返してい
き、結合係数のビット列の全ビットの処理が終了した
ら、最初に戻って同様の処理を繰返す。
Next, a specific learning method according to this embodiment will be described. First, using the nth bit of the bit string of the positive combination coefficient and the (n + 1) th bit of the bit string of the negative combination coefficient, the bit of the new positive combination coefficient is calculated by the logical operation as described in the first embodiment. And the value of the new negative coupling coefficient bit. Or, conversely, by using the (n + 1) th bit of the bit string of the positive combination coefficient and the nth bit of the bit string of the negative combination coefficient, a new positive combination is performed by the logical operation as described in the first embodiment. Compute the bit value of the coefficient and the bit value of the new negative combination coefficient. When storing these new coupling factors in memory,
The value of the bit of the new positive combination coefficient is stored in the nth bit position of the bit string of the positive combination coefficient, and the value of the bit of the new negative combination coefficient is stored in the nth bit position of the bit string of the negative combination coefficient To do. Such processing is performed by n = 1, 2,
3, and so on, in the direction in which the value of n increases, and when the processing of all the bits of the bit string of the coupling coefficient is completed, the processing returns to the beginning and the same processing is repeated.

【0073】或いは、上記の方法に限らず、例えば正の
結合係数のビット列のn番目のビットと負の結合係数の
ビット列のn番目のビットとを用い、前述したような論
理演算により新しい正の結合係数のビットの値と新しい
負の結合係数のビットの値とを算出する。算出されたこ
れらの新しい結合係数をメモリ内に格納する時、新しい
正の結合係数のビットの値は正の結合係数のビット列の
n番目のビット位置に格納するが、新しい負の結合係数
のビットの値は負の結合係数のビット列のn−1番目の
ビット位置に格納する。又は、逆に、新しい正の結合係
数のビットの値は正の結合係数のビット列のn−1番目
のビット位置に格納するが、新しい負の結合係数のビッ
トの値は負の結合係数のビット列のn番目のビット位置
に格納する。このような処理を、n=1,2,3,…と
いうように、nの値が増える方向に繰返していき、結合
係数のビット列の全ビットの処理が終了したら、最初に
戻って同様の処理を繰返すようにしてもよい。
Alternatively, not limited to the above method, for example, by using the nth bit of the bit string of the positive combination coefficient and the nth bit of the bit string of the negative combination coefficient, a new positive value is obtained by the logical operation as described above. Compute the bit value of the coupling coefficient and the new bit value of the negative coupling coefficient. When storing these calculated new combination coefficients in memory, the value of the bit of the new positive combination coefficient is stored in the nth bit position of the bit string of the positive combination coefficient, but the bit of the new negative combination coefficient is stored. The value of is stored in the (n-1) th bit position of the bit string of the negative combination coefficient. Or, conversely, the value of the bit of the new positive combination coefficient is stored in the (n-1) th bit position of the bit string of the positive combination coefficient, but the value of the bit of the new negative combination coefficient is the bit string of the negative combination coefficient. It is stored in the n-th bit position of. Such a process is repeated in the direction in which the value of n increases, such as n = 1, 2, 3, ..., When all the bits of the bit string of the coupling coefficient have been processed, the process returns to the beginning and the same process is performed. May be repeated.

【0074】このような学習方法によれば、同時に更新
された正と負の結合係数のビットは次の学習サイクルで
使われる時は同時には使われないので、正の結合係数の
ビット列のビット配置と負の結合係数のビット列のビッ
ト配置とが相関を持つ方向に学習が進んでしまうのを防
止できる。なお、上記説明ではビット列を相対的に1ビ
ットだけずらすようにしたが、1ビットに限らず、要
は、1ビット以上であればよい。
According to such a learning method, the bits of the positive and negative combination coefficients that are updated at the same time are not used at the same time when they are used in the next learning cycle. Therefore, the bit arrangement of the bit string of the positive combination coefficient is set. It is possible to prevent the learning from proceeding in the direction in which the bit arrangement of the bit string of the negative coupling coefficient and the bit arrangement of the negative coupling coefficient have a correlation. In the above description, the bit string is relatively shifted by 1 bit, but the bit string is not limited to 1 bit, and the point is that it may be 1 bit or more.

【0075】また、ビット列のずれは一定値でなくても
よい。即ち、nとiとを整数として、正の結合係数のビ
ット列のn番目のビットと負の結合係数のビット列のn
+i番目のビットとを使って新しい結合係数のビットの
値を算出する時、或いは、負の結合係数のビット列のn
番目のビットと正の結合係数のビット列のn+i番目の
ビットとを使って新しい結合係数のビットの値を算出す
る時、或いは、正の結合係数のビット列のn番目のビッ
トと負の結合係数のビット列のn番目のビットとを使っ
て算出した新しい結合係数のビットの値を正又は負の結
合係数のn−i番目の位置に格納する時、iを一定値と
せずにnが変わるとiも変わるようにしてもよい。ただ
し、この場合、n+iやn−iに重複が生じないように
する必要がある。即ち、2つの値、n1,n2に対して、
1+i1とn2+i2とが同じ値にならないようにし、或
いは、n1−i1とn2−i2とが同じ値にならないように
しなければならない。また、他の方法として、要は、正
負の結合係数のビット列のビット配置に相関が生じない
ようにすればよいので、正負の結合係数のビット列の一
方を他方のビット列に対してずらすのではなく、一方の
ビット列のみを並び替えるようにしてもよい。例えば、
学習が1サイクル進む毎に、正又は負の何れか一方の結
合係数のビット列のビットの並び順を逆にしたり、或い
は、ビット列を前半と後半とに2分し、これらの前半部
分と後半部分とを入替えることにより、正又は負の何れ
か一方の結合係数のビット列のビットを並び替えるよう
にしてもよい。
Further, the shift of the bit string does not have to be a constant value. That is, where n and i are integers, the nth bit of the bit string of the positive combination coefficient and the nth bit of the bit string of the negative combination coefficient
When calculating the value of the bit of the new coupling coefficient using the + i-th bit and n of the bit string of the negative coupling coefficient
When calculating the value of the bit of the new combination coefficient using the n-th bit and the n + i-th bit of the bit string of the positive combination coefficient, or when calculating the value of the n-th bit of the bit string of the positive combination coefficient and the negative combination coefficient. When the value of the bit of the new coupling coefficient calculated using the n-th bit of the bit string is stored in the ni position of the positive or negative coupling coefficient, if i does not become a constant value and n changes, May also change. However, in this case, it is necessary to prevent overlap between n + i and n-i. That is, for two values, n 1 and n 2 ,
It should be ensured that n 1 + i 1 and n 2 + i 2 do not have the same value, or that n 1 -i 1 and n 2 -i 2 do not have the same value. In addition, as another method, the point is that the bit arrangement of the bit strings of the positive and negative coupling coefficients does not have correlation, so that one of the bit strings of the positive and negative coupling coefficients is not shifted with respect to the other bit string. Alternatively, only one of the bit strings may be rearranged. For example,
Each time the learning progresses by one cycle, the order of the bits of the bit string of the positive or negative coupling coefficient is reversed, or the bit string is divided into the first half and the second half, and the first half and the second half of these are combined. By replacing and, the bits of the bit string of either the positive or negative coupling coefficient may be rearranged.

【0076】このような学習方法は、図1ないし図4に
例示するような回路により実現される。これらの図示例
では構成要素は共通であり、まず、メモリ70aij に相
当して正の結合係数のビット列を格納したメモリ81
と、メモリ70bij に相当して負の結合係数のビット列
を格納したメモリ82とが設けられている。各々のメモ
リ81,82にはビット格納回路83,84と、ビット
取出回路85,86とが付設させている。ビット取出回
路85,86の出力側には出力算出回路87とともに、
新結合係数算出回路88が接続され、新結合係数算出回
路88の出力側は各々前記ビット格納回路83,84を
通してメモリ81,82にフィードバックされ、更新書
換え自在とされている。前記出力算出回路87は例えば
図32に示した回路構成のものであり、新結合係数算出
回路88は例えば図24に示した回路構成よりなるもの
である(ただし、図32では、これらの図1ないし図4
において回路87,88外に示したメモリ81,82
が、メモリ70aij,70bij で示す如く各々の回路中
に含めて示されている)。
Such a learning method is realized by the circuits illustrated in FIGS. In these illustrated examples, the constituent elements are common. First, a memory 81 corresponding to the memory 70 aij and storing a bit string of positive coupling coefficients
And a memory 82 storing a bit string of negative coupling coefficients corresponding to the memory 70 bij . Bit storage circuits 83, 84 and bit extraction circuits 85, 86 are attached to the memories 81, 82, respectively. On the output side of the bit extraction circuits 85 and 86, together with the output calculation circuit 87,
The new coupling coefficient calculation circuit 88 is connected, and the output side of the new coupling coefficient calculation circuit 88 is fed back to the memories 81 and 82 through the bit storage circuits 83 and 84, respectively, and can be updated and rewritten. The output calculation circuit 87 has, for example, the circuit configuration shown in FIG. 32, and the new coupling coefficient calculation circuit 88 has, for example, the circuit configuration shown in FIG. 24 (however, in FIG. Through Figure 4
Memory 81, 82 shown outside circuits 87, 88 in FIG.
Are included in each circuit as shown by memories 70 aij and 70 bij ).

【0077】さらに、メモリ81,82内でのビット列
上のビット位置を特定するための第1ポインタ89と第
2ポインタ90とが設けられている。ここに、第1ポイ
ンタ89の値(ビット指示位置)は第2ポインタ90の
値(ビット指示位置)よりも1以上大きく設定されてお
り、正と負の結合係数を各1ビット、合計2ビット更新
し終わる毎に、これらのポインタ89,90の値はとも
に1だけ増やされるものである。図1ないし図4ではこ
れらのポインタ89,90の位置、接続関係を異ならせ
たものである。これらのポインタ89,90がビット配
置替え手段となる。
Further, a first pointer 89 and a second pointer 90 for specifying the bit position on the bit string in the memories 81 and 82 are provided. Here, the value of the first pointer 89 (bit pointing position) is set to be 1 or more larger than the value of the second pointer 90 (bit pointing position), and the positive and negative coupling coefficients are each 1 bit, totaling 2 bits. Each time the updating is completed, the values of these pointers 89 and 90 are incremented by one. 1 to 4, the positions of these pointers 89 and 90 and the connection relationship are different. These pointers 89 and 90 serve as bit rearrangement means.

【0078】まず、図1方式にあっては、正の結合係数
のビット列を格納しているメモリ81中から第1ポイン
タ89の指示している位置のビットを取出し、負の結合
係数のビット列を格納しているメモリ82中から第2ポ
インタ90の指示している位置のビットを取出す。取出
されたこれらのビットを使って新結合係数算出回路88
により新しい正の結合係数のビットを算出した後、その
ビットをメモリ81内で第2ポインタ90の指示してい
るビット位置に格納し、同じく新結合係数算出回路88
により新しい負の結合係数のビットを算出した後、その
ビットをメモリ82内で第2ポインタ90の指示してい
るビット位置に格納させる。
First, in the method of FIG. 1, the bit at the position indicated by the first pointer 89 is fetched from the memory 81 storing the bit string of the positive coupling coefficient, and the bit string of the negative coupling coefficient is extracted. The bit at the position indicated by the second pointer 90 is fetched from the stored memory 82. The new coupling coefficient calculation circuit 88 is used by using these extracted bits.
After calculating the bit of the new positive coupling coefficient with, the bit is stored in the memory 81 at the bit position pointed to by the second pointer 90, and the new coupling coefficient calculating circuit 88 is also stored.
After calculating the bit of the new negative coupling coefficient by, the bit is stored in the bit position designated by the second pointer 90 in the memory 82.

【0079】図2方式にあっては、正の結合係数のビッ
ト列を格納しているメモリ81中から第2ポインタ90
の指示している位置のビットを取出し、負の結合係数の
ビット列を格納しているメモリ82中から第1ポインタ
89の指示している位置のビットを取出す。取出された
これらのビットを使って新結合係数算出回路88により
新しい正及び負の結合係数のビットを各々算出した後、
そのビットをメモリ81,82内で第2ポインタ90の
指示しているビット位置に各々格納させる。
In the system shown in FIG. 2, the second pointer 90 is read from the memory 81 storing the bit string of the positive combination coefficient.
Of the position pointed to by the first pointer 89 from the memory 82 storing the bit string of the negative coupling coefficient. After calculating the new positive and negative coupling coefficient bits by the new coupling coefficient calculation circuit 88 using these extracted bits,
The bit is stored in the memory 81, 82 at the bit position pointed to by the second pointer 90.

【0080】また、図3方式にあっては、正の結合係数
のビット列を格納しているメモリ81中から第1ポイン
タ89の指示している位置のビットを取出し、負の結合
係数のビット列を格納しているメモリ82中からも第1
ポインタ89の指示している位置のビットを取出す。取
出されたこれらのビットを使って新結合係数算出回路8
8により新しい正の結合係数のビットを算出した後、そ
のビットをメモリ81内で第1ポインタ89の指示して
いるビット位置に格納する一方、新結合係数算出回路8
8により新しい負の結合係数のビットを算出した後、そ
のビットはメモリ82内で第2ポインタ90の指示して
いるビット位置に格納させる。
In the system of FIG. 3, the bit at the position indicated by the first pointer 89 is fetched from the memory 81 storing the bit string of the positive combination coefficient and the bit string of the negative combination coefficient is obtained. First among the stored memories 82
The bit at the position indicated by the pointer 89 is taken out. A new coupling coefficient calculation circuit 8 using these extracted bits
After calculating the bit of the new positive coupling coefficient by 8, the bit is stored in the memory 81 at the bit position pointed to by the first pointer 89, while the new coupling coefficient calculating circuit 8
After calculating the bit of the new negative coupling coefficient by 8, the bit is stored in the memory 82 at the bit position indicated by the second pointer 90.

【0081】図4方式にあっては、正、負の結合係数の
ビット列を格納しているメモリ81,82中から各々第
1ポインタ89の指示している位置のビットを取出し、
取出されたこれらのビットを使って新結合係数算出回路
88により新しい正の結合係数のビットを算出した後、
そのビットはメモリ81内で第2ポインタ90の指示し
ているビット位置に格納する一方、新結合係数算出回路
88により新しい負の結合係数のビットを算出した後、
そのビットをメモリ82内で第1ポインタ89の指示し
ているビット位置に格納させる。
In the method of FIG. 4, the bit at the position pointed to by the first pointer 89 is taken out from each of the memories 81 and 82 storing the bit strings of positive and negative coupling coefficients,
After calculating the bit of the new positive coupling coefficient by the new coupling coefficient calculation circuit 88 using these extracted bits,
The bit is stored in the memory 81 at the bit position pointed to by the second pointer 90, while the new negative coupling coefficient bit is calculated by the new negative coupling coefficient calculation circuit 88.
The bit is stored in the memory 82 at the bit position indicated by the first pointer 89.

【0082】ついで、このような本実施例方式による学
習例を具体的な実験例により説明する。ここでは、本実
施例の機能を備え、3つの層を持ち、各層は全て3個の
ニューロンで構成された階層型ニューラルネットワーク
において、3つの入力信号と教師信号との組 入力信号 教師信号 (1,0,0) → (1,0,0) (0,1,0) → (0,1,0) (0,0,1) → (0,0,1) を各々対応させた組を2000回提示して学習させた
後、これらの3種類の入力信号を各々1000回ずつ提
示して各提示毎に正及び負の結合係数のビット配列のオ
ン・ビットの総数を変えないでビットがオンになってい
るビット位置だけをランダムに変えながら、出力信号の
採取を行ったところ、3種類の入力信号全てについて、
各々の教師信号値に近い値を最頻値とする出力値分布が
得られたものである。
Next, a learning example according to the method of this embodiment will be described by a concrete experimental example. Here, in the hierarchical neural network which has the function of the present embodiment and has three layers, and each layer is composed of three neurons, a set of three input signals and a teacher signal Input signal Teacher signal (1 , 0,0) → (1,0,0) (0,1,0) → (0,1,0) (0,0,1) → (0,0,1) After being presented 2000 times for learning, these three types of input signals are presented 1000 times each and the number of ON bits in the bit array of the positive and negative coupling coefficients is not changed for each presentation. When the output signal was sampled while randomly changing only the bit positions that were turned on, for all three types of input signals,
The output value distribution in which the mode value is a value close to each teacher signal value is obtained.

【0083】ちなみに、比較例として、本実施例の機能
を備えない、即ち、学習過程で結合係数のビット列をシ
フトさせない以外は上記実験例と全く同じニューラルネ
ットワークにおいて、上記実験例と全く同じに学習させ
た後、上記実験例と全く同じ出力信号の採取を行ったと
ころ、出力値が1になるべきニューロンからの出力値も
出力値が0になるべきニューロンからの出力値も、殆ど
同じ平均値と広がりを持った出力値分布となり、学習効
果が失われたものである。
By the way, as a comparative example, in the same neural network as the above experimental example except that the function of this embodiment is not provided, that is, the bit string of the coupling coefficient is not shifted in the learning process, the same learning as the above experimental example is performed. After that, the same output signal as in the above experimental example was sampled. As a result, the output value from the neuron whose output value should be 1 and the output value from the neuron whose output value should be 0 were almost the same average value. The output value distribution has a spread and the learning effect is lost.

【0084】[0084]

【発明の効果】本発明は、上述したように構成したの
で、請求項1記載の発明の学習方法ないしは請求項2記
載の信号処理装置によれば、学習の1サイクル毎に、興
奮性の結合係数のビット列と抑制性の結合係数のビット
列との内の何れか一方のビット列内のビットの配置順序
を他方のビット列内のビットの配置順序に対して相対的
に変えるようにしたので、興奮性の結合係数のビット列
と抑制性の結合係数のビット列との間のビット配置の相
関を消すことができ、よって、望ましい水準に達する前
に学習の進行が止まってしまうのを防止でき、ニューラ
ルネットワークの学習効果を学習後の結合係数のビット
配置の揺らぎに対して強い耐性を持つものとし、学習能
力を上げることができる。
Since the present invention is configured as described above, according to the learning method of the first aspect of the invention or the signal processing apparatus of the second aspect, excitatory coupling is performed every learning cycle. Since the arrangement order of the bits in one of the bit string of the coefficient and the bit string of the inhibitory combination coefficient is changed relative to the arrangement order of the bits in the other bit string, excitability It is possible to eliminate the correlation of the bit arrangement between the bit string of the coupling coefficient of and the bit string of the inhibitory coupling coefficient, and thus it is possible to prevent the learning from stopping before reaching the desired level, and It is possible to improve learning ability by making the learning effect highly resistant to fluctuations in the bit arrangement of the coupling coefficient after learning.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第一の実施例を示すブロック図であ
る。
FIG. 1 is a block diagram showing a first embodiment of the present invention.

【図2】ブロック図である。FIG. 2 is a block diagram.

【図3】ブロック図である。FIG. 3 is a block diagram.

【図4】ブロック図である。FIG. 4 is a block diagram.

【図5】既提案例における基本的な信号処理を行なうた
めの論理回路図である。
FIG. 5 is a logic circuit diagram for performing basic signal processing in an already proposed example.

【図6】ネットワーク構成例を示す模式図である。FIG. 6 is a schematic diagram showing a network configuration example.

【図7】論理演算例を示すタイミングチャートである。FIG. 7 is a timing chart showing an example of logical operation.

【図8】論理演算例を示すタイミングチャートである。FIG. 8 is a timing chart showing an example of logical operation.

【図9】論理演算例を示すタイミングチャートである。FIG. 9 is a timing chart showing an example of logical operation.

【図10】論理演算例を示すタイミングチャートであ
る。
FIG. 10 is a timing chart showing an example of logical operation.

【図11】論理演算例を示すタイミングチャートであ
る。
FIG. 11 is a timing chart showing an example of logical operation.

【図12】論理演算例を示すタイミングチャートであ
る。
FIG. 12 is a timing chart showing an example of logical operation.

【図13】論理演算例を示すタイミングチャートであ
る。
FIG. 13 is a timing chart showing an example of logical operation.

【図14】論理演算例を示すタイミングチャートであ
る。
FIG. 14 is a timing chart showing an example of logical operation.

【図15】論理演算例を示すタイミングチャートであ
る。
FIG. 15 is a timing chart showing an example of logical operation.

【図16】論理演算例を示すタイミングチャートであ
る。
FIG. 16 is a timing chart showing an example of logical operation.

【図17】論理演算例を示すタイミングチャートであ
る。
FIG. 17 is a timing chart showing an example of logical operation.

【図18】論理演算例を示すタイミングチャートであ
る。
FIG. 18 is a timing chart showing an example of logical operation.

【図19】論理演算例を示すタイミングチャートであ
る。
FIG. 19 is a timing chart showing an example of logical operation.

【図20】論理演算例を示すタイミングチャートであ
る。
FIG. 20 is a timing chart showing an example of logical operation.

【図21】論理演算例を示すタイミングチャートであ
る。
FIG. 21 is a timing chart showing an example of logical operation.

【図22】論理演算例を示すタイミングチャートであ
る。
FIG. 22 is a timing chart showing an example of logical operation.

【図23】各部の構成例を示す論理回路図である。FIG. 23 is a logic circuit diagram showing a configuration example of each unit.

【図24】各部の構成例を示す論理回路図である。FIG. 24 is a logic circuit diagram showing a configuration example of each unit.

【図25】各部の構成例を示す論理回路図である。FIG. 25 is a logic circuit diagram showing a configuration example of each unit.

【図26】各部の構成例を示す論理回路図である。FIG. 26 is a logic circuit diagram showing a configuration example of each unit.

【図27】変形例を示す論理回路図である。FIG. 27 is a logic circuit diagram showing a modified example.

【図28】変形例を示す論理回路図である。FIG. 28 is a logic circuit diagram showing a modified example.

【図29】異なる構成例を示す回路図である。FIG. 29 is a circuit diagram showing a different configuration example.

【図30】さらに異なる構成例を示す回路図である。FIG. 30 is a circuit diagram showing a further different configuration example.

【図31】回路図である。FIG. 31 is a circuit diagram.

【図32】回路図である。FIG. 32 is a circuit diagram.

【図33】従来例を示す1つのユニット構成を示す概念
図である。
FIG. 33 is a conceptual diagram showing one unit configuration showing a conventional example.

【図34】そのニューラルネットワーク構成の概念図で
ある。
FIG. 34 is a conceptual diagram of the neural network configuration.

【図35】シグモイド関数を示すグラフである。FIG. 35 is a graph showing a sigmoid function.

【図36】1つのユニットの具体的構成を示す回路図で
ある。
FIG. 36 is a circuit diagram showing a specific configuration of one unit.

【図37】デジタル構成例を示すブロック図である。FIG. 37 is a block diagram showing a digital configuration example.

【図38】その一部の回路図である。FIG. 38 is a circuit diagram of a part thereof.

【図39】異なる一部の回路図である。FIG. 39 is a different partial circuit diagram.

【符号の説明】[Explanation of symbols]

54〜69 係数可変回路 71,72 メモリ 89,90 ビット配置替え手段 54-69 coefficient variable circuit 71, 72 memory 89, 90 bit rearrangement means

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 ビット列表現の入力信号をデジタル論理
演算により処理してビット列表現の出力信号を出す複数
個のニューロンを階層型に連結してニューラルネットワ
ークを形成し、あるニューロンが他のニューロンからの
出力信号を入力信号として受け取る際の入力信号に重み
付けをするための重みデータをビット列表現の結合係数
として各結合毎に興奮性の結合係数と抑制性の結合係数
との2種類を記憶させておき、前記ニューラルネットワ
ークからの出力値を所望値に近付けるために前記ニュー
ロン中に記憶された結合係数値を可変するニューラルネ
ットワークの学習方法において、前記学習の1サイクル
毎に、興奮性の結合係数のビット列と抑制性の結合係数
のビット列との内の何れか一方のビット列内のビットの
配置順序を他方のビット列内のビットの配置順序に対し
て相対的に変えるようにしたことを特徴とするニューラ
ルネットワークの学習方法。
1. A neural network is formed by hierarchically connecting a plurality of neurons that output bit-string representation output signals by processing a bit-string representation input signal by digital logic operation, and one neuron from another neuron is formed. The weight data for weighting the input signal when receiving the output signal as the input signal is stored as the coupling coefficient of the bit string representation, and two types of the coupling coefficient of excitability and the coupling coefficient of inhibition are stored for each coupling. In a learning method of a neural network in which a coupling coefficient value stored in the neuron is changed in order to bring an output value from the neural network close to a desired value, a bit string of excitatory coupling coefficient in each learning cycle. And the bit string of the inhibitory coupling coefficient, the bit arrangement order of the bit in one bit string is A learning method for a neural network, characterized in that the bit arrangement order is changed relative to the bit arrangement order.
【請求項2】 ビット列表現の入力信号をデジタル論理
回路により処理してビット列表現の出力信号を出す複数
個のニューロンを階層型に連結してニューラルネットワ
ークを形成し、あるニューロンが他のニューロンからの
出力信号を入力信号として受け取る際の入力信号に重み
付けをするための重みデータをビット列表現の結合係数
として各結合毎に興奮性の結合係数と抑制性の結合係数
との2種類を記憶するメモリを設け、前記ニューラルネ
ットワークからの出力値を所望値に近付けるために前記
ニューロン中に記憶された結合係数値を可変する係数可
変回路を設け、この係数可変回路中に、前記学習の1サ
イクル毎に、興奮性の結合係数のビット列と抑制性の結
合係数のビット列との内の何れか一方のビット列内のビ
ットの配置順序を他方のビット列内のビットの配置順序
に対して相対的に変えるビット配置替え手段を設けたこ
とを特徴とする信号処理装置。
2. A neural network is formed by hierarchically connecting a plurality of neurons each of which outputs a bit string representation output signal by processing a bit string representation input signal by a digital logic circuit, and one neuron from another neuron is formed. A memory for storing two kinds of excitatory coupling coefficient and inhibitory coupling coefficient for each coupling as weighting data for weighting the input signal when receiving the output signal as the input signal is used as the coupling coefficient of the bit string representation. A coefficient variable circuit for varying the coupling coefficient value stored in the neuron in order to bring the output value from the neural network close to a desired value is provided, and in the coefficient variable circuit, for each cycle of the learning, The arrangement order of bits in one of the bit string of excitatory coupling coefficient and the bit string of inhibitory coupling coefficient is set to other. A signal processing device comprising: a bit rearrangement unit that relatively changes the arrangement order of bits in the other bit string.
JP4035905A 1992-02-24 1992-02-24 Learning method and signal processor for neural network Pending JPH0567066A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4035905A JPH0567066A (en) 1992-02-24 1992-02-24 Learning method and signal processor for neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4035905A JPH0567066A (en) 1992-02-24 1992-02-24 Learning method and signal processor for neural network

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP3097822A Division JPH04229361A (en) 1990-11-22 1991-04-30 Learning method for neural network and signal processor using the same

Publications (1)

Publication Number Publication Date
JPH0567066A true JPH0567066A (en) 1993-03-19

Family

ID=12455047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4035905A Pending JPH0567066A (en) 1992-02-24 1992-02-24 Learning method and signal processor for neural network

Country Status (1)

Country Link
JP (1) JPH0567066A (en)

Similar Documents

Publication Publication Date Title
JPH07111090A (en) Signal processor
US5485548A (en) Signal processing apparatus using a hierarchical neural network
Nair et al. Direct CMOS implementation of neuromorphic temporal neural networks for sensory processing
JPH05165987A (en) Signal processor
JPH0567066A (en) Learning method and signal processor for neural network
JP3338713B2 (en) Signal processing device
JPH04229361A (en) Learning method for neural network and signal processor using the same
JP2612640B2 (en) Signal processing circuit, signal processing network, signal processing device, and signal processing method
Morillas et al. STDP Design Trade-offs for FPGA-Based Spiking Neural Networks
JPH05108594A (en) Signal processor
JPH05108598A (en) Signal processor
JPH05307624A (en) Signal processor
JPH05135001A (en) Signal processor
JPH0573704A (en) Signal processing circuit device
JPH05217010A (en) Signal processor
JPH05210650A (en) Signal processor
JPH05290014A (en) Signal processor
Sahithya et al. Digital Design of Radial Basis Function Neural Network and Recurrent Neural Network
JPH05108599A (en) Signal processor
JPH05108597A (en) Signal processor
JP3255425B2 (en) Signal processing method
JPH03256184A (en) Signal processing circuit
JPH03294979A (en) Signal processor
JPH05165989A (en) Signal processor
JPH05120254A (en) Signal processor