JPH04111185A - Signal processing network - Google Patents

Signal processing network

Info

Publication number
JPH04111185A
JPH04111185A JP2412448A JP41244890A JPH04111185A JP H04111185 A JPH04111185 A JP H04111185A JP 2412448 A JP2412448 A JP 2412448A JP 41244890 A JP41244890 A JP 41244890A JP H04111185 A JPH04111185 A JP H04111185A
Authority
JP
Japan
Prior art keywords
signal
coupling coefficient
error signal
coupling
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2412448A
Other languages
Japanese (ja)
Other versions
JP2612640B2 (en
Inventor
Hirotoshi Eguchi
裕俊 江口
Toshiyuki Furuta
俊之 古田
Hiroyuki Horiguchi
堀口 浩幸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JPH04111185A publication Critical patent/JPH04111185A/en
Application granted granted Critical
Publication of JP2612640B2 publication Critical patent/JP2612640B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To improve processing speed and reliability by constituting a neuron with a digital circuit and parallely executing the function of the neuron on a hardware or software including self-learning function. CONSTITUTION:A neuron imitation circuit 45 is composed of blocks B1, B2, and B3. The block B1 transmits calculation output to each neuron ahead by one with the use of a coupling coefficient variable circuit. The block 2, composed of a block 2-1 of one-ahead layer and a block B2-2 of the corresponding neuron, is corresponded to an error signal generation circuit. Blocks B3-1 to B3-N are corresponded to the coupling coefficient variable circuit and an A/D converter. A coupling coefficient variable circuit 20 in the block B2-1, B3, and B1 constitutes a self-learning circuit. The part of the block B2-2 and the remaining parts of the block B1 are corresponded to the neuron imitation element.

Description

【発明の詳細な説明】[Detailed description of the invention]

[0001] [0001]

【産業上の利用分野】[Industrial application field]

本発明は、神経細胞回路網を模倣したニューラルコンピ
ュータ等の信号処理回路網に関するものである。 [0002]
The present invention relates to a signal processing circuit network such as a neural computer that imitates a neural network. [0002]

【従来の技術】[Conventional technology]

生体の情報処理の基本的な単位である神経細胞にューロ
ン)の機能を模倣しさらに、この「神経細胞模倣素子」
をネットワークにし、情報の並列処理を目脂したのが、
いわゆるニューラルネットワークである。文字認識や連
想記憶、運動制御等、生体ではいとも簡単に行われてい
ても、従来のノイマン型コンピュータではなかなか達成
したいものが多い。生体の神経系、特に生体特有の機能
、即ち並列処理、自己学習等を模倣して、これらの問題
を解決しようとする試みが盛んに行われている。これら
の試みは、計算機シミュレーションで行われているもの
が多く、本来の機能を発揮するには、並列処理が必要で
あり、そのためにはニューラルネットワークのハードウ
ェア化が必要である。一部では、既にハードウェア化の
試みも行われているが、ニューラルネットワークの特徴
の−っである自己学習機能が実現できず、大きなネック
となっている。また、殆どのものがアナログ回路で実現
されており、後述するように動作の点で問題がある。 特開平=1−111185 (6)
This "neuron-mimetic element" imitates the functions of neurons (neurons), which are the basic units of information processing in living organisms.
The network was used to realize parallel processing of information.
This is a so-called neural network. Character recognition, associative memory, motor control, and many other things that are easily accomplished in living organisms are difficult to achieve with conventional Neumann computers. Many attempts are being made to solve these problems by imitating the nervous system of living organisms, especially functions unique to living organisms, such as parallel processing and self-learning. Many of these attempts have been carried out using computer simulations, and in order to achieve their original functionality, parallel processing is required, and for this purpose it is necessary to implement neural networks in hardware. Although some attempts have already been made to turn it into hardware, the self-learning function that characterizes neural networks has not been achieved, which has been a major bottleneck. Furthermore, most of them are implemented using analog circuits, which poses problems in terms of operation, as will be described later. Unexamined Japanese Patent Publication No. 1-111185 (6)

【0003】 以下、従来方式を順に検討する。まず、従来のニューラ
ルネットワークのモデルについて説明する。図34はあ
る1つの神経細胞ユニット1を表す図であり、の他の神
経細胞ユニットと結合し信号を受け、それを処理して出
力を出す。図33の場合、ネットワークは階層型であり
、1つ前(左側)の層のユニットより信号を受け、1つ
後(右側)の層のユニットへ出力する。 [0004] より詳細に説明する。まず、図34の神経細胞ユニット
1において、他の神経細胞ユニットと自分のユニットと
の結合の度合いを表すのが結合係数と呼ばれるもので、
1番目のユニットと1番目のユニットの結合係数を、一
般にTo、で表すlコ 。結合には、相手のニューロンからの信号が大きいほど
自分の出力が大きくなる興奮性結合と、逆に、相手のニ
ューロンからの信号が大きいほど自分の出力が小表す。 いま、自分のユニットが1番目のユニットであるとし、
1番目のユニットへの入力となる。前述したように、各
ユニットは多数のユニットと結合している自分のユニッ
トへの入力となる。これを内部電位といい、U。 [0005] で表す。 [0006] 次に、この入力に対して、非線形な処理をして出力とす
る。この時の関数を神経細胞応答関数と呼び、非線形関
数として、(2)式及び図35に示すようなシグモイド
関数を用いる。 [0007]
[0003]The conventional methods will be considered in order below. First, a conventional neural network model will be explained. FIG. 34 is a diagram showing a certain neuron unit 1, which connects with other neuron units, receives signals, processes them, and outputs them. In the case of FIG. 33, the network is hierarchical, and a signal is received from a unit in the previous (left) layer and output to a unit in the next (right) layer. [0004] This will be explained in more detail. First, in neuron unit 1 in FIG. 34, what is called the coupling coefficient represents the degree of coupling between other neuron units and the own unit.
The coupling coefficient between the first unit and the first unit is generally expressed as To. There are excitatory connections in which the larger the signal from the other neuron, the higher the own output, and conversely, the larger the signal from the other neuron, the smaller the own output. Now, suppose your unit is the first unit,
This is the input to the first unit. As mentioned above, each unit is an input to its own unit which is connected to a number of units. This is called the internal potential and is U. It is expressed as [0005]. [0006] Next, this input is subjected to nonlinear processing and output. The function at this time is called a neuron response function, and a sigmoid function as shown in equation (2) and FIG. 35 is used as the nonlinear function. [0007]

【数1】 [0008] 図33に示すようにネットワークにした時には、各結合
係数下1.を与え、(1)j (2)式を次々ど計算することにより、最終的な出力が
得られるものである。 [0009] 一方、このようなネットワークを電気回路により実現し
たものの一例として、図36に示すようなものがある。 これは、特開昭62−295188号公報中に示される
もので、基本的には、S字形伝達関数を有する複数の増
幅器2と、各増幅器2の出力を他の層の増幅器の入力に
一点鎖線で示すように接続する抵抗性フィードバック回
路網3とが設けられている。各増幅器2の入力側には接
地されたコンデンサと接地された抵抗とによるCR時定
数回路4が個別に接続されている。そして、入力電流I
I  〜、■、が各増幅器2の入力に供給され、出力は
1′2′ これらの増幅器2の出力電圧の集合から得られる。 [0010] ここに、入力や出力の信号の強度を電圧で表し、神経細
胞間の結合の強さは、各細胞間の入出カラインを結ぶ抵
抗5(抵抗性フィードバック回路網3中の格子点)の抵
抗値で表され、神経細胞応答関数は各増幅器2の伝達関
数で表される。 また、神経細胞間の結合には、前述のように興奮性と抑
制性とがあり数学的には結合係数の正負符号により表さ
れる。しかし、回路上の定数で正負を実現するのは困難
であるので、ここでは、増幅器2の出力を2つに分け、
一方の出力を反転させることにより、正負の2つの信号
を生成し、これを適当に選択することにより実現するよ
うにしている。また、図35に示したシグモイド関数に
相当するものとしては増幅器が用いられている。 [0011] しかしたがら、これらの回路には、次のような問題点が
ある。 せた値を使うしかなく、自己学習ができない。 ■ 信号の強度を電位や電流などのアナログ値で表し、
内部の演算もアナログ的に行わせる場合、温度特性や電
源投入直後のドリフト等により、その値が変化する。 ’J+l:il +4−111185 (8)■ ネッ
トワークであるので、素子の数も多く必要とする力瓢各
々の特性を揃えることは困難である。 ■ 1つの素子の精度や安定性が問題となったとき、そ
れをネットワークにしたとき、新たな問題を生ずる可能
性があり、ネットワーク全体で見たときの動きが予想で
きない。 [0012] 一方、数値計算で用いられる学習法則としては、バック
プロパゲーションと呼ばれる下記のようなものがある。 [0013] まず、各結合係数は最初にランダムに与えておく。この
状態で、入力を与えると、出力結果は必ずしも望ましい
ものではない。例えば、文字認識の場合、手書きの「1
」の文字を与えたとすると、出力結果として[この文字
は「1」である]と出るのが望ましい結果である力板結
合係数がランダムであると必ずしも望ましい結果とはな
らない。そこで、このネットワークに正解(教師信号)
を与えて再び、同じ入力があったとき正解となるように
各結合係数を変化させる。このとき、結合係数を変化さ
せる量を求めるアルゴリズムカへバックプロパゲーショ
ンと呼ばれているものである。 [0014] 例えば、図33に示したような階層型のネットワークに
おいて、最終層のj番目のニューロン出力をy、とじ、
そのニューロンに対する教師信号をd、とするJ   
                         
  Jと、 で表されるEが最小となるように、 ΔT、、=c3E/、EAT、、    ・・・・・・
・・・・・・・・・・・・・・・・・・・(4)IJ 
          IJ を用いて、結合係数T1.を変化させる。さらに具体的
には、j 01つ前の層との結合係数を求める場合には、まず、出
力層と、そ δ、= (d−−y、)Xf’  (u、)  ・・・
・・・・・・・・・・・・・・・・・・・・・(5)J
      JJ          Jを用いて、δ
(誤差信号)を求め、それよりさらに前の層同士の結合
係数を求める場合には、 δ、=Σδ、T、、Xf’  (u、)    ・・・
・・・・・・・・・・・・・・・・・・・・・(6)J
        Jlコ           jを用
いて、δ(誤差信号)を求め、 八T1.=η(δ、y、)+α△T9.(前回の学習時
)IJJJ          コ−j T、、=T、べ前回の学習時)+△T1.・・・(7)
IJ    IJ                 
IJを求めて、To、を変化させる。ここに、ηは学習
定数、αは安定化定数と呼ばれIJ るものである。各々論理的には求められないので、経験
的に求める。一般的にはこれらの数値が小さいほど収束
が遅く、また、太きいと振動してしまう傾向にある。オ
ーダ的には1程度のものである。また、f′ はシグモ
イド関数fの1階微分関数である。 [0015] このようにして学習をし、その後、再び入力を与えて出
力を計算し、学習をする。この操作を何回も繰返すうち
に、やがて、与えられた入力に対して望ましい結果が得
られるような結合係数T0.が決定される。 j [0016] さて、このような学習方法を何んらかの方法でハードウ
ェア化しようとした場合、学習には、多量の四則演算が
必要であり、実現が困難である。学習方法そのものもハ
ードウェア化に対しては不向きである。 [0017] 一方、デジタル回路でニューラルネットを実現したもの
の例を図37ないし図39を参照して説明する。図37
は単一の神経細胞の回路構成を示し、各シナプス回路6
を樹状突起回路7を介して細胞体回路8に接続してなる
。図38はその内のシナプス回路6の構成例を示し、係
数回路9を介して入力パルスfに倍率a(フィードバッ
ク信号に掛ける倍率で1又は2)を掛けた値が入力され
るレートマルチプライヤ10を設けてなり、レートマル
チプライヤ10には重み付けの値Wを記憶したシナプス
荷重レジスタ11が接続されている。また、図39は細
胞体回路8の構成例を示し、制御回路12、アツフソダ
ウンカウンタ13、レートマルチプライヤ14及びゲー
ト15を順に接続してなり、さらに、アップ/ダウンメ
モリ16が設けられている。 [0018] :Jll;rl’1l−111185(10)これは、
神経細胞ユニットの入出力をパルス列で表し、そのパル
ス密度で信号の量を表している。結合係数は2進数で表
し、メモリ16−Hに保存しておく。入力信号をレート
マルチプライヤ14のクロックへ入力し、結合係数をレ
ート値へ入力することによって、大力信号のパルス密度
をレート値に応じて減らしている。これは、バックプロ
パゲーションモデルの式のT、、V、の部分に相当する
。次J   1 々のグループ別に○Rをとる。この2つの出力をカウン
タ13のアップ側、ダウン側に入力しカランI・するこ
とで出力が得られる。この出力は2進数であるので再び
レートマルチプライヤ14を用いて、パルス密度に変換
する。このユニットをネットワークにすることによって
、ニューラルネットワークが実現できる。 学習については、最終出力を外部のコンピュータに入力
して、コンピュータ内部で数値計算を行い、その結果を
結合係数のメモリ16に書込むことにより実現している
。従って、自己学習機能は全くない。また、回路構成も
パルス密度の信号をカウンタを用いて一旦数値に直し、
その後、再びパルス密度に直しており、複雑なものにな
っている。 [0019]
[0008] When a network is created as shown in FIG. 33, each coupling coefficient is 1. The final output can be obtained by calculating equations (1)j and (2) one after another. [0009] On the other hand, an example of such a network realized by an electric circuit is shown in FIG. 36. This is shown in Japanese Patent Application Laid-Open No. 62-295188, and basically consists of a plurality of amplifiers 2 having an S-shaped transfer function and the output of each amplifier 2 being connected to the input of an amplifier in another layer at a single point. A resistive feedback network 3 is provided, which is connected as shown in dashed lines. A CR time constant circuit 4 consisting of a grounded capacitor and a grounded resistor is individually connected to the input side of each amplifier 2. And input current I
I~, , is applied to the input of each amplifier 2, and the output is obtained from the set of 1'2' output voltages of these amplifiers 2. [0010] Here, the strength of input and output signals is expressed by voltage, and the strength of the connection between neurons is expressed by the resistance 5 (lattice point in the resistive feedback network 3) that connects the input and output lines between each cell. The nerve cell response function is represented by the transfer function of each amplifier 2. Further, as mentioned above, the connections between nerve cells have excitatory and inhibitory characteristics, which are mathematically expressed by the positive and negative signs of the connection coefficient. However, it is difficult to realize positive and negative values using constants on the circuit, so here we divide the output of amplifier 2 into two,
By inverting one output, two positive and negative signals are generated, and this is achieved by appropriately selecting one of these signals. Furthermore, an amplifier is used as an equivalent to the sigmoid function shown in FIG. [0011] However, these circuits have the following problems. Self-learning is not possible as the user has no choice but to use the set values. ■ Represents signal strength with analog values such as potential and current,
When internal calculations are also performed analogously, the values change due to temperature characteristics, drift immediately after power-on, etc. 'J+l:il +4-111185 (8)■ Since it is a network, it is difficult to make the characteristics of each power gourd the same, which requires a large number of elements. ■ When the accuracy or stability of one element becomes a problem, when it is made into a network, new problems may arise, and the behavior of the entire network cannot be predicted. [0012] On the other hand, as a learning law used in numerical calculations, there is the following one called backpropagation. [0013] First, each coupling coefficient is given randomly. If input is given in this state, the output result will not necessarily be desirable. For example, in the case of character recognition, handwritten "1"
'', it is desirable that the output result be ``This character is 1.'' However, if the force plate coupling coefficients are random, this is not necessarily a desirable result. Therefore, this network has the correct answer (teacher signal)
, and then change each coupling coefficient so that the correct answer is obtained when the same input is given. At this time, the algorithm used to find the amount by which the coupling coefficient is changed is called backpropagation. [0014] For example, in a hierarchical network as shown in FIG. 33, the j-th neuron output of the final layer is bound by y,
Let d be the teacher signal for that neuron, J

J and E expressed as are minimum, ΔT,,=c3E/,EAT,,...
・・・・・・・・・・・・・・・・・・・・・(4) IJ
Using IJ, the coupling coefficient T1. change. More specifically, when determining the coupling coefficient between j0 and the previous layer, first, the output layer and its δ, = (d--y,)Xf' (u,)...
・・・・・・・・・・・・・・・・・・・・・(5) J
Using JJ J, δ
(error signal), and when calculating the coupling coefficient between layers further before that, δ, = Σδ, T,, Xf' (u,)...
・・・・・・・・・・・・・・・・・・・・・(6)J
Determine δ (error signal) using Jlcoj, and 8T1. =η(δ,y,)+α△T9. (Last learning time) IJJJ Co-j T,,=T,Before previous learning time)+△T1. ...(7)
IJ IJ
Find IJ and change To. Here, η is a learning constant, and α is a stabilization constant. Each cannot be determined logically, so they are determined empirically. In general, the smaller these numbers are, the slower the convergence is, and the larger these numbers are, the more likely they are to oscillate. In terms of order, it is about 1. Further, f' is the first-order differential function of the sigmoid function f. [0015] Learning is performed in this manner, and then input is given again to calculate the output and learning is performed. By repeating this operation many times, you will eventually reach a coupling coefficient T0 that yields the desired result for the given input. is determined. j [0016] Now, if it is attempted to implement such a learning method in hardware by some method, the learning requires a large amount of four arithmetic operations, which is difficult to implement. The learning method itself is also unsuitable for hardware implementation. [0017] On the other hand, an example of a neural network realized using a digital circuit will be described with reference to FIGS. 37 to 39. Figure 37
shows the circuit configuration of a single neuron, and each synaptic circuit 6
is connected to the cell body circuit 8 via the dendrite circuit 7. FIG. 38 shows an example of the configuration of the synapse circuit 6, in which a rate multiplier 10 is inputted with a value obtained by multiplying the input pulse f by a multiplication factor a (a multiplication factor of 1 or 2 for the feedback signal) via a coefficient circuit 9. A synapse weight register 11 storing a weighting value W is connected to the rate multiplier 10. FIG. 39 shows an example of the configuration of the cell body circuit 8, in which a control circuit 12, an active down counter 13, a rate multiplier 14, and a gate 15 are connected in order, and an up/down memory 16 is provided. There is. [0018] :Jll;rl'1l-111185(10) This is
The input and output of a neuron unit is represented by a pulse train, and the pulse density represents the amount of signal. The coupling coefficient is expressed as a binary number and stored in the memory 16-H. By inputting the input signal to the clock of rate multiplier 14 and inputting the coupling coefficient to the rate value, the pulse density of the high power signal is reduced in accordance with the rate value. This corresponds to the T,,V, parts of the backpropagation model equation. Next J 1 Mark ○R for each group. An output is obtained by inputting these two outputs to the up side and down side of the counter 13 and running them. Since this output is a binary number, the rate multiplier 14 is used again to convert it into a pulse density. By making these units into a network, a neural network can be realized. Learning is realized by inputting the final output to an external computer, performing numerical calculations inside the computer, and writing the results into the coupling coefficient memory 16. Therefore, there is no self-learning function at all. In addition, the circuit configuration uses a counter to convert the pulse density signal into a numerical value.
After that, it was converted back to pulse density, making it more complicated. [0019]

【発明が解決しようとする課題】[Problem to be solved by the invention]

このように従来技術による場合、ハードウェア上で自己
学習ができないという欠点がある。 [00201 また、アナログ回路は動作に確実性がなく、数値計算に
よる学習方法も計算が複雑であり、ハードウェア化に適
さない。一方、動作が確実なデジタル方式のものは回路
構成が複雑である。 [0021] 課題を解決するための手段 請求項1記載の発明では、各々論理演算手段を有する複
数の集合体からなる階層型の信号処理回路網において、
前記論理演算手段から出力される最終出力信号とこの論
理演算手段に対応する教師信号とを比較してこの教師信
号のみに存在する信号を正の誤差信号、前記最終出力信
号のみに存在する信号を負の誤差信号とするこの論理演
算手段における誤差信号を生成する比較出力手段と、他
の集合体を構成する演算手段にその出力信号を与えるあ
る集合体内の論理演算手段において前記他の集合体を構
成する演算手段との結合状態を表す興奮性の結合係数信
号と抑制性の結合係数信号との少なくとも一方の信号か
らなる結合係数信号と、前記他の集合体を構成する演算
手段における正の誤差信号と負の誤差信号とからなる誤
差信号とを用い、前記結合係数信号のうちで興奮性の結
合教師信号と前記正の誤差信号、及び、前記結合係数信
号のうちで抑制性の結合係数信号と前記負の誤差信号と
に基づいて論理演算して前記ある集合体内の論理演算手
段における正の誤差信号を生成し、前記結合係数信号の
うちで抑制性の結合係数信号と他の集合体における前記
正の誤差信号、及び、前記結合係数信号のうちで興奮性
の結合係数信号と前記負の誤差信号とに基づいて論理演
算して前記ある集合体内の論理演算手段における負の誤
差信号を生成する誤差信号生成手段と、前記他の集合体
を構成する論理演算手段に入力される全ての入力信号と
この論理演算手段における正の誤差信号と負の誤差信号
と、この論理演算手段にその出力信号を与える前記ある
集合体を構成する演算手段との結合状態を表す結合係数
信号とに基づいてこの結合係数信号を制御する結合係数
制御手段とを設けた。 [0022] 請求項2記載の発明では、各々論理演算手段を有する第
1の集合体、最終集合体及び前記第1の集合体からの出
力信号を受けて前記最終集合体に出力信号を供給する中
間集合体からなり、前記集合体内である集合体内の論理
演算手段と別の集合体内の論理演算手段との間で相互に
信号の送受信を行なって前記第1の集合体に入力信号が
与えられたときに前記最終集合体から出力される最終出
力信号と特定の教師信号とを比較し、この比較結果に基
づいて前記論理演算手段間の全ての結合係数をを制御す
ることにより、与えられた前記入力信号に対して得られ
る最終集合体内の論理演算手段からの前記最終出力信号
を前記教師信号に収束させるようにした階層型の信号処
理回路網において、請求項1記載の発明を適用した[0
023] 請求項3記載の発明では、これらの請求項1又は2記載
の発明において、入力信号、出力信号、最終出力信号、
結合係数信号、教師信号及び誤差信号の全ての信号を、
パルス列とパルス密度とにより表される信号とした。
As described above, the conventional technology has the disadvantage that self-learning cannot be performed on the hardware. [00201] Furthermore, analog circuits do not operate reliably, and learning methods based on numerical calculations require complicated calculations, making them unsuitable for implementation in hardware. On the other hand, digital systems that operate reliably have complex circuit configurations. [0021] Means for Solving the Problems In the invention according to claim 1, in a hierarchical signal processing circuit network consisting of a plurality of aggregates each having logical operation means,
The final output signal outputted from the logic operation means and the teacher signal corresponding to this logic operation means are compared, and a signal that exists only in this teacher signal is determined as a positive error signal, and a signal that exists only in the final output signal is determined as a positive error signal. Comparison output means for generating an error signal in this logic operation means as a negative error signal, and logic operation means in a certain aggregate that provides the output signal to the operation means forming another aggregate, A coupling coefficient signal consisting of at least one of an excitatory coupling coefficient signal and an inhibitory coupling coefficient signal representing a coupling state with the constituent computing means, and a positive error in the computing means constituting the other aggregate. An excitatory coupling teacher signal and the positive error signal among the coupling coefficient signals, and an inhibitory coupling coefficient signal among the coupling coefficient signals. and the negative error signal to generate a positive error signal in the logical operation means in the certain aggregate, and among the coupling coefficient signals, the suppressive coupling coefficient signal and the other aggregate A logic operation is performed based on the positive error signal, an excitatory coupling coefficient signal among the coupling coefficient signals, and the negative error signal to generate a negative error signal in the logic operation means in the certain aggregate. All the input signals input to the logic operation means constituting the other aggregate, the positive error signal and the negative error signal in this logic operation means, and the output to this logic operation means. A coupling coefficient control means is provided for controlling the coupling coefficient signal based on a coupling coefficient signal representing a coupling state with the arithmetic means constituting the certain aggregate that provides the signal. [0022] In the invention according to claim 2, the first aggregate, the final aggregate, and the output signal from the first aggregate, each having a logical operation means, are received and the output signal is supplied to the final aggregate. It consists of an intermediate aggregate, and signals are exchanged between the logic operation means in one aggregate and the logic operation means in another aggregate in the aggregate, so that an input signal is given to the first aggregate. By comparing the final output signal outputted from the final assembly with a specific teacher signal when The invention according to claim 1 is applied to a hierarchical signal processing circuit network configured to converge the final output signal from the logic operation means in the final aggregate obtained for the input signal to the teacher signal. 0
[023] In the invention according to claim 3, in the invention according to claim 1 or 2, the input signal, the output signal, the final output signal,
All signals of coupling coefficient signal, teacher signal and error signal are
The signal was expressed by a pulse train and a pulse density.

【0024】 請求項4記載の発明では、結合係数可変回路とこの結合
係数可変回路の可変結合係数値を教師信号に対する誤差
信号に基づき生成する結合係数生成回路とよりなる自己
学習回路を神経細胞模倣素子に付設した複数の神経細胞
模倣回路を網状に接続した。又は、請求項9記載の発明
では、パルス密度により表された入力とパルス密度によ
り表された結合係数とを演算処理してパルス密度信号に
より定められた出力を得る神経細胞模倣素子に、自己の
出力と教師信号との誤差信号に基づいて結合係数を制御
する制御手段を付設した複数の神経細胞模倣回路を網状
に接続した。 [0025] 請求項5記載の発明では、自己学習回路と神経細胞模倣
素子とをデジタル論理回路により形成した。 [0026] 請求項6記載の発明では、興奮性結合グループと抑制性
結合グループとの2つにグループ分けした結合係数毎に
処理して一方のグループの結果の否定と他方のグループ
の結果との論理積をとる論理回路を設けた。請求項7記
載の発明では、興奮性結合グループと抑制性結合グルー
プとの2つにグループ分けした結合係数毎に処理して一
方のグループの結果の否定と他方のグループの結果との
論理和をとる論理回路を設けた。請求項8記載の発明で
は、興奮性結合係数グループによる出力結果と抑制性結
合係数グループによる出力結果との割合により神経細胞
模倣素子の出力を決定する多数決回路を設けた。 [0027] 請求項9記載の発明において、請求項10記載の発明で
は、各入力に対して結合係数を記憶したメモリを個別に
設け、入力が興奮性結合と抑制性結合との何れであるか
により予め2つにグループ分けした。又は、請求項11
記載の発明では各入力に対して結合係数を記憶したメモ
リを個別に設け、2種類の結合を表す情報を格納して入
力を興奮性結合と抑制性結合との2つにグループ分けす
るグループ分け用メモリを設けた。これらの場合、請求
項12記載の発明では、制御手段を、自己の出力と教師
信号との誤差信号に基づく学習により可変結合係数値を
生成してメモリ内の結合係数を可変制御する自己学習回
路とした。 [0028] 請求項13記載の発明では、各入力に対して興奮性結合
係数を記憶したメモリと抑制性結合係数を記憶したメモ
リとを個別に設け、これらのメモリの組別に興奮性結合
と抑制性結合との2つにグループ分けし、読出したメモ
リの内容と入力内容とをグループ別に論理演算処理して
興奮性と抑制性との何れかの出力を選択し、自己の出力
と教師信号との誤差信号に基づく学習により可変結合係
数値を生成して各々のメモリ内の結合係数を可変制御す
る自己学習回路を設けた。 [0029] 請求項14記載の発明では、請求項9記載の発明におい
て、結合係数可変回路で用いる学習定数を外部から任意
に設定可変させる学習定数設定手段を設けた。 [0030]
[0024] In the invention as claimed in claim 4, a self-learning circuit comprising a variable coupling coefficient circuit and a coupling coefficient generation circuit that generates a variable coupling coefficient value of the variable coupling coefficient circuit based on an error signal with respect to a teacher signal is imitated by neuron. Multiple neuron mimicking circuits attached to the device were connected in a network. Alternatively, in the invention according to claim 9, the neuron mimicking element that calculates the input represented by the pulse density and the coupling coefficient represented by the pulse density to obtain the output determined by the pulse density signal has its own A plurality of neuron imitation circuits equipped with a control means for controlling the coupling coefficient based on the error signal between the output and the teacher signal were connected in a network. [0025] In the invention set forth in claim 5, the self-learning circuit and the neuron imitation element are formed by a digital logic circuit. [0026] In the invention described in claim 6, processing is performed for each coupling coefficient divided into two groups, an excitatory coupling group and an inhibitory coupling group, and negating the result of one group and combining the result of the other group. A logic circuit that performs logical product is provided. In the invention described in claim 7, processing is performed for each coupling coefficient divided into two groups, an excitatory coupling group and an inhibitory coupling group, and the negation of the result of one group and the logical sum of the result of the other group are performed. A logic circuit is provided to take the following steps. In the invention as set forth in claim 8, a majority circuit is provided that determines the output of the neuron mimicking element based on the ratio of the output result by the excitatory coupling coefficient group and the output result by the inhibitory coupling coefficient group. [0027] In the invention described in claim 9, in the invention described in claim 10, a memory storing a coupling coefficient for each input is individually provided, and it is determined whether the input is an excitatory connection or an inhibitory connection. They were divided into two groups in advance. Or claim 11
In the described invention, a memory storing coupling coefficients for each input is individually provided, and information representing two types of coupling is stored, and the inputs are grouped into two groups, excitatory coupling and inhibitory coupling. memory for use. In these cases, in the invention according to claim 12, the control means is a self-learning circuit that generates a variable coupling coefficient value by learning based on an error signal between its own output and a teacher signal, and variably controls the coupling coefficient in the memory. And so. [0028] In the invention according to claim 13, a memory storing an excitatory coupling coefficient and a memory storing an inhibitory coupling coefficient are separately provided for each input, and the excitatory coupling and the inhibitory coupling coefficient are separately provided for each input. The content of the read memory and the input content are logically operated on each group to select either the excitatory or inhibitory output, and the self output and the teacher signal are divided into two groups. A self-learning circuit is provided that generates variable coupling coefficient values through learning based on the error signal of , and variably controls the coupling coefficients in each memory. [0029] In the invention described in claim 14, in the invention described in claim 9, a learning constant setting means for arbitrarily setting and varying the learning constant used in the variable coupling coefficient circuit from the outside is provided. [0030]

【作用】[Effect]

自己学習機能を含めて神経細胞網の機能をハードウェア
上で並列的に行わせることができ、自己学習機能が発揮
され、従来のコンピュータシミュレーションのシリアル
処理による計算に比べ処理速度が著しく向上する。この
とき、デジタル回路構成により動作は確実なものとなる
。特に、全てをパルス密度表現によるデジタル的な信号
処理としたので、増幅器の温度特性等の影響を受ける等
のアナログ方式のような不都合は生じない。 [0031] 特に、請求項1又は2記載の発明のように構成すれば、
ニューロンの機能をソフトウェアで実現することも可能
であり、ソフトウェアの変更だけでネットワークの構成
の変更も可能となり、柔軟性及び汎用性に富んだネット
ワークの構築が可能となる。 [0032] このとき、結合には興奮性と抑制性との2種類がある力
板結合係数の正負によ[0033] なり、書換え可能で汎用性を持つものとなる。 [0034] いやすいものとなる。 [0035]
The functions of the neuronal network, including the self-learning function, can be performed in parallel on hardware, and the self-learning function is demonstrated, significantly improving processing speed compared to calculations using serial processing in conventional computer simulations. At this time, the digital circuit configuration ensures reliable operation. In particular, since all signal processing is done digitally using pulse density expression, there are no disadvantages like in analog systems, such as being affected by the temperature characteristics of the amplifier. [0031] In particular, if configured as in the invention according to claim 1 or 2,
It is also possible to realize the functions of neurons with software, and the configuration of the network can be changed simply by changing the software, making it possible to construct a highly flexible and versatile network. [0032] At this time, there are two types of coupling, excitatory and inhibitory, depending on the sign of the force plate coupling coefficient [0033] and is rewritable and versatile. [0034] It becomes easy to use. [0035]

【実施例】【Example】

本発明の第一の実施例を図1ないし図12に基づいて説
明する。本実施例は、自己学習機能を持たせるものであ
り、自己学習を可能とするには、結合係数を可2により
適宜切換えることにより結合係数を可変とする。切換え
回路22は外部コントローラより2進数を入力させるこ
とにより切換え可能な市販されているも3のサインビッ
トを用いて切換え回路24をも切換え制御し、反転増幅
器25を通すか通さないかの選択により興奮性出力と抑
制性出力との切換えが行われる。 これにより外部信号Sに応じて結合係数が可変となり、
入力信号に対して任意の結合係数を掛けた出力が得られ
る。 [0036] 図3はこのような結合係数可変回路20を用いて、(1
)(2)式を表すものである。ここでは、結合係数可変
回路20は1つ前の層からの入力に対して各々の結合係
数を掛は合わせる機能を持ち、加算回路26に入力され
て加算される。加算回路26は例えば図4に示すように
市販のオペアンプ27を用いることにより容易に実現で
きる。ここに、オペアンプ27は加算用であるが反転増
幅器構成であるので、さらにアンプ28を用いて再度反
転させて出力させるように構成されている。加算回路2
6の出力側には(2)式のような入出力関係を持つ非線
形のアンプ29が接続されている。その入力信号は(1
)式の内部電位に相当する。 [0037] 次に、結合係数を決定するための外部信号Sを作成する
方法について説明する。これは、(5)〜(7)式に相
当するもので、これを実現するだめの回路が必要となる
。まず、(5)(6)式中のf′ は、図35に示した
シグモイド関数fの1階fja分関数であり、図5に示
すような特性のものである。これを実現するf′信号作
成回路30は例えば図6に示すように複数のアンプ31
〜35を多段に接続し、非線形の山型特性を持つ回路に
より構成される。このf′信号作成回路30の入出力特
性は図7に示すようなものとなる。この回路30は必ず
しも図5のような特性を正確に実現するものではないが
、近似的には成り立つといえる。また、f′信号作成回
路30に対して入力する前に予め非線形の入出力特性を
持つアンプ(図示せず)を設ければ、例えば図8に示す
ような入出力特性となり、より図5の特性に近づくこと
になる。 [0038] (5)式に相当する誤差信号発生回路36の例を図9に
示す。図中の回路30は図6に示したもので、内部電位
(図3中のアンプ29に対する入力)に図7又は図8に
示したような関数処理を施す。一方、出力層のニューロ
ンユニット出力と教師信号との差をとる減算回路37が
設けられている。この減算回路37は図4に示したよう
な回路を用い、片方の入力を予めアンプで反転させてお
けばよい。 これらの回路30.37の出力は雫算回路38に入力さ
れて積がとられ、(5)式と同様な結果が得られる。 [0039] 一方、(6)式に相当する誤差信号発生回路39の例を
図10に示す。即ち、前述したような回路構成の結合係
数可変回路20、加算回路26、f′信号作成回路30
とともに、これらの回路26.30の出力の積をと、6
%算回路40を設けてなる。このような構成は(6)式
と等価となる。よって、これに予め図9に示したような
回路36又は別の層における図10に示すような回路3
9により作成された誤差信号と内部電圧とを入力させる
ことにより、最終的には(6)式と同様な出力が得られ
る。さらに、(7)式に相当する結合係数生成回路41
は乗算回路により実現できる。図11はこれを示し、ま
ず、乗算回路42が設げられている。 これは、種々市販されているものでよく、ある層のニュ
ーロンの出力と前述した回路で作成した誤差信号と定数
ηとの積をとる。この乗算回路42の出力は加算回路4
3に入力され、遅延回路44を用いて、Tと△Tとから
新しいTを生成する。よって、加算回路43からの出力
は(7)式に相当するものとなる。 [0040] しかして、図1はこれらの回路をまとめて構成した神経
細胞模倣回路45の例を示す。即ち、この図1の回路4
5はネットワーク上では図33中に破線で囲んで示す部
分に相当する。ブロックB1は、図3に示した回路に相
当し、その演算出力は1つ先の各ニューロンへ送出され
る。また、ブロックB2は図10に示した誤差信号発生
回路39に相ヨする。即ち、1つ先の層のブロックB2
−1とこの図に示す当該ニューロンのブロックB2−2
とで丁度図10の構成と同じとなり、同様に、当該ニュ
ーロンのブロックB2−1と1つ前のブロックB2−2
とで丁度図10の構成と同じとなる。ネットワーク全体
は図33のように多層構造となっているので、誤差信号
発生回路39のブロックを真ん中で切って2つに分けて
も等価となる。また、ブロックB5−1.B5−2.〜
.B3−Nは図11に示した結合係数生成回路41及び
A/D変換器23に相当する(なお、図1では遅延回路
44は図示を省略しである)。このブロックB5−1.
B5−2.〜B3−Nで新たに求−められた結合係数T
を用いて、図2に示した結合係数可変回路20で各結合
係数を変化させる。同じ結合係数をブロックBl、B2
−1の2個所で使用するので、図1に示すように2つを
連動可変させる。即ち、図1でブロックB2−1.B3
の回路及びブロックB1中の結合係数可変回路20部分
が自己学習回路に相当し、ブロックB1の残りの部分及
びブロックB2−2の部分が神経細胞模倣素子に相当す
る。 [0041] 図1に示すように構成されたブロックを図33のように
網状に接続してネットワークとし、さらに、最終出力層
の出力部分に図9で示したような誤差信号発生回路36
を取付ければ、ニューラルネットワークが実現できる。 [0042] 上記回路構成について、具体例を用いて説明する。まず
、前述した各ブロックの加算回路等には全て市販の汎用
オペアンプを用いて構成し、256入力256出力の図
1のような神経細胞模倣回路45及び図11のような結
合係数生成回路41を多数作製した。次に、これらの回
路45.41の各々の入出力線を接続してネットワーク
とした。ネットワーク構成は、3層構成とし、第1層は
256個第2層は4個、第3層は5個の神経細胞模倣回
路ユニットからなるようにした。さらに、第3層の出力
を図9に示したような誤差信号発生回路36に接続した
。このようなネットワークの第1層の各ユニットに何ん
らかの入力を与えると、最初は出力結果が必ずしも所望
のものとはならないが、自己学習回路を持つなめやがて
、出力結果は所望のもの、即ち、教師信号となる。 [0043] このネットワークを用いて、さらに自己学習式文字認識
装置について応用した例を説明する。まず、図12に示
すような手書き文字をスキャナで読取り、16×16の
メツシュに分け、各メツシュをネットワークの第1層の
各ニューロンへの入力とした。文字部分のあるメツシュ
をIV、ないメツシュをOVの入力とした。出力は電圧
計と結び、出力結果を直接表示するようにした。5つあ
るユニットのうちで一番犬きい出力のものの位置が、認
識結果となるようにし、そのため「1」〜「5」の数字
を入力したときその数字に対応する番号の出力が一番犬
きくなるように学習させた。十分学習させた文字に対し
ては認識率100%となったものである。 [0044] つづいて、本発明の第二の実施例を図13ないし図17
により説明する。本実施例は、デジタル化を図ったもの
で、基本的には、■ 神経細胞ユニットに関する入出力
信号、中間信号、結合係数、教師信号などは全て、rO
J  Illの2値で表されたパルス列で表す。 ■ ネットワーク内部での信号の量は、パルス密度で表
す(ある一定時間内の「1」の数)。 1N開平1−111185 (18) ■ 神経細胞ユニット内での計算は、パルス列同士の論
理演算で表す。 ■ 結合係数のパルス列はメモリ上に置く。 ■ 学習は、このパルス列を書換えることで実現する。 ■ 学習については、与えられた教師信号パルス列を元
に誤差を計算し、これに基づいて、結合係数パルス列を
変化させる。このとき、誤差の計算、結合係数の変化分
の計算も、全て、「0」 「1」のパルス列の論理演算
で行う。 ようにしたものである。 [0045] 以下、この思想を具体化した例に基づき説明する。まず
、信号演算部分の構成を図13を参照して説明する。図
13は1つの神経細胞模倣回路50に相当する部分を示
し、ネットワーク構成したものは図33の場合のように
階層型とされる。入出力は、全て、「1」 「O」に2
値化され、かつ、同期化されたものが用いられる。入力
y、の信号の強度はパルス密度で表現し、例えば次に示
すパルス列のように、ある一定時間内にある、「1」の
状態数で表す。即ち、
A first embodiment of the present invention will be described based on FIGS. 1 to 12. This embodiment is provided with a self-learning function, and in order to enable self-learning, the coupling coefficient is made variable by appropriately switching the coupling coefficient between 2 and 2. The switching circuit 22 also switches and controls the switching circuit 24 using a commercially available sign bit that can be switched by inputting a binary number from an external controller, and selects whether or not to pass the inverting amplifier 25. Switching between excitatory output and inhibitory output occurs. This makes the coupling coefficient variable according to the external signal S,
An output is obtained by multiplying the input signal by an arbitrary coupling coefficient. [0036] FIG. 3 shows that (1
)(2). Here, the coupling coefficient variable circuit 20 has the function of multiplying and matching the input from the previous layer by each coupling coefficient, and the input is input to the adding circuit 26 and added. The adder circuit 26 can be easily realized by using a commercially available operational amplifier 27, for example, as shown in FIG. Here, the operational amplifier 27 is used for addition, but since it has an inverting amplifier configuration, the amplifier 28 is further used to invert the signal again and output it. Addition circuit 2
A nonlinear amplifier 29 having an input/output relationship as shown in equation (2) is connected to the output side of the amplifier 6. Its input signal is (1
) corresponds to the internal potential of the equation. [0037] Next, a method of creating the external signal S for determining the coupling coefficient will be described. This corresponds to equations (5) to (7), and requires a circuit to realize this. First, f' in equations (5) and (6) is a first-order fja component function of the sigmoid function f shown in FIG. 35, and has characteristics as shown in FIG. For example, as shown in FIG.
.about.35 are connected in multiple stages and constituted by a circuit having nonlinear chevron-shaped characteristics. The input/output characteristics of this f' signal generating circuit 30 are as shown in FIG. Although this circuit 30 does not necessarily realize the characteristics shown in FIG. 5 exactly, it can be said that it approximately achieves the characteristics. Furthermore, if an amplifier (not shown) having nonlinear input/output characteristics is provided in advance before inputting to the f' signal generation circuit 30, the input/output characteristics will be as shown in FIG. This will bring us closer to the characteristics. [0038] FIG. 9 shows an example of the error signal generation circuit 36 corresponding to equation (5). The circuit 30 in the figure is shown in FIG. 6, and performs functional processing as shown in FIG. 7 or 8 on the internal potential (input to the amplifier 29 in FIG. 3). On the other hand, a subtraction circuit 37 is provided which takes the difference between the neuron unit output of the output layer and the teacher signal. This subtracting circuit 37 may use a circuit as shown in FIG. 4, and one input may be inverted in advance by an amplifier. The outputs of these circuits 30 and 37 are input to the drop calculation circuit 38 and multiplied, yielding a result similar to equation (5). [0039] On the other hand, an example of the error signal generation circuit 39 corresponding to equation (6) is shown in FIG. That is, the coupling coefficient variable circuit 20, the addition circuit 26, and the f' signal generation circuit 30 have the circuit configurations as described above.
and the product of the outputs of these circuits 26.30 and 6
A percentage calculation circuit 40 is provided. Such a configuration is equivalent to equation (6). Therefore, a circuit 36 as shown in FIG. 9 or a circuit 3 as shown in FIG. 10 in another layer is added to this in advance.
By inputting the error signal created by 9 and the internal voltage, an output similar to that of equation (6) can be finally obtained. Furthermore, a coupling coefficient generation circuit 41 corresponding to equation (7)
can be realized by a multiplication circuit. FIG. 11 shows this, and first, a multiplication circuit 42 is provided. This may be any of a variety of commercially available products, and takes the product of the output of a neuron in a certain layer, the error signal created by the circuit described above, and a constant η. The output of this multiplier circuit 42 is the output of the adder circuit 4
3 and uses the delay circuit 44 to generate a new T from T and ΔT. Therefore, the output from the adder circuit 43 corresponds to equation (7). [0040] FIG. 1 shows an example of a neuron imitation circuit 45 that is configured by combining these circuits. That is, this circuit 4 of FIG.
5 corresponds to the portion surrounded by a broken line in FIG. 33 on the network. Block B1 corresponds to the circuit shown in FIG. 3, and its calculation output is sent to each neuron immediately ahead. Further, block B2 is compatible with the error signal generation circuit 39 shown in FIG. That is, block B2 of the next layer
-1 and block B2-2 of the neuron shown in this figure.
The configuration is exactly the same as that in FIG. 10, and similarly, the block B2-1 of the neuron and the previous block B2-2
The configuration is exactly the same as that shown in FIG. Since the entire network has a multilayer structure as shown in FIG. 33, it is equivalent to divide the block of the error signal generation circuit 39 into two by cutting it in the middle. Also, block B5-1. B5-2. ~
.. B3-N corresponds to the coupling coefficient generation circuit 41 and A/D converter 23 shown in FIG. 11 (note that the delay circuit 44 is not shown in FIG. 1). This block B5-1.
B5-2. ~B3-N newly found coupling coefficient T
is used to change each coupling coefficient in the coupling coefficient variable circuit 20 shown in FIG. The same coupling coefficient is applied to blocks Bl and B2
-1 is used in two locations, so the two are linked and variable as shown in FIG. That is, in FIG. 1, block B2-1. B3
The circuit and the coupling coefficient variable circuit 20 portion in block B1 correspond to a self-learning circuit, and the remaining portion of block B1 and the portion of block B2-2 correspond to a neuron imitation element. [0041] The blocks configured as shown in FIG. 1 are connected in a net shape as shown in FIG. 33 to form a network, and further, an error signal generation circuit 36 as shown in FIG. 9 is installed in the output part of the final output layer.
By attaching , a neural network can be realized. [0042] The above circuit configuration will be explained using a specific example. First, the adder circuits and the like of each block described above are all constructed using commercially available general-purpose operational amplifiers, and a neuron imitation circuit 45 as shown in FIG. 1 with 256 inputs and 256 outputs and a coupling coefficient generation circuit 41 as shown in FIG. Many were made. Next, the input and output lines of each of these circuits 45 and 41 were connected to form a network. The network configuration was a three-layer structure, with the first layer consisting of 256 neuron imitation circuit units, the second layer consisting of four units, and the third layer consisting of five neuron imitation circuit units. Furthermore, the output of the third layer was connected to an error signal generation circuit 36 as shown in FIG. When some input is given to each unit in the first layer of such a network, the output result will not necessarily be the desired one at first, but as it has a self-learning circuit, the output result will eventually become the desired one. , that is, it becomes a teacher signal. [0043] An example in which this network is applied to a self-learning character recognition device will be described. First, handwritten characters as shown in FIG. 12 were read with a scanner, divided into 16×16 meshes, and each mesh was input to each neuron in the first layer of the network. A mesh with a text part was used as an input IV, and a mesh without a text part was used as an OV input. The output was connected to a voltmeter and the output results were displayed directly. The recognition result will be the position of the one with the sharpest output among the five units, so when you input a number from ``1'' to ``5'', the output of the number corresponding to that number will be the sharpest. I made them learn like this. The recognition rate was 100% for characters that had been sufficiently learned. [0044] Next, a second embodiment of the present invention will be described with reference to FIGS. 13 to 17.
This is explained by: This embodiment is designed to be digitalized, and basically all input/output signals, intermediate signals, coupling coefficients, teacher signals, etc. related to the neuron unit are rO
It is expressed as a pulse train expressed as a binary value of J Ill. ■ The amount of signals inside the network is expressed by pulse density (the number of "1"s within a certain period of time). 1N Kaihei 1-111185 (18) ■ Calculations within a neuron unit are expressed by logical operations between pulse trains. ■ Place the coupling coefficient pulse train in memory. ■Learning is achieved by rewriting this pulse train. ■ Regarding learning, the error is calculated based on the given teacher signal pulse train, and the coupling coefficient pulse train is changed based on this. At this time, the calculation of the error and the calculation of the change in the coupling coefficient are all performed by logical operations on the pulse train of "0" and "1". This is how it was done. [0045] Hereinafter, an explanation will be given based on an example that embodies this idea. First, the configuration of the signal calculation section will be explained with reference to FIG. FIG. 13 shows a portion corresponding to one neuron imitation circuit 50, and the network configuration is hierarchical as in the case of FIG. 33. All inputs and outputs are ``1'' and 2 to ``O''.
Valued and synchronized values are used. The intensity of the signal of input y is expressed by the pulse density, and is expressed by the number of states of "1" within a certain period of time, for example, as in the pulse train shown below. That is,

【数2】 入力信号 n = 4/6   ・・・・・・・・・(
8)同期信号 は上はL の例は、4/6を表す式であり、同期パルス6個中に信
号は「1」が4個、「0」が2個である。このとき、「
1」とrOJの並び方は、後述するようにランダムであ
ることが望ましい。 [0046] 一方、結合係数Tijも同様にパルス密度で表現し、列
として予めメモリ上に用意しておく。 「0」 と 「1ヨ とのパルス [0047]
[Mathematical 2] Input signal n = 4/6 ・・・・・・・・・(
8) The synchronization signal is L. The example is an expression representing 4/6, and the signal has four "1"s and two "0"s in six synchronization pulses. At this time,"
1'' and rOJ are preferably arranged randomly as described later. [0046] On the other hand, the coupling coefficient Tij is similarly expressed in terms of pulse density and prepared in advance as a column on the memory. Pulse of “0” and “1yo” [0047]

【数3】 結合係数LLユニー3/6 同期信号 LLL12」− ・・・・・・・・・(9) の例は、「l0IOIOJ =3/6を表す式である。 この場合も、「1」と10」の並び方はランダムである
ことが望ましい。具体的にどのように決定するかは後述
する。 [0048] そして、このパルス列を同期クロックに応じてメモリ上
より順次読出し、図13に示すように各々ANDゲート
51により入力信号パルス列との論理積をとる(y−n
 T、)。これを、神経細胞jへの入力とする。上側の
場合で説明すると1     1J 入力信号が「101101」として入力されたとき、こ
れと同期してメモリ上よりパルス列を呼出し、順次AN
Dをとることにより、
[Formula 3] Coupling coefficient LL unit 3/6 Synchronizing signal LLL12'' - (9) An example of this is an expression that expresses ``l0IOIOJ = 3/6. In this case, ``1 ” and 10” are preferably arranged randomly. The specific method for determining this will be described later. [0048] Then, this pulse train is sequentially read out from the memory in accordance with the synchronization clock, and as shown in FIG.
T.). This is taken as an input to neuron j. To explain in the case above, 1 1J When the input signal is input as "101101", a pulse train is called from the memory in synchronization with this, and the AN
By taking D,

【数4】 入力信号 LLLL=4/6 結合係数m = 3/6 y、 n T、、  LL−一= 2/6  −−−−
−−−−−(10)に示すような「101000」が得
られ、これは入力y、が結合係数T3.により1  、
         IJ 変換されパルス密度が2/6となることを示している。 [0049] ANDゲート51の出力のパルス密度は、近似的には入
力信号のパルス密度と結合係数とのパルス密度との積と
なり、アナログ方式の結合係数と同様の機能を有する。 これは、信号の列が長いほど、また、「1」とrOJと
の並び方がランダムであるほど、積に近い機能を持つこ
とになる。なお、大力パルス列に比べて結合係数のパル
ス列が短く、読出すべきデータがなくなったら、再びデ
ータの先頭に戻って読出しを繰返えせばよい。 [00501 1つの神経細胞ユニットは多入力であるので、前述した
[入力信号と結合係数とのANDJも多数あり、次に論
理回路となる○R回路52によりこれらの論理和をとる
。入力は同期化されているので、例えば1番目のデータ
が[101000]、2番目のデータが「010000
.Jの場合、両者のORをとると、「111N開平4−
111185 (20) 1000jとなる。これを多入力同時に計算し出力とす
る。即ち、
[Equation 4] Input signal LLLL=4/6 Coupling coefficient m=3/6 y, n T,, LL-1=2/6 -----
------- "101000" as shown in (10) is obtained, which means that the input y is the coupling coefficient T3. According to 1,
This shows that the pulse density is 2/6 after IJ conversion. [0049] The pulse density of the output of the AND gate 51 is approximately the product of the pulse density of the input signal and the pulse density of the coupling coefficient, and has the same function as the coupling coefficient of the analog system. The longer the signal string is, and the more random the arrangement of "1" and rOJ, the closer the function will be to a product. Note that the pulse train of the coupling coefficient is shorter than the high-power pulse train, and when there is no more data to be read, it is sufficient to return to the beginning of the data and repeat the reading. [00501] Since one neuron unit has multiple inputs, there are many ANDJs between input signals and coupling coefficients as described above, and then the OR circuit 52, which is a logic circuit, calculates the OR of these. The inputs are synchronized, so for example, the first data is [101000] and the second data is [010000].
.. In the case of J, if we take the OR of both, we get “111N Kaihei 4-
111185 (20) becomes 1000j. This is calculated simultaneously for multiple inputs and output. That is,

【数5】 nT、1 y+ n TlJ  4 のようになる。これは、アナログ計算における和の計算
及び非線形関数(シグモイド関数)の部分に対応してい
る。 [0051] パルス密度が低い場合、そのORをとったもののパルス
密度は、各々のパルス密度の和に近似的に一致する。パ
ルス密度が高くなるにつれ、OR回路52の出力は段々
飽和してくるので、パルス密度の和とは一致せず、非線
形性が出てくる。ORの場合、パルス密度は1よりも大
きくなることがなく、かつ、0より小さくなることもな
く、さらには、単調増加関数であり、シグモイド関数と
近似的に同様となる。 [0052] ところで、結合には興奮性と抑制性があり、数値計算の
場合には、結合係数の符号で表し、アナログ回路の場合
は前述の如くTo、が負となる場合(抑制性結合J )は増幅器を用いて出力を反転させてT1.に相当する
抵抗値で他の神経細胞に結J 合させる。この点、デジタル方式の本実施例にあっては
、まず、T1.の正負によJ り各結合を興奮性結合と抑制性結合との2つのグループ
に分け、次いで、[入力信号と結合係数のパルス列のA
NDJ同士のORをこのグループ別に計算する。 そして、興奮性結合グループの出力のみが「1」のとき
、「1」を出力し、抑制性結合グループの出力のみが「
1」のとき、rOJを出力する。両方とも「1」のとき
、又は「0」のときは「1」 「0」の何れを出力して
もよく、或いは、確率1/2程度で「1」を出力しても
よい。本例では、興奮性結合グループの出力が「1」で
抑制性結合グループの出力が「0」のときのみ出力「1
」を出すようにする。この機能を実現するためには、 
(抑制性結合グループの出力のN0T)と(興奮性結合
グループの出力)とのANDをとればよい。即ち、
[Equation 5] nT, 1 y+ n TlJ 4 . This corresponds to the sum calculation and nonlinear function (sigmoid function) part in analog calculation. [0051] When the pulse density is low, the ORed pulse density approximately matches the sum of the respective pulse densities. As the pulse density increases, the output of the OR circuit 52 gradually becomes saturated, so it does not match the sum of the pulse densities and nonlinearity appears. In the case of OR, the pulse density is neither greater than 1 nor less than 0, and is a monotonically increasing function, approximately similar to a sigmoid function. [0052] By the way, coupling has excitatory and inhibitory properties, and in the case of numerical calculations, it is expressed by the sign of the coupling coefficient, and in the case of analog circuits, as mentioned above, when To is negative (inhibitory coupling J ) uses an amplifier to invert the output and convert it to T1. J is connected to other neurons with a resistance value corresponding to J. In this regard, in this embodiment of the digital system, first, T1. Divide each connection into two groups, excitatory connections and inhibitory connections, according to the sign of J, and then [A of the pulse train of input signal and coupling coefficient]
The OR between NDJs is calculated for each group. Then, when only the output of the excitatory connection group is "1", it outputs "1", and only the output of the inhibitory connection group is "1".
1, outputs rOJ. When both are "1" or "0", either "1" or "0" may be output, or "1" may be output with a probability of about 1/2. In this example, the output is “1” only when the output of the excitatory connection group is “1” and the output of the inhibitory connection group is “0”.
”. To achieve this functionality,
It is sufficient to AND the (N0T of the output of the inhibitory connection group) and (the output of the excitatory connection group). That is,

【数
6】 興奮性結合 グループ出力 m 抑制性結合 グループ出力 −U 出力     し−]−・・・・・・(12)となる。 [0053] 論理式で表現すると、
[Equation 6] Excitatory connection group output m Inhibitory connection group output -U output shi-] - (12). [0053] Expressed as a logical formula,

【数7】 a=U (yln Tlt)  (T=’A奮性)  
  −−−−−−−・・(13)b=U (yln T
、+)  (T=抑制性)    −・−・−・・(1
4)yJ=a n b               
・・・・・・・・・(15)で示される。神経細胞ユニ
ットのネットワークは、パックプロパゲーションと同様
な階層型(即ち、図33)とする。そして、ネットワー
ク全体を同期させておけば、各層とも上述した機能によ
り計算できる。 [0054] 一方、To、の正負により各結合を興奮性結合と抑制性
結合との2つのグループj に分け、次いで、[入力信号と結合係数のパルス列のA
NDJ同士のORをこのグループ別に計算し、その後、
興奮性結合グループの出力が「0」で抑制性結合グルー
プの出力が「1」のとき以外出力を出すようにする場合
であれば、 (抑制性結合グループの出力のN0T)と
(興奮性結合グループの出力)とのORをと
[Formula 7] a=U (yln Tlt) (T='A stimulatory)
----------...(13) b=U (yln T
, +) (T=inhibitory) −・−・−・・(1
4) yJ=a n b
It is shown by (15). The network of neuron units is of a hierarchical type similar to pack propagation (ie, FIG. 33). If the entire network is synchronized, each layer can be calculated using the functions described above. [0054] On the other hand, each connection is divided into two groups j, excitatory connections and inhibitory connections, depending on the sign of To, and then [A of the pulse train of input signal and coupling coefficient]
Calculate the OR between NDJs for each group, and then
If you want to output an output other than when the output of the excitatory connection group is "0" and the output of the inhibitory connection group is "1", (N0T of the output of the inhibitory connection group) and (excitatory connection group output)

【数8】 興奮性結合 グループ出力 抑制性結合 グループ出力 口−IL となる。 [0055] 論理式で表現すると、[Math. 8] excitatory connections group output inhibitory binding group output Mouth-IL becomes. [0055] Expressed as a logical formula,

【数9】 a=U(ylnTl、)(T=興奮性)   ・−・・
・−・−(13’)b=tJ (yr n T、j> 
 (T=抑制性)   、、、、、−(14’)y、=
:aUb              ・・・・・・・
・・(Is’ )で示される。 [0056] 次に、学習時の処理について説明する。 a、最終層における誤差信号 最終層で各ニューロンにおける誤差信号を計算し、それ
を元にそのニューロンに関わる結合係数を変化させる。 そのための、誤差信号の計算法について述へる。ここに
、本実施例では、「誤差信号」を以下のように定義する
。誤差を数値で表スト、一般には+、−の両方をとり得
るが、パルス密度の場合には、正、負の両方を同時に表
現できないので、十戒分を表す信号と、−成分を表す信
号との2種類を用いて誤差信号を表現する。即ち、4番
目のニューロンの誤差信号は、
[Formula 9] a=U(ylnTl,) (T=excitability) ・-・
・−・−(13′)b=tJ (yr n T, j>
(T=inhibitory) , , , -(14')y,=
:aUb・・・・・・・・・
...(Is'). [0056] Next, processing during learning will be described. a. Error signal in the final layer The error signal in each neuron is calculated in the final layer, and the coupling coefficient related to that neuron is changed based on it. For this purpose, a method for calculating the error signal will be described. In this embodiment, the "error signal" is defined as follows. Errors can be expressed numerically, generally both + and - can be expressed, but in the case of pulse density, it is not possible to express both positive and negative at the same time, so a signal representing the ten commandments and a signal representing the - component are used. The error signal is expressed using two types. That is, the error signal of the fourth neuron is

【数10】 出力結果 教師信号 誤差信号十 δr D) =(y ; ローオー1y・ 「上n dj −L■− ・・・・・・・・・(16) ・・・・・・・・・(17) EXOR屯)AND d、・・・・・・・・・(1B)
で示される。つまり、誤差信号の十成分け教師信号パル
スと出力パルスとの違っている部分(1,0)又は(0
,1)の内、教師信号側に存在するパルス、他方−成分
け同様に出力側に存在するパルスである。換言すれば、
出力パルスに誤差信号十パルスを付は加え、誤差信号−
パルスを取り除くと、教師パルスとなることになる。こ
のような誤差信号パルスを元に結合係数を後述するよう
に変化させることになる。 [0057] b、中間層における誤差信号 さらに、誤差信号を逆伝播させ、最終層とその1つ前の
層との結合係数だけでなく、さらにその前の層の結合係
数も変化する。そのため、中間層における各ニューロン
での誤差信号を計算する必要がある。中間層のあるニュ
ーロンから、さらに1つ先の層の各ニューロンへ信号を
伝播させたのとは、丁度逆の要領で1つ先の層の各ニュ
ーロンにおける誤差信号を集めてきて、自己の誤差信号
とする。 このことは、神経細胞ユニット内での演算式(7)〜(
10)と同じような要領で行うことができる。即ち、ま
ず、結合を興奮性か抑制性かにより2つのグループに分
け、平葺の部分けAND、Σの部分け○Rで表現する。 ただし、神経細胞ユニット内での(7)〜(10)式と
異なるのは、yは1つの信号であるのに対して、δは正
、負を表す信号として2つの信号を持ち、その両方の信
号を考慮する必要がある。従って、Tの正負、δの正負
に応じて4つの場合に分ける必要がある。 [0058] まず、興奮性結合の場合を説明する。この場合、1つ先
の層のに@目のニューロンでの誤差信号子とそのニュー
ロンと自己(j番目とする)との結合係数のAする。即
ち、
[Formula 10] Output result teacher signal error signal 1 δr D) = (y; low 1y ``upper n dj −L■− ・・・・・・・・・(16) ・・・・・・・・・(17) EXOR tun) AND d, ...... (1B)
It is indicated by. In other words, the difference between the ten-component teacher signal pulse of the error signal and the output pulse is (1,0) or (0
, 1), the pulses exist on the teacher signal side, and the pulses exist on the output side similarly to the other component. In other words,
The error signal 10 pulses are added to the output pulse, and the error signal -
Removing the pulse will result in a teacher pulse. Based on such an error signal pulse, the coupling coefficient is changed as described later. [0057] b. Error Signal in Intermediate Layer Furthermore, the error signal is back-propagated, and not only the coupling coefficient between the final layer and the previous layer but also the coupling coefficient of the previous layer changes. Therefore, it is necessary to calculate the error signal at each neuron in the hidden layer. In the same way as propagating a signal from a neuron in the middle layer to each neuron in the next layer, we collect the error signals in each neuron in the next layer and calculate the own error. Signal. This means that calculation formulas (7) to (
This can be done in the same way as 10). That is, first, the connections are divided into two groups depending on whether they are excitatory or inhibitory, and are expressed as a flat part AND and a Σ part ○R. However, the difference from equations (7) to (10) within a neuron unit is that y is one signal, whereas δ has two signals representing positive and negative, and both signals need to be considered. Therefore, it is necessary to divide into four cases depending on the sign of T and the sign of δ. [0058] First, the case of excitatory connections will be explained. In this case, let A be the coupling coefficient between the error signal in the @th neuron in the next layer and the self (jth). That is,

【数11】 δ、(+) Tノk 」」−−L− となる。 [0059] また、1つ先の誤差信号−と結合係数とのANDをとり
、さらにこれら同士のORをとることにより、同様に、
この層の誤差信号−とする。即ち、
[Formula 11] δ, (+) T nok ”−L−. [0059] Also, by ANDing the next error signal - and the coupling coefficient, and then ORing them, similarly,
Let the error signal of this layer be -. That is,

【数12】 δバー)n jk [−一一一り となる。 [0060] 次に、抑制性結合の場合を説明する。この場合、1つ先
の層のニューロンでの誤差信号−とそのニューロンと自
己との結合係数のANDをとり、さらにこれら同士のO
Rをとる。これを、この層の誤差信号子とする。即ち、
[Formula 12] δbar) n jk [-111. [0060] Next, the case of inhibitory binding will be explained. In this case, the error signal in the neuron in the next layer ahead is ANDed with the coupling coefficient between that neuron and itself, and then the O
Take R. Let this be the error signal element for this layer. That is,

【数13】 δ、(−) J l−土一−L δb(−)nTu= J−1−土一 δ1(+)    口」±−LL     ・・・・・
・・・・(22)となる。 [0061] また、1つ先の誤差信号十と結合係数とのANDをとり
、さらにこれら同士のORをとることにより、同様に、
この層の誤差信号−とする。即ち、
[Formula 13] δ, (-) J l-Tori-L δb(-)nTu= J-1-Tori-1 δ1 (+) 口''±-LL ・・・・・・
...(22). [0061] Also, by ANDing the next error signal 1 and the coupling coefficient, and then ORing them, similarly,
Let the error signal of this layer be -. That is,

【数14】 δA(”) n Tzj −口− δb(+) n−rJ、−一一一[− δ、(−)     −一土上り−・・・・・・・・・
(23)となる。 [0062] 1つのニューロンから別のニューロンへは興奮性で結合
しているものもあれば、抑制性で結合しているものもあ
るので、(20)式で求めた誤差信号δ、(+)と(2
2)式で求めた誤差信号δ、(+)とのORをとり、そ
れを自分のニューロンの誤差信号δj(+)とする。同
様に、(21)式で求めた誤差信号δj(−)と(23
)式で求めた誤差信号δ・(−)とのORをとり、それ
を自分のニューロンの誤差信号δ、(−)とする。 j                        
           J[0063] 以上をまとめると、
[Formula 14] δA(”) n Tzzj −口− δb(+) n−rJ, −111[− δ, (−) −One dow−・・・・・・・・・・
(23). [0062] Since there are excitatory connections from one neuron to another neurons and inhibitory connections, the error signal δ, (+) obtained by equation (20) and (2
2) OR with the error signal δ, (+) obtained using the equation, and use it as the error signal δj(+) of the own neuron. Similarly, the error signal δj(-) obtained by equation (21) and (23
) is ORed with the error signal δ·(−) obtained by the equation, and this is used as the error signal δ,(−) of the own neuron. j
J[0063] To summarize the above,

【数1.5】 1G興奮性 iE抑制性 となる。 [0064] さらに、学習のレート(学習定数)に相当する機能を設
けてもよい。数値計算でレートが1以下のとき、さらに
学習能力が高まる。これはパルス列の演算ではパルス列
を間引くことによって実現できる。これはカウンタ的な
考え方をし、次の例1)1例2)のようなものとした。 例えば、η=0.5では元の信号のパルス列を1つ置き
に間引く。元の信号のパルスが等間隔でなくても、元の
パルス列’It l;l平4−111185 (27)
[Formula 1.5] 1G excitatory iE inhibitory. [0064] Furthermore, a function corresponding to a learning rate (learning constant) may be provided. When the rate in numerical calculation is less than 1, the learning ability further increases. This can be achieved by thinning out the pulse train in pulse train calculations. This was thought of as a counter, as shown in the following examples 1) and 2). For example, when η=0.5, every other pulse train of the original signal is thinned out. Even if the pulses of the original signal are not equally spaced, the original pulse train 'It l;l Hei 4-111185 (27)

【00651 【数16】 例1) [上」−[」−η二0.5の場合 (パルスを1つ置きに間引く しm−」−一一丁一一」−力=: 0.33の場合(パ
ルスを2つ置きに残す) LL−十」−1」−」−力= 0.67の場合(パルス
を2つ置きに間引く 例2) LL−十一一」−」」−元の信号 [−L−一」−刀=0,5の場合 (パルスを1つ置きに間引く) m−η= 0.33の場合 (パルスを2つ置きに残す) LL−一一一一十一」−η: o、 67の場合(パル
スを2つ置き1こ間引く) [0066] このようにして、誤差信号を間引くことにより学習レー
トの機能を持たせる。 このような誤差信号の間引きは、通常市販されているカ
ウンタの出力を論理演算することやフリップフロップを
用いることにより容易に実現できる。特に、カウンタを
用いた場合、学習定数ηの値を任意、かつ、容易に設定
できるので、ネッ18間」ら4111185 (28) トワークの特性を制御することも可能となる。 [0067] ところで、誤差信号には、常に学習定数をかけておく必
要はなく、例えば次に述べる結合係数を求める演算にの
み用いてもよい。また、誤差信号を逆向きに伝播させる
ときの学習定数と、結合係数を求める演算で用いる学習
定数とは、異なっていてもよい。このことは、ネットワ
ーク上におかれた神経細胞ユニットの特性を個々に設定
できることを意味し、極めて汎用性の高いシステムを構
築できる。従って、ネットワークの持つ性能を適宜調整
することが可能となる。 [0068] C0誤差信号より各結合係数を変化 上述した方法により誤差信号を求め、各結合係数を変化
させるカミその変化のさせ方について説明する。変化さ
せたい結合係数が属しているラインを流れる信号と誤差
信号のANDをとる(δny)。ただし、本実施例では
誤差信号には十−の2つの信号があるので、各々計算す
る。 [0069]
00651 [Equation 16] Example 1) In the case of [upper"-["-η20.5 (pulses are thinned out every other pulse, m-"-one-one-cho-one-one"-force =: 0.33) Case (Leave every two pulses) LL-ten"-1"-"-force = 0.67 (Example 2 where pulses are thinned out every two) LL-111"-""-Original Signal [-L-1] - When katana = 0,5 (thinning out every other pulse) When m-η = 0.33 (leaving every second pulse) LL-11111 "-η: o, in the case of 67 (thin out every two pulses) [0066] In this way, by thinning out the error signal, a learning rate function is provided. Such thinning of the error signal is as follows. This can be easily realized by performing logical operations on the output of a commercially available counter or by using a flip-flop.In particular, when a counter is used, the value of the learning constant η can be arbitrarily and easily set. (28) It is also possible to control the characteristics of the network. [0067] By the way, it is not necessary to always multiply the error signal by a learning constant. In addition, the learning constant used when propagating the error signal backwards may be different from the learning constant used in the calculation for calculating the coupling coefficient. This means that the characteristics of each neuron unit can be set individually, making it possible to construct an extremely versatile system. Therefore, it is possible to adjust the performance of the network as appropriate. [0068] Each connection is determined from the C0 error signal. Changing the coefficient The error signal is obtained by the method described above, and the method of changing each coupling coefficient will be explained.The error signal is ANDed with the signal flowing through the line to which the coupling coefficient to be changed belongs (δny ).However, in this embodiment, there are two error signals (10-), so each is calculated separately. [0069]

【数17】 δ、(+)   ローU y・   1−[−m− ” ; (”)n y r         ts T
 r ; D) ・”””・(26)δ、(−)   
−土[−土一 [0070] このようにして得られた2つの信号をΔT、、(+)、
ΔT、、(−) とする。 月      IJ [0071] ついで、今度はこのΔT−,を元に新しいT、−を求め
るが、本実施例のTo、は、1]          
      1コ                 
          IJ絶対値成分であるので、 元のT1.が興奮性か抑制性かで場合分けする。興奮性
のj 即ち、
[Formula 17] δ, (+) low U y・1−[−m− ”; (”)ny r ts T
r; D)・”””・(26)δ, (-)
-Sat [-Satichi [0070] The two signals obtained in this way are ΔT, (+),
Let ΔT, , (-) be. Month IJ [0071] Next, a new T, - is calculated based on this ΔT -, but To in this example is 1]
1 piece
Since it is an IJ absolute value component, the original T1. Cases are differentiated depending on whether it is excitatory or inhibitory. excitatory j i.e.

【数18】 元のT i j ΔTiJ(+) ΔT1j(−) L上」−L 」−一一り− 一一一−L[Math. 18] Original T i j ΔTiJ(+) ΔT1j(-) L top”-L ”-11- 111-L

【数19】 △T I J (+)      L−一一一一」−−
一一一一一ΔT、j(−)   −一一−L−L となる。 [0072] 以上の学習則に基づいてネットワークの計算をする。 [0073] 次に、以上のアルゴリズムに基づく実際の回路構成を説
明する。図14ないし図16にその回路例を示す。ネッ
トワーク全体は図33の場合と同様である。図14は図
33中の線(結線)に相当する部分の回路を示し、図1
5は図33中の丸(神経細胞ユニット1)に相当する部
分の回路を示す。また、図16は、最終層の出力と教師
信号から最終層における誤差信号を求める部分の回路を
示す。これらの図14ないし図16構成を図33のよう
にネットワークにすることにより自己学習可能なデジタ
ル式のニューラルネットワークが実現できる。 [0074] まず、図14から説明する。図中、55はニューロンへ
の入力信号であり、(8)式に相当する。(9)式の結
合係数の値はシフトレジスタ56に保存しておく。この
シフトレジスタ56は取出し口56aと入口56bとを
有するが、通常のシフトレジスタと同様の機能を持つも
のであればよく、例えば、RAMとアドレスコントロー
ラとの組合せによるもの等であってもよい。入力信号5
5とシフトレジスタ56内の結合係数とはANDゲート
57を備えて(10)式に相当する論理回路58により
ANDがとられる。この論理回路58の出力は結合が興
奮性か抑制性かによってグループ分けしたければならな
い力瓢予め各々のグループへの出力59.60を用意し
、何れに出力するのかを切換えるようにした方が汎用性
の高いものとなる。このため、本実施例では結合が興奮
性か抑制性かを表すビットをグループ分け用メモリ61
に保存しておき、その情報を用いて切換えゲート回路6
2により切換える。切換えゲート回路62は2つのAN
Dゲー)62a、  62bと一方の入力に介在された
インバータ62cとよりなる。 [0075] また、図15に示すように各入力を処理する(11)式
に相当する複数のORゲート構成のゲート回路63a、
63bが設けられている。さらに、同図に示すように(
12)式の興奮性結合グループが「1」で、抑制性結合
グループが「0」のときにのみ出力「1」を出すAND
ゲート64aとインバータ64bとによるゲート回路6
4が設けられている。 [0076] 次に、誤差信号について説明する。最終層での誤差信号
を生成するのが図16に示すAND、排他的ORの組合
せによる論理回路65であり、(16)〜(19)式に
相当する。即ち、最終層からの出力66及び教師信号6
7により誤差信号68゜69を作るものである。中間層
における誤差信号を計算する(20)〜(23)式は、
図14中に示すANDゲート構成のゲート回路72によ
り行われ、+、−に応じた出カフ3.74が得られる。 このように結合が興奮性か抑制性かにより場合分けする
必要があるが、この場合分けはメモリ61に記憶された
興奮性か抑制性かの1N開平4−111185 (31
) 情報と、誤差信号の+、−信号75.76とに応じて、
AND、ORゲート構成のゲート回路77により行われ
る。また、誤差信号を集める計算式(24)は図15に
示すORゲート構成のゲート回路78により行われる。 さらに、学習レートに相当する(25)式は同図中に示
す分周回路79により行われる。最後に、誤差信号より
新たな結合係数を計算する部分、即ち、(26)〜(2
9)式に相当する部分け、図14中に示すAND、 イ
ンバータ、ORゲート構成のゲート回路80により行わ
れ、シフトレジスタ56の内容、即ち、結合係数の値が
書換えられる。このゲート回路80も結合の興奮性、抑
制性によって場合分けが必要であるが、ゲート回路77
により行われる。 [007,7] ここに、図14及び図15に示したグループ分け方式及
び出力決定方式を抽出して示すと、図17のようになる
。即ち、請求項6及び請求項11記載の発明に対応する
ものであり、入力段階ではグループ分けしておかず、各
入力55ijに対して結合係数を記憶したメモリとして
のシフトレジスタ56ijが個別に設けられANDゲー
)57ijによる論理結果をグループ分け用メモリ61
の内容に応じて切換え回路62を経て、2つのグループ
に分け、興奮性結合グループであればORゲート63a
側で論理和を求め、抑制性結合グループであればORゲ
ート63b側で論理和を求める。この後、ゲート回路6
4による論理積処理により出力を決定するというもので
ある。 [0078] 今、前述したネットワークを用いた自己学習式文字認識
装置の場合により、具体例について説明する。まず、手
書き文字をスキャナで読取り、16X16のメツシュに
分け、文字部分のあるメツシュを「1」、ないメツシュ
を10」とした(図12の場合と同じ)。このデータ(
256個)をネットワークに入力し、出力は5つあるユ
ニットの内で一番犬きい出力のものの位置が、認識結果
となるように学習させた。次に、ネットワークの構成は
、第1層目が256個、第2層目が20個、第3層目が
5個の神経細胞ユニットからなる。このとき、接続され
ない入力部はグランドに接続する。最初、各結合係数は
ランダムとしておくと、出力結果は必ずしも所望のもの
とはならない。そこで、この回路の自己学習機能を78
開平4−111185 (32) 用いて、各結合係数を新たに求め、これを何回か繰返す
ことにより、所望の結果が得られるようにする。本実施
例では、入力が「0」か「1」であるので、入力パルス
列は常にLレベル又はHレベルの単純なものである。ま
た、出力はトランジスタを介してLEDと結び、Lレベ
ルのときに消灯、Hレベルのときに点灯とした。同期ク
ロックを1000kHzとしたので、パルス密度に応じ
て、人間の目にはLEDの明るさが変り、従って、1番
明るいLED部分が答えになる。十分学習させた文字に
対しては認識率100%を得たものである。 [0079] なお、興奮性結合と抑制性結合とのグループ分け方式に
ついては、例えば図18に示すように構成してもよい。 これは、請求項10記載の発明に相当するものであり、
入力段階で予め興奮性結合のグループaと抑制性結合の
グループbとにグループ分けしておき、各入力55ij
に対して結合係数Tijを記憶した少なくとも2ビット
以上のメモリとしてのシフトレジスタ81を設けたもの
である。以後は、グループ毎にORアゲ−63a、63
b等を通して同様に処理される。 [0080] また、ゲート回路64については図19に示すようにA
NDゲート64aに代えてORゲート64cを用いた構
成として論理和処理を行うようにしてもよい。 これが、請求項7記載の発明に相当するもので、前述し
た(12’ )〜(15’ )式の処理となる。 [0081] つづいて、本発明の第三の実施例を図20により説明す
る。本実施例は、請求項14記載の発明に相当するもの
で、結合係数可変回路で用いる学習定数を外部から任意
に可変設定させる学習定数設定手段82を設けたもので
ある。即ち、前記実施例で■〜■に示した基本的な考え
に、■ ■で示した学習時に用いる学習定数(学習レー
ト)を可変とし、応用面に即した性能のネットワーク回
路を得る。 の機能を付加するようにしたものである。 [0082] 即ち、この学習定数設定手段82は第15図中に示した
分周回路79に代えて設けられるもので、誤差信号が入
力されるカウンタ83と、このカウンタ83の出力を論
理演算して学習定数の処理を行うORゲート84〜87
及び1つのANDゲート88とよりなる。より詳細には
、カウンタ83のバイナリ出力A−Dに接続されたOR
ゲート84〜87の各々の入力側に設けたスイッチSa
〜Sdを全てHレベル側にするとη=1.0となり、ス
イッチSa〜Sdを全てLレベル側にするとη=1/1
6となる。よって、Hレベル側になっているスイッチの
数INとすると、η=(2のN乗)/16となる。従っ
て、スイッチ(或いは、スイッチに代えた外部信号)を
用いることにより、学習定数を任意に設定することがで
きる。なお、パルス密度をカウンタ83のクロック入力
として用いる場合、誤差信号の入力に対してANDゲー
ト89を適宜設けてもよし)。学習定数設定手段82は
このような回路構成に限らない。また、このような学習
定数設定手段82を複数備えるか、又は、外部信号によ
り適宜制御することにより、結合係数の演算に用いる学
習定数の値と、誤差信号の逆伝播に用いる学習定数の値
とを異ならせることも可能となる。 [0083] さらに、本発明の第四の実施例を図21ないし図23に
より説明する。本実施例は、請求項8記載の発明に相当
するものである。即ち、前記第二の実施例で■〜■に示
した基本的な考えに、 ■ 結合係数を、興奮性と抑制性との2種類用意してお
き、入力信号に対する演算結果を、各々の結合係数を用
いた結果の割合から多数決で決定し、ネットワークの柔
軟性を高める。 の機能を付加するようにしたものである。 [00843 即ち、1つの神経細胞ユニットは、興奮性と抑制性との
2つの結合係数を備えている力瓢 [入力信号と結合係
数とのANDjによる出力結果を、興奮性結合の場合と
抑制性結合の場合との割合で処理するようにしたもので
ある。ここに、割合で処理するとは、同期して演算され
る複数の入力信号について、興奮性の結合係数を用いて
得られた出力結果が「1」である場合の数と、抑制性の
結合係数を用いて得られた出力結果力τ「1」である場
合の数とを比較し、後者が前者より多Aさ開平4−11
1185 (34) い場合は「0」、それ以外の場合は「1」を、その神経
細胞ユニットが出力することを意味する。或いは、両者
が等しい場合は「0」を出力するようにしてもよい。 [0085] 図21及び図22はこのための回路構成例を示すもので
ある。まず、各入力55に対しては個別に1組ずつのメ
モリとしてのシフトレジスタ90a、90bが設けられ
ている。これらのシフトレジスタ90a、90bはシフ
トレジスタ56と同様にデータ取出し口とデータ人口と
を有するものである力へ一方のシフトレジスタ90aは
興奮性結合係数を記憶し、他方のシフトレジスタ90b
は抑制性結合係数を記憶したものである。これらのシフ
トレジスタ90a、90bから読出し手段(図示せず)
により順次読出された内容は入力55とともに対応する
ANDゲー)91a、91bに入力され論理積がとられ
る。このような論理結果は結合が興奮性のものと抑制性
のものと2通りあるが、ここでは、多数決回路92に入
力されて出力が決定される。即ち、シフトレジスタ90
aに基づく興奮性結合係数を用いた演算グループはその
デジタル信号が増幅器93aにより加算処理され、同様
にシフトレジスタ90bに基づく抑制性結合係数を用い
た演算グループはそのデジタル信号が増幅器93bによ
り加算処理され、両者の大小が比較器94により多数決
決定される。なお、多数決回路92は図示例に限らず、
一般的な多数決回路であってもよい。 [0086] ここに、図21に示したグループ分け方式を抽出して示
すと、図23のようになる。即ち、請求項10記載の発
明に対応するものであり、各入力毎に興奮性結合と抑制
性結合との結合係数を記憶した1組のメモリ(シフトレ
ジスタ)を用意して、メモリの粗削に分けられたグルー
プ別に論理積を求めるまでの処理を行わせるものである
。 [0087] なお、図23図示例では多数決回路92に代えて、図1
7や図18の場合と同じく、グループ別に論理和をとる
ORゲート63a、63b以下が示されている。この場
合のゲート回路64も図19のようにしてもよい。 1さ開平1−111185 (35) [0088] ところで、本実施例にあっては各入力55毎に1組のシ
フトレジスタ90a。 90bを持つため、自己学習機能による結合係数の書換
えも各々のシフトレジスタ90a、90bについて行わ
れる。このため、図21中に示すように+、−の誤差信
号を用いて、新たな結合係数を計算する(21)〜(2
4)式の処理を行う自己学習回路95が設けられ、各シ
フトレジスタ90a、90bのデータ入口側に接続され
ている。 [0089] 本実施例によれば、神経細胞ユニットの結合力飄興奮性
か抑制性かに限定されないため、ネットワークが柔軟性
を持ち、実際の応用において汎用性を持つことになる。 [0090] 図22の場合の分周回路79も図20に示したような学
習定数設定手段82に代えてもよい。 [0091] また、多数決回路92による出力決定方式は、図21に
示したように各入力毎に2つのメモリ(シフトレジスタ
90a、90b)を持つ方式のものに限らず、各入力毎
に1つのメモリ56を持つものにも同様に適用できる。 即ち、図14と図15との組合せに代えて、図14と図
22との組合せとしてもよい。 [0092] また、本発明の第五の実施例を図24ないし図28によ
り説明する。前述した第二の実施例は、図13ないし図
23に示したような回路(以下、ニューロン回路)によ
って構成される神経細胞模倣素子及びそのネットワーク
(回路網)であるカミより上位概念で考えた場合、これ
らの全てを回路で構成したくても(8)〜(29)で説
明した手順に従ったソフトウェアにより信号処理するよ
うにしてもよい。本実施例は、その一つの例である。 [0093] 即ち、本実施例は、ネットワークを構成するニューロン
の機能をソフトウェアで実現するようにしたものである
。まず、図33に示したようなネットワークの場合、こ
のネットワークを構成する任意のニューロンにおいてソ
フトウェアにより信号処理を行なう。ソフトウェアを利
用するニューロンは、1つでも全てであってもよく、或
いは、ネットワークを形成する各層毎に決定してもよい
。ニューロン回路による信号処理を行なわないニューロ
ンの構成を図24に示す。ここで入出力装置101はニ
ューロン回路を用いた他のニューロン或いはネットワー
クへ信号を入力/出力する装置に接続し、信号の授受を
行なう。メモリ102にはCPU103を制御するソフ
トウェアやデータが格納されており、信号はCPU10
3で処理される。信号処理の手順は前述した通りである
が、改めて示すと図25及び図26のようになる。図2
5はフォワードプロセスにおけるアルゴリズムを示し、
デジタル回路内又はコンピュータ内でこのような信号演
算処理が行なわれる。図25に示す処理中のニューロン
の前後関係を示すと図27のようになる。図26は学習
演算プロセスにおけるアルゴリズムを示し、デジタル回
路内又はコンピュータ内でこのような信号演算処理が行
なわれる。図26に示す処理中のニューロンの前後関係
を示すと図28のようになる。このような図25及び図
26に示した手順に従ってソフトウェアを作成し、メモ
リ102に格納しておく。ここに、ソフトウェアにより
図24のニューロンの1つを複数のニューロン分として
機能させることも可能である。もっとも、信号を時分割
して処理する必要がある。 [0094] このような構成をとることにより、ハードウェアによる
変更を行なわず、メモリ102を書換えるだけで、ネッ
トワーク構成を変更させることができ、柔軟性及び汎用
性に富んだネットワークを構築することができる。 [0095] さらに、本発明の第六の実施例を図29により説明する
。本実施例は、1つのニューロンにおいて機能の一部を
ソフトウェアで実行するようにしたものである。図24
に示した構成において、図25に示した信号処理手順を
基にしたソフトウェアをメモリ102に格納することで
フォワードプロセスの実行が可能なソフトウェアを利用
したニューロンを実現することができる。学習機能を持
つニューロンを実現するには、入出力装置101に図1
4又は図21に示したような回路q+開+4−1111
85 (37) を付加すればよい。何れの場合も、図15の右半分と図
16に示した回路部分け必要である。図20に示した回
路は適宜設ければよい。図29はこのような学習機能を
持たせるための回路を学習回路104として示したもの
である。 [0096] 本実施例によっても、前記第五の実施例の場合と同様に
、ソフトウェアの変更だけでネットワーク構成の変更が
可能となり、柔軟性及び汎用性に富むネットワークの構
築が可能となる。 [0097] また、実際的に考えた場合、通常の電子機器にはCPU
が予め搭載されている場合が多いので、図24に示すよ
うな構成要素を新規に設けなくてもよいといえる。さら
に、学習機能が不要なシステムであれば、ハードウェア
の量を大幅に減らすこともできる。 [0098] また、本発明の第七の実施例を図30により説明する。 本実施例は、学習プロセス機能をソフトウェアで実現す
るようにしたものである。図24に示した構成ニオいて
、図26に示した信号処理手順を基にしたソフトウェア
をメモリ102に格納することで学習プロセスの実行が
可能なソフトウェアを利用したニューロンを実現するこ
とができる。フォワードプロセス機能を持つニューロン
を実現するには、入出力装置101に図14及び図15
に示した回路、或いは、図14及び図22に示したよう
な回路を付加すればよい。図19に示した回路は適宜設
ければよい。図30はこのようなフォワードプロセス機
能を持たせるだめの回路をフォワード回路105として
示したものである。 [0099] 本実施例によっても、前記第五、六の実施例の場合と同
様に、ソフトウェアの変更だけでネットワーク構成の変
更が可能となり、柔軟性及び汎用性に富むネットワーク
の構築が可能となる。特に、学習則の変更に対する対応
も容易なものとなる。また、この場合も、通常の電子機
器ではCPUが予め搭載されている場合が多い点に着目
すれば、図24に示すような構成要素を新規に設けなく
てもよいといえる。さらに、学習機能が不要なシステム
であれば、ハードウェアの量を犬1N開干、1−111
185 (38)幅に減らすこともできる。 [0100] これらのソフトウェアを利用した実施例によれば、信号
処理方式としてデジタル論理演算のみで実行できるため
、必要とするソフトウェアも低水準の言語によるもので
よく、かつ、ソフトウェアの高速実行も可能となる。 [0101] ところで、ニューロンのネットワーク構造としては、図
33に示したようなものの他、例えば図31や図32に
示すような構造のものでもよい。図31は請求項1ない
しは請求項2記載の発明に相当する概念的な構造図であ
り、入力側から順に第1の集合体重10、中間集合体1
11、最終集合体112としたとき(図33にあっても
このように集合体を分類できる) ある集合体に含まれ
る神経細胞ユニット1(○は各々論理演算手段を示す)
が他の集合体に含まれる神経細胞ユニット千の全てとは
接続されていない状態を示す。図33においてはある集
合体内の全ての神経細胞ユニット1は別の集合体内の全
ての神経細胞ユニットとの間で相互に信号の送受信を行
なうものである力へ図31に示すように集合体間は各々
の集合体内の神経細胞ユニット1を全結合したくてもよ
い。 [0102] 図32は請求項1記載の発明について、第1の集合体1
10と最終集合体112との間に2層の中間集合体11
3,114を用いて4層構造としてネットワーク構成し
たものである。一般的には、中間集合体を適宜の数だけ
設けてもよい。 [0103] また、これらの図311図32及び図33では、何れも
各集合体に含まれる神経細胞ユニット1の数が4個とし
て図示されている力瓢これらの数は実施例中の具体例で
説明したごとく、任意であり、各集合体毎に神経細胞ユ
ニット数が異なってもよい。 [0104]
[Math. 19] △T I J (+) L-1111'' --
11111ΔT, j(−) −11−L−L. [0072] The network is calculated based on the above learning rule. [0073] Next, an actual circuit configuration based on the above algorithm will be explained. Examples of the circuits are shown in FIGS. 14 to 16. The entire network is the same as that in FIG. 33. FIG. 14 shows a circuit corresponding to the lines (connections) in FIG.
5 shows the circuit of the part corresponding to the circle (neuron unit 1) in FIG. Further, FIG. 16 shows a circuit for calculating an error signal in the final layer from the output of the final layer and the teacher signal. A self-learning digital neural network can be realized by forming the configurations of FIGS. 14 to 16 into a network as shown in FIG. 33. [0074] First, FIG. 14 will be explained. In the figure, 55 is an input signal to the neuron, which corresponds to equation (8). The value of the coupling coefficient in equation (9) is stored in the shift register 56. This shift register 56 has an outlet 56a and an inlet 56b, but it may be of any type having the same function as a normal shift register, for example, it may be a combination of a RAM and an address controller. Input signal 5
5 and the coupling coefficient in the shift register 56 are ANDed by a logic circuit 58 equipped with an AND gate 57 and corresponding to equation (10). The output of this logic circuit 58 must be divided into groups depending on whether the connections are excitatory or inhibitory.It is better to prepare outputs 59 and 60 for each group in advance and to switch which one to output. It becomes highly versatile. Therefore, in this embodiment, the bit indicating whether the connection is excitatory or inhibitory is stored in the grouping memory 61.
The information is stored in the switching gate circuit 6.
Switch by 2. The switching gate circuit 62 has two AN
D game) 62a, 62b and an inverter 62c interposed at one input. [0075] Furthermore, as shown in FIG. 15, a gate circuit 63a having a plurality of OR gate configurations corresponding to equation (11) processes each input,
63b is provided. Furthermore, as shown in the figure (
12) AND that outputs “1” only when the excitatory connection group in the expression is “1” and the inhibitory connection group is “0”
Gate circuit 6 including gate 64a and inverter 64b
4 are provided. [0076] Next, the error signal will be explained. The error signal in the final layer is generated by a logic circuit 65 based on a combination of AND and exclusive OR shown in FIG. 16, which corresponds to equations (16) to (19). That is, the output 66 from the final layer and the teacher signal 6
7 to produce an error signal of 68°69. Equations (20) to (23) for calculating the error signal in the intermediate layer are:
This is performed by a gate circuit 72 having an AND gate configuration shown in FIG. 14, and an output cuff of 3.74 is obtained depending on + and -. In this way, it is necessary to differentiate the cases depending on whether the connection is excitatory or inhibitory.
) information and the error signal + and - signals 75.76,
This is performed by a gate circuit 77 having an AND and OR gate configuration. Further, calculation formula (24) for collecting error signals is performed by a gate circuit 78 having an OR gate configuration shown in FIG. Furthermore, equation (25) corresponding to the learning rate is performed by a frequency dividing circuit 79 shown in the figure. Finally, the part that calculates new coupling coefficients from the error signal, that is, (26) to (2
9) The part corresponding to equation 9 is performed by a gate circuit 80 having an AND, inverter, and OR gate configuration shown in FIG. 14, and the contents of the shift register 56, that is, the value of the coupling coefficient is rewritten. This gate circuit 80 also needs to be differentiated depending on the excitatory and inhibitory nature of the connection, but the gate circuit 77
This is done by [007,7] Here, the grouping method and output determination method shown in FIGS. 14 and 15 are extracted and shown as shown in FIG. 17. That is, this corresponds to the inventions set forth in claims 6 and 11, and the shift registers 56ij as memories storing coupling coefficients are individually provided for each input 55ij instead of being divided into groups at the input stage. Memory 61 for grouping logical results by AND game) 57ij
is divided into two groups via a switching circuit 62 according to the content of
A logical sum is calculated on the side of the OR gate 63b, and if it is an inhibitory combination group, a logical sum is calculated on the OR gate 63b side. After this, gate circuit 6
The output is determined by logical product processing using 4. [0078] A specific example will now be described using the self-learning character recognition device using the network described above. First, handwritten characters were read with a scanner and divided into 16×16 meshes, and meshes with text portions were designated as “1” and meshes without character portions were designated as “10” (same as in the case of FIG. 12). This data (
256 units) were input into the network, and the network was trained so that the position of the unit with the sharpest output among the five units would be the recognition result. Next, the structure of the network consists of 256 neuron units in the first layer, 20 neuron units in the second layer, and 5 neuron units in the third layer. At this time, unconnected input sections are connected to ground. If each coupling coefficient is initially set at random, the output result will not necessarily be the desired one. Therefore, we added the self-learning function of this circuit to 78
Each coupling coefficient is newly obtained using the equation 4-111185 (32), and this is repeated several times to obtain the desired result. In this embodiment, since the input is "0" or "1", the input pulse train is always a simple L level or H level. Further, the output was connected to an LED via a transistor, and the light was turned off when it was at L level and turned on when it was at H level. Since the synchronization clock was set to 1000kHz, the brightness of the LED changes to the human eye depending on the pulse density, so the brightest LED part becomes the answer. A recognition rate of 100% was obtained for characters that had been sufficiently learned. [0079] Note that the method of grouping excitatory connections and inhibitory connections may be configured as shown in FIG. 18, for example. This corresponds to the invention described in claim 10,
At the input stage, the groups are divided in advance into excitatory connection group a and inhibitory connection group b, and each input 55ij
A shift register 81 as a memory of at least 2 bits or more is provided for storing the coupling coefficient Tij. After that, OR Age-63a, 63 for each group
b etc. are similarly processed. [0080] Regarding the gate circuit 64, as shown in FIG.
An OR gate 64c may be used instead of the ND gate 64a to perform the logical sum processing. This corresponds to the invention set forth in claim 7, and is the processing of equations (12') to (15') described above. [0081] Next, a third embodiment of the present invention will be described with reference to FIG. 20. This embodiment corresponds to the fourteenth aspect of the invention, and is provided with learning constant setting means 82 for arbitrarily variably setting the learning constant used in the variable coupling coefficient circuit from the outside. That is, in addition to the basic idea shown in (1) to (2) in the above embodiment, the learning constant (learning rate) used during learning shown in (2) is made variable to obtain a network circuit with performance suitable for the application. It is designed to add the following functions. [0082] That is, this learning constant setting means 82 is provided in place of the frequency dividing circuit 79 shown in FIG. OR gates 84 to 87 that process learning constants
and one AND gate 88. More specifically, the OR connected to the binary outputs A-D of the counter 83
A switch Sa provided on the input side of each of the gates 84 to 87
When ~Sd are all set to H level side, η=1.0, and when all switches Sa~Sd are set to L level side, η=1/1
It becomes 6. Therefore, if the number of switches on the H level side is IN, then η=(2 to the power of N)/16. Therefore, by using a switch (or an external signal in place of the switch), the learning constant can be set arbitrarily. Note that when the pulse density is used as the clock input of the counter 83, an AND gate 89 may be provided as appropriate for the input of the error signal). The learning constant setting means 82 is not limited to such a circuit configuration. In addition, by providing a plurality of such learning constant setting means 82 or appropriately controlling them using an external signal, the value of the learning constant used for calculation of the coupling coefficient and the value of the learning constant used for back propagation of the error signal can be set. It is also possible to make them different. [0083] Furthermore, a fourth embodiment of the present invention will be described with reference to FIGS. 21 to 23. This embodiment corresponds to the invention set forth in claim 8. That is, based on the basic idea shown in Items 1 to 2 in the second embodiment, 1) Prepare two types of coupling coefficients, excitatory and inhibitory, and calculate the calculation result for the input signal for each coupling. Decisions are made by majority vote based on the ratio of results using coefficients, increasing the flexibility of the network. It is designed to add the following functions. [00843] In other words, one neuron unit has two coupling coefficients, excitatory and inhibitory. The processing is done at the same rate as in the case of combinations. Here, processing in proportions refers to the number of cases in which the output result obtained using the excitatory coupling coefficient is "1" for multiple input signals that are calculated synchronously, and the number of cases in which the output result obtained using the excitatory coupling coefficient and the inhibitory coupling coefficient Compare the output result obtained using
1185 (34) This means that the neuron unit outputs "0" if it is true, and "1" otherwise. Alternatively, if the two are equal, "0" may be output. [0085] FIGS. 21 and 22 show examples of circuit configurations for this purpose. First, each input 55 is individually provided with a set of shift registers 90a and 90b as memories. These shift registers 90a, 90b have a data output port and a data population similarly to the shift register 56.One shift register 90a stores the excitatory coupling coefficient, and the other shift register 90b stores the excitatory coupling coefficient.
is a memory of the inhibitory coupling coefficient. Reading means (not shown) from these shift registers 90a, 90b
The contents sequentially read out are inputted together with the input 55 to the corresponding AND games 91a and 91b, and a logical product is taken. There are two types of such logical results, one in which the connection is excitatory and one in which the connection is inhibitory, but here, the results are input to the majority circuit 92 and the output is determined. That is, the shift register 90
In the calculation group using excitatory coupling coefficients based on a, the digital signals thereof are subjected to addition processing by the amplifier 93a, and similarly, in the calculation group using the inhibitory coupling coefficients based on the shift register 90b, their digital signals are subjected to addition processing by the amplifier 93b. The comparator 94 determines the magnitude of both by majority vote. Note that the majority circuit 92 is not limited to the illustrated example;
It may be a general majority voting circuit. [0086] Here, the grouping method shown in FIG. 21 is extracted and shown as shown in FIG. 23. That is, this corresponds to the invention set forth in claim 10, and a set of memories (shift registers) storing coupling coefficients of excitatory connections and inhibitory connections for each input is prepared, and the memory is roughly refined. The process up to calculating the logical product for each group is performed. [0087] In the example shown in FIG. 23, the majority circuit 92 is replaced by the circuit shown in FIG.
7 and FIG. 18, OR gates 63a, 63b and the following are shown for calculating the logical sum for each group. The gate circuit 64 in this case may also be configured as shown in FIG. 1-111185 (35) [0088] By the way, in this embodiment, one set of shift registers 90a is provided for each input 55. 90b, the coupling coefficients are also rewritten for each shift register 90a and 90b by a self-learning function. Therefore, as shown in FIG. 21, new coupling coefficients are calculated using + and - error signals (21) to (2).
A self-learning circuit 95 that processes equation 4) is provided, and is connected to the data input side of each shift register 90a, 90b. [0089] According to this embodiment, the connectivity of the neuron units is not limited to either excitatory or inhibitory, so the network is flexible and has versatility in actual applications. [0090] The frequency dividing circuit 79 in the case of FIG. 22 may also be replaced with the learning constant setting means 82 as shown in FIG. 20. [0091] Furthermore, the output determination method by the majority circuit 92 is not limited to the method having two memories (shift registers 90a, 90b) for each input as shown in FIG. The present invention can be similarly applied to those having the memory 56. That is, instead of the combination of FIGS. 14 and 15, a combination of FIGS. 14 and 22 may be used. [0092] Further, a fifth embodiment of the present invention will be described with reference to FIGS. 24 to 28. The second embodiment described above was conceived from a higher level concept than the neuron imitation element and its network (circuit network) composed of circuits (hereinafter referred to as neuron circuits) shown in FIGS. 13 to 23. In this case, even if it is desired to configure all of these circuits, the signal processing may be performed by software following the procedures described in (8) to (29). This embodiment is one such example. [0093] That is, in this embodiment, the functions of the neurons constituting the network are realized by software. First, in the case of a network as shown in FIG. 33, signal processing is performed by software in any neuron constituting this network. The number of neurons using software may be one or all, or may be determined for each layer forming the network. FIG. 24 shows the configuration of a neuron that does not perform signal processing using a neuron circuit. Here, the input/output device 101 is connected to a device that inputs/outputs signals to/from other neurons or networks using neuron circuits, and sends and receives signals. The memory 102 stores software and data that control the CPU 103, and signals are sent to the CPU 10.
Processed in 3. Although the signal processing procedure is as described above, it is shown in FIGS. 25 and 26 again. Figure 2
5 shows the algorithm in the forward process,
Such signal calculation processing is performed within a digital circuit or within a computer. FIG. 27 shows the context of the neurons during processing shown in FIG. 25. FIG. 26 shows an algorithm in the learning calculation process, and such signal calculation processing is performed within a digital circuit or a computer. FIG. 28 shows the context of the neurons during processing shown in FIG. 26. Software is created according to the procedures shown in FIGS. 25 and 26 and stored in the memory 102. Here, it is also possible to cause one of the neurons in FIG. 24 to function as a plurality of neurons using software. However, it is necessary to process the signal in a time-division manner. [0094] By adopting such a configuration, the network configuration can be changed simply by rewriting the memory 102 without changing the hardware, and a highly flexible and versatile network can be constructed. I can do it. [0095] Further, a sixth embodiment of the present invention will be described with reference to FIG. 29. In this embodiment, part of the functions of one neuron is executed by software. Figure 24
In the configuration shown in FIG. 25, by storing software based on the signal processing procedure shown in FIG. 25 in the memory 102, a neuron using software that can execute a forward process can be realized. In order to realize a neuron with a learning function, the input/output device 101 shown in FIG.
4 or the circuit q+open+4-1111 as shown in Figure 21
85 (37) should be added. In either case, the circuit portion shown in the right half of FIG. 15 and FIG. 16 is required. The circuit shown in FIG. 20 may be provided as appropriate. FIG. 29 shows a circuit for providing such a learning function as a learning circuit 104. [0096] According to this embodiment, as in the case of the fifth embodiment, it is possible to change the network configuration simply by changing the software, and it is possible to construct a highly flexible and versatile network. [0097] Also, from a practical point of view, ordinary electronic equipment has a CPU.
is often installed in advance, so it can be said that there is no need to newly provide the components shown in FIG. 24. Furthermore, if the system does not require a learning function, the amount of hardware can be significantly reduced. [0098] Further, a seventh embodiment of the present invention will be described with reference to FIG. In this embodiment, the learning process function is realized by software. With the configuration shown in FIG. 24, by storing software based on the signal processing procedure shown in FIG. 26 in the memory 102, a neuron using software that can execute a learning process can be realized. In order to realize a neuron with a forward process function, the input/output device 101 has the functions shown in FIGS.
The circuit shown in FIG. 14 or the circuit shown in FIG. 14 and FIG. 22 may be added. The circuit shown in FIG. 19 may be provided as appropriate. FIG. 30 shows a circuit provided with such a forward process function as a forward circuit 105. [0099] According to this embodiment, as in the case of the fifth and sixth embodiments, it is possible to change the network configuration simply by changing the software, and it is possible to construct a highly flexible and versatile network. . In particular, it becomes easier to respond to changes in learning rules. Furthermore, in this case as well, if attention is paid to the fact that a CPU is often pre-installed in ordinary electronic devices, it can be said that there is no need to newly provide the constituent elements as shown in FIG. 24. Furthermore, if the system does not require a learning function, the amount of hardware can be reduced to 1N, 1-111.
It can also be reduced to 185 (38) width. [0100] According to the embodiments using these software, since the signal processing method can be executed using only digital logic operations, the required software may be based on a low-level language, and the software can be executed at high speed. becomes. [0101] By the way, the neuron network structure may have a structure as shown in FIG. 31 or FIG. 32, for example, in addition to the one shown in FIG. FIG. 31 is a conceptual structural diagram corresponding to the invention according to claim 1 or claim 2. In order from the input side, the first aggregate weight 10, the intermediate aggregate weight 1
11. When final aggregate 112 is used (aggregates can be classified in this way even in Figure 33) Neuron unit 1 included in a certain aggregate (○ indicates each logical operation means)
indicates a state in which the neuron unit is not connected to all of the 1,000 neuron units included in other aggregates. In FIG. 33, all neuron units 1 in a certain aggregate transmit and receive signals to and from all neuron units in another aggregate. As shown in FIG. may wish to fully connect the neuron units 1 in each aggregate. [0102] FIG. 32 shows the first assembly 1 of the invention according to claim 1.
10 and the final assembly 112 have two layers of intermediate assembly 11
The network is configured as a four-layer structure using 3,114. Generally, any suitable number of intermediate aggregates may be provided. [0103] In addition, in each of these Figures 311, 32, and 33, the number of neuron units 1 included in each aggregate is four. As explained above, this is arbitrary, and the number of neuron units may be different for each aggregate. [0104]

【発明の効果】【Effect of the invention】

本発明は、上述したように構成したので、自己学習機能
を含めて神経細胞網の機能をハードウェア上で並列的に
行わせることができ、自己学習機能を発揮させ−682
,− 特開平4−.111185 (39) 従来のコンピュータシミュレーションのシリアル処理に
よる計算に比べ処理速度を著しく向上させることができ
、このとき、デジタル回路構成により動作は確実なもの
となり、特に、全てをパルス密度表現によるデジタル的
な信号処理としたので、増幅器の温度特性等の影響を受
ける等のアナログ方式のような不都合も生じないもので
ある。 [0105] 特に、請求項1又は2記載の発明のように構成すれば、
ニューロンの機能をソフトウェアで実現することも可能
であり、ハードウェアの変更を要せず、ソフトウェアの
変更だけでネットワークの構成の変更も可能となり、柔
軟性及び汎用性に富んだネットワークの構築も可能とな
るものである。 [0106] また、結合には興奮性と抑制性との2種類がある力瓢請
求項6ないしは8記載の発明のように、結合係数の正負
により2グループに分けてグループ毎に処理した後で、
一方の否定結果と他方の結果との論理積又は論理和をと
る処理、又は、両者の割合による多数決論理により決定
する柔軟な処理でよく、よって、論理回路なるデジタル
回路で実現できるものである。 [0107] また、請求項12又は13記載の発明によれば、結合係
数についてもメモリ上に用意されており、抵抗等による
場合と異なり、書換え可能で汎用性を持つものとなる。 [0108] さらには、請求項14記載の発明によれば、学習係数を
可変としたので、実際の応用環境に即した、効率的で使
いやすいものとすることができる。
Since the present invention is configured as described above, the functions of the neuronal network, including the self-learning function, can be performed in parallel on hardware, and the self-learning function can be exerted.
,- Unexamined Japanese Patent Publication No. 4-. 111185 (39) The processing speed can be significantly improved compared to calculations using serial processing in conventional computer simulations, and at this time, the digital circuit configuration ensures reliable operation. Since signal processing is used, there are no problems associated with analog systems, such as being affected by the temperature characteristics of the amplifier. [0105] In particular, if configured as in the invention according to claim 1 or 2,
It is also possible to realize the neuron functions with software, making it possible to change the network configuration just by changing the software without requiring any changes to the hardware, making it possible to build a highly flexible and versatile network. This is the result. [0106] In addition, there are two types of coupling, excitatory and inhibitory.As in the invention described in claims 6 to 8, after dividing into two groups depending on the positive and negative of the coupling coefficient and processing each group, ,
It may be a process of logical product or logical sum of one negative result and the other result, or a flexible process of determining by majority logic based on the ratio of both, and can therefore be realized by a digital circuit called a logic circuit. [0107] Further, according to the invention described in claim 12 or 13, the coupling coefficient is also prepared on the memory, and unlike the case of using a resistor or the like, it is rewritable and has versatility. [0108] Furthermore, according to the fourteenth aspect of the invention, since the learning coefficient is made variable, it can be made efficient and easy to use in accordance with the actual application environment.

【図面の簡単な説明】[Brief explanation of drawings]

【図1】 本発明の第一の実施例における1つの神経細胞模倣回路
を示すブロック図である。
FIG. 1 is a block diagram showing one neuron imitation circuit in a first embodiment of the present invention.

【図2】 結合係数可変回路を示す回路図である。[Figure 2] FIG. 2 is a circuit diagram showing a coupling coefficient variable circuit.

【図3】 この可変回路を用いた結合係数掛は合わせ回路の回路図
である。
FIG. 3 is a circuit diagram of a coupling coefficient multiplication and matching circuit using this variable circuit.

【図4】 その加算回路の一例を示す回路図である。[Figure 4] FIG. 2 is a circuit diagram showing an example of the adding circuit.

【図5】 シグモイド関数の一階微分特性を示すグラフである。[Figure 5] It is a graph showing first-order differential characteristics of a sigmoid function.

【図6】 f′信号作成回路の回路図である。[Figure 6] FIG. 3 is a circuit diagram of an f' signal generation circuit.

【図7】 その人出力特性を示すグラフである。[Figure 7] It is a graph showing the human output characteristics.

【図8】 異なる入出力特性例を示すグラフである。[Figure 8] 7 is a graph showing examples of different input/output characteristics.

【図9】 誤差信号発生回路の回路図である。[Figure 9] FIG. 3 is a circuit diagram of an error signal generation circuit.

【図10】 誤差信号発生回路の回路図である。[Figure 10] FIG. 3 is a circuit diagram of an error signal generation circuit.

【図111 結合係数作成回路の回路図である。 【図12】 説明図である。[Figure 111 FIG. 2 is a circuit diagram of a coupling coefficient creation circuit. [Figure 12] It is an explanatory diagram.

【図13】 本発明の第二の実施例を示す信号演算部分の構成例の論
理回路図である。
FIG. 13 is a logic circuit diagram of a configuration example of a signal calculation section showing a second embodiment of the present invention.

【図14】 各部の構成例を示す論理回路図である。[Figure 14] FIG. 2 is a logic circuit diagram showing a configuration example of each part.

【図151 各部の構成例を示す論理回路図である。 【図16】 各部の構成例を示す論理回路図である。[Figure 151 FIG. 2 is a logic circuit diagram showing a configuration example of each part. [Figure 16] FIG. 2 is a logic circuit diagram showing a configuration example of each part.

【図17】 各部の構成例を示す論理回路図である。 [図18] 変形例を示す論理回路図である。[Figure 17] FIG. 2 is a logic circuit diagram showing a configuration example of each part. [Figure 18] FIG. 7 is a logic circuit diagram showing a modified example.

【図19】 変形例を示す論理回路図である。[Figure 19] FIG. 7 is a logic circuit diagram showing a modified example.

【図201 本発明の第三の実施例を示す回路図である。 【図21】 本発明の第四の実施例を示す回路図である。[Figure 201 FIG. 3 is a circuit diagram showing a third embodiment of the present invention. [Figure 21] FIG. 3 is a circuit diagram showing a fourth embodiment of the present invention.

【図22】 回路図である。[Figure 22] It is a circuit diagram.

【図23】 回路図である。[Figure 23] It is a circuit diagram.

【図24】 本発明の第五の実施例を示すブロック図である。[Figure 24] FIG. 3 is a block diagram showing a fifth embodiment of the present invention.

【図25】 フォワードプロセスにおける処理を示すフローチャート
である。
FIG. 25 is a flowchart showing processing in a forward process.

【図26】 学習プロセスにおける処理を示すフローチャートである
FIG. 26 is a flowchart showing processing in a learning process.

【図27】 ニューロンの前後関係を示す模式図である。[Figure 27] FIG. 2 is a schematic diagram showing the anteroposterior relationship of neurons.

【図28】 ニューロンの前後関係を示す模式図である。[Figure 28] FIG. 2 is a schematic diagram showing the anteroposterior relationship of neurons.

【図29】 本発明の第六の実施例を示すブロック図である。[Figure 29] FIG. 3 is a block diagram showing a sixth embodiment of the present invention.

【図30】 本発明の第七の実施例を示すブロック図である。[Figure 30] FIG. 3 is a block diagram showing a seventh embodiment of the present invention.

【図31】 ネットワーク構造の変形例を示す概念図である。[Figure 31] FIG. 7 is a conceptual diagram showing a modified example of the network structure.

【図321 ネットワーク構造の異なる変形例を示す概念図である。 【図33】 従来例を示すニューラルネットワークの概念図である。[Figure 321 It is a conceptual diagram which shows the modification example with which a network structure differs. [Figure 33] It is a conceptual diagram of a neural network showing a conventional example.

【図341 その1つのユニット構成を示す概念図である。 【図35】 シグモイド関数を示すグラフである。[Figure 341 FIG. 2 is a conceptual diagram showing the configuration of one of the units. [Figure 35] It is a graph showing a sigmoid function.

【図36】 1つのユニットの具体的回路図である。[Figure 36] FIG. 2 is a specific circuit diagram of one unit.

【図37】 デジタル構成例を示すブロック図である。[Figure 37] FIG. 2 is a block diagram showing an example of a digital configuration.

【図38】 その一部の回路図である。[Figure 38] It is a circuit diagram of a part.

【図39】 その一部の他の回路図である。 [符号の説明] ■   論理演算手段 20  結合係数可変回路 41.80.95   結合係数生成回路45.50 
  神経細胞模倣回路 51.52,58.62〜65,72.77〜8056
.81.90a、90b   メEす61  グループ
分け用メモリ 82  学習定数設定手段 92  多数決回路 110〜114  集合体 デジタル論理回路
FIG. 39 is another circuit diagram of a part thereof. [Explanation of symbols] ■Logic operation means 20 Coupling coefficient variable circuit 41.80.95 Coupling coefficient generation circuit 45.50
Neuronal mimicry circuit 51.52, 58.62-65, 72.77-8056
.. 81.90a, 90b Measuring device 61 Grouping memory 82 Learning constant setting means 92 Majority circuits 110 to 114 Aggregate digital logic circuit

【書類者】[Document person]

図面 drawing

【図1】[Figure 1]

【図2】[Figure 2]

【図3】[Figure 3]

【図4】 q’を開平4−111185 (44)[Figure 4] q’ Kaihei 4-111185 (44)

【図5】[Figure 5]

【図6】[Figure 6]

【図7】[Figure 7]

【図8】[Figure 8]

【図9】 ■[Figure 9] ■

【図10】[Figure 10]

【図11】[Figure 11]

【図12】[Figure 12]

【図13】[Figure 13]

【図14】[Figure 14]

【図15】[Figure 15]

【図16】[Figure 16]

【図17】[Figure 17]

【図18】[Figure 18]

【図19】[Figure 19]

【図20】[Figure 20]

【図21】[Figure 21]

【図22】[Figure 22]

【図23】[Figure 23]

【図24】[Figure 24]

【図25】[Figure 25]

【図26】[Figure 26]

【図27】[Figure 27]

【図28】[Figure 28]

【図29】[Figure 29]

【図30】[Figure 30]

【図31】[Figure 31]

【図32】 7N開−4′’4−111185 (60)[Figure 32] 7N open-4''4-111185 (60)

【図33】[Figure 33]

【図34】[Figure 34]

【図35】 」[Figure 35] ”

【図37】[Figure 37]

【図38】[Figure 38]

【図39】 肋間+4−111185 (63)[Figure 39] Intercostal +4-111185 (63)

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】各々論理演算手段を有する複数の集合体か
らなる階層型の信号処理回路網において、前記論理演算
手段から出力される最終出力信号とこの論理演算手段に
対応する教師信号とを比較してこの教師信号のみに存在
する信号を正の誤差信号、前記最終出力信号のみに存在
する信号を負の誤差信号とするこの論理演算手段におけ
る誤差信号を生成する比較出力手段と、他の集合体を構
成する演算手段にその出力信号を与えるある集合体内の
論理演算手段において前記他の集合体を構成する演算手
段との結合状態を表す興奮性の結合係数信号と抑制性の
結合係数信号との少なくとも一方の信号からなる結合係
数信号と、前記他の集合体を構成する演算手段における
正の誤差信号と負の誤差信号とからなる誤差信号とを用
い、前記結合係数信号のうちで興奮性の結合教師信号と
前記正の誤差信号、及び、前記結合係数信号のうちで抑
制性の結合係数信号と前記負の誤差信号とに基づいて論
理演算して前記ある集合体内の論理演算手段における正
の誤差信号を生成し、前記結合係数信号のうちで抑制性
の結合係数信号と他の集合体における前記正の誤差信号
、及び、前記結合係数信号のうちで興奮性の結合係数信
号と前記負の誤差信号とに基づいて論理演算して前記あ
る集合体内の論理演算手段における負の誤差信号を生成
する誤差信号生成手段と、前記他の集合体を構成する論
理演算手段に入力される全ての入力信号とこの論理演算
手段における正の誤差信号と負の誤差信号と、この論理
演算手段にその出力信号を与える前記ある集合体を構成
する演算手段との結合状態を表す結合係数信号とに基づ
いてこの結合係数信号を制御する結合係数制御手段とを
設けたことを特徴とする信号処理回路網。
Claim 1: In a hierarchical signal processing circuit network consisting of a plurality of aggregates each having a logic operation means, a final output signal output from the logic operation means is compared with a teacher signal corresponding to the logic operation means. a comparison output means for generating an error signal in this logic operation means, in which a signal present only in the teacher signal is a positive error signal and a signal present only in the final output signal is a negative error signal; an excitatory coupling coefficient signal and an inhibitory coupling coefficient signal representing the coupling state of a logical computing means in a certain aggregate that provides an output signal to the computing means forming the body with the computing means forming the other aggregate; and an error signal consisting of a positive error signal and a negative error signal in the arithmetic means constituting the other aggregate. A logic operation is performed based on the combined teacher signal of the above, the positive error signal, and the inhibitory coupling coefficient signal among the coupling coefficient signals and the negative error signal to determine the positive error in the logic operation means in the certain aggregate. of the coupling coefficient signals, an inhibitory coupling coefficient signal and the positive error signal in another aggregate, and an excitatory coupling coefficient signal and the negative error signal of the coupling coefficient signals. error signal generation means for generating a negative error signal in the logic operation means in the certain aggregate by performing a logic operation based on the error signal of the error signal; Based on the input signal, a positive error signal and a negative error signal in this logic operation means, and a coupling coefficient signal representing the coupling state with the operation means constituting the certain aggregate that provides the output signal to this logic operation means. A signal processing circuit network comprising coupling coefficient control means for controlling a coupling coefficient signal of the lever.
【請求項2】各々論理演算手段を有する第1の集合体、
最終集合体及び前記第1の集合体からの出力信号を受け
て前記最終集合体に出力信号を供給する中間集合体から
なり、前記集合体内である集合体内の論理演算手段と別
の集合体内の論理演算手段との間で相互に信号の送受信
を行なって前記第1の集合体に入力信号が与えられたと
きに前記最終集合体から出力される最終出力信号と特定
の教師信号とを比較し、この比較結果に基づいて前記論
理演算手段間の全ての結合係数をを制御することにより
、与えられた前記入力信号に対して得られる最終集合体
内の論理演算手段からの前記最終出力信号を前記教師信
号に収束させるようにした階層型の信号処理回路網にお
いて、前記最終集合体内の論理演算手段から出力される
前記最終出力信号とこの論理演算手段に対応する教師信
号とを比較してこの教師信号のみに存在する信号を正の
誤差信号、前記最終出力信号のみに存在する信号を負の
誤差信号とするこの論理演算手段における誤差信号を生
成する比較出力手段と、他の集合体を構成する演算手段
にその出力信号を与えるある集合体内の論理演算手段に
おいて前記他の集合体を構成する演算手段との結合状態
を表す興奮性の結合係数信号と抑制性の結合係数信号と
の少なくとも一方の信号からなる結合係数信号と、前記
他の集合体を構成する演算手段における正の誤差信号と
負の誤差信号とからなる誤差信号とを用い、前記結合係
数信号のうちで興奮性の結合教師信号と前記正の誤差信
号、及び、前記結合係数信号のうちで抑制性の結合係数
信号と前記負の誤差信号とに基づいて論理演算して前記
ある集合体内の論理演算手段における正の誤差信号を生
成し、前記結合係数信号のうちで抑制性の結合係数信号
と他の集合体における前記正の誤差信号、及び、前記結
合係数信号のうちで興奮性の結合係数信号と前記負の誤
差信号とに基づいて論理演算して前記ある集合体内の論
理演算手段における負の誤差信号を生成する誤差信号生
成手段と、前記他の集合体を構成する論理演算手段に入
力される全ての入力信号とこの論理演算手段における正
の誤差信号と負の誤差信号と、この論理演算手段にその
出力信号を与える前記ある集合体を構成する演算手段と
の結合状態を表す結合係数信号とに基づいてこの結合係
数信号を制御する結合係数制御手段とを設けたことを特
徴とする信号処理回路網。
2. A first aggregate each having a logical operation means;
It consists of a final aggregate and an intermediate aggregate that receives an output signal from the first aggregate and supplies an output signal to the final aggregate, and includes a logic operation means in one aggregate in the aggregate and a logical operation means in another aggregate. A final output signal outputted from the final assembly when an input signal is given to the first assembly by transmitting and receiving signals to and from the logical operation means is compared with a specific teacher signal. , by controlling all the coupling coefficients between the logic operation means based on this comparison result, the final output signal from the logic operation means in the final aggregate obtained for the given input signal is In a hierarchical signal processing circuit network configured to converge to a teacher signal, the final output signal output from the logic operation means in the final aggregate is compared with the teacher signal corresponding to this logic operation means, and the teacher signal is Comparison output means for generating an error signal in this logical operation means, in which a signal present only in the final output signal is a positive error signal, and a signal present only in the final output signal is a negative error signal, and another aggregate is formed. At least one of an excitatory coupling coefficient signal and an inhibitory coupling coefficient signal representing a coupling state with the computing means constituting the other aggregate in the logical computing means in a certain aggregate that supplies the output signal to the computing means. Using a coupling coefficient signal consisting of a signal and an error signal consisting of a positive error signal and a negative error signal in the calculation means constituting the other aggregate, an excitatory coupling teacher signal is determined from among the coupling coefficient signals. and the positive error signal, and a suppressive coupling coefficient signal among the coupling coefficient signals and the negative error signal to perform a logical operation to obtain a positive error signal in the logic operation means in the certain aggregate. and generate an inhibitory coupling coefficient signal among the coupling coefficient signals and the positive error signal in another aggregate, and an excitatory coupling coefficient signal and the negative error signal among the coupling coefficient signals. error signal generation means for generating a negative error signal in the logical operation means in the certain aggregate by performing a logical operation based on the above, and all input signals input to the logical operation means constituting the other aggregate; This coupling coefficient is calculated based on the positive error signal and negative error signal in the logic operation means, and the coupling coefficient signal representing the coupling state with the operation means constituting the certain aggregate that provides the output signal to the logic operation means. A signal processing circuit network comprising coupling coefficient control means for controlling signals.
【請求項3】入力信号、出力信号、最終出力信号、結合
係数信号、教師信号及び誤差信号の全ての信号を、パル
ス列とパルス密度とにより表される信号としたことを特
徴とする請求項1又は2記載の信号処理回路網。
3. Claim 1, characterized in that all the signals including the input signal, the output signal, the final output signal, the coupling coefficient signal, the teacher signal, and the error signal are signals expressed by a pulse train and a pulse density. Or the signal processing circuit network described in 2.
【請求項4】結合係数可変回路とこの結合係数可変回路
の可変結合係数値を教師信号に対する誤差信号に基づき
生成する結合係数生成回路とよりなる自己学習回路を神
経細胞模倣素子に付設した複数の神経細胞模倣回路を網
状に接続したことを特徴とする信号処理回路網。
4. A plurality of self-learning circuits each comprising a variable coupling coefficient circuit and a coupling coefficient generation circuit that generates a variable coupling coefficient value of the variable coupling coefficient circuit based on an error signal with respect to a teacher signal, attached to a neuron imitation element. A signal processing network characterized by connecting neuron imitation circuits in a network.
【請求項5】自己学習回路と神経細胞模倣素子とをデジ
タル論理回路により形成したことを特徴とする請求項4
記載の信号処理回路網。
5. Claim 4, characterized in that the self-learning circuit and the neuron imitation element are formed by digital logic circuits.
The signal processing circuitry described.
【請求項6】興奮性結合グループと抑制性結合グループ
との2つにグループ分けした結合係数毎に処理して一方
のグループの結果の否定と他方のグループの結果との論
理積をとる論理回路を有することを特徴とする請求項5
記載の信号処理回路網。
6. A logic circuit that processes coupling coefficients divided into two groups, an excitatory coupling group and an inhibitory coupling group, and calculates the logical product of the negation of the result of one group and the result of the other group. Claim 5 characterized in that it has
The signal processing circuitry described.
【請求項7】興奮性結合グループと抑制性結合グループ
との2つにグループ分けした結合係数毎に処理して一方
のグループの結果の否定と他方のグループの結果との論
理和をとる論理回路を有することを特徴とする請求項5
記載の信号処理回路網。
7. A logic circuit that processes each coupling coefficient divided into two groups, an excitatory coupling group and an inhibitory coupling group, and calculates the negation of the result of one group and the logical sum of the result of the other group. Claim 5 characterized in that it has
The signal processing circuitry described.
【請求項8】興奮性結合係数グループによる出力結果と
抑制性結合係数グループによる出力結果との割合により
神経細胞模倣素子の出力を決定する多数決回路を有する
ことを特徴とする請求項5記載の信号処理回路網。
8. The signal according to claim 5, further comprising a majority circuit that determines the output of the neuron mimicking element based on the ratio between the output result from the excitatory coupling coefficient group and the output result from the inhibitory coupling coefficient group. processing circuitry.
【請求項9】パルス密度により表された入力とパルス密
度により表された結合係数とを演算処理してパルス密度
信号により定められた出力を得る神経細胞模倣素子に、
自己の出力と教師信号との誤差信号に基づいて前記結合
係数を制御する制御手段を付設した複数の神経細胞模倣
回路を網状に接続したことを特徴とする信号処理回路網
9. A neuron mimicking element that calculates an input represented by a pulse density and a coupling coefficient represented by a pulse density to obtain an output determined by a pulse density signal,
1. A signal processing circuit network comprising a plurality of neuron imitation circuits connected in a network, each of which is provided with a control means for controlling the coupling coefficient based on an error signal between its own output and a teacher signal.
【請求項10】各入力に対して結合係数を記憶したメモ
リを個別に設け、入力が興奮性結合と抑制性結合との何
れであるかにより予め2つにグループ分けしたことを特
徴とする請求項9記載の信号処理回路網。
Claim 10: A claim characterized in that a memory storing coupling coefficients for each input is provided individually, and the inputs are divided into two groups in advance depending on whether they are excitatory coupling or inhibitory coupling. The signal processing circuit network according to item 9.
【請求項11】各入力に対して結合係数を記憶したメモ
リを個別に設け、2種類の結合を表す情報を格納して入
力を興奮性結合と抑制性結合との2つにグループ分けす
るグループ分け用メモリを設けたことを特徴とする請求
項9記載の信号処理回路網。
11. A group that separately provides a memory storing coupling coefficients for each input, stores information representing two types of coupling, and groups the inputs into two groups: excitatory coupling and inhibitory coupling. 10. The signal processing circuit network according to claim 9, further comprising a dividing memory.
【請求項12】制御手段を、自己の出力と教師信号との
誤差信号に基づく学習により可変結合係数値を生成して
メモリ内の結合係数を可変制御する自己学習回路とした
ことを特徴とする請求項10又は11記載の信号処理回
路網。
12. The control means is a self-learning circuit that generates a variable coupling coefficient value through learning based on an error signal between its own output and a teacher signal and variably controls the coupling coefficient in the memory. The signal processing circuitry according to claim 10 or 11.
【請求項13】各入力に対して興奮性結合係数を記憶し
たメモリと抑制性結合係数を記憶したメモリとを個別に
設け、これらのメモリの組別に興奮性結合と抑制性結合
との2つにグループ分けし、読出したメモリの内容と入
力内容とをグループ別に論理演算処理して興奮性と抑制
性との何れかの出力を選択し、自己の出力と教師信号と
の誤差信号に基づく学習により可変結合係数値を生成し
て各々のメモリ内の結合係数を可変制御する自己学習回
路を設けたことを特徴とする請求項9記載の信号処理回
路網。
13. A memory that stores excitatory coupling coefficients and a memory that stores inhibitory coupling coefficients are separately provided for each input, and two memories, excitatory coupling and inhibitory coupling, are provided for each set of these memories. The read memory contents and input contents are divided into groups, and logical operations are performed on each group to select either excitatory or inhibitory output, and learning is performed based on the error signal between the own output and the teacher signal. 10. The signal processing circuitry according to claim 9, further comprising a self-learning circuit that generates variable coupling coefficient values and variably controls the coupling coefficients in each memory.
【請求項14】結合係数可変回路で用いる学習定数を外
部から任意に設定可変させる学習定数設定手段を設けた
ことを特徴とする請求項4又は9記載の信号処理回路網
14. The signal processing circuit network according to claim 4, further comprising learning constant setting means for arbitrarily setting and varying the learning constant used in the variable coupling coefficient circuit from the outside.
JP2412448A 1989-12-29 1990-12-20 Signal processing circuit, signal processing network, signal processing device, and signal processing method Expired - Fee Related JP2612640B2 (en)

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
JP1-343891 1989-12-29
JP34389189 1989-12-29
JP6073890 1990-03-12
JP2-60738 1990-03-12
JP6794190 1990-03-16
JP2-67940 1990-03-16
JP6794090 1990-03-16
JP2-67941 1990-03-16
JP27282790 1990-10-11
JP2-272827 1990-10-11

Publications (2)

Publication Number Publication Date
JPH04111185A true JPH04111185A (en) 1992-04-13
JP2612640B2 JP2612640B2 (en) 1997-05-21

Family

ID=27523607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2412448A Expired - Fee Related JP2612640B2 (en) 1989-12-29 1990-12-20 Signal processing circuit, signal processing network, signal processing device, and signal processing method

Country Status (1)

Country Link
JP (1) JP2612640B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113658493A (en) * 2021-08-20 2021-11-16 安徽大学 Reinforced learning bionic circuit architecture for simulating associative memory

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01173257A (en) * 1987-12-28 1989-07-07 Fujitsu Ltd Network constituting data processor
JPH01193982A (en) * 1988-01-28 1989-08-03 Toshiba Corp Nervous network arithmetic unit
JPH01204171A (en) * 1988-02-09 1989-08-16 Nec Corp Dynamic neural network having learning mechanism
JPH01244567A (en) * 1988-03-25 1989-09-28 Res Dev Corp Of Japan Digital type neuron circuit

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01173257A (en) * 1987-12-28 1989-07-07 Fujitsu Ltd Network constituting data processor
JPH01193982A (en) * 1988-01-28 1989-08-03 Toshiba Corp Nervous network arithmetic unit
JPH01204171A (en) * 1988-02-09 1989-08-16 Nec Corp Dynamic neural network having learning mechanism
JPH01244567A (en) * 1988-03-25 1989-09-28 Res Dev Corp Of Japan Digital type neuron circuit

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113658493A (en) * 2021-08-20 2021-11-16 安徽大学 Reinforced learning bionic circuit architecture for simulating associative memory

Also Published As

Publication number Publication date
JP2612640B2 (en) 1997-05-21

Similar Documents

Publication Publication Date Title
Meier A mixed-signal universal neuromorphic computing system
JPH07111090A (en) Signal processor
COLLIN et al. NEUROMORPHISM OR PRAGMATISM?: A FORMAL APPROACH
Nair et al. Direct CMOS implementation of neuromorphic temporal neural networks for sensory processing
US5485548A (en) Signal processing apparatus using a hierarchical neural network
JPH04111185A (en) Signal processing network
Hasan Memristor based low power high throughput circuits and systems design
Gavrilov et al. A model of spike neuron oriented to hardware implementation
JPH056356A (en) Method and device for processing signal
JP2549454B2 (en) Neuron mimetic network and neuron mimicking unit
Singh et al. Implementation of Logic Gates and Combinational Circuits Using Neural Network On FPGA For Neuromorphic Hardware
JPH04229361A (en) Learning method for neural network and signal processor using the same
JP3255425B2 (en) Signal processing method
Pavan et al. Reusable Spiking Neural Network Architecture
JPH03294979A (en) Signal processor
Yan A Mixed Signal 65nm CMOS Implementation of a Spiking Neural Network
JPH05217010A (en) Signal processor
Quero et al. Stochastic Neural Interface with Selective Synapse
JPH03260785A (en) Signal processing method and its network
Krestinskaya SLAM: Spatiotemporal Learning with AnalogMemristive Circuits for HTM
Li Research on the Development and Applications of Artificial Neural Networks
JPH05307624A (en) Signal processor
JPH04245389A (en) Method and device for signal processing
JPH03256184A (en) Signal processing circuit
Schillen Designing a neural network simulator—the MENS modelling environment for network systems: I

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees