JPH05307624A - Signal processor - Google Patents

Signal processor

Info

Publication number
JPH05307624A
JPH05307624A JP4225034A JP22503492A JPH05307624A JP H05307624 A JPH05307624 A JP H05307624A JP 4225034 A JP4225034 A JP 4225034A JP 22503492 A JP22503492 A JP 22503492A JP H05307624 A JPH05307624 A JP H05307624A
Authority
JP
Japan
Prior art keywords
layer
signal
learning process
register
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4225034A
Other languages
Japanese (ja)
Inventor
Sugitaka Otegi
杉高 樗木
Tokuo Hashimoto
篤男 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US08/099,719 priority Critical patent/US5485548A/en
Publication of JPH05307624A publication Critical patent/JPH05307624A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To attain rapid processing for the hardware processing of a neural network by executing a forward process and a learning process in parallel. CONSTITUTION:When an input signal is applied, a forward processing executing circuit(FWD) 11 executes a forward process on an intermediate layer and outputs its execution result to a register 12. An FWD circuit 13 reads out the forward process result on the intermediate layer from the register 12, executes a forward process on an output layer and an error forming circuit 48 finds out an error signal on the output layer based upon the execution result of the circuit 13 and a teacher signal read out from a register 17 and stores the error signal in a register 18. A leaning processing execution circuit(LRN) 47 reads out the error signal on the output layer from the circuit 18 and the input signal to the output layer from a register 45 and executes a learning process on the output layer. Similarly an LRN circuit 46 reads out signals from registers 19, 44 and executes a learning process on the intermediate layer.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、文字や図形認識、ロ
ボットなどの運動制御、連想記憶などに応用される神経
細胞回路網を模倣したニューラルコンピュータ等の信号
処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a signal processing device such as a neural computer imitating a nerve cell circuit network applied to character and figure recognition, motion control of robots, associative memory and the like.

【0002】[0002]

【従来の技術】生体の情報処理の基本的な単位である神
経細胞(ニューロン)の機能を模倣し、さらに、この
「神経細胞模倣素子」(神経細胞ユニット)をネットワ
ークに構成することで情報の並列処理を目指したのが、
いわゆるニューラルネットワークである。文字認識や連
想記憶、運動制御等、生体ではいとも簡単に行われてい
ても従来のノイマン型コンピュータではなかなか達成で
きないものが多い。
2. Description of the Related Art The function of a nerve cell (neuron), which is a basic unit of information processing of a living body, is mimicked, and further, this "nerve cell mimicking element" (nerve cell unit) is configured in a network to obtain information. Aiming for parallel processing,
This is a so-called neural network. Many things, such as character recognition, associative memory, and motion control, can be easily achieved by the conventional Neumann computer even if they are performed easily in the living body.

【0003】生体の神経系、特に生体特有の機能、すな
わち並列処理や自己学習等を模倣して、これらの問題を
解決しよとする試みが、計算機シミュレーションを中心
として、盛んに行われている。
Attempts to solve these problems by imitating the functions of the nervous system of the living body, in particular, the functions peculiar to the living body, that is, parallel processing and self-learning, are being actively made, centering on computer simulation. ..

【0004】図1は、1つのニューロンモデルを表す模
式図で、他のニューロンから入力を受ける部分と、入力
を一定の規則で変換する部分と、結果を出力する部分と
からなり、他のニューロンとの結合部分には、それぞれ
結合係数と呼ばれる可変の重み”Tij”を付け、結合の
強さを表している。学習とはこの値を変えることであっ
て、これによりネットワークの構造が変えられる。
FIG. 1 is a schematic diagram showing one neuron model, which is composed of a part receiving an input from another neuron, a part converting an input according to a certain rule, and a part outputting a result. A variable weight “Tij” called a coupling coefficient is attached to each of the coupling portions with and to indicate the coupling strength. Learning means changing this value, which changes the structure of the network.

【0005】図2は、これを階層型ネットワークにした
ものを例示する模式図であり、このネットワークは、入
力層A1、中間層A2及び出力層A3からなり、1つの
ニューロンは他の多数のニューロンと結合しているが、
各層内でのニューロンどうしの結合はなく、また、出力
層A3から入力層A2に向かう結合もない。なお、図2
においては1層の中間層を持つ3層ネットワークである
が、複数の中間層を持つ多層ネットワークも利用されて
いる。
FIG. 2 is a schematic diagram illustrating a hierarchical network of this type. This network is composed of an input layer A1, an intermediate layer A2, and an output layer A3, and one neuron includes many other neurons. Combined with
There is no connection between neurons in each layer, and there is no connection from the output layer A3 to the input layer A2. Note that FIG.
In the above, a three-layer network having one intermediate layer is used, but a multilayer network having a plurality of intermediate layers is also used.

【0006】フォワードプロセスにおいては、図2のネ
ットワークの場合、入力層A1に入力されたしんごヴ
は、中間層A2に伝播し、中間層にてフォワード処理を
実行する。中間層の処理結果は、出力層に伝播し、出力
層にてフォワード処理を実行し、最終的にニューラルネ
ットワークの出力が得られる。ここで、ニューロン間の
結合の度合いを表すのが、結合係数と呼ばれるものであ
り、一般にi番目のニューロンとj番目のニューロンと
の結合度合いをTijで表す。結合には、相手方のニュー
ロンの信号が大きいほど自分の出力が大きくなる興奮性
結合と、逆に、相手方のニューロンの信号が大きいほど
自分の出力が小さくなる抑制性結合とがあり、Tij>0
のとき興奮性結合を表し、Tij<0のとき抑制性結合を
表す。
In the forward process, in the case of the network shown in FIG. 2, the syringe input to the input layer A1 propagates to the intermediate layer A2, and the forward process is executed in the intermediate layer. The processing result of the intermediate layer is propagated to the output layer, the forward processing is executed in the output layer, and finally the output of the neural network is obtained. Here, the degree of coupling between neurons is called a coupling coefficient, and the degree of coupling between the i-th neuron and the j-th neuron is generally represented by Tij. There are two types of coupling: excitatory coupling, in which the output of the partner neuron is larger as the signal is larger, and conversely, inhibitory coupling in which the output of the partner is smaller, the output is smaller, and Tij> 0.
Represents excitatory coupling, and Tij <0 represents inhibitory coupling.

【0007】今、自分のニューロンがi番目であると
し、j番目のニューロンの出力をyjとすると、これに
結合係数Tijを掛けたTij・yj が自分のユニットへの
入力となる。各ニューロンは多数のニューロンと結合し
ているので、それらのニューロンに対するTij・yj を
足し合わせた結果であるΣTij・yj を足し合わせたも
の、すなわち、ΣTij・yj が、自分のニューロンへの
入力となる。これを内部電位と言い、次の数式1で表さ
れる。
Now, assuming that the own neuron is the i-th neuron and the output of the j-th neuron is yj, Tij · yj obtained by multiplying this by the coupling coefficient Tij becomes the input to the own unit. Since each neuron is connected to a large number of neurons, ΣTij · yj, which is the result of adding Tij · yj to those neurons, that is, ΣTij · yj is the input to its own neuron. Become. This is called an internal potential and is expressed by the following mathematical formula 1.

【0008】[0008]

【数1】ui =ΣTij・yi[Equation 1] ui = ΣTij · yi

【0009】次に、この入力に対して非線形処理をし
て、その神経細胞ユニットの出力とする。ここで用いる
非線形関数を神経細胞応答関数と呼び、例えば次の数式
2及び図3に示すようなシグモイド関数f(ui )を用
いる。
Next, the input is subjected to non-linear processing to obtain the output of the nerve cell unit. The nonlinear function used here is called a nerve cell response function, and for example, a sigmoid function f (ui) as shown in the following formula 2 and FIG. 3 is used.

【0010】[0010]

【数2】f(ui )=1/(1+e-x## EQU2 ## f (ui) = 1 / (1 + e- x )

【0011】以上より、ニューロンiの出力yi 次の数
式3で示される。
From the above, the output yi of the neuron i is expressed by the following equation 3.

【0012】[0012]

【数3】 yi =fi (ui ) =fi (ΣTij・yi )## EQU00003 ## yi = fi (ui) = fi (.SIGMA.Tij.yi)

【0013】以下、学習プロセスとして、一般的なバッ
クプロパゲーションアルゴリズム(以下BPアルゴリズ
ムと略記する。)について簡単に述べる。学習パターン
では、ある入力パターンpを与えたとき、実際の出力値
と望ましい出力値の誤差を小さくするように結合係数を
変更していく。この変更量を求めるアルゴりズムがBP
アルゴリズムである。
As a learning process, a general back propagation algorithm (hereinafter abbreviated as BP algorithm) will be briefly described below. In the learning pattern, when a certain input pattern p is given, the coupling coefficient is changed so as to reduce the error between the actual output value and the desired output value. The algorithm that asks for this change is BP
It is an algorithm.

【0014】今、ある入力パターンPを与えた時、ユニ
ットiの実際の出力値(ypi)と望ましい出力値(tp
i)の差を数式4のように定義する。
Now, given a certain input pattern P, the actual output value (ypi) of the unit i and the desired output value (tp
The difference of i) is defined as in Expression 4.

【0015】[0015]

【数4】Ep =(tpi−ypi)2 /2[Number 4] Ep = (tpi-ypi) 2 /2

【0016】これは出力層ユニットiの誤差を表し、t
piは人間が与える教師データである。学習ではこの誤差
を減らすように全ての結合の強さを変えていく。実際に
は、パターンpを与えたときの結合係数Tijの変化量を
次の数式5を用いて変化させる。また、数式4より、結
果的に数式6が得られる。
This represents the error of the output layer unit i, t
pi is teacher data given by humans. In learning, the strength of all connections is changed to reduce this error. Actually, the change amount of the coupling coefficient Tij when the pattern p is given is changed by using the following formula 5. Further, from Equation 4, Equation 6 is obtained as a result.

【0017】[0017]

【数5】ΔpTij∝−ΞE/ΞTij[Equation 5] ΔpTij∝−ΞE / ΞTij

【0018】[0018]

【数6】ΔpTij=ηδpiypj[Equation 6] ΔpTij = ηδpiypj

【0019】ここで、ypjは、ユニットjからユニット
iへの入力値であり、誤差δpiは、ユニットiが出力層
A3か、中間層A2かによって異なり、出力層A3にお
ける誤差信号δpiは数式7で、中間層A2における誤差
信号δpiは数式8でそれぞれ表される。ただし、これら
の数式においてfi'(ui )はfi (ui )の一階微分
である。
Here, ypj is an input value from the unit j to the unit i, and the error δpi differs depending on whether the unit i is the output layer A3 or the intermediate layer A2, and the error signal δpi in the output layer A3 is expressed by the equation 7 Then, the error signal δpi in the intermediate layer A2 is expressed by Equation 8, respectively. However, in these mathematical expressions, fi '(ui) is the first derivative of fi (ui).

【0020】[0020]

【数7】δpi=(tpi−ypi)・fi'(ui )## EQU7 ## .delta.pi = (tpi-ypi) .fi '(ui)

【0021】[0021]

【数8】δpi=fi'(ui )・ΣδpkTki## EQU8 ## δpi = fi '(ui) ΣδpkTki

【0022】以上より、ΔTijを一般的に定式化したの
が数式9であり、故に数式10が導かれる。ここで、n
は学習の順位、ηは学習定数、αは安定化係数である。
From the above, Equation 9 is a general formulation of ΔTij, and therefore Equation 10 is derived. Where n
Is a learning order, η is a learning constant, and α is a stabilizing coefficient.

【0023】[0023]

【数9】 ΔTij(n+1)=ηΔpiypj+αΔTij(n)## EQU9 ## ΔTij (n + 1) = ηΔpiypj + αΔTij (n)

【0024】[0024]

【数10】 Tij(n+1)=Tij(n)+ΔTij(n+1)(10) Tij (n + 1) = Tij (n) + ΔTij (n + 1)

【0025】数式9の右辺第1項は、数式6で求めた結
合係数の変化量ΔT、第2項はエラーの振動を減らし、
収束を早めるために加えている。
The first term on the right side of the equation 9 is the variation ΔT of the coupling coefficient obtained by the equation 6, and the second term reduces the error vibration.
It is added to speed up the convergence.

【0026】このように結合係数の変化量ΔTの計算
は、出力層A3のユニットから始めて、中間層A2のユ
ニットに移り、学習は荷を毛力データの処理とは逆方
向、つまり、後ろ向きに進む。したがって、バックプロ
パーゲーションによる学習は、まず、学習用のデータを
入力して出力させること(前向き)と、結果のエラーを
減らすように全ての結合の強さを変えること(後ろ向
き)とを、これらが収束するまで繰り返すことになる。
In this way, the calculation of the change amount ΔT of the coupling coefficient starts from the unit of the output layer A3 and moves to the unit of the intermediate layer A2, and the learning is performed in the direction opposite to the processing of the hair force data, that is, backward. move on. Therefore, learning by back-propagation involves first inputting and outputting training data (forward) and changing all bond strengths (rearward) so as to reduce error in the results. Will be repeated until is converged.

【0027】図4は、一つのニューロンのフォワード処
理を数値演算で行う場合の一般的な回路を示すブロック
図であり、シナプスの結合係数を格納したメモリ2とマ
ルチプライヤ3を含む領域4はニューロンのシナプスの
働きを行うところで、入力信号とシナプス係数の積を演
算する。細胞体8は、シナプスにより計算された結合係
数と入力信号との積を加算器5により累積加算し、この
値に変換テーブル7によりシグモイド関数による処理を
施し、出力する。これは、ニューロンの細胞体の働きに
対応する。以上が一つのニューロンのフォワードプロセ
スの内容である。
FIG. 4 is a block diagram showing a general circuit in the case where the forward processing of one neuron is performed by a numerical operation. The region 4 including the memory 2 storing the synapse coupling coefficient and the multiplier 3 is a neuron. Where the synapse function is performed, the product of the input signal and the synapse coefficient is calculated. The cell body 8 cumulatively adds the product of the coupling coefficient calculated by the synapse and the input signal by the adder 5, performs processing by the sigmoid function by the conversion table 7, and outputs this value. This corresponds to the function of the cell body of the neuron. The above is the content of the forward process of one neuron.

【0028】従来の階層型神経細胞回路網は、図2に示
すようなネットワークを形成し、この3層階層型ネット
ワークのフォワードプロセスのデータの流れは、図5に
示すように、入力層A1に入力信号a1〜a4を与え
て、出力層A3より出力信号b1〜b4を得るようにし
てある。
The conventional hierarchical nerve cell network forms a network as shown in FIG. 2, and the data flow of the forward process of this three-layer hierarchical network is as shown in FIG. The input signals a1 to a4 are given and the output signals b1 to b4 are obtained from the output layer A3.

【0029】図7に示すように、入力層A、複数の中間
層B1 〜Bn-1 及び出力層Cを備える多層ニューラルネ
ットワークにおいても同様にデータは入力層から順に各
中間層を経て出力層に流れる。
As shown in FIG. 7, in a multi-layer neural network including an input layer A, a plurality of intermediate layers B1 to Bn-1 and an output layer C, data is similarly transferred from the input layer to each output layer through each intermediate layer. Flowing.

【0030】次に、3層構成のフォワード処理の実行例
を図9の回路図及び図10のタイミングチャートに基づ
いて説明する。ここで、図9は、図4に示す1つのニュ
ーロンのフォワード処理を実行する回路によって3層階
層型ネットワークを構成し、実行する回路の回路図であ
り、図10はそのフォワード処理のタイミングチャート
である。
Next, an example of performing the forward process of the three-layer structure will be described with reference to the circuit diagram of FIG. 9 and the timing chart of FIG. Here, FIG. 9 is a circuit diagram of a circuit that configures and executes a three-layer hierarchical network by a circuit that executes the forward process of one neuron shown in FIG. 4, and FIG. 10 is a timing chart of the forward process. is there.

【0031】まず、図10のステートS1で入力層の入
力信号10を中間層のフォワード処理実行回路11に入
力するとともに、コントロール回路15の中間層用フォ
ワード処理開始信号FWDS1をアクティブにする。こ
れによって、最初の入力信号によるフォワード処理が実
行され、この結果をレジスタ12に保持する。そして、
次のステートS2でレジスタ12の値を出力層のフォワ
ード処理実行回路13に入力するとともに、コントロー
ル回路15の出力層用フォワード処理開始信号FWDS
2をアクティブにして、出力層におけるフォワード処理
を実行し、出力14が得られる。このように次々に与え
られる入力信号10に対して図10に示すようにパイプ
ライン方式でフォワード処理が実行される。
First, in state S1 of FIG. 10, the input signal 10 of the input layer is input to the intermediate layer forward processing execution circuit 11, and the intermediate layer forward processing start signal FWDS1 of the control circuit 15 is activated. Thereby, the forward process by the first input signal is executed, and the result is held in the register 12. And
In the next state S2, the value of the register 12 is input to the output layer forward processing execution circuit 13, and the output layer forward processing start signal FWDS of the control circuit 15 is input.
2 is activated to perform the forward process in the output layer, and the output 14 is obtained. In this way, the forward processing is executed on the input signals 10 successively given in a pipeline manner as shown in FIG.

【0032】多数の中間層を有する多層ネットワークに
おいても、図11の回路図及び図12のタイミングチャ
ートに示すように、前述の3層ネットワークと同様にパ
イプライン方式でフォワード処理が実行される。
Also in the multi-layer network having a large number of intermediate layers, as shown in the circuit diagram of FIG. 11 and the timing chart of FIG. 12, the forward process is executed by the pipeline method as in the above-mentioned three-layer network.

【0033】なお、学習プロセスによる処理は、今のと
ころ多くの場合が外部の汎用コンピュータによって実行
している。
Note that the processing by the learning process is currently executed by an external general-purpose computer in many cases.

【0034】図33は、上記ネットワークを電気回路で
実現したものの一例を示す図で(特開昭62−2951
88号公報参照)、基本的には、S字形の伝達関数を有
する複数の増幅器103と、各増幅器103の出力を他
の層の増幅器の入力に一点鎖線で示すように接続する抵
抗性フィードバック回路網101とが設けられている。
各増幅器103の入力側には接地されたコンデンサCと
接地された抵抗RとによるCR時定数回路102が個別
に接続されている。そして、入力電流I1 、I2 〜IN
が各増幅器103の入力に供給され、出力はこれらの増
幅器103の出力電圧の集合から得られる。
FIG. 33 is a diagram showing an example in which the above network is realized by an electric circuit (JP-A-62-2951).
No. 88), basically, a plurality of amplifiers 103 having an S-shaped transfer function, and a resistive feedback circuit for connecting the outputs of the amplifiers 103 to the inputs of amplifiers of other layers as shown by a chain line. A net 101 is provided.
A CR time constant circuit 102 including a grounded capacitor C and a grounded resistor R is individually connected to the input side of each amplifier 103. The input currents I1, I2 to IN
Are supplied to the input of each amplifier 103 and the output is obtained from the set of output voltages of these amplifiers 103.

【0035】ここに、入力や出力の信号の強度を電圧で
表し、神経細胞の結合の強さは、各細胞間の入出力ライ
ンを結ぶ抵抗100(抵抗性フィードバック回路網10
1中の格子点)の抵抗値で表され、神経細胞応答係数は
各増幅器103の伝達関数で表される。また、神経細胞
間の結合には前述のように興奮性と抑制性とがあり、数
学的には結合係数の正負符号により表される。しかし、
回路上の定数で正負を実現するのは困難であるので、こ
こでは、増幅器103の出力を2つに分け、一方の出力
を反転させることにより、正負の2つの信号103a、
103bを生成し、これを適当に選択することにより実
現するようにしている。また、図6に示したシグモイド
関数に相当するものとしては増幅器が用いられている。
Here, the strength of the input or output signal is represented by a voltage, and the strength of the nerve cell coupling is defined by the resistance 100 (resistive feedback network 10) connecting the input / output lines between the cells.
It is represented by a resistance value of a grid point 1), and the nerve cell response coefficient is represented by a transfer function of each amplifier 103. Further, the connection between nerve cells has excitability and inhibitory property as described above, and is mathematically represented by the sign of the coupling coefficient. But,
Since it is difficult to realize positive and negative with a constant on the circuit, here, by dividing the output of the amplifier 103 into two and inverting one output, two positive and negative signals 103a,
This is realized by generating 103b and selecting it appropriately. Further, an amplifier is used as the one corresponding to the sigmoid function shown in FIG.

【0036】図34〜図36は、前記ニューラルネット
ワークをデジタル回路で実現した例を示す図である。図
34は、単一神経細胞の回路構成例を示す図であり、1
10はシナプス回路、111は樹状突起回路、112は
細胞体回路を示す。図35は、図34に示したシナプス
回路110の構成例を示す図であり、係数回路110a
を介して入力パルスfに倍率a(フィードバック信号に
掛ける倍率で1または2)を掛けた値が入力されるレー
トマルチプライヤ110bを設けてなり、レートマルチ
プライヤ110bには重み付けの値wを記憶したシナプ
ス荷重レジスタ110cが接続されている。また、図3
6は細胞体回路112の構成例を示す図であり、制御回
路113、アップ/ダウンカウンタ114、レートマル
チプライヤ115及びゲート116を順に接続してな
り、さらに、アップ/ダウンメモリ117が設けられて
いる。
34 to 36 are diagrams showing an example in which the neural network is realized by a digital circuit. FIG. 34 is a diagram showing a circuit configuration example of a single nerve cell.
10 is a synapse circuit, 111 is a dendrite circuit, and 112 is a cell body circuit. FIG. 35 is a diagram showing a configuration example of the synapse circuit 110 shown in FIG. 34, and the coefficient circuit 110a.
A rate multiplier 110b to which a value obtained by multiplying the input pulse f by a factor a (a factor of 1 or 2 by which the feedback signal is multiplied) is input is provided, and the weight value w is stored in the rate multiplier 110b. The synapse load register 110c is connected. Also, FIG.
6 is a diagram showing a configuration example of the cell body circuit 112, which is formed by sequentially connecting a control circuit 113, an up / down counter 114, a rate multiplier 115 and a gate 116, and further is provided with an up / down memory 117. There is.

【0037】これは、神経細胞ユニットの入出力をパル
ス列で表現し、そのパルス密度で信号の量を表してい
る。結合係数は2進数で取り扱い、シナプス荷重レジス
タ110cに保存している。信号演算処理は次のように
行われる。
In this case, the input / output of the nerve cell unit is represented by a pulse train, and the pulse density represents the amount of signal. The coupling coefficient is treated as a binary number and stored in the synapse weight register 110c. The signal calculation process is performed as follows.

【0038】まず、入力信号をレートマルチプライヤ1
10bへ入力し、結合係数をレート値へ入力することに
よって、入力信号のパルス密度をレート値に応じて減ら
している。これは、前述のBPモデルの数式1のTijy
i の部分に相当する。また、ΣTijyi のΣの部分は、
樹状突起回路111によって示されるOR回路で実現し
ている。結合には興奮性、抑制性があるので、あらかじ
めグループ分けしておき、それぞれのグループ別にOR
をとる。図34において、F1 は興奮性出力、F2 は抑
制性出力を示す。
First, the input signal is applied to the rate multiplier 1
By inputting into 10b and inputting the coupling coefficient into the rate value, the pulse density of the input signal is reduced according to the rate value. This is the Tijy of the above-mentioned BP model Equation 1.
Corresponds to the i part. Also, the Σ part of ΣTijyi is
This is realized by the OR circuit shown by the dendrite circuit 111. Since the coupling has excitatory and inhibitory properties, it is divided into groups in advance, and OR is performed for each group.
Take In FIG. 34, F1 indicates excitatory output and F2 indicates inhibitory output.

【0039】この2つの出力を、図36に示したカウン
タ114のアップ側、ダウン側にそれぞれ入力してカウ
ントすることで出力が得られる。この出力は2進数であ
るので、再びレートマルチプライヤ115を用いて、パ
ルス密度に変換する。この神経細胞ユニットを複数個用
いてネットワークを構成することによって、ニューラル
ネットワークが実現できる。
An output can be obtained by inputting these two outputs to the up side and down side of the counter 114 shown in FIG. 36 and counting respectively. Since this output is a binary number, the rate multiplier 115 is used again to convert it into a pulse density. A neural network can be realized by configuring a network using a plurality of these nerve cell units.

【0040】学習機能は、ネットワークの最終出力を外
部のコンピュータに入力して、コンピュータ内部で数値
計算を行い、その結果を結合係数を保存するシナプス荷
重レジスタ110cに書き込むことによって実現してい
る。
The learning function is realized by inputting the final output of the network to an external computer, performing numerical calculation inside the computer, and writing the result to the synapse weight register 110c which stores the coupling coefficient.

【0041】本出願人は、神経細胞模倣素子より構成さ
れた神経細胞回路網による信号処理装置を既に開発し、
特許出願している(特願平1−343891号)。この
発明では、その信号処理装置を一実施例の例題として取
り扱っている。以下、本出願人が既に開発した信号処理
装置について述べる。
The present applicant has already developed a signal processing device using a nerve cell network composed of nerve cell mimicking elements,
A patent application has been filed (Japanese Patent Application No. 1-343491). In the present invention, the signal processing device is treated as an example of one embodiment. The signal processing device already developed by the applicant will be described below.

【0042】この信号処理装置においては、神経回路網
の一例として、ディジタル論理回路を用いた神経細胞ユ
ニットとこれを用いて構成したネットワーク回路による
信号処理について提案している。
In this signal processing device, as an example of a neural network, a signal processing by a nerve cell unit using a digital logic circuit and a network circuit configured by using the nerve cell unit is proposed.

【0043】ここで基本的な考え方は、 1.神経細胞ユニットに関する入出力信号、中間信号、
結合係数、教師信号などは、すべて、「0」、「1」の
2値で表されたパルス列で表現する。 2.ネットワーク内部での信号の値は、パルス密度で表
す(ある一定時間内の「1」の数)。 3.神経細胞ユニット内での計算は、パルス列同士の論
理演算で行う。 4.結合係数のパルス列は、神経細胞ユニット内のメモ
リに格納する。 5.学習においては、与えられた教師信号パルス列を基
に誤差を掲載し、これに基づいて結合係数を変化させる
このとき、誤差の計算、結合係数の変化分の計算もすべ
て、「0」、「1」のパルス列の論理演算で行う。 というものであり、以下詳細に説明する。
The basic idea here is: Input / output signals, intermediate signals,
The coupling coefficient, the teacher signal, etc. are all represented by a pulse train represented by binary values of "0" and "1". 2. The value of the signal inside the network is represented by the pulse density (the number of "1" within a certain fixed time). 3. Calculation in the nerve cell unit is performed by logical operation between pulse trains. Four. The pulse train of the coupling coefficient is stored in the memory in the nerve cell unit. Five. In learning, an error is posted based on a given teacher signal pulse train, and the coupling coefficient is changed based on this error. At this time, the calculation of the error and the variation of the coupling coefficient are all "0" and "1". It is performed by the logical operation of the pulse train. This will be described in detail below.

【0044】図13は、パルス密度方式において1つの
ニューロン素子のフォワード処理の様子を示したもの
で、ネットワークの構成は、図2に示した階層型ニュー
ラルネットワークを考える。
FIG. 13 shows the state of forward processing of one neuron element in the pulse density method, and considers the hierarchical neural network shown in FIG. 2 as the network configuration.

【0045】まず、神経細胞ユニットの入出力は、すべ
て、「0」、「1」に2値化され、パルス密度で表現さ
れた入力yi と結合係数Tijとの論理積(AND)をシ
ナプスごとに求める。これは数式1のTij・yj に相当
する。このAND回路の出力パルス密度は、確率的に入
力信号のパルス密度と結合係数のパルス密度との積とな
る。
First, all the inputs and outputs of the nerve cell unit are binarized into "0" and "1", and the logical product (AND) of the input yi represented by the pulse density and the coupling coefficient Tij is synapse-wise. Ask for. This corresponds to Tij · yj in Expression 1. The output pulse density of this AND circuit stochastically becomes the product of the pulse density of the input signal and the pulse density of the coupling coefficient.

【0046】前述したように、ニューロン側の結合には
興奮性結合と抑制性結合がある。数値演算の場合は、結
合係数の符号、例えば興奮性のときプラス、抑制性のと
きマイナスというようにして演算を行う。
As described above, the neuron-side connection includes excitatory connection and inhibitory connection. In the case of numerical calculation, the sign of the coupling coefficient, for example, plus when excitatory and minus when inhibitory is performed.

【0047】パルス密度方式の場合は、結合係数Tijの
正負により、各結合を興奮性結合と抑制性結合との2つ
のグループに分け、このグループ別にOR操作による論
理和をとる。これは、数式3のΣの処理と非線型飽和関
数fi の処理に相当する。
In the case of the pulse density method, each coupling is divided into two groups, an excitatory coupling and an inhibitory coupling, depending on whether the coupling coefficient Tij is positive or negative, and the logical sum is obtained by OR operation for each group. This corresponds to the processing of Σ in Equation 3 and the processing of the non-linear saturation function fi.

【0048】すなわち、パルス密度による演算において
は、パルス密度が低い場合、OR処理を行った結果のパ
ルス密度はOR入力のパルス密度の和似近似できる。パ
ルス密度が高くなるにつれて、OR回路の出力は徐々に
飽和して来るので、パルス密度の和とは結果が一致せ
ず、非線形性が出てくることになる。
That is, in the calculation based on the pulse density, when the pulse density is low, the pulse density as a result of the OR processing can be approximated to the pulse density of the OR input. Since the output of the OR circuit gradually becomes saturated as the pulse density becomes higher, the result does not match the sum of the pulse densities, and nonlinearity appears.

【0049】このOR操作の場合、パルス密度の値Pは
0≦P≦1となり、さらに入力の大きさに対して、単調
増加関数となるので、数式2あるいは図3のジグモイド
関数による処理と同様になる。
In the case of this OR operation, the value P of the pulse density is 0≤P≤1, and since it is a monotonically increasing function with respect to the magnitude of the input, it is the same as the processing by the sigmoid function of Equation 2 or FIG. become.

【0050】パルス密度方式による神経細胞素子の出力
は、上記により求められた興奮性グループのOR出力a
が”1” で、かつ、抑制性グループのOR出力bが”
〇”のときのみ、”1”を出力する。すなわち、次のよ
うに表される。
The output of the nerve cell element according to the pulse density method is the OR output a of the excitatory group obtained as described above.
Is "1" and the OR output b of the inhibitory group is "
"1" is output only when it is "○", that is, it is expressed as follows.

【0051】[0051]

【数11】a=∪(yi ∩Tij)(0<T=興奮性)[Equation 11] a = ∪ (yi∩Tij) (0 <T = excitability)

【0052】[0052]

【数12】b=∪(yi ∩Tij)(0>T=抑制性)[Equation 12] b = ∪ (yi∩Tij) (0> T = inhibitory property)

【0053】[0053]

【数13】yi =g(a、b)=a∩*bY i = g (a, b) = a∩ * b

【0054】以下、パルス密度方式における学習プロセ
スについて述べる。学習が行われていないニューラルネ
ットワークにおいては、あるパターンを入力したときの
ネットワークの出力は必ずしも望ましい出力とはならな
い。したがって、前述したバックプロパーゲーションア
ルゴリズムと同様に学習プロセスによって、実際の出力
値と望ましい出力値との誤差を小さくするように結合係
数を変更していく。
The learning process in the pulse density method will be described below. In a non-learned neural network, the output of the network when a certain pattern is input is not always the desired output. Therefore, the coupling coefficient is changed so as to reduce the error between the actual output value and the desired output value by the learning process similarly to the back propagation algorithm described above.

【0055】(出力層における信号誤差)最初に、出力
層における誤差信号について述べる。ここで誤差を数値
で表すと正負両方の値を取り得るが、パルス密度方式で
は、そのような表現ができないため、プラス成分を表す
信号とマイナス成分を表す信号の2つを使って、出力層
における誤差を次のように定義する。
(Signal Error in Output Layer) First, the error signal in the output layer will be described. If the error is expressed numerically, both positive and negative values can be taken. However, since such an expression cannot be made in the pulse density method, two signals, a positive component signal and a negative component signal, are used and the output layer The error in is defined as

【0056】 [0056]

【0057】 [0057]

【0058】[0058]

【数14】 [Equation 14]

【0059】[0059]

【数15】 [Equation 15]

【0060】つまり、誤差信号の+成分(δ+ )は、出
力結果が”0”で教師信号が”1”の時”1”となり、
それ以外は”0”となる。
That is, the + component (δ +) of the error signal becomes "1" when the output result is "0" and the teacher signal is "1",
Other than that, it becomes "0".

【0061】他方、誤差信号の−成分(δ- )は、出力
結果が”1”で教師信号が”0”のとき”1”となり、
それ以外は”0”となる。
On the other hand, the minus component (δ-) of the error signal becomes "1" when the output result is "1" and the teacher signal is "0".
Other than that, it becomes "0".

【0062】これらの誤差信号δ+ 、δ- は前述のバッ
クプロパーゲーションアルゴリズムでは出力層の誤差信
号を求める数式7に対応する。
These error signals δ + and δ − correspond to the equation 7 for obtaining the error signal of the output layer in the above-mentioned back propagation algorithm.

【0063】(中間層における誤差信号)パルス密度方
式による中間層における誤差信号も前述のBPアルゴリ
ズムによる数式8を参考にして求める。すなわち、出力
層における誤差信号を集めてきて、自己の誤差信号とす
る。ここで、結合を興奮性が抑制性かにより2つのグル
ープに分け、積の部分は∩(AND)、和(Σ)の部分
は∪(OR)で表現する。さらに、中間層における誤差
信号を求める場合、結合係数Tijの正負、誤差信号δの
正負の4つに場合分けする。
(Error Signal in Intermediate Layer) The error signal in the intermediate layer according to the pulse density method is also obtained by referring to the equation 8 by the above-mentioned BP algorithm. That is, the error signals in the output layer are collected and used as its own error signal. Here, the connection is divided into two groups depending on whether excitability is inhibitory, the product part is represented by ∩ (AND), and the sum (Σ) part is represented by ∪ (OR). Further, when the error signal in the intermediate layer is obtained, it is divided into four cases of positive and negative of the coupling coefficient Tij and positive and negative of the error signal δ.

【0064】まず、興奮性結合の場合、出力層の誤差信
号プラス成分δ+ とその結合係数のANDをとったもの
(δ+i∩Tij)をすべての出力層のニュートロンについ
て求め、これらのORをとる。これが中間層ニューロン
の誤差信号プラス成分δ+ となる。
First, in the case of excitatory coupling, an error signal plus component δ + of the output layer and the coupling coefficient (δ + i∩Tij) are calculated for all output layer neutrons. Take the OR. This becomes the error signal plus component δ + of the hidden layer neuron.

【0065】[0065]

【数16】δ+ =∪(δ+i∩T+ij )[Equation 16] δ + = ∪ (δ + i ∩ T + ij)

【0066】同様に、出力層の誤差マイナス成分δ- と
その結合係数のANDをとったもの(δ-i∩Tij)をす
べての出力層のニュートロンについて求め、これらのO
Rをとる。これが中間層ニューロンの誤差信号マイナス
成分δ- となる。
Similarly, an AND (δ-i∩Tij) of the error minus component δ- of the output layer and its coupling coefficient is obtained for all output layer neutrons, and these O
Take R. This becomes the error signal minus component δ − of the hidden layer neuron.

【0067】[0067]

【数17】δ- =∪(δ-i∩T+ij )[Expression 17] δ- = ∪ (δ-i ∩T + ij)

【0068】次に、抑制性結合の場合について述べる。
出力層の誤差信号マイナス成分δ-と、その結合係数と
のANDをとったもの(δ-i∩T-ij )をすべての出力
層のニューロンについて求め、これらのORをとる。こ
れが中間層ニューロンの誤差信号プラス成分となる。
Next, the case of inhibitory binding will be described.
An AND (δ-i∩T-ij) of the error signal minus component δ- of the output layer and its coupling coefficient is obtained for all neurons of the output layer, and the OR of these is taken. This becomes the error signal plus component of the hidden layer neuron.

【0069】[0069]

【数18】δ+ =∪(δ-i∩T-ij )[Equation 18] δ + = ∪ (δ-i ∩ T-ij)

【0070】同様に、出力層の誤差信号プラス成分δ+
とその結合係数のANDをとったもの(δ+i∩T-ij )
をすべての出力層のニューロンについて求め、これらの
ORをとる。これが中間層ニューロンの誤差信号マイナ
ス成分となる。
Similarly, the error signal of the output layer plus the component δ +
AND of its coupling coefficient (δ + i∩T-ij)
Is calculated for all neurons in the output layer, and these are ORed. This is the minus component of the error signal of the hidden layer neurons.

【0071】[0071]

【数19】δ- =∪(δ+i∩T-ij )[Formula 19] δ- = ∪ (δ + i∩T-ij)

【0072】ある中間層のニューロンとこれに結合され
た出力層のニューロンとの結合には、興奮性結合と抑制
性結合がある。したがって、中間層の誤差信号プラス成
分としては、数式16の興奮性結合のδ+ と数式18の
抑制性結合のδ+ との論理和をとる。同様に、中間層の
誤差信号マイナス成分としては、数式17の興奮性結合
のδ- と数式19の抑制性結合のδ- との論理和をと
る。すなわち、数式20、数式21となり、これらはB
Pアルゴリズムによる数式8に対応する。
The connection between a neuron in a middle layer and the neuron in the output layer connected to the middle layer includes an excitatory connection and an inhibitory connection. Therefore, as the error signal plus component of the intermediate layer, the logical sum of δ + of the excitatory coupling of Equation 16 and δ + of the inhibitory coupling of Equation 18 is obtained. Similarly, as the error signal minus component of the intermediate layer, the logical sum of δ- of the excitatory coupling of Equation 17 and δ- of the inhibitory coupling of Equation 19 is obtained. That is, Equation 20 and Equation 21 are obtained, and these are B
It corresponds to Formula 8 by the P algorithm.

【0073】[0073]

【数20】δ+ ={∪(δ+i∩T+ij )}∪{∪(δ-i
∩T-ij )}
[Equation 20] δ + = {∪ (δ + i∩T + ij)} ∪ {∪ (δ-i
∩ T-ij)}

【0074】[0074]

【数21】δ- ={∪(δ-i∩T+ij )}∪{∪(δ+i
∩T-ij )}
[Formula 21] δ-= {∪ (δ-i∩T + ij)} ∪ {∪ (δ + i
∩ T-ij)}

【0075】(学習定数ηによる処理)BPアルゴリズ
ムにおいて、結合係数の修正量ΔTを求める数式6にあ
る額時化を定数ηの処理について述べる。数値演算にお
いては、数式6にあるように、単純に学習定数ηを乗算
すればよいが、パルス密度方式野場合は、学習定数ηの
値に応じて、下に示すようにパルス列を間引くことで実
現する。
(Processing by Learning Constant η) In the BP algorithm, the process of the constant η is described as the averaging in the formula 6 for obtaining the correction amount ΔT of the coupling coefficient. In the numerical calculation, the learning constant η may be simply multiplied as in Expression 6, but in the case of the pulse density method, the pulse train is thinned out as shown below according to the value of the learning constant η. To be realized.

【0076】 [0076]

【0077】[0077]

【数22】 [Equation 22]

【0078】[0078]

【数23】 [Equation 23]

【0079】[0079]

【数24】 [Equation 24]

【0080】次に、学習による結合係数の修正量ΔTを
求める方法について述べる。まず、前述した出力層ある
いは中間層の誤差信号(δ+ 、δ- )に学習定数ηによ
る処理を施し、さらにニューロンへの入力信号との論理
積をとる(δ∩y)。ただし、誤差信号はδ+ とδ- と
があるので、次の数式25、数式26に示すようにそれ
ぞれ演算してT+ 、T- とする。これらは、BPアルゴ
リズムにおけるΔTを求める数式6に対応する。
Next, a method of obtaining the correction amount ΔT of the coupling coefficient by learning will be described. First, the error signal (δ +, δ−) in the output layer or the intermediate layer is processed by the learning constant η, and the logical product with the input signal to the neuron is calculated (δ∩y). However, since there are δ + and δ− in the error signal, they are calculated as T + and T−, respectively, as shown in the following equations 25 and 26. These correspond to Equation 6 for obtaining ΔT in the BP algorithm.

【0081】[0081]

【数25】ΔT+ =δ+ ∩y[Equation 25] ΔT + = δ + ∩y

【0082】[0082]

【数26】ΔT- =δ- ∩y[Expression 26] ΔT- = δ- ∩ y

【0083】これらを基にして新しい結合係数New
Tijを求めるが、結合係数Tijが興奮性か抑制性かによ
り場合分けする。
Based on these, new coupling coefficient New
Tij is obtained, and it is classified depending on whether the coupling coefficient Tij is excitatory or inhibitory.

【0084】まず、興奮性の場合には、元のT+ に対し
てΔT+ の成分を減らす。
First, in the case of excitability, the ΔT + component is reduced with respect to the original T +.

【0085】[0085]

【数27】New_Tij+ =Tij+∪ΔT+ ∩Δ*T-[Equation 27] New_Tij + = Tij + ∪ΔT + ∩Δ * T-

【0086】次に、抑制性の場合には、元のT- に対し
て、ΔT+ の成分を減らし、ΔT-の成分を増やす。
Next, in the case of the inhibitory property, the ΔT + component is decreased and the ΔT component is increased with respect to the original T .

【0087】[0087]

【数28】New_Tij- =Tij- ∪ΔT- ∩*ΔT+ [Number 28] New_Tij - = Tij - ∪ΔT - ∩ * ΔT +

【0088】以上がパルス密度方式による学習アルゴリ
ズムである。
The learning algorithm based on the pulse density method has been described above.

【0089】ここで、図2の階層型ネットワークにおい
て、パルス密度方式におけるフォワードフロセス及び学
習プロセスの処理の流れについて簡単に述べる。
Here, in the hierarchical network of FIG. 2, the processing flow of the forward process and learning process in the pulse density method will be briefly described.

【0090】まず、フォワードプロセスであるが、最初
に入力層に入力信号を与えると、この入力信号が中間層
に伝播していき、中間層の信号処理はとして前述の数式
11ないし数式13を行い、その結果を出力層に伝播さ
せる。出力層では、これらの伝播してきた信号に対し
て、同様に数式11ないし数式13の処理を実行し、こ
れらの結果として出力信号が得られ、フォワードプロセ
スを終了する。
First, in the forward process, when an input signal is first given to the input layer, this input signal propagates to the intermediate layer, and the signal processing of the intermediate layer is performed by the above equations 11 to 13. , Propagate the result to the output layer. In the output layer, these propagated signals are similarly processed by the equations (11) to (13), the output signal is obtained as a result of these, and the forward process is terminated.

【0091】学習プロセスでは、以上のフォワードプロ
セスを行った後、さらに出力層に教師信号を与える。出
力層では数式14、数式15により、出力数における誤
差信号を求め中間層に送る。同時に、この誤差信号に数
式22ないし数式24の学習定数ηによる処理を施し、
数式25、数式26により中間層からの入力信号との論
理積をとった後、数式27、数式28により出力層と中
間層との結合強度を変更する。
In the learning process, after performing the above forward process, a teacher signal is further given to the output layer. In the output layer, an error signal in the number of outputs is obtained by Expressions 14 and 15 and sent to the intermediate layer. At the same time, the error signal is processed by the learning constant η of Equations 22 to 24,
After the logical product of the input signal from the intermediate layer is obtained by the equations 25 and 26, the coupling strength between the output layer and the intermediate layer is changed by the equations 27 and 28.

【0092】次に、中間層における処理として、出力層
から送られた誤差信号をもとに、数式20、数式21に
よって中間層における誤差を求め、この誤差信号に数式
22ないし数式24の額時化を定数ηによる処理を施
し、数式25、数式26により中間層と入力層との結合
強度を変更し、学習プロセスを終了する。以降、収束す
るまで学習プロセスを繰り返す。
Next, as the processing in the intermediate layer, the error in the intermediate layer is calculated by the equations 20 and 21 based on the error signal sent from the output layer, and the error signal is calculated by the equations 22 to 24. Processing is performed by a constant η, the coupling strength between the intermediate layer and the input layer is changed by Equations 25 and 26, and the learning process ends. After that, the learning process is repeated until it converges.

【0093】次に、図14〜図16を参照して、以上の
アルゴリズムに基づく実際の回路構成を説明する。ニュ
ーラルネットワークの構成は図2と同様である。図14
は、ニューロンのシナプスに相当する部分の回路を示す
図で、図15は、ニューロンの細胞体に相当する部分の
回路を示す図である。また、図16は、出力層の出力と
教師信号から出力層における誤差信号を求める部分の回
路を示す図である。これらの3つの回路を図2のように
ネットワークにすることによって、自己学習が可能なデ
ィジタル式のニューラルネットワーク回路が実現でき
る。
Next, an actual circuit configuration based on the above algorithm will be described with reference to FIGS. The structure of the neural network is the same as in FIG. 14
FIG. 15 is a diagram showing a circuit of a portion corresponding to a synapse of a neuron, and FIG. 15 is a diagram showing a circuit of a portion corresponding to a cell body of the neuron. Further, FIG. 16 is a diagram showing a circuit of a portion for obtaining an error signal in the output layer from the output of the output layer and the teacher signal. By forming a network of these three circuits as shown in FIG. 2, a digital neural network circuit capable of self-learning can be realized.

【0094】まず、図14について説明する。20は神
経細胞ユニットへの入力信号である。シナプスの結合係
数はシフトレジスタ27に保存しておく。端子27Aが
データの取り出し口で、端子27Bがデータの入り口で
ある。これはシフトレジスタと同様の機能をもつもので
あれば、その他のもの、例えば、RAMとアドレスコン
トローラとからなるもの等を用いてもよい。
First, FIG. 14 will be described. 20 is an input signal to the nerve cell unit. The synapse coupling coefficient is stored in the shift register 27. The terminal 27A is a data outlet and the terminal 27B is a data inlet. As long as it has a function similar to that of the shift register, another one, for example, one including a RAM and an address controller may be used.

【0095】回路28は上記数式10、数式12の(y
i ∩Tij)を実行する回路で、入力信号と結合係数との
ANDをとっている。この出力は結合が興奮性か抑制性
かによってグループ分けしなければならないが、あらか
じめ各々のグループへの出力23、24を用意し、どち
らのグループに出すのかを切り換えるようにした方が汎
用性が高い。このため、結合が興奮性か抑制性かを表す
ビットをメモリ33に保存しておき、その情報を用いて
切り換えゲート回路32により信号を切り換える。
The circuit 28 uses (y in equations 10 and 12).
i ∩ Tij), which is the AND of the input signal and the coupling coefficient. This output must be grouped according to whether the coupling is excitatory or inhibitory, but it is more versatile to prepare outputs 23 and 24 for each group in advance and switch which group is output. high. Therefore, a bit indicating whether the coupling is excitatory or inhibitory is stored in the memory 33, and the signal is switched by the switching gate circuit 32 using the information.

【0096】また、図15に示すように各入力を処理す
る数式11、数式12の論理和に相当する複数のORゲ
ート構成のゲート回路34が設けられている。さらに同
図に示すように数式13で示した、興奮性グループが
「1」で、かつ、抑制性グループが「0」の時のみ出力
を出すANDゲートとインバータとによるゲート回路3
5が設けられている。
Further, as shown in FIG. 15, a gate circuit 34 having a plurality of OR gates corresponding to the logical sum of Expressions 11 and 12 for processing each input is provided. Further, as shown in the figure, a gate circuit 3 including an AND gate and an inverter that outputs only when the excitatory group is “1” and the inhibitory group is “0”, which is shown in Expression 13.
5 are provided.

【0097】次に、誤差信号について説明する。図14
は、出力層での誤差信号を生成する回路を示す図で、A
ND、インバータの組み合わせによる論理回路であり、
数式14、数式15に相当する。すなわち、出力層から
の出力38及び教師信号39より誤差信号40、41を
生成する。また、中間層における誤差信号を求める数式
16ないし数式19は、図14中に示すANDゲート構
成のゲート回路29より行われ、+、−に応じた出力2
1、22が得られる。
Next, the error signal will be described. 14
Is a diagram showing a circuit for generating an error signal in the output layer, where A
It is a logic circuit that combines ND and inverter,
This corresponds to Formula 14 and Formula 15. That is, the error signals 40 and 41 are generated from the output 38 from the output layer and the teacher signal 39. Expressions 16 to 19 for obtaining the error signal in the intermediate layer are performed by the gate circuit 29 having the AND gate configuration shown in FIG. 14, and output 2 depending on + and −.
1, 22 are obtained.

【0098】このように結合が興奮性か抑制性かで用い
る誤差信号が異なるので、その場合分けを行う必要があ
るが、この場合分けはメモリ33に記憶された興奮性か
抑制性かの情報と、誤差信号+ 、−信号25、26とに
応じて、AND、ORゲート構成のゲート回路31によ
り行われる。また、誤差信号を集める数式20、数式2
1は、図15に示すORゲート構成のゲート回路36で
行われる。また学習レートに相当する数式22ないし数
式24は、図15に示す分周回路37により行われる。
Since the error signal to be used is different depending on whether the coupling is excitatory or inhibitory, it is necessary to make a distinction in that case. In this case, information on excitatory or suppressiveness stored in the memory 33 is used. And the error signals + and −, 25 and 26 are performed by the gate circuit 31 having AND and OR gate configurations. Also, Equation 20 and Equation 2 that collect error signals
1 is performed by the gate circuit 36 having the OR gate structure shown in FIG. Expressions 22 to 24 corresponding to the learning rate are performed by the frequency dividing circuit 37 shown in FIG.

【0099】最後に、誤差信号より新たな結合係数を計
算する部分について説明する。これは数式25ないし数
式28で表され、これらの演算は図14に示すAND、
インバータ、ORゲート構成のゲート回路30により行
われる。このゲート回路30も結合の興奮性・抑制性に
よって場合分けしなければならないが、これは図14に
示すゲート回路31により行われる。
Finally, the part for calculating a new coupling coefficient from the error signal will be described. This is expressed by Equations 25 to 28, and these operations are performed by AND, shown in FIG.
This is performed by the gate circuit 30 having an inverter and OR gate configuration. This gate circuit 30 must also be classified depending on the excitability / inhibition of the coupling, which is performed by the gate circuit 31 shown in FIG.

【0100】[0100]

【発明が解決しようとする課題】前述の階層型神経回路
網は、図2に示すようなネットワークを形成する。ここ
で、図5に示すように、入力層(図5の左側の層A1)
に入力信号を与えて、出力層(図5の右側の層A3)よ
り、出力信号を得るフォワードプロセス、及び図6に示
すように、入力層に入力信号を与えた状態で、出力層に
教師信号を与え、出力層と中間層との結合係数を変更
し、さらに中間層と入力層との結合係数を変更する学習
プロセスを考える。
The hierarchical neural network described above forms a network as shown in FIG. Here, as shown in FIG. 5, the input layer (layer A1 on the left side of FIG. 5)
To the output layer (the layer A3 on the right side of FIG. 5) by applying the input signal to the input layer, and as shown in FIG. Consider a learning process in which a signal is given, the coupling coefficient between the output layer and the intermediate layer is changed, and further the coupling coefficient between the intermediate layer and the input layer is changed.

【0101】まず、フォーワードプロセスであるが、最
初に入力層に入力信号を与えると、この入力信号が中間
層に伝播していき、中間層の信号処理として、上記数式
1、数式2の演算を行い、その結果を出力層に伝播させ
る。出力層では、これらの伝播してきた信号に対して、
同様に上記数式1、数式2の演算を実行し、これらの結
果として、出力信号を得ることになる。
First, in the forward process, when an input signal is first given to the input layer, this input signal propagates to the intermediate layer, and as the signal processing of the intermediate layer, the operations of the above formulas 1 and 2 are performed. And propagate the result to the output layer. In the output layer, for these propagated signals,
Similarly, the operations of the above-mentioned formulas 1 and 2 are executed, and as a result thereof, the output signal is obtained.

【0102】学習プロセスでは、以上のフォワードプロ
セスを行った後、さらに出力層に教師信号を与える。出
力層では、上記数式5によって、出力層における誤差を
求め、この誤差を中間層に伝播させるとともに、出力層
の神経細胞ユニットと中間層の神経細胞ユニットとの間
の結線の強度、すなわち結合係数を数式9、数式10に
より変更する。
In the learning process, after performing the above forward process, a teacher signal is further given to the output layer. In the output layer, the error in the output layer is obtained by the above equation 5, the error is propagated to the intermediate layer, and the strength of the connection between the nerve cell unit of the output layer and the nerve cell unit of the middle layer, that is, the coupling coefficient. Is changed according to Equation 9 and Equation 10.

【0103】次に、中間層における処理として、数式7
によって、中間層における誤差を求め、この誤差によ
り、中間層の神経細胞ユニットと入力層の神経細胞ユニ
ットとの間の結線の強度(結合係数)を上記数式9、数
式10により変更し、学習プロセスを完了する。
Next, as processing in the intermediate layer,
The error in the intermediate layer is calculated by the following, and the strength of the connection (coupling coefficient) between the nerve cell unit of the middle layer and the nerve cell unit of the input layer is changed by the above equations 9 and 10 to obtain the learning process. To complete.

【0104】フォワードプロセス及び学習プロセスは、
以上のような複雑な処理、膨大な量の数値演算を必要と
するので、かなり時間がかかる。特に、学習プロセスで
は、フォワードプロセスに比べて処理内容も多く、また
一般に学習プロセスは一回だけでなく、数百、数千回も
の学習が必要なため、この演算時間は、膨大なもので、
高速化のため専用ハード化してもまだ不十分である。
The forward process and the learning process are
The complicated processing described above and the enormous amount of numerical operations are required, which takes a considerable amount of time. In particular, the learning process has more processing contents than the forward process, and generally, the learning process needs to be learned not only once but also hundreds or thousands of times, so this calculation time is enormous.
Even if dedicated hardware is used for speeding up, it is still insufficient.

【0105】また、階層型神経回路モデルでは、図5お
よび図6に示すような、3層構成だけでなく、図7およ
び図8に示すように、中間層の総数は、様々である。こ
のように、層数が増えると、前述したようなフォワード
プロセス、学習プロセスにかかる時間はかなり多くな
る。
Further, in the hierarchical neural circuit model, not only the three-layer structure as shown in FIGS. 5 and 6, but also the total number of intermediate layers is various as shown in FIGS. 7 and 8. As described above, as the number of layers increases, the time required for the forward process and the learning process described above considerably increases.

【0106】図37は、図2に示す3層構成のニューラ
ルネットワークにおける従来の信号の流れを示してい
る。
FIG. 37 shows the conventional signal flow in the three-layered neural network shown in FIG.

【0107】FWD回路4、5は、図2における中間層
A2と出力層A3のフォワードプロセスを実行する回路
で、図14の28、32及び図15の34、35に相当
する。学習回路LRN6、7は、図2における中間層A
2と出力層A3の学習プロセスを実行する回路で、図1
4の29、30、31及び図15の36、37に相当す
る。誤差生成回路ERR8は出力層における誤差信号を
求めるもので、図16の回路で示される。
The FWD circuits 4 and 5 are circuits for executing the forward process of the intermediate layer A2 and the output layer A3 in FIG. 2, and correspond to 28 and 32 in FIG. 14 and 34 and 35 in FIG. The learning circuits LRN6 and 7 are the intermediate layer A in FIG.
2 and a circuit that executes the learning process of the output layer A3.
4 corresponds to 29, 30, 31 and 36 and 37 in FIG. The error generation circuit ERR8 is for obtaining an error signal in the output layer and is shown by the circuit in FIG.

【0108】図37において、一回の学習プロセスの処
理過程を説明すると、まず、入力層に入力信号1を与え
ると、この信号が中間層に伝播していき、中間層のFW
D回路4によって、中間層におけるフォワードプロセス
を実行する。
Referring to FIG. 37, the processing steps of one learning process will be described. First, when the input signal 1 is given to the input layer, this signal propagates to the intermediate layer, and the FW of the intermediate layer is transmitted.
The D circuit 4 executes the forward process in the intermediate layer.

【0109】次に、この結果が出力層のFWD回路5に
伝播していき、ここで出力層のフォワードプロセスを実
行し、フォワードプロセスが完了する。学習プロセスの
場合はさらに、出力層に教師信号3を与え、誤差生成回
路8により、出力層における誤差信号を生成し、これが
出力層の学習回路LRN7に伝播していき、この出力層
の誤差信号と、FWD回路5への入力信号より、出力層
における学習プロセスを実行する。ここで生成された中
間層の誤差信号は、中間層の学習回路LRN6に伝播し
ていき、この中間層の誤差信号と、FWD回路4への入
力信号より、中間層における学習プロセスを実行し、学
習プロセスが完了することになる。
Next, this result propagates to the FWD circuit 5 of the output layer, where the forward process of the output layer is executed, and the forward process is completed. In the case of the learning process, further, the teacher signal 3 is given to the output layer, the error generating circuit 8 generates an error signal in the output layer, and this is propagated to the learning circuit LRN7 in the output layer, and the error signal in this output layer is generated. Then, the learning process in the output layer is executed from the input signal to the FWD circuit 5. The error signal of the intermediate layer generated here propagates to the learning circuit LRN6 of the intermediate layer, and the learning process in the intermediate layer is executed from the error signal of the intermediate layer and the input signal to the FWD circuit 4. The learning process will be completed.

【0110】このように、特に学習プロセスでは、処理
経路が長いため、専用の回路により高速化を図っても十
分に処理速度を高められないという問題点がある。さら
に、図7、図8に示すように中間層の層数が増えた場合
には、それに応じてますます処理時間がかかることにな
る。
As described above, particularly in the learning process, there is a problem that the processing speed cannot be sufficiently increased even if the dedicated circuit is used to increase the speed because the processing path is long. Furthermore, when the number of intermediate layers increases as shown in FIGS. 7 and 8, the processing time will increase accordingly.

【0111】この発明は、ニューラルネットワークをハ
ード化する場合に、高速処理が可能な信号処理装置を提
供することを目的とする。
It is an object of the present invention to provide a signal processing device capable of high speed processing when a neural network is hardened.

【0112】[0112]

【課題を解決するための手段】この発明による第1の信
号処理装置は、神経細胞模倣素子により構成された神経
細胞回路網による信号処理装置において、当該神経細胞
回路網を構成する各神経細胞模倣素子は、フォワードプ
ロセス時に入力される入力信号を保持する手段と、学習
プロセス時に入力される誤差信号を保持する手段を有
し、フォワードプロセスと学習プロセスを並列に行なう
ことを特徴とする。
A first signal processing device according to the present invention is a signal processing device based on a nerve cell network composed of nerve cell mimicking elements, wherein each nerve cell mimicking the nerve cell network is imitated. The element has a means for holding an input signal input during the forward process and a means for holding an error signal input during the learning process, and is characterized in that the forward process and the learning process are performed in parallel.

【0113】この発明による第2の信号処理装置は、神
経細胞模倣素子により構成された階層型神経細胞回路網
による信号処理装置において、入力層、中間層及び出力
層よりなる神経回路網のフォワードプロセスをいくつか
の処理に分割し、分割された各処理をパイプライン処理
することを特徴とする。
A second signal processing device according to the present invention is a signal processing device based on a hierarchical nerve cell network composed of nerve cell mimicking elements, wherein a forward process of a neural network consisting of an input layer, an intermediate layer and an output layer. Is divided into several processes, and each divided process is pipelined.

【0114】この発明による第3の信号処理装置は、神
経細胞模倣素子により構成された階層神経細胞回路網に
よる信号処理装置において、入力層、中間層及び出力層
よりなる神経回路網のフォワードプロセス及び学習プロ
セスをいくつかの処理に分割し、分割された各処理をパ
イプライン処理することを特徴とする。
A third signal processing device according to the present invention is a signal processing device based on a hierarchical neural cell network composed of neural cell mimicking elements, wherein the neural network forward process including an input layer, an intermediate layer and an output layer is used. The learning process is divided into several processes, and each divided process is pipelined.

【0115】この発明による第4の信号処理装置は、神
経細胞模倣素子により構成された階層神経細胞回路網に
よる信号処理装置において、入力層、中間層及び出力層
の各層ごとに設けられた初期値を設定可能なカウンタ
と、フォワードプロセス移行前に各層のカウンタに初期
値を設定し、フォワードプロセス実行時に各層のカウン
タに共通のフォワードプロセス実行信号を与える手段と
を備え、各層のカウンタはこのフォワードプロセス実行
信号をカウントして、その層のフォワードプロセスを実
行させる所定の値のフォワードプロセス実行信号を生成
するものであることを特徴とする。
A fourth signal processing device according to the present invention is a signal processing device having a hierarchical neural cell network composed of neural cell mimicking elements, wherein initial values are provided for each of the input layer, the intermediate layer and the output layer. And a means for setting an initial value to the counter of each layer before the transfer of the forward process and giving a common forward process execution signal to the counter of each layer during execution of the forward process. It is characterized in that the execution signals are counted to generate a forward process execution signal having a predetermined value for executing the forward process of the layer.

【0116】この発明による第5の信号処理装置は、神
経細胞模倣素子により構成された階層神経細胞回路網に
よる信号処理装置において、入力層、中間層及び出力層
の各層ごとに設けられたカウンタ、フォワードプロセス
開始ステートを記憶するレジスタ及び上記カウンタの値
と上記レジスタの値を比較する比較器と、フォワードプ
ロセス移行前に各層の上記レジスタにその層のフォワー
ドプロセスを開始するステートを記憶させ、フォワード
プロセス実行時に各層に共通のフォワードプロセス実行
信号を与える手段とを有するフォワードプロセス実行手
段を備え、各層のカウンタはこのフォワードプロセス実
行信号によりカウント動作するものであり、各層の比較
器はその層のカウンタの値がレジスタの値以上である時
に各層にフォワードプロセスを実行させるフォワードプ
ロセス実行信号を生成するものであることを特徴とす
る。
A fifth signal processing device according to the present invention is a signal processing device based on a hierarchical neural cell network composed of neural cell mimicking elements, wherein counters are provided for each of the input layer, the intermediate layer and the output layer, A register for storing the forward process start state, a comparator for comparing the value of the counter with the value of the register, and a state for starting the forward process of the layer in the register of each layer before the transfer of the forward process, A forward process executing means having a means for giving a common forward process executing signal to each layer at the time of execution, and the counter of each layer operates by the forward process executing signal, and the comparator of each layer is the counter of the layer. Forward to each layer when the value is greater than or equal to the register value Characterized in that it is intended to generate a forward process execution signal for executing the process.

【0117】この発明による第6の信号処理装置は、神
経細胞模倣素子により構成された階層神経細胞回路網に
よる信号処理装置において、入力層、中間層及び出力層
の各層ごとに設けられた初期値を設定可能なカウンタ
と、学習プロセス移行前に各層のカウンタに初期値を設
定し、学習プロセス実行時に各層のカウンタに共通の学
習プロセス実行信号を与える手段とを備え、各層のカウ
ンタはこの学習プロセス実行信号をカウントして、その
層の学習プロセスを実行させる所定の値の学習プロセス
実行信号を生成するものであることを特徴とする。
A sixth signal processing apparatus according to the present invention is a signal processing apparatus based on a hierarchical neural cell network composed of neural cell mimicking elements, and an initial value provided for each layer of an input layer, an intermediate layer and an output layer. And a means for setting an initial value to the counter of each layer before shifting to the learning process and giving a common learning process execution signal to the counter of each layer when the learning process is executed. It is characterized in that the execution signal is counted and a learning process execution signal of a predetermined value for executing the learning process of the layer is generated.

【0118】この発明による第7の信号処理装置は、神
経細胞模倣素子により構成された階層神経細胞回路網に
よる信号処理装置において、入力層、中間層及び出力層
の各層ごとに設けられたカウンタ、学習プロセス開始ス
テートを記憶するレジスタ及び上記カウンタの値と上記
レジスタの値を比較する比較器と、学習プロセス移行前
に各層の上記レジスタにその層の学習プロセスを開始す
るステートを記憶させ、学習プロセス実行時に各層に共
通の学習プロセス実行信号を与える手段とを有する学習
プロセス実行手段を備え、各層のカウンタはこの学習プ
ロセス実行信号によりカウント動作するものであり、各
層の比較器はその層のカウンタの値がレジスタの値以上
の時に各層に学習プロセスを実行させる学習プロセス実
行信号を生成するものであることを特徴とする。
A seventh signal processing apparatus according to the present invention is a signal processing apparatus based on a hierarchical neural cell network composed of neural cell mimicking elements, wherein counters are provided for each of the input layer, the intermediate layer and the output layer, A register for storing a learning process start state, a comparator for comparing the value of the counter with the value of the register, and a state for starting the learning process of the layer in the register of each layer before the learning process is transferred to the learning process. A learning process execution means having a means for giving a common learning process execution signal to each layer at the time of execution is provided, and the counter of each layer operates by the learning process execution signal, and the comparator of each layer has a comparator of the layer. Generate a learning process execution signal that causes each layer to execute the learning process when the value is greater than or equal to the value in the register Characterized in that the at it.

【0119】この発明による第8の信号処理装置は、神
経細胞模倣素子により構成された階層神経細胞回路網に
よる信号処理装置において、この発明による第4または
第5の信号処理装置のフォワードプロセス実行手段と、
これのフォワードプロセスから独立して学習プロセスを
実行できるこの発明による第6または第7の信号処理装
置の学習プロセス実行手段とを備えることを特徴とす
る。
An eighth signal processing device according to the present invention is a signal processing device according to a hierarchical nerve cell network composed of nerve cell mimicking elements, wherein the forward process executing means of the fourth or fifth signal processing device according to the present invention is used. When,
The learning process execution means of the sixth or seventh signal processing device according to the present invention, which can execute the learning process independently of the forward process.

【0120】この発明による第9の信号処理装置は、神
経細胞模倣素子により構成された階層神経細胞回路網に
よる信号処理装置において、入力層、中間層及び出力層
の各層ごとに、フォワードプロセス及び学習プロセスを
制御するために設けられたプロセスカウンタと、フォワ
ードプロセス開始ステートを記憶するレジスタと、該レ
ジスタの値とプロセスカウンタの値とを比較するフォワ
ードプロセス用比較器と、学習プロセス開始ステートを
記憶するレジスタと、このレジスタの値と上記プロセス
カウンタの値とを比較する学習プロセス用比較器とを備
えるとともに、プロセス移行前に、各層のフォワードプ
ロセス開始ステートを記憶するレジスタにその層のフォ
ワードプロセスを開始するステートを記憶させ、また、
各層の学習プロセス開始ステートを記憶するレジスタに
その層の学習プロセスを開始するステートを記憶させ、
プロセス実行時に各層に共通のプロセス実行信号を与え
る手段とを備え、上記各層のプロセスカウンタはこのプ
ロセス信号をカウントするものであり、上記フォワード
プロセス用比較器はプロセスカウンタの値がその層のフ
ォワードプロセス開始ステートを記憶するレジスタ値以
上の時にフォワードプロセスを開始するフォワードプロ
セス実行信号を生成するものであり、上記学習プロセス
用比較器はプロセスカウンタの値がその層の学習プロセ
ス開始ステートを記憶するレジスタ値以上の時に学習プ
ロセスを開始する学習プロセス実行信号を生成するもの
であることを特徴とする。
A ninth signal processing device according to the present invention is a signal processing device having a hierarchical neural cell network composed of neural cell mimicking elements, wherein a forward process and a learning process are performed for each of the input layer, the intermediate layer and the output layer. A process counter provided for controlling the process, a register for storing the forward process start state, a comparator for the forward process for comparing the value of the register with the value of the process counter, and a learning process start state A register and a learning process comparator that compares the value of this register with the value of the above process counter are provided, and the forward process of the layer is started in the register that stores the forward process start state of each layer before the process transition. Memorize the state to
The state that starts the learning process of the layer is stored in the register that stores the learning process start state of each layer,
Means for giving a common process execution signal to each layer during process execution, the process counter of each layer counts this process signal, and the comparator for the forward process has a value of the process counter of the forward process of the layer. A forward process execution signal for starting the forward process when the register value for storing the start state is equal to or more than the register value for storing the start state. The learning process comparator is a register value for storing the learning process start state of the layer in the value of the process counter. It is characterized in that a learning process execution signal for starting the learning process is generated at the above time.

【0121】[0121]

【作用】この発明による第1の信号処理装置では、フォ
ワードプロセス時に入力される入力信号と学習プロセス
時に入力される誤差信号を保持する手段を持つことによ
り、フォワードプロセスと学習プロセスをパラレルに実
行できるため、フォワードプロセスと学習プロセスをシ
リアルに実行するのに比べ、処理速度を高めることがで
きる。
In the first signal processing device according to the present invention, the forward process and the learning process can be executed in parallel by having the means for holding the input signal input during the forward process and the error signal input during the learning process. Therefore, the processing speed can be increased as compared with the case where the forward process and the learning process are serially executed.

【0122】この発明による第2の信号処理装置では、
入力層、中間層及び出力層よりなる神経回路網のフォワ
ードプロセスを細分化し、各処理をパイプライン処理さ
せるため、フォワードプロセスを一連の処理で行う場合
より、高速に処理することができる。また、中間層を1
層でなく、多層にした場合において、各処理をパイプラ
イン化しない場合には、それだけフォワードプロセスの
処理時間は増えることになるが、この発明によれば、処
理速度は中間層1層の場合と同じになり、高速処理が可
能となる。
In the second signal processing device according to the present invention,
Since the forward process of the neural network including the input layer, the intermediate layer, and the output layer is subdivided and each process is pipelined, the forward process can be processed at a higher speed than in the case of performing a series of processes. Also, the intermediate layer is 1
In the case of using multiple layers instead of layers, if each process is not pipelined, the processing time of the forward process will increase accordingly. However, according to the present invention, the processing speed is the same as in the case of one intermediate layer. It becomes the same, and high-speed processing becomes possible.

【0123】この発明による第3の信号処理装置では、
入力層、中間層及び出力層よりなる神経回路網のフォワ
ードプロセス及び学習プロセスを細分化し、各処理をパ
イプライン処理させるため、フォワードプロセス及び学
習プロセスを一連の処理で行う場合より、高速に処理す
ることができる。また、中間層を1層でなく、多層にし
た場合において、各処理をパイプライン化しない場合に
は、それだけフォワードプロセス及び学習プロセスの処
理時間は増えることになるが、この発明によれば、処理
速度は中間層1層の場合と同じになり、高速処理が可能
となる。
In the third signal processing apparatus according to the present invention,
The forward process and the learning process of the neural network consisting of the input layer, the intermediate layer, and the output layer are subdivided, and each process is pipelined. Therefore, the forward process and the learning process are processed faster than a series of processes. be able to. Further, in the case where the intermediate layer is not a single layer but a multi-layered one, if each process is not pipelined, the processing time of the forward process and the learning process will be increased by that much. The speed is the same as in the case of one intermediate layer, and high speed processing is possible.

【0124】この発明による第4の信号処理装置および
第5の信号処理装置では、ニューラルネットワークの層
数にかかわらず、フォワードプロセス移行前に各層のカ
ウンタに初期値を設定し、1本の制御信号、すなわち、
共通のフォワードプロセス実行信号を与えることによっ
て、異なるタイミングで各層のフォワードプロセス実行
信号を生成するので、各層のフォワード処理を異なるタ
イミングで開始できるようになる。
In the fourth signal processing device and the fifth signal processing device according to the present invention, regardless of the number of layers of the neural network, an initial value is set in the counter of each layer before the transfer of the forward process, and one control signal is generated. , That is,
By providing the common forward process execution signal, the forward process execution signals of the respective layers are generated at different timings, so that the forward processing of each layer can be started at different timings.

【0125】この発明による第6の信号処理装置および
第7の信号処理装置では、ニューラルネットワークの層
数にかかわらず、学習プロセス移行前に各層のカウンタ
に初期値を設定し、1本の制御信号、すなわち、共通の
学習プロセス実行信号を与えることによって、異なるタ
イミングで各層の学習プロセス実行信号を生成するの
で、各層の学習処理を異なるタイミングで開始できるよ
うになる。
In the sixth signal processing apparatus and the seventh signal processing apparatus according to the present invention, regardless of the number of layers of the neural network, the counter of each layer is set to an initial value before the learning process is started, and one control signal is generated. That is, by giving a common learning process execution signal, the learning process execution signal of each layer is generated at different timings, so that the learning process of each layer can be started at different timings.

【0126】この発明による第8の信号処理装置では、
ニューラルネットワークの層数にかかわらず、フォワー
ドプロセス移行前に各層のカウンタに初期値を設定し、
1本の制御信号、すなわち、共通のフォワードプロセス
実行信号を与えることによって、異なるタイミングで各
層のフォワードプロセス実行信号を生成するので、各層
のフォワード処理を異なるタイミングで開始できるよう
になるとともに、学習プロセス移行前に各層のカウンタ
に初期値を設定し、1本の制御信号、すなわち、共通の
学習プロセス実行信号を与えることによって、異なるタ
イミングで各層の学習プロセス実行信号を生成するの
で、各層の学習処理を異なるタイミングで開始できるよ
うになる。
In the eighth signal processing device according to the present invention,
Regardless of the number of layers in the neural network, set the initial value to the counter of each layer before moving to the forward process,
By giving one control signal, that is, the common forward process execution signal, the forward process execution signals of the respective layers are generated at different timings, so that the forward processing of each layer can be started at different timings and the learning process can be started. Prior to the transition, the counter of each layer is set to an initial value, and one control signal, that is, a common learning process execution signal is given to generate the learning process execution signal of each layer at different timings. Will be able to start at different times.

【0127】この発明による第9の信号処理装置では、
ニューラルネットワークの層数にかかわらず、プロセス
移行前に各層のプロセスカウンタ、フォワードプロセス
用レジスタ及び学習プロセス用レジスタにそれぞれ初期
値を設定し、1本の制御信号、すなわち、共通のプロセ
ス実行信号を与えることにより、異なるタイミングで各
層のフォワード処理を開始できるとともに、異なるタイ
ミングで各層の学習処理を開始できるようになる。
In the ninth signal processing device according to the present invention,
Regardless of the number of layers in the neural network, initial values are set in the process counter, the forward process register, and the learning process register of each layer before the process transition, and one control signal, that is, a common process execution signal is given. As a result, the forward processing of each layer can be started at different timings, and the learning processing of each layer can be started at different timings.

【0128】[0128]

【実施例】以下、前述のディジタル回路でニューラルネ
ットワークを実現したものに対して、この発明を適用し
た実施例について述べる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment in which the present invention is applied to a neural network realized by the above digital circuit will be described below.

【0129】前述したように、図2に示すような神経回
路網において、フォワードプロセス及び学習プロセスを
実行させる場合、専用ハード化しても処理速度の点では
不十分である。
As described above, in the case of executing the forward process and the learning process in the neural network as shown in FIG. 2, even if dedicated hardware is used, the processing speed is insufficient.

【0130】そこで、図2に示す神経回路網モデルにお
ける信号処理を高速化する方法として考えられるのが並
列処理すなわちパイプライン処理である。これを図2に
示す3層構成のネットワークにおける学習プロセスの場
合で説明すると、 1.中間層におけるフォワードプロセス 2.出力層におけるフォワードプロセス 3.出力層における学習プロセス 4.中間層における学習プロセス の4つの処理プロセスを並列に行うものである。
Therefore, parallel processing, that is, pipeline processing is conceivable as a method for speeding up signal processing in the neural network model shown in FIG. This will be explained in the case of the learning process in the three-layered network shown in FIG. Forward process in the middle layer 2. Forward process in output layer 3. Learning process in output layer 4. The four processing processes of the learning process in the middle layer are performed in parallel.

【0131】しかしながら、 3、 4の学習プロセスにお
いては、 1、 2のフォワードプロセスにおける入力信号
が必要となるため、フォワードプロセスにおける入力信
号を保持しておき、学習プロセス実行時に保持していた
入力信号を使用するという工夫が必要である。
However, in the learning processes 3 and 4, since the input signals in the forward process 1 and 2 are required, the input signal in the forward process is held and the input signal held in the learning process is held. It is necessary to devise to use.

【0132】図17は、以上の点を考慮し、上記 1〜 4
の処理を完全にパラレルに実行できるようにした信号処
理回路を示している。図17において、図37と異なる
点は、プロセス中間データを保持するためのレジスタ1
2、17〜19、及びフォワードプロセスの入力信号を
特定期間保持できるようにしたレジスタ42〜44を付
加した点である。入力信号10は入力信号201に、出
力14は出力202に、LRN回路46はLRN回路2
06に、LRN回路47はLRN回路207に、ERR
回路48はERR回路208に、FWD回路11はFW
D回路204に、FWD回路13はFWD回路205に
それぞれ対応する。
Considering the above points, FIG.
2 shows a signal processing circuit capable of executing the processing of (1) completely in parallel. 17 is different from FIG. 37 in that a register 1 for holding process intermediate data is used.
2, 17 to 19 and registers 42 to 44 capable of holding the input signal of the forward process for a specific period. The input signal 10 is the input signal 201, the output 14 is the output 202, and the LRN circuit 46 is the LRN circuit 2
06, the LRN circuit 47 to the LRN circuit 207,
The circuit 48 is the ERR circuit 208, and the FWD circuit 11 is the FW.
The D circuit 204 and the FWD circuit 13 correspond to the FWD circuit 205, respectively.

【0133】以下、パラレルに実行される各処理につい
て説明する。
Each processing executed in parallel will be described below.

【0134】(1)入力信号1を与えてFWD回路11
により、中間層におけるフォワードプロセスを実行し、
この結果をレジスタ12に取り込む。また、入力信号1
0をレジスタ42に取り込む。
(1) Input the input signal 1 to the FWD circuit 11
To perform the forward process in the middle tier,
The result is taken into the register 12. Also, input signal 1
0 is taken into the register 42.

【0135】(2)中間層におけるフォワードプロセス
の結果をレジスタ12より読み出し、FWD回路13に
より、出力層におけるフォワードプロセスを実行する。
この結果とレジスタ17より読み出された教師信号より
出力層における誤差信号を誤差生成回路48で求め、レ
ジスタ18に格納する。また、出力層のフォワードプロ
セス回路13への入力信号をレジスタ45に格納する。
また、このとき中間層への入力信号は、レジスタ42か
らレジスタ43に転送される。
(2) The result of the forward process in the intermediate layer is read from the register 12, and the FWD circuit 13 executes the forward process in the output layer.
From this result and the teacher signal read from the register 17, an error signal in the output layer is obtained by the error generation circuit 48 and stored in the register 18. Further, the input signal to the forward process circuit 13 of the output layer is stored in the register 45.
At this time, the input signal to the intermediate layer is transferred from the register 42 to the register 43.

【0136】(3)出力層における誤差信号をレジスタ
18より、また出力層への入力信号をレジスタ45より
読み出し、LRN回路47により出力層における学習プ
ロセスを実行する。このとき生成される中間層における
誤差信号をレジスタ19に格納する。またこのとき、中
間層への入力信号は、レジスタ43からレジスタ44に
転送される。
(3) The error signal in the output layer is read from the register 18, the input signal to the output layer is read from the register 45, and the LRN circuit 47 executes the learning process in the output layer. The error signal in the intermediate layer generated at this time is stored in the register 19. At this time, the input signal to the intermediate layer is transferred from the register 43 to the register 44.

【0137】(4)中間層における誤差信号をレジスタ
19より読み出し、また中間層への入力信号をレジスタ
44より読み出し、LRN回路46により中間層におけ
る学習プロセスを実行する。
(4) The error signal in the intermediate layer is read from the register 19, the input signal to the intermediate layer is read from the register 44, and the learning process in the intermediate layer is executed by the LRN circuit 46.

【0138】以上のように、中間層及び出力層における
入力信号、各中間データを格納するレジスタを付加し、
必要なデータを必要なときに読み出せるようにしたこと
で、上記(1)〜(4)の4つのプロセスを並列に実行
することが可能となる。このときのタイミングチャート
を図18に示す。この例からもわかるように、3層構成
の場合、一連の処理を4つに分割し、各処理をパイプラ
イン化することで実行速度を従来の4倍に上げることが
できる。
As described above, a register for storing the input signal and each intermediate data in the intermediate layer and the output layer is added,
Since the necessary data can be read out when needed, the four processes (1) to (4) can be executed in parallel. The timing chart at this time is shown in FIG. As can be seen from this example, in the case of the three-layer structure, the execution speed can be increased to four times that of the conventional method by dividing the series of processes into four and pipelining each process.

【0139】また、図7、図8に示すように、ニューラ
ルネットワークの層数が増えた場合でも同様に、フォワ
ードプロセスと学習プロセスを並列に処理させること
で、パイプライン処理が可能となる。並列処理を行わな
い場合は、層数が増えると、フォワードプロセス及び学
習プロセスに要する時間は長くなるが、前述したような
パラレル処理を行うと、3層構成のときと処理速度は同
じになり、すなわち、処理速度は層数には関係なくな
り、速度処理が可能となる。なお、層数が増えた場合の
レジスタ42〜45の段数は、パイプライン処理の段数
より調整すればよい。
Further, as shown in FIGS. 7 and 8, even when the number of layers of the neural network is increased, similarly, the forward process and the learning process are processed in parallel to enable the pipeline processing. When parallel processing is not performed, the time required for the forward process and the learning process increases as the number of layers increases, but when parallel processing as described above is performed, the processing speed becomes the same as in the three-layer configuration, That is, the processing speed does not depend on the number of layers, and speed processing is possible. The number of stages of the registers 42 to 45 when the number of layers is increased may be adjusted according to the number of stages of pipeline processing.

【0140】図19に示す信号処理装置もまた、前述の
処理を完全にパラレルに実行できるようにしたものであ
り、FWD回路51、53は図2における中間層A2と
出力層A3のフォワードプロセスを実行する回路で、パ
ルス密度方式にといては図14の28、32及び図15
の34、35にあたる。LRN回路60、58は図2に
おける中間層A2と出力層A3の学習プロセスを実行す
る回路で図14の29、30、31及び図15の36、
37にあたる。ERR回路56は、出力層における誤差
信号を求めるもので、図16の回路で示される。以下、
図19、図20において、パラレルに実行される学習プ
ロセスの処理過程を説明する。
The signal processing apparatus shown in FIG. 19 is also one in which the above-described processing can be executed in parallel completely, and the FWD circuits 51 and 53 perform the forward process of the intermediate layer A2 and the output layer A3 in FIG. In the circuit to be executed, in the pulse density method, 28, 32 and FIG.
34 and 35. The LRN circuits 60 and 58 are circuits for executing the learning process of the intermediate layer A2 and the output layer A3 in FIG. 2, and are 29, 30, 31 in FIG. 14 and 36 in FIG.
It corresponds to 37. The ERR circuit 56 obtains an error signal in the output layer and is shown by the circuit in FIG. Less than,
The processing steps of the learning process executed in parallel will be described with reference to FIGS.

【0141】(1)入力層に入力信号50を与えると同
時に図20に示すようにステートS1でコントロール回
路62の中間層用フォワード処理開始信号FWDS1を
アクティブにする。これにより、中間層のFED回路5
1によって、中間層におけるフォワードプロセスを実行
し、この結果をレジスタ52に格納する。なお、このス
テートS1で入力信号50はレジスタ61に格納され
る。
(1) At the same time as applying the input signal 50 to the input layer, the intermediate layer forward processing start signal FWDS1 of the control circuit 62 is activated in the state S1 as shown in FIG. Thereby, the FED circuit 5 of the intermediate layer
1 performs the forward process in the middle tier and stores the result in register 52. The input signal 50 is stored in the register 61 in this state S1.

【0142】(2)ステートS2でコントロール回路6
2の出力層用フォワード処理開始信号FWDS2をアク
ティブにすると、レジスタ52に格納された中間層のフ
ォワード処理結果が出力層のFWD回路53に伝播して
いき、ここで出力層のフォワードプロセスを実行し、出
力54を得てフォワードプロセスが完了する。学習プロ
セスの場合は、さらに出力層に教師信号55を与え、こ
の教師信号55により、出力層における誤差信号を生成
し、これがレジスタ57に格納される。
(2) Control circuit 6 in state S2
When the output layer forward processing start signal FWDS2 of No. 2 is activated, the intermediate layer forward processing result stored in the register 52 is propagated to the output layer FWD circuit 53, where the output layer forward process is executed. , Output 54 completes the forward process. In the case of the learning process, the teacher signal 55 is further applied to the output layer, and the teacher signal 55 generates an error signal in the output layer, which is stored in the register 57.

【0143】(3)ステートS3でコントロール回路6
2の出力層用学習プロセス開始信号LRNS2をアクテ
ィブにし、レジスタ57に格納された出力層における誤
差信号とレジスタ52に格納された中間層のフォワード
プロセスの実行結果とにより、出力層における学習プロ
セスをLRN58で実行する。そして、ここで生成され
た中間層の誤差信号がレジスタ59に格納される。
(3) Control circuit 6 in state S3
No. 2 output layer learning process start signal LRNS2 is activated, and the learning process in the output layer is performed in the LRN 58 according to the error signal in the output layer stored in the register 57 and the execution result of the forward process in the intermediate layer stored in the register 52. Run with. Then, the error signal of the intermediate layer generated here is stored in the register 59.

【0144】(4)ステートS4でコントロール回路6
2の中間層の学習プロセス開始信号LRNS1をアクテ
ィブにし、レジスタ59に格納された中間層における誤
差信号が中間層の学習回路LRN60に伝播していき、
中間層における学習プロセスを実行し、学習プロセスが
完了することになる。
(4) Control circuit 6 in state S4
2 activates the learning process start signal LRNS1 of the intermediate layer, and the error signal of the intermediate layer stored in the register 59 propagates to the learning circuit LRN60 of the intermediate layer,
The learning process in the middle layer is executed, and the learning process is completed.

【0145】以上が3層階層型ネットワークの処理過程
であるが、図7、図8に示すように、ニューラルネット
ワークの総数が増えた場合でも同様に、フォワードプロ
セスと学習プロセスとを並列に処理することで、パイプ
ライン処理が可能となる。なお、この多層ニューラルネ
ットワークの処理速度は、パイプライン処理を行うた
め、3層構成の時と同じになり、高速処理が可能であ
る。
The processing steps of the three-layer hierarchical network have been described above, but as shown in FIGS. 7 and 8, the forward process and the learning process are processed in parallel even when the total number of neural networks is increased. This allows pipeline processing. The processing speed of this multilayer neural network is the same as that of the three-layer structure because pipeline processing is performed, and high-speed processing is possible.

【0146】本発明の又他の実施例は、中間層あるいは
出力層のフォワード処理の開始タイミングを自由に設定
できるようにしたものであり、中間層及び出力層に、図
21のブロック図に示すように、フォワードプロセスカ
ウンタ(FWD CNT)70と、フォワード処理を実
行する回路(FWD)71とを有するフォワード処理回
路76を備える。
In another embodiment of the present invention, the forward processing start timing of the intermediate layer or the output layer can be freely set, and the intermediate layer and the output layer are shown in the block diagram of FIG. Thus, the forward process circuit 76 including the forward process counter (FWD CNT) 70 and the circuit (FWD) 71 that executes the forward process is provided.

【0147】FWD CNT70は、フォワード処理の
開始信号FWDSを発生し、FWD71に出力する。具
体的には、フォワード処理移行前に、FWD CNT7
0にカウンタ初期値をロードしておく。そして、フォワ
ード処理開始時にカウンタへのフォワード処理開始信号
FWDSTをアクティブにすると、カウンタが動作し始
め、例えばカウンタの値が”0”になったとき、その層
のFWD71へフォワード処理開始信号FWDSを出力
する。以上のフォワード処理回路76により3層階層型
ネットワークを構成したときの回路図を図23に示す。
The FWD CNT 70 generates a forward processing start signal FWDS and outputs it to the FWD 71. Specifically, before the transfer to the forward process, FWD CNT7
The counter initial value is loaded into 0. Then, when the forward process start signal FWDST to the counter is activated at the start of the forward process, the counter starts to operate, and when the value of the counter becomes “0”, the forward process start signal FWDS is output to the FWD 71 of the layer. To do. FIG. 23 shows a circuit diagram when a three-layer hierarchical network is constructed by the above forward processing circuit 76.

【0148】この3層階層型ネットワークのフォワード
処理は、図22のタイミングチャートに示すように、ま
ず、フォワード処理移行前のステートS0、ステートS
1に中間層のFWD CNT70に初期値として、例え
ば8ビットバイナリ表示でFFh(10進数で−1)、
出力層のFWD CNT70に初期値として、同様にF
Eh(10進数で−2)を格納しておく。この状態か
ら、ニューラルネットワークのコントロール回路77の
フォワードプロセス開始信号FWDSTをアクティブに
すると中間層及び出力層のFWD CNT70が動作し
始め、フォワードプロセスが開始される。
In the forward processing of this three-layer hierarchical network, as shown in the timing chart of FIG. 22, first, the states S0 and S before the transition to the forward processing are performed.
1 to the FWD CNT70 of the intermediate layer as an initial value, for example, FFh (-1 in decimal) in 8-bit binary display,
Similarly, FWD CNT70 of the output layer is set to F as the initial value.
Eh (-2 in decimal) is stored. From this state, when the forward process start signal FWDST of the control circuit 77 of the neural network is activated, the FWD CNTs 70 in the intermediate layer and the output layer start operating and the forward process is started.

【0149】この後、ステートS2で中間層のFWD
CNT70の値が00hとなり、中間層のフォワードプ
ロセス開始信号FWDSがアクティブになり、中間層の
フォワードプロセスが開始される。さらに、ステートS
3で出力層FWD CNT70の値が00hとなり、出
力層のフォワードプロセス開始信号FWDSがアクティ
ブになり、出力層のフォワードプロセスが開始される。
After that, in the state S2, the FWD of the intermediate layer
The value of CNT 70 becomes 00h, the forward process start signal FWDS of the intermediate layer becomes active, and the forward process of the intermediate layer is started. Furthermore, state S
At 3, the value of the output layer FWD CNT70 becomes 00h, the output layer forward process start signal FWDS becomes active, and the output layer forward process is started.

【0150】以上のように、この3層階層型ネットワー
クでは、図23のように、中間層と出力層のフォワード
プロセス開始信号を1本で共有することができ、図9に
示す従来例に比べて制御しやすくなる。また、中間層を
複数持つような多層ネットワーク(図7参照)において
も同様に、従来例の図11に比べて図24のように制御
線を共有でき、制御性がよくなる。
As described above, in this three-layer hierarchical network, the forward process start signal of the intermediate layer and the output layer can be shared by one line as shown in FIG. 23, and compared with the conventional example shown in FIG. Control becomes easier. Similarly, in a multi-layer network having a plurality of intermediate layers (see FIG. 7), control lines can be shared as shown in FIG. 24 and controllability is improved as compared with FIG. 11 of the conventional example.

【0151】本発明の更に他の実施例は、図21に示す
前例と同様に、中間層あるいは出力層のフォワード処理
のタイミングを自由に設定できるようにしてあり、中間
層及び出力層に、図25のブロック図に示すように、プ
ロセスカウンタ(PRO CNT)72、フォワードプ
ロセス開始ステートセットレジスタ(FREG)73、
コンパレータ(CMP)74及びフォワード処理を実行
する回路(FWD)75とからなるフォワード処理回路
76を備える。
In a further embodiment of the present invention, the forward processing timing of the intermediate layer or the output layer can be set freely as in the previous example shown in FIG. 25, a process counter (PRO CNT) 72, a forward process start state set register (FREG) 73,
A forward processing circuit 76 including a comparator (CMP) 74 and a circuit (FWD) 75 that executes forward processing is provided.

【0152】FREG73はフォワード処理移行前にフ
ォワードプロセス開始ステートがロードされる。PRO
CNT72はフォワード処理移行前にリセットされ、
フォワードプロセス開始信号FWDSTをアクティブに
すると動作し始めるようにしている。CMP74は、F
REG73の値とPRO CNT72の値とを入力し、
これらが等しくなったときにFWD75にフォワード処
理開始信号FWDSを出力するように構成している。
The FREG 73 is loaded with the forward process start state before shifting to the forward process. PRO
CNT72 is reset before the forward processing transition,
The operation is started when the forward process start signal FWDST is activated. CMP74 is F
Enter the value of REG73 and the value of PRO CNT72,
When they are equal to each other, the forward processing start signal FWDS is output to the FWD 75.

【0153】図25のフォワード処理回路76により構
成された3層階層型ネットワークは図23に示す通りで
あり、図26のタイミングチャートに示すように、ま
ず、フォワード処理移行前のステートS0、ステートS
1に、例えば中間層のFREG73に8ビットバイナリ
表示で01hを格納する。また、出力層のFREG73
には、同様に02hを格納する。そして、フォワード処
理移行時に、PRO CNT72をリセットし、フォワ
ード処理開始信号FWDSTをアクティブにすることに
より、PRO CNT72が動作し始め、フォワードプ
ロセスが開始される。
The three-layer hierarchical network constructed by the forward processing circuit 76 of FIG. 25 is as shown in FIG. 23. As shown in the timing chart of FIG. 26, first, the states S0 and S before the transfer to the forward processing are performed.
For example, 01h is stored in FREG73 of the intermediate layer in 8-bit binary representation. In addition, the output layer FREG73
In the same way, 02h is stored. Then, when the forward process is started, the PRO CNT 72 is reset and the forward process start signal FWDST is activated, so that the PRO CNT 72 starts operating and the forward process is started.

【0154】中間層では、PRO CNT72の値が0
1hになったとき、すなわち、ステートS2でフォワー
ドプロセス開始信号FWDSがアクティブになり、フォ
ワード処理が始まる。また、出力層では、PRO CN
T72の値が02hになったとき、すなわち、ステート
S3でフォワードプロセス開始信号FWDSがアクティ
ブになり、フォワード処理が始まる。
In the intermediate layer, the value of PRO CNT72 is 0.
When it reaches 1h, that is, in the state S2, the forward process start signal FWDS becomes active, and the forward process starts. In the output layer, PRO CN
When the value of T72 becomes 02h, that is, in the state S3, the forward process start signal FWDS becomes active and the forward process starts.

【0155】以上のようにして、3階層型ネットワーク
によるパイプライン処理でフォワード処理が実行される
ことになる。
As described above, the forward process is executed by the pipeline process by the three-layer network.

【0156】この3層階層型ネットワークは、図23に
示すように、中間層と出力層のフォワードプロセス開始
信号を1本で共有することができ、図9に示す従来例に
比べて制御し易くなる。また、中間層を複数持つような
多層ネットワーク(図7参照)においても同様に、図1
1に示す従来例に比べて、図26に示すように制御線を
共有でき、制御性がよくなる。
As shown in FIG. 23, this three-layer hierarchical network can share the forward process start signal of the intermediate layer and the output layer by one line, and is easier to control than the conventional example shown in FIG. Become. Similarly, in a multi-layer network having a plurality of intermediate layers (see FIG. 7), as shown in FIG.
As compared with the conventional example shown in FIG. 1, the control line can be shared as shown in FIG. 26, and the controllability is improved.

【0157】本発明の又さらに他の実施例は、中間層あ
るいは出力層のフォワードプロセス及び学習プロセスの
開始タイミングを自由に設定できるようにしたものであ
り、考え方としては、図21のフォワードプロセスの開
始方法をフォワード処理だけでなく、学習プロセスにも
適用したものである。
In yet another embodiment of the present invention, the start timings of the forward process and learning process of the intermediate layer or the output layer can be set freely, and the idea is to use the forward process of FIG. The starting method is applied not only to the forward process but also to the learning process.

【0158】この実施例の中間層及び出力層には図27
のブロック図に示すように、フォワード処理回路76と
学習処理回路80とが設けられ、フォワード処理回路7
6は図21に示すフォワード処理回路76と同じように
構成されるので、その説明は重複を避けるために省略す
る。
FIG. 27 shows the middle layer and the output layer of this embodiment.
2, a forward processing circuit 76 and a learning processing circuit 80 are provided, and the forward processing circuit 7 and the learning processing circuit 80 are provided.
6 has the same configuration as the forward processing circuit 76 shown in FIG. 21, the description thereof will be omitted to avoid duplication.

【0159】学習処理回路80は、ラーンカウンタ(L
RN CNT)78と学習プロセスを実行する回路(L
RN)79とを備え、LRN CNT78は、プロセス
移行前に学習プロセス開始ステートがロードされ、コン
トロール回路81から与えられる学習プロセス開始信号
LRNSTがアクティブになると学習プロセス開始信号
LRNSをLRN79に出力するように構成される。
The learning processing circuit 80 uses the learn counter (L
RN CNT) 78 and a circuit (L
RN) 79, the LRN CNT 78 outputs the learning process start signal LRNS to the LRN 79 when the learning process start state is loaded before the process transition and the learning process start signal LRNST given from the control circuit 81 becomes active. Composed.

【0160】この3層階層型ネットワークにおいては、
図28のタイミングチャートに示すように、プロセス移
行前のステートS0及びステートS1に、例えば中間層
のFWD CNT70に初期値として8ビットバイナリ
表示でFFh(10進数で−1)、出力層のFWD C
NT70に同様にFEh(10進数で−2)、出力層の
LRN CNT78にFFh(10進数で−1)、中間
層のLRN CNT78にFEh(10進数で−2)を
セットする。
In this three-layer hierarchical network,
As shown in the timing chart of FIG. 28, in the states S0 and S1 before the process transition, for example, in the FWD CNT70 of the intermediate layer, FFh (-1 in decimal) in 8-bit binary display as an initial value, and the FWD C of the output layer.
Similarly, FEh (decimal number -2) is set in NT70, FFh (decimal number -1) is set in the output layer LRN CNT78, and FEh (decimal number -2) is set in the intermediate layer LRN CNT78.

【0161】次に、ステートS1でコントロール回路8
1のフォワード開始信号FWDSTをアクティブにする
と、中間層と出力層とのFWD CNT70が起動し始
め、ステートS2で中間層のフォワード処理が開始さ
れ、ステートS3で出力層のフォワード処理が開始され
る。ここまでは、図21〜26に示す前述のフォワード
処理だけの各実施例と同様である。
Next, in the state S1, the control circuit 8
When the forward start signal FWDST of 1 is activated, the FWD CNTs 70 of the intermediate layer and the output layer start to be activated, the forward processing of the intermediate layer is started in the state S2, and the forward processing of the output layer is started in the state S3. The processes up to this point are the same as those in each of the above-described forward processes only shown in FIGS.

【0162】ここで、さらに、ステートS3で、今度は
コントロール回路81の学習プロセス始動信号LRNS
Tをアクティブにすると、出力層と中間層とのLRN
CNT78が起動し、出力層のLRN CNT78が0
0hになるとき、すなわち、ステートS4で出力層のL
RN CNT78から出力層のLNR79に学習プロセ
ス開始信号LRNSが出力され、出力層の学習プロセス
が開始される。また、中間層のLRN CNT78が0
0hになるとき、すなわち、ステートS5で中間層のL
RN CNT78から中間層のLNR79に学習プロセ
ス開始信号LRNSが出力され、中間層の学習プロセス
が開始されることになる。
Here, further, in the state S3, this time, the learning process start signal LRNS of the control circuit 81.
When T is activated, the LRN between the output layer and the middle layer is
CNT78 starts, and LRN CNT78 in the output layer becomes 0.
When it becomes 0h, that is, in the state S4, the output layer L
The learning process start signal LRNS is output from the RN CNT 78 to the LNR 79 of the output layer, and the learning process of the output layer is started. In addition, LRN CNT78 of the intermediate layer is 0
When it becomes 0h, that is, in the state S5, L of the intermediate layer
The learning process start signal LRNS is output from the RN CNT 78 to the LNR 79 of the intermediate layer, and the learning process of the intermediate layer is started.

【0163】このようにして、中間層と出力層のフォワ
ードプロセスと学習プロセスとがパイプライン処理によ
って実行される。また、この3層階層型ネットワーク
は、図17の従来例に比べて中間層と出力層とのフォワ
ードプロセス開始信号FWDST及び中間層と出力層と
の学習プロセス開始信号LRNSTをそれぞれ共有化で
き、制御性がよくなる。このことは多層ネットワークの
場合も同様である。
In this way, the forward process and the learning process of the intermediate layer and the output layer are executed by pipeline processing. Further, this three-layer hierarchical network can share the forward process start signal FWDST between the intermediate layer and the output layer and the learning process start signal LRNST between the intermediate layer and the output layer, respectively, as compared with the conventional example of FIG. Sexuality improves. This also applies to a multi-layer network.

【0164】本発明のもう一つの実施例は、図27に示
すニューロンどは違った方式で中間層及び出力層のフォ
ワードプロセス及び学習フロセスの開始タイミングを自
由に設定できるようにしたものであり、考え方としては
図25ないし図26に示す実施例のフォワード処理の開
始方法をフォワード処理だけでなく、学習プロセスにも
適用したものである。
Another embodiment of the present invention is one in which the start process of the forward process and the learning process of the intermediate layer and the output layer can be freely set by a method different from the neurons shown in FIG. The idea is to apply the method of starting the forward process of the embodiment shown in FIGS. 25 to 26 not only to the forward process but also to the learning process.

【0165】この実施例の中間層及び出力層には、図3
0に示すように、図25に示すフォワード処理回路76
と同様に構成されたフォワード処理回路86と、学習処
理回路90とが設けられる。
The intermediate layer and the output layer of this embodiment are shown in FIG.
0, the forward processing circuit 76 shown in FIG.
A forward processing circuit 86 and a learning processing circuit 90 that are configured similarly to the above are provided.

【0166】このフォワード処理回路86は、プロセス
カウンタ(PRO CNT)82、フォワードプロセス
開始ステートセットレジスタ(FREG)83、コンパ
レータ(CMP)84及びフォワード処理を実行する回
路(FWD)85とを有し、学習処理回路90は、学習
プロセス開始ステートセットレジスタ(LREG)8
7、コンパレータ(CMP)88及び学習プロセスを実
行する回路(LRN)89とを有している。
The forward processing circuit 86 has a process counter (PRO CNT) 82, a forward process start state set register (FREG) 83, a comparator (CMP) 84 and a circuit (FWD) 85 for executing the forward processing. The learning processing circuit 90 uses the learning process start state set register (LREG) 8
7, a comparator (CMP) 88, and a circuit (LRN) 89 that executes a learning process.

【0167】FREG83はフォワード処理移行前にフ
ォワードプロセス開始ステートがロードされる。PRO
CNT82はプロセス移行前にリセットされ、フォワ
ードプロセス開始信号FWDSTをアクティブにすると
動作し始める。CMP84は、FREG83の値とPR
O CNT82の値とを入力し、これらが等しくなった
ときにFWD85にフォワード処理開始信号FWDSを
出力するように構成している。
The FREG 83 is loaded with the forward process start state before shifting to the forward process. PRO
The CNT 82 is reset before the process transition and starts operating when the forward process start signal FWDST is activated. CMP84 is the value of FREG83 and PR
The value of O CNT 82 is input, and when they become equal, the forward processing start signal FWDS is output to the FWD 85.

【0168】LREG87は学習処理移行前に学習プロ
セス開始ステートがロードされる。CMP84は、LR
EG87の値とPRO CNT82の値とを入力し、こ
れらが等しくなったときにLRN89に学習処理開始信
号LRNSを出力するように構成している。
The LREG 87 is loaded with the learning process start state before shifting to the learning process. CMP84 is LR
The value of EG87 and the value of PRO CNT82 are input, and when they become equal, the learning process start signal LRNS is output to the LRN89.

【0169】このフォワード処理回路86及び学習処理
回路90を用いて3層階層型ネットワークを構成した場
合の回路構成は、例えば図32のブロック図に示す通り
であり、図31のタイミング図に示すように動作する。
The circuit configuration when a three-layer hierarchical network is constructed using the forward processing circuit 86 and the learning processing circuit 90 is, for example, as shown in the block diagram of FIG. 32 and as shown in the timing diagram of FIG. To work.

【0170】すなわち、まず、プロセス移行前のステー
トS0、ステートS1に、中間層のFREG83に8ビ
ットバイナリ表示で01hを、出力層のFREG83に
02hを、出力層のLREG87に03hを、中間層の
LREG87に04hをそれぞれ格納する。この状態
で、コントロール回路91のプロセス開始信号PROS
TをアクティブにするとPRO CNT82が起動し、
プロセスが開始される。この後、ステートS1で中間層
のフォワード処理が実行され、ステート2で出力層のフ
ォワード処理が実行され、ステートS3で出力層の学習
処理が実行され、ステートS4で中間層の学習処理が実
行され、中間層のフォワード処理から中間層の学習処理
までがパイプライン処理にて実行されることになる。
That is, first, in the states S0 and S1 before the process transition, 01h in the 8-bit binary representation in the FREG83 of the intermediate layer, 02h in the FREG83 of the output layer, 03h in the LREG87 of the output layer, and 03h in the intermediate layer. 04h is stored in the LREG 87. In this state, the process start signal PROS of the control circuit 91
When T is activated, PRO CNT82 starts up,
The process starts. After that, the forward processing of the intermediate layer is executed in state S1, the forward processing of the output layer is executed in state 2, the learning processing of the output layer is executed in state S3, and the learning processing of the intermediate layer is executed in state S4. The processing from the forward processing of the intermediate layer to the learning processing of the intermediate layer is executed by pipeline processing.

【0171】このようにして、フォワードプロセス及び
学習プロセス開始信号を共有でき、図17に示す従来例
に比べて、システムの制御性が良くなる。まだ、図7ニ
示すような多層ネットワークについても同様である。
In this way, the forward process and learning process start signals can be shared, and the controllability of the system is improved as compared with the conventional example shown in FIG. The same applies to the multilayer network as shown in FIG.

【0172】[0172]

【発明の効果】この発明による第1の信号処理装置によ
れば、フォワードプロセスと学習プロセスをパラレルに
実行できるため、フォワードプロセスと学習プロセスを
シリアルに実行するのに比べ、処理速度を高めることが
できる。
According to the first signal processing apparatus of the present invention, since the forward process and the learning process can be executed in parallel, the processing speed can be increased as compared with the case where the forward process and the learning process are executed serially. it can.

【0173】この発明による第2の信号処理装置によれ
ば、入力層、中間層及び出力層よりなる神経回路網のフ
ォワードプロセスを細分化し、各処理をパイプライン処
理させるため、フォワードプロセスを一連の処理で行う
場合より、高速に処理することができる。また、中間層
を1層でなく、多層にした場合において、各処理をパイ
プライン化しない場合には、それだけフォワードプロセ
スの処理時間は増えることになるが、この発明によれ
ば、処理速度は中間層1層の場合と同じになり、高速処
理が可能となる。
According to the second signal processing device of the present invention, the forward process of the neural network consisting of the input layer, the intermediate layer and the output layer is subdivided, and each process is pipelined. It can be processed at a higher speed than the case of processing. Further, when the intermediate layer is not a single layer but a multi-layer, if each process is not pipelined, the processing time of the forward process is increased by that much, but according to the present invention, the processing speed is intermediate. It becomes the same as the case of one layer, and high-speed processing becomes possible.

【0174】この発明による第3の信号処理装置によれ
ば、入力層、中間層及び出力層よりなる神経回路網のフ
ォワードプロセス及び学習プロセスを細分化し、各処理
をパイプライン処理させるため、フォワードプロセス及
び学習プロセスを一連の処理で行う場合より、高速に処
理することができる。また、中間層を1層でなく、多層
にした場合において、各処理をパイプライン化しない場
合には、それだけフォワードプロセス及び学習プロセス
の処理時間は増えることになるが、この発明によれば、
処理速度は中間層1層の場合と同じになり、高速処理が
可能となる。
According to the third signal processing apparatus of the present invention, the forward process and the learning process of the neural network composed of the input layer, the intermediate layer and the output layer are subdivided, and each process is pipelined. The learning process can be processed at a higher speed than the case where the learning process is performed by a series of processes. Further, in the case where the intermediate layer is not a single layer but a multi-layered process and each process is not pipelined, the processing time of the forward process and the learning process is increased by that much, but according to the present invention,
The processing speed is the same as in the case of one intermediate layer, and high-speed processing is possible.

【0175】この発明による第4の信号処理装置によれ
ば、ネットワーク全体を制御するコントロールブロック
で各層ごとにフォワードプロセスの開始信号を生成する
必要がなくなるため、ネットワークの層数にかかわりな
く、コントロールブロックの回路の単純化と、回路規模
の縮小とを図ることができる。
According to the fourth signal processing device of the present invention, it is not necessary to generate a forward process start signal for each layer in the control block for controlling the entire network. Therefore, regardless of the number of layers in the control block. The circuit can be simplified and the circuit scale can be reduced.

【0176】また、各層のフォワードプロセス開始信号
が1本ですむため、ネットワークにおける配線数を減少
でき、これにより、ノイズの伝播やスキューによる誤動
作が起こり難くなり、信頼性が高くなる。
Further, since only one forward process start signal is required for each layer, the number of wirings in the network can be reduced, which prevents malfunctions due to noise propagation and skew, and improves reliability.

【0177】更に、プリント基板上に回路を制作する場
合、制御信号を共有】できるので、ニューラルネットワ
ークの層数を変えることが容易になる。
Further, when the circuit is produced on the printed circuit board, the control signal can be shared, so that the number of layers of the neural network can be easily changed.

【0178】この発明による第5の信号処理装置によれ
ば、ネットワーク全体を制御するコントロールブロック
で各層ごとにフォワードプロセスの開始信号を生成する
必要がなくなるため、ネットワークの層数にかかわりな
く、コントロールブロックの回路の単純化と、回路規模
の縮小とを図ることができる。
According to the fifth signal processing apparatus of the present invention, since it is not necessary to generate the forward process start signal for each layer in the control block for controlling the entire network, the control block is controlled regardless of the number of layers in the network. The circuit can be simplified and the circuit scale can be reduced.

【0179】また、各層のフォワードプロセス開始信号
が1本ですむため、ネットワークにおける配線数を減少
でき、これにより、ノイズの伝播やスキューによる誤動
作が起こり難くなり、信頼性が高くなる。
Also, since only one forward process start signal is required for each layer, the number of wirings in the network can be reduced, so that malfunction due to noise propagation and skew is less likely to occur, and reliability is improved.

【0180】更に、プリント基板上に回路を制作する場
合、制御信号を共有化できるので、ニューラルネットワ
ークの層数を変えることが容易になる。
Further, when the circuit is produced on the printed circuit board, the control signal can be shared, so that the number of layers of the neural network can be easily changed.

【0181】この発明による第6の信号処理装置によれ
ば、ネットワーク全体を制御するコントロールブロック
で各層ごとに学習プロセスの開始信号を生成する必要が
なくなるため、ネットワークの層数にかかわりなく、コ
ントロールブロックの回路の単純化と、回路規模の縮小
とを図ることができる。
According to the sixth signal processing device of the present invention, since it is not necessary to generate the learning process start signal for each layer in the control block for controlling the entire network, the control block is controlled regardless of the number of layers in the network. The circuit can be simplified and the circuit scale can be reduced.

【0182】また、各層の学習プロセス開始信号が1本
ですむため、ネットワークにおける配線数を減少でき、
これにより、ノイズの伝播やスキューによる誤動作が起
こり難くなり、信頼性が高くなる。
Since only one learning process start signal is required for each layer, the number of wires in the network can be reduced,
As a result, malfunction due to noise propagation and skew is less likely to occur, and reliability is improved.

【0183】更に、プリント基板上に回路を制作する場
合、制御信号を共有化できるので、ニューラルネットワ
ークの層数を変えることが容易になる。
Further, when the circuit is produced on the printed circuit board, the control signal can be shared, so that the number of layers of the neural network can be easily changed.

【0184】この発明による第7の信号処理装置によれ
ば、ネットワーク全体を制御するコントロールブロック
で各層ごとに学習プロセスの開始信号を生成する必要が
なくなるため、ネットワークの層数にかかわりなく、コ
ントロールブロックの回路の単純化と、回路規模の縮小
とを図ることができる。
According to the seventh signal processing device of the present invention, since it is not necessary to generate a learning process start signal for each layer in the control block for controlling the entire network, the control block is controlled regardless of the number of layers in the network. The circuit can be simplified and the circuit scale can be reduced.

【0185】また、各層の学習プロセス開始信号が1本
ですむため、ネットワークにおける配線数を減少でき、
これにより、ノイズの伝播やスキューによる誤動作が起
こり難くなり、信頼性が高くなる。
Since only one learning process start signal is required for each layer, the number of wires in the network can be reduced,
As a result, malfunction due to noise propagation and skew is less likely to occur, and reliability is improved.

【0186】更に、プリント基板上に回路を制作する場
合、制御信号を共有化できるので、ニューラルネットワ
ークの層数を変えることが容易になる。
Further, when the circuit is produced on the printed circuit board, the control signal can be shared, so that the number of layers of the neural network can be easily changed.

【0187】この発明による第8の信号処理装置によれ
ば、ネットワーク全体を制御するコントロールブロック
で各層ごとにフォワードプロセス及び学習プロセスの開
始信号を生成する必要がなくなるため、ネットワークの
層数にかかわりなく、コントロールブロックの回路の単
純化と、回路規模の縮小とを図ることができる。
According to the eighth signal processing device of the present invention, it is not necessary to generate the start signals of the forward process and the learning process for each layer in the control block for controlling the entire network, so that the number of layers of the network is not affected. The circuit of the control block can be simplified and the circuit scale can be reduced.

【0188】また、各層のフォワードプロセス開始信号
と学習プロセス開始信号とがそれぞれ1本ですむため、
ネットワークにおける配線数を減少でき、これにより、
ノイズの伝播やスキューによる誤動作が起こり難くな
り、信頼性が高くなる。
Since only one forward process start signal and one learning process start signal for each layer are required,
The number of wires in the network can be reduced, which allows
Malfunction due to noise propagation and skew is less likely to occur, and reliability is improved.

【0189】更に、プリント基板上に回路を制作する場
合、制御信号を共有化できるので、ニューラルネットワ
ークの層数を変えることが容易になる。
Further, when the circuit is produced on the printed circuit board, the control signal can be shared, so that the number of layers of the neural network can be easily changed.

【0190】加えて、フォワード処理回路あるいは学習
処理回路を簡単な初期設定を行うことによりどの層にで
も配置できるようになるため、回路上の制約がなくな
り、制御性がよくなる。
In addition, since the forward processing circuit or the learning processing circuit can be arranged in any layer by performing a simple initialization, there is no restriction on the circuit and the controllability is improved.

【0191】この発明による第9の信号処理回路によれ
ば、ネットワーク全体を制御するコントロールブロック
で各層ごとにフォワードプロセス及び学習プロセスの開
始信号を生成する必要がなくなるため、ネットワークの
層数にかかわりなく、コントロールブロックの回路の単
純化と、回路規模の縮小とを図ることができる。
According to the ninth signal processing circuit of the present invention, it is not necessary to generate the start signal of the forward process and the learning process for each layer in the control block for controlling the entire network, so that the number of layers of the network is not affected. The circuit of the control block can be simplified and the circuit scale can be reduced.

【0192】また、各層のフォワードプロセス開始信号
及び学習プロセス開始信号とがプロセス信号1本ですむ
ため、ネットワークにおける配線数を減少でき、これに
より、ノイズの伝播やスキューによる誤動作が一層起こ
り難くなり、一層信頼性が高くなる。
Further, since only one process signal is required for the forward process start signal and the learning process start signal for each layer, the number of wires in the network can be reduced, which further reduces the possibility of malfunction due to noise propagation and skew. More reliable.

【0193】更に、プリント基板上に回路を制作する場
合、制御信号を共有化できるので、ニューラルネットワ
ークの層数を変えることが容易になる。
Further, when the circuit is produced on the printed board, the control signal can be shared, so that the number of layers of the neural network can be easily changed.

【0194】加えて、フォワード処理回路あるいは学習
処理回路を簡単な初期設定を行うことによりどの層にで
も配置できるようになるため、回路上の制約がなくな
り、制御性がよくなる。
In addition, since the forward processing circuit or the learning processing circuit can be arranged in any layer by performing a simple initialization, there is no restriction on the circuit and the controllability is improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】ニュートラルネットワークの神経細胞ユニット
の模式図である。
FIG. 1 is a schematic diagram of a nerve cell unit of a neutral network.

【図2】図1の神経細胞ユニットをネットワークに構成
した模式図である。
FIG. 2 is a schematic diagram in which the nerve cell unit of FIG. 1 is configured in a network.

【図3】シグモイド関数を示すグラフである。FIG. 3 is a graph showing a sigmoid function.

【図4】一つのニューロンのフォワード処理を数値演算
で行う場合の一般的な回路を示すブロック図である。
FIG. 4 is a block diagram showing a general circuit when performing forward processing of one neuron by numerical calculation.

【図5】3層階層型ネットワークのフォワードプロセス
の説明図である。
FIG. 5 is an explanatory diagram of a forward process of a three-layer hierarchical network.

【図6】3層階層型ネットワークの学習プロセスの説明
図である。
FIG. 6 is an explanatory diagram of a learning process of a three-layer hierarchical network.

【図7】多層階層型ネットワークのフォワードプロセス
の説明図である。
FIG. 7 is an explanatory diagram of a forward process of a multilayer hierarchical network.

【図8】多層階層型ネットワークの学習プロセスの説明
図である。
FIG. 8 is an explanatory diagram of a learning process of a multilayer hierarchical network.

【図9】3層階層型ネットワークのフォワード処理を実
行する回路の回路図である。
FIG. 9 is a circuit diagram of a circuit that executes forward processing of a three-layer hierarchical network.

【図10】3層階層型ネットワークのフォワード処理の
タイミングチャートである。
FIG. 10 is a timing chart of forward processing of a three-layer hierarchical network.

【図11】多層階層型ネットワークのフォワード処理を
実行する回路の回路図である。
FIG. 11 is a circuit diagram of a circuit that executes forward processing of a multilayer hierarchical network.

【図12】多層階層型ネットワークのフォワード処理の
タイミングチャートである。
FIG. 12 is a timing chart of forward processing of a multilayer hierarchical network.

【図13】神経細胞模倣回路を示す回路図である。FIG. 13 is a circuit diagram showing a nerve cell mimicking circuit.

【図14】図2の線(結線)に相当する回路を示す回路
図である。
14 is a circuit diagram showing a circuit corresponding to the line (connection) in FIG.

【図15】図2の丸(神経細胞ユニット)に相当する回
路を示す回路図である。
FIG. 15 is a circuit diagram showing a circuit corresponding to the circle (neuronal cell unit) in FIG.

【図16】出力層の出力と教師信号から出力層における
誤差信号を求める回路を示す回路図である。
FIG. 16 is a circuit diagram showing a circuit for obtaining an error signal in the output layer from the output of the output layer and the teacher signal.

【図17】この発明の一実施例に係る3層階層型ネット
ワークのブロック図である。
FIG. 17 is a block diagram of a three-layer hierarchical network according to an embodiment of the present invention.

【図18】この発明の一実施例の動作のタイミングチャ
ートである。
FIG. 18 is a timing chart of the operation of the embodiment of the present invention.

【図19】この発明の他の実施例に係る3層階層型ネッ
トワークのブロック図である。
FIG. 19 is a block diagram of a three-layer hierarchical network according to another embodiment of the present invention.

【図20】この発明の他の実施例の動作のタイミングチ
ャートである。
FIG. 20 is a timing chart of the operation of another embodiment of the present invention.

【図21】この発明の又他の実施例の要部のブロック図
である。
FIG. 21 is a block diagram of an essential part of still another embodiment of the present invention.

【図22】この発明の又他の実施例の動作のタイミング
チャートである。
FIG. 22 is a timing chart of the operation of another embodiment of the present invention.

【図23】この発明の又他の実施例に係る3層階層型ネ
ットワークのブロック図である。
FIG. 23 is a block diagram of a three-layer hierarchical network according to another embodiment of the present invention.

【図24】この発明の又他の実施例に係る多層階層型ネ
ットワークのブロック図である。
FIG. 24 is a block diagram of a multilayer hierarchical network according to still another embodiment of the present invention.

【図25】この発明のさらに他の実施例の要部のブロッ
ク図である。
FIG. 25 is a block diagram of an essential part of still another embodiment of the present invention.

【図26】この発明のさらに他の実施例の動作のタイミ
ングチャートである。
FIG. 26 is a timing chart of the operation of still another embodiment of the present invention.

【図27】この発明の又さらに他の実施例の要部ブロッ
ク図である。
FIG. 27 is a block diagram of the essential parts of yet another embodiment of the present invention.

【図28】この発明の又さらに他の実施例の動作のタイ
ミングチャートである。
FIG. 28 is a timing chart of the operation of yet another embodiment of the present invention.

【図29】この発明の又さらに他の実施例に係る3層階
層型ネットワークのブロック図である。
FIG. 29 is a block diagram of a three-layer hierarchical network according to still another embodiment of the present invention.

【図30】この発明のもう一つの実施例の要部のブロッ
ク図である。
FIG. 30 is a block diagram of an essential part of another embodiment of the present invention.

【図31】この発明のもう一つの実施例の動作のタイミ
ングチャートである。
FIG. 31 is a timing chart of the operation of another embodiment of the present invention.

【図32】この発明のもう一つの実施例に係る3層階層
型ネットワークのブロック図である。
FIG. 32 is a block diagram of a three-layer hierarchical network according to another embodiment of the present invention.

【図33】ニューラルネットワークを電気回路で実現し
た例を示す回路図である。
FIG. 33 is a circuit diagram showing an example in which a neural network is realized by an electric circuit.

【図34】単一神経細胞の回路構成を示すブロック図で
ある。
FIG. 34 is a block diagram showing a circuit configuration of a single nerve cell.

【図35】シナプス回路を示すブロック図である。FIG. 35 is a block diagram showing a synapse circuit.

【図36】細胞体回路を示すブロック図である。FIG. 36 is a block diagram showing a cell body circuit.

【図37】従来の信号処理回路のブロック図である。FIG. 37 is a block diagram of a conventional signal processing circuit.

【符号の説明】[Explanation of symbols]

A 入力層 A1 入力層 A2 中間層 A3 出力層 B1 〜Bn-1 中間層 C 出力層 11 フォワード処理実行回路(FWD) 12 レジスタ 13 フォワード処理実行回路(FWD) 15 コントロール回路 17〜19 レジスタ 42〜45 レジスタ 46 学習処理実行回路(LRN) 47 学習処理実行回路(LRN) 48 誤差生成回路 51 フォワード処理実行回路(FWD) 52 レジスタ 53 フォワード処理実行回路(FWD) 56 誤差生成回路 57 レジスタ 58 学習処理実行回路 59 レジスタ 60 学習処理実行回路 61 レジスタ 62 コントロール回路 70 フォワードプロセスカウンタ(FWD CNT) 71 フォワード処理実行回路(FWD) 72 プロセスカウンタ(PRO CNT) 73 フォワードプロセス開始ステートセットレジスタ
(FREG) 74 コンパレータ(CMP) 75 フォワード処理を実行する回路(FWD) 76 フォワード処理回路 77 コントロール回路 78 ラーンカウンタ(LRN CNT) 79 学習プロセスを実行する回路(LRN) 80 学習処理回路 81 コントロール回路 82 プロセスカウンタ(PRO CNT) 83 フォワードプロセス開始ステートセットレジスタ
(FREG) 84 コンパレータ(CMP) 85 フォワード処理を実行する回路(FWD) 86 フォワード処理回路 87 学習プロセス開始ステートセットレジスタ(LR
EG) 88 コンパレータ(CMP) 89 学習プロセスを実行する回路(LRN) 90 学習処理回路 91 コントロール回路
A input layer A1 input layer A2 intermediate layer A3 output layer B1 to Bn-1 intermediate layer C output layer 11 forward processing execution circuit (FWD) 12 registers 13 forward processing execution circuit (FWD) 15 control circuit 17 to 19 registers 42 to 45 Register 46 Learning process executing circuit (LRN) 47 Learning process executing circuit (LRN) 48 Error generating circuit 51 Forward process executing circuit (FWD) 52 Register 53 Forward process executing circuit (FWD) 56 Error generating circuit 57 Register 58 Learning process executing circuit 59 register 60 learning process execution circuit 61 register 62 control circuit 70 forward process counter (FWD CNT) 71 forward process execution circuit (FWD) 72 process counter (PRO CNT) 73 forward process start state set Register (FREG) 74 comparator (CMP) 75 circuit for performing forward processing (FWD) 76 forward processing circuit 77 control circuit 78 learn counter (LRN CNT) 79 circuit for performing learning process (LRN) 80 learning processing circuit 81 control circuit 82 Process Counter (PRO CNT) 83 Forward Process Start State Set Register (FREG) 84 Comparator (CMP) 85 Circuit for Performing Forward Processing (FWD) 86 Forward Processing Circuit 87 Learning Process Start State Set Register (LR)
EG) 88 Comparator (CMP) 89 Circuit for executing learning process (LRN) 90 Learning processing circuit 91 Control circuit

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 神経細胞模倣素子により構成された神経
細胞回路網による信号処理装置において、当該神経細胞
回路網を構成する各神経細胞模倣素子は、フォワードプ
ロセス時に入力される入力信号を保持する手段と、学習
プロセス時に入力される誤差信号を保持する手段を有
し、フォワードプロセスと学習プロセスを並列に行なう
ことを特徴とする信号処理装置。
1. A signal processing device using a nerve cell network composed of nerve cell mimicking elements, wherein each nerve cell mimicking element constituting the nerve cell circuit network holds an input signal input during a forward process. And a means for holding an error signal inputted during the learning process, and performing the forward process and the learning process in parallel.
【請求項2】 神経細胞模倣素子により構成された階層
型神経細胞回路網による信号処理装置において、入力
層、中間層及び出力層よりなる神経回路網のフォワード
プロセスをいくつかの処理に分割し、分割された各処理
をパイプライン処理することを特徴とする信号処理装
置。
2. In a signal processing device using a hierarchical neural cell network composed of neural cell mimicking elements, a forward process of a neural network consisting of an input layer, an intermediate layer and an output layer is divided into several processes, A signal processing device, characterized in that each divided process is pipelined.
【請求項3】 神経細胞模倣素子により構成された階層
神経細胞回路網による信号処理装置において、入力層、
中間層及び出力層よりなる神経回路網のフォワードプロ
セス及び学習プロセスをいくつかの処理に分割し、分割
された各処理をパイプライン処理することを特徴とする
信号処理装置。
3. A signal processing device using a hierarchical nerve cell network composed of nerve cell mimicking elements, comprising:
A signal processing apparatus, characterized in that a forward process and a learning process of a neural network including an intermediate layer and an output layer are divided into some processes, and each divided process is pipelined.
【請求項4】 神経細胞模倣素子により構成された階層
神経細胞回路網による信号処理装置において、入力層、
中間層及び出力層の各層ごとに設けられた初期値を設定
可能なカウンタと、フォワードプロセス移行前に各層の
カウンタに初期値を設定し、フォワードプロセス実行時
に各層のカウンタに共通のフォワードプロセス実行信号
を与える手段とを備え、各層のカウンタはこのフォワー
ドプロセス実行信号をカウントして、その層のフォワー
ドプロセスを実行させる所定の値のフォワードプロセス
実行信号を生成するものであることを特徴とする信号処
理装置。
4. A signal processing device using a hierarchical nerve cell network composed of nerve cell mimicking elements, comprising:
A counter that can set an initial value provided for each layer of the intermediate layer and the output layer and a counter for each layer that sets the initial value before the transfer of the forward process, and the forward process execution signal common to the counters of each layer when the forward process is executed And a means for providing each of the layers, the counter of each layer counts the forward process execution signal to generate a forward process execution signal having a predetermined value for executing the forward process execution signal of the layer. apparatus.
【請求項5】 神経細胞模倣素子により構成された階層
神経細胞回路網による信号処理装置において、入力層、
中間層及び出力層の各層ごとに設けられたカウンタ、フ
ォワードプロセス開始ステートを記憶するレジスタ及び
上記カウンタの値と上記レジスタの値を比較する比較器
と、フォワードプロセス移行前に各層の上記レジスタに
その層のフォワードプロセスを開始するステートを記憶
させ、フォワードプロセス実行時に各層に共通のフォワ
ードプロセス実行信号を与える手段とを有するフォワー
ドプロセス実行手段を備え、各層のカウンタはこのフォ
ワードプロセス実行信号によりカウント動作するもので
あり、各層の比較器はその層のカウンタの値がレジスタ
の値以上である時に各層にフォワードプロセスを実行さ
せるフォワードプロセス実行信号を生成するものである
ことを特徴とする信号処理装置。
5. A signal processing device using a hierarchical nerve cell network composed of nerve cell mimicking elements, comprising:
A counter provided for each layer of the intermediate layer and the output layer, a register for storing the forward process start state, and a comparator for comparing the value of the counter with the value of the register, and the register for each layer before the transfer to the forward process. A forward process execution means for storing a state for starting the forward process execution of the layer and providing a common forward process execution signal to each layer when the forward process is executed, and the counter of each layer counts by this forward process execution signal The signal processing device, wherein the comparator of each layer generates a forward process execution signal that causes each layer to execute the forward process when the value of the counter of the layer is equal to or greater than the value of the register.
【請求項6】 神経細胞模倣素子により構成された階層
神経細胞回路網による信号処理装置において、入力層、
中間層及び出力層の各層ごとに設けられた初期値を設定
可能なカウンタと、学習プロセス移行前に各層のカウン
タに初期値を設定し、学習プロセス実行時に各層のカウ
ンタに共通の学習プロセス実行信号を与える手段とを備
え、各層のカウンタはこの学習プロセス実行信号をカウ
ントして、その層の学習プロセスを実行させる所定の値
の学習プロセス実行信号を生成するものであることを特
徴とする信号処理装置。
6. A signal processing device using a hierarchical nerve cell network composed of nerve cell mimicking elements, comprising:
A counter that can set an initial value provided for each layer of the intermediate layer and the output layer, and an initial value is set to the counter of each layer before the learning process transitions, and a learning process execution signal common to the counters of each layer when the learning process is executed And a means for giving a learning process execution signal of each layer to count the learning process execution signal to generate a learning process execution signal of a predetermined value for executing the learning process of the layer. apparatus.
【請求項7】 神経細胞模倣素子により構成された階層
神経細胞回路網による信号処理装置において、入力層、
中間層及び出力層の各層ごとに設けられたカウンタ、学
習プロセス開始ステートを記憶するレジスタ及び上記カ
ウンタの値と上記レジスタの値を比較する比較器と、学
習プロセス移行前に各層の上記レジスタにその層の学習
プロセスを開始するステートを記憶させ、学習プロセス
実行時に各層に共通の学習プロセス実行信号を与える手
段とを有する学習プロセス実行手段を備え、各層のカウ
ンタはこの学習プロセス実行信号によりカウント動作す
るものであり、各層の比較器はその層のカウンタの値が
レジスタの値以上の時に各層に学習プロセスを実行させ
る学習プロセス実行信号を生成するものであることを特
徴とする信号処理装置。
7. A signal processing device using a hierarchical nerve cell network composed of nerve cell mimicking elements, comprising:
A counter provided for each layer of the intermediate layer and the output layer, a register for storing a learning process start state, a comparator for comparing the value of the counter with the value of the register, and the register for each layer before the learning process is transferred. A learning process execution means having a state for starting a learning process of a layer and giving a common learning process execution signal to each layer when the learning process is executed is provided, and the counter of each layer counts by this learning process execution signal. The signal processing device, wherein the comparator of each layer generates a learning process execution signal that causes each layer to execute a learning process when the value of the counter of the layer is equal to or greater than the value of the register.
【請求項8】 神経細胞模倣素子により構成された階層
神経細胞回路網による信号処理装置において、請求項4
あるいは請求項5のフォワードプロセス実行手段と、こ
れのフォワードプロセスから独立して学習プロセスを実
行できる請求項6あるいは請求項7の学習プロセス実行
手段とを備えることを特徴とする信号処理装置。
8. A signal processing device using a hierarchical nerve cell network composed of nerve cell mimicking elements, wherein:
Alternatively, a signal processing apparatus comprising: the forward process executing means of claim 5; and the learning process executing means of claim 6 or 7, which can execute a learning process independently of the forward process.
【請求項9】 神経細胞模倣素子により構成された階層
神経細胞回路網による信号処理装置において、入力層、
中間層及び出力層の各層ごとに、フォワードプロセス及
び学習プロセスを制御するために設けられたプロセスカ
ウンタと、フォワードプロセス開始ステートを記憶する
フォワードプロセス用レジスタと、該レジスタの値とプ
ロセスカウンタの値とを比較するフォワードプロセス用
比較器と、学習プロセス開始ステートを記憶する学習プ
ロセス用レジスタと、このレジスタの値と上記プロセス
カウンタの値とを比較する学習プロセス用比較器とを備
えるとともに、プロセス移行前に、各層のフォワードプ
ロセス開始ステートを記憶するレジスタにその層のフォ
ワードプロセスを開始するステートを記憶させ、また、
各層の学習プロセス開始ステートを記憶するレジスタに
その層の学習プロセスを開始するステートを記憶させ、
プロセス実行時に各層に共通のプロセス実行信号を与え
る手段とを備え、上記各層のプロセスカウンタはこのプ
ロセス信号をカウントするものであり、上記フォワード
プロセス用比較器はプロセスカウンタの値がその層のフ
ォワードプロセス開始ステートを記憶するレジスタ値以
上の時にフォワードプロセスを開始するフォワードプロ
セス実行信号を生成するものであり、上記学習プロセス
用比較器はプロセスカウンタの値がその層の学習プロセ
ス開始ステートを記憶するレジスタ値以上の時に学習プ
ロセスを開始する学習プロセス実行信号を生成するもの
であることを特徴とする信号処理回路。
9. A signal processing device using a hierarchical nerve cell network composed of nerve cell mimicking elements, comprising:
For each of the intermediate layer and the output layer, a process counter provided to control the forward process and the learning process, a forward process register that stores the forward process start state, a value of the register, and a value of the process counter And a learning process register for storing the learning process start state, and a learning process comparator for comparing the value of this register with the value of the process counter, and before the process transition. In the register storing the forward process start state of each layer, the state of starting the forward process of that layer is stored, and
The state that starts the learning process of the layer is stored in the register that stores the learning process start state of each layer,
Means for giving a common process execution signal to each layer during process execution, the process counter of each layer counts this process signal, and the comparator for the forward process has a value of the process counter of the forward process of the layer. A forward process execution signal for starting the forward process when the register value for storing the start state is equal to or more than the register value for storing the start state. The learning process comparator is a register value for storing the learning process start state of the layer in the value of the process counter. A signal processing circuit for generating a learning process execution signal for starting a learning process at the above time.
JP4225034A 1991-09-05 1992-08-01 Signal processor Pending JPH05307624A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US08/099,719 US5485548A (en) 1992-08-01 1993-07-29 Signal processing apparatus using a hierarchical neural network

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP3-254571 1991-09-05
JP25457191 1991-09-05

Publications (1)

Publication Number Publication Date
JPH05307624A true JPH05307624A (en) 1993-11-19

Family

ID=17266898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4225034A Pending JPH05307624A (en) 1991-09-05 1992-08-01 Signal processor

Country Status (1)

Country Link
JP (1) JPH05307624A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5630023A (en) * 1993-10-14 1997-05-13 Ricoh Company, Limited Signal processor
JP2021026613A (en) * 2019-08-07 2021-02-22 株式会社デンソーテン Calculation device, calculation method and program
US11461617B2 (en) 2017-11-17 2022-10-04 Kabushiki Kaisha Toshiba Neural network device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5630023A (en) * 1993-10-14 1997-05-13 Ricoh Company, Limited Signal processor
US11461617B2 (en) 2017-11-17 2022-10-04 Kabushiki Kaisha Toshiba Neural network device
JP2021026613A (en) * 2019-08-07 2021-02-22 株式会社デンソーテン Calculation device, calculation method and program

Similar Documents

Publication Publication Date Title
JPH07114524A (en) Signal processor
JPH07111090A (en) Signal processor
US5485548A (en) Signal processing apparatus using a hierarchical neural network
JPH05307624A (en) Signal processor
JP3508783B2 (en) Coupling coefficient updating method and coupling coefficient updating apparatus in pulse density type signal processing network
JPH05165987A (en) Signal processor
JPH09185596A (en) Coupling coefficient updating method in pulse density type signal processing network
JP2612640B2 (en) Signal processing circuit, signal processing network, signal processing device, and signal processing method
JP3256553B2 (en) Learning method of signal processing device
JP3338713B2 (en) Signal processing device
JPH05108594A (en) Signal processor
JP2517662B2 (en) Chain controller
JPH0737016A (en) Connection coefficient code processing method for signal processing circuit network and device therefor
JPH05216859A (en) Signal processor
JPH05108598A (en) Signal processor
JPH05165989A (en) Signal processor
JP3255425B2 (en) Signal processing method
JPH05217010A (en) Signal processor
JPH096743A (en) Method and device for updating coupling coefficient for pulse density type signal processing circuit network
JPH04229361A (en) Learning method for neural network and signal processor using the same
JPH05135001A (en) Signal processor
JP3130913B2 (en) Signal processing device
JPH05120254A (en) Signal processor
JPH0567066A (en) Learning method and signal processor for neural network
JPH04148389A (en) Method and device for signal processing