JPH06131482A - Analog neural network circuit - Google Patents

Analog neural network circuit

Info

Publication number
JPH06131482A
JPH06131482A JP4276307A JP27630792A JPH06131482A JP H06131482 A JPH06131482 A JP H06131482A JP 4276307 A JP4276307 A JP 4276307A JP 27630792 A JP27630792 A JP 27630792A JP H06131482 A JPH06131482 A JP H06131482A
Authority
JP
Japan
Prior art keywords
learning
circuit
pattern vector
coupling strength
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4276307A
Other languages
Japanese (ja)
Inventor
Takashi Morie
隆 森江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP4276307A priority Critical patent/JPH06131482A/en
Publication of JPH06131482A publication Critical patent/JPH06131482A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide the learning function incorporated type neural network circuit for evading incomplete learning due to the offset error of the circuit. CONSTITUTION:A process for learning a learning pattern vector includes a process wherein a specific learning rule is performed by using a tutor pattern vector as an error signal to calculate a 1st coupling intensity variation quantity, a process wherein a learning rule is executed by using a network output pattern vector as an error signal to calculate a 2nd coupling intensity variation quantity, and a process wherein coupling intensity is updated with a quantity proportional to the difference between the 1st and 2nd coupling intensity variation quantities; and those processes are repeated as to plural learning patterns to perform learning operation. Namely, a tutor signal and the output of a neuron are sent back to the network while switched by a switching terminal 100.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はアナログニューラルネッ
トワーク回路に係り、特に、実際の出力と望ましい出力
の差を小さくするように学習を行う、いわゆる誤り訂正
型学習機能を内蔵したアナログニューラルネットワーク
回路に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an analog neural network circuit, and more particularly to an analog neural network circuit having a so-called error correction type learning function for performing learning so as to reduce a difference between an actual output and a desired output. .

【0002】[0002]

【従来の技術】ニューラルネットワーク回路とは、生物
の神経回路網をモデル化した回路であり、近年、従来の
ノイマン型計算機では難しかった文字認識や音声認識等
のパターン認識処理、最適化問題の近似求解、ロボット
制御などに有効であると期待されている。
2. Description of the Related Art A neural network circuit is a circuit that models a neural network of a living organism. In recent years, pattern recognition processing such as character recognition and voice recognition, which has been difficult with conventional Neumann computers, and approximation of optimization problems. It is expected to be effective for solution and robot control.

【0003】ニューラルネットワークの重要な機能のひ
とつは、学習によって、与えられたデータ間の関係を自
動的に確立することである。このため、予めアルゴリズ
ムのわかっていない処理に対しても適応能力がある。
One of the important functions of neural networks is to automatically establish relationships between given data by learning. Therefore, it has an adaptive ability even for a process whose algorithm is unknown.

【0004】学習方法にはいろいろな種類があるが、誤
り訂正学習法は広く検討されているもののひとつであ
る。これはニューラルネットワークの出力と正しい答え
である教師信号とが食い違っていた時にそれを正すよう
に結合強度を変更していく学習法である。なかでも、
「誤差逆伝搬学習法」(バックプロパゲーション法とも
いう、以下、BP法と略記)は能力が高く、様々な応用
が検討されている。これを以下に簡単に説明する。
Although there are various kinds of learning methods, the error correction learning method is one that has been widely studied. This is a learning method that changes the coupling strength to correct the output of the neural network and the correct answer, the teacher signal, when they are different. Above all,
The “error back-propagation learning method” (also referred to as backpropagation method, hereinafter abbreviated as BP method) has high capability and various applications have been studied. This will be briefly described below.

【0005】ネットワークの構成は層状ネットワークで
層内のニューロン間には結合がなく、層間のニューロン
間は相互に結合し、信号は入力層から中間層を経て出力
層に一方通行で伝わるものである。
The structure of the network is a layered network in which there is no connection between neurons in the layers, connections are made between neurons in layers, and signals are transmitted in one way from the input layer to the output layer via the intermediate layer. .

【0006】図4は3層ネットワーク構造の概念図を示
す。BP法については文献:“PARALLEL DISTRIBUTED P
ROCESSING ”(パラレル・ディストリビューティッド・
プロセシング)D.E.Rumelhart, J.L.McClelland, and t
he PDP Research Group (D.E. ラメルハート、J.L.マッ
カランドとPDP 研究グループ) 、MIT Press,1986年第1
巻第8章(318ページ〜)などに詳しく述べられてい
るが、ここでは結果だけを簡単に説明する。
FIG. 4 shows a conceptual diagram of a three-layer network structure. For the BP method, refer to the document: "PARALLEL DISTRIBUTED P
ROCESSING ”(Parallel Distributed
Processing) DE Rumelhart, JLMcClelland, and t
he PDP Research Group (DE Ramelhart, JL McCarland and PDP Research Group), MIT Press, 1st 1986
Volume 8 (page 318-) and the like are described in detail, but only the results will be briefly described here.

【0007】出力層に近い方を上層、入力層に近い方を
下方と定義すると、ある上層ニューロンiと、すぐ下の
下層ニューロンjについては以下の入出力関係が成り立
つ。
When the layer closer to the output layer is defined as the upper layer and the layer closer to the input layer is defined as the lower layer, the following input / output relationship is established for a certain upper layer neuron i and a lower layer neuron j immediately below.

【数1】 ここで、ui 及びoi はそれぞれニューロンiの内部状
態及び出力値であり、w ijはシナプス結合強度である。
伝達関数fは出力値が有限の単調増加なS字型の関数
で、よく用いられる関数としてはロジスティック関数;
[Equation 1]Where uiAnd oiIs the internal state of each neuron i
State and output value, w ijIs the synaptic bond strength.
The transfer function f is an S-shaped function whose output value is finite and monotonically increasing.
And a logistic function is often used;

【数2】 がある。ここで、λはニューロンのゲインを表す係数で
ある。
[Equation 2] There is. Here, λ is a coefficient that represents the gain of the neuron.

【0008】次に、学習アルゴリズムは以下のようにな
る。学習の進み具合を評価する評価関数Eは出力信号と
教師信号との差(誤差)で表され、通常出力層ニューロ
ンの出力をoi 、教師信号をti として
Next, the learning algorithm is as follows. The evaluation function E for evaluating the progress of learning is expressed by the difference (error) between the output signal and the teacher signal, where the output of the normal output layer neuron is o i and the teacher signal is t i.

【数3】 とする。学習はこの評価関数が小さくなるように結合強
度wijを変化させていく過程である。通常のBP学習で
は最急降下法と呼ばれる方法が採用され、結合強度の変
化量は、
[Equation 3] And Learning is a process of changing the coupling strength w ij so that the evaluation function becomes smaller. In normal BP learning, a method called steepest descent method is adopted, and the change amount of the bond strength is

【数4】 で表される。ここでεは修正量を決める学習パラメータ
である。これを微分のチェーンルールで書き換えていく
と、
[Equation 4] It is represented by. Here, ε is a learning parameter that determines the correction amount. Rewriting this with the differential chain rule,

【数5】 となる。[Equation 5] Becomes

【0009】出力層ニューロンiにおいて(6)式は ζi =ti −oi (10) となるので、中間層ニューロンjとの間のシナプス結合
強度の修正量Δwijは、(9)式で与えられる。
Since the expression (6) in the output layer neuron i is ζ i = t i −o i (10), the correction amount Δw ij of the synaptic connection strength with the intermediate layer neuron j is expressed by the expression (9). Given in.

【0010】以下再び、(8)、(7)及び(9)式を
順に用いて、下層に向かってシナプス強度修正量を計算
していく。このように学習用の信号は本来処理すべき信
号とは逆の方向に伝搬していく。よって、以後ζを逆伝
搬信号と呼ぶ。
Thereafter, again using equations (8), (7) and (9), the synaptic strength correction amount is calculated toward the lower layer. In this way, the learning signal propagates in the direction opposite to the signal to be originally processed. Therefore, ζ is hereinafter referred to as a back propagation signal.

【0011】以上の計算を入力データと教師データの各
組について何度も繰り返し行っていくと、(4)式で示
される出力誤差が小さくなるように学習が進んでいく。
When the above calculation is repeated many times for each set of input data and teacher data, learning progresses so that the output error shown in equation (4) becomes smaller.

【0012】BP学習をアナログLSIで実行するひと
つの方法は、文献:「T. Morie, O.Fujita, and Y. Ame
miya,“Analog VLSI Implementation of Adaptive Algo
rithms by an Extended Hebbian Synapse Circuit, ”I
EICE Trans. Electron., vol. E75-C, pp. 303-311, 19
92 」または、特願平2−402928に述べられてい
る。
One method for performing BP learning on an analog LSI is described in the literature: "T. Morie, O. Fujita, and Y. Ame.
miya, “Analog VLSI Implementation of Adaptive Algo
rithms by an Extended Hebbian Synapse Circuit, ”I
EICE Trans. Electron., Vol. E75-C, pp. 303-311, 19
92 "or Japanese Patent Application No. 2-402928.

【0013】ここで、図5に従来のBP学習内蔵型アナ
ログニューラルネットワーク回路構成を示す。同図
(A)は同図(B)の構成のBPニューロン・ブロック
i と同図(C)の構成のシナプスブロックSijにより
構成された2−2−2BPネットを示す。同図(B)の
BPニューロン・ブロックNi は、乗算器M1〜M6
と、差動アンプA1、導関数生成回路30より構成され
る。式(1)で求められる量が乗算器M2,M3に入力
される。乗算器M3に入力された信号は、oj =f(u
i )と変換され、出力される。一方、乗算器M2に入力
された信号は、導関数発生回路30を経て、誤差信号δ
i を出力する。
FIG. 5 shows a conventional BP learning built-in type analog neural network circuit configuration. Fig (A) shows the 2-2-2BP nets constituted by synapse blocks S ij of the structure of BP neuron blocks N i and drawing of the configuration of FIG. (B) (C). The BP neuron block N i in FIG. 9B has multipliers M1 to M6.
And a differential amplifier A1 and a derivative function generation circuit 30. The amount obtained by the equation (1) is input to the multipliers M2 and M3. The signal input to the multiplier M3 is o j = f (u
i )) and output. On the other hand, the signal input to the multiplier M2 is passed through the derivative generating circuit 30 and the error signal δ
Output i .

【0014】また、同図(C)のシナプス・ブロックS
ijは、乗算器M4〜M6と、結合強度制御回路(以下W
PUと略記)31から構成される。シナプス・ブロック
では下層ニューロン回路jからの出力値であるoj とW
PU31からの出力値wijが乗算器M6に入力され、そ
の乗算結果であるwijj が上層ニューロンブロックに
出力される。また、乗算器M5には入力信号として下層
ニューロンjからの出力値であるoj と上層ニューロン
iからの誤差信号δi が入力され、この2つの値が乗算
される。その結果ΔwijはWPU31の入力となる。W
PU31はシナプス結合強度を記憶すると共に入力され
た結合強度修正信号に基づいて結合強度の修正を行い、
その値を乗算器M4及びM6に出力する。乗算器M4は
誤差信号δi とΔwijを乗算してwijδi を出力する。
The synapse block S shown in FIG.
ij is a multiplier M4 to M6 and a coupling strength control circuit (hereinafter W
(Abbreviated as PU) 31. In the synapse block, the output values o j and W from the lower neuron circuit j
The output value w ij from the PU 31 is input to the multiplier M6, and the multiplication result w ij o j is output to the upper layer neuron block. The error signal [delta] i from the multiplier M5, which is the output value from the lower layer neuron j as input signals o j and the upper layer neuron i is input, the two values are multiplied. As a result, Δw ij becomes an input of WPU 31. W
The PU 31 stores the synaptic bond strength and corrects the bond strength based on the input bond strength correction signal,
The value is output to the multipliers M4 and M6. The multiplier M4 multiplies the error signal δ i and Δw ij and outputs w ij δ i .

【0015】図6は、図5(C)の結合強度制御回路
(WPU)の構成を示す。また、図7は図5(B),
(C)に用いられている差動アンプA1、乗算器M1〜
M6の構成を示す。図7(A)の差動アンプはノイズや
基準レベルの変動に強い差動型のアンプであり、適切な
アナログ動作を行うためのバイアス電圧が印加される。
図7(B)の乗算器は、同様に適切なバイアス電圧が印
加された電圧入力・電流出力の差動型四象限乗算器であ
る。
FIG. 6 shows the configuration of the coupling strength control circuit (WPU) shown in FIG. 5 (C). In addition, FIG. 7 shows FIG.
The differential amplifier A1 and the multipliers M1 to M1 used in FIG.
The structure of M6 is shown. The differential amplifier in FIG. 7A is a differential amplifier that is resistant to noise and fluctuations in the reference level, and a bias voltage for performing an appropriate analog operation is applied.
The multiplier shown in FIG. 7B is a voltage input / current output differential four-quadrant multiplier to which an appropriate bias voltage is applied.

【0016】図8は図5(B)に示す導関数生成回路3
0の回路図である。導関数生成回路30は、式(7)で
用いられる伝達関数fの導関数f’を求める。これは、
式(3)より
FIG. 8 shows the derivative function generating circuit 3 shown in FIG.
It is a circuit diagram of 0. The derivative generating circuit 30 obtains a derivative f ′ of the transfer function f used in the equation (7). this is,
From equation (3)

【数6】 が成り立つので、乗算器を利用した自乗演算回路を少し
改変したもので計算できるのである。
[Equation 6] Therefore, the square operation circuit using the multiplier can be calculated with a slight modification.

【0017】ここで、図5(C)に用いられている結合
強度制御回路WPU(以下WPU回路)の動作原理を図
6により説明する。
The operating principle of the coupling strength control circuit WPU (hereinafter referred to as WPU circuit) used in FIG. 5C will be described with reference to FIG.

【0018】WPU回路の電圧−パルス変換回路10で
は、入力端子13、14から入力されたアナログ信号で
ある結合強度修正信号Δwijを三角波形を有する比較電
圧端子15から入力された比較信号と比較することによ
って、入力信号電圧に比例したパルス幅を有する複数の
パルス信号に変換し、これをもとに記憶素子であるフロ
ーティングゲート素子またはキャパシタなどの電荷蓄積
素子に対して電荷の注入・引抜きを行う。記憶回路11
では記憶素子の書込み特性の非線形性(ヒステリシス)
を緩和するため、フィードバック回路を付加して、記憶
素子に常に一定の書込みバイアスが印加されるようにし
てある。結合強度wijはこの電荷量に比例した電圧とし
て読み出され、出力される。パルス信号で書込みを行う
理由はアナログ電圧で行う場合に比べて書込み精度(線
形性)が向上するからである。また、結合強度の初期化
については、WPU回路の入力と出力を反転して結合す
ることにより結合強度をほぼ0にすることができる。
In the voltage-pulse conversion circuit 10 of the WPU circuit, the coupling strength correction signal Δw ij which is an analog signal inputted from the input terminals 13 and 14 is compared with the comparison signal inputted from the comparison voltage terminal 15 having a triangular waveform. By converting into a plurality of pulse signals having a pulse width proportional to the input signal voltage, the charge injection / extraction to / from the charge storage element such as a floating gate element or a capacitor, which is a storage element, is performed based on this. To do. Memory circuit 11
Then, the non-linearity (hysteresis) of the writing characteristics of the memory element
To alleviate the problem, a feedback circuit is added so that a constant write bias is always applied to the storage element. The coupling strength w ij is read and output as a voltage proportional to this charge amount. The reason for writing with a pulse signal is that writing accuracy (linearity) is improved as compared with the case of performing writing with an analog voltage. Regarding the initialization of the coupling strength, the coupling strength can be made almost zero by inverting and coupling the input and output of the WPU circuit.

【0019】[0019]

【発明が解決しようとする課題】一般にアナログ回路で
BP学習を行う場合、計算精度が十分得られにくいとい
う問題がある。ディジタル回路の場合は計算が回路で決
定されるビット精度の固定小数点演算となるので、学習
能力に及ぼす影響をシミュレーションしやすいが、アナ
ログ回路の場合はいろいろな要因を考慮しなければなら
ないので、あまり検討されていない。われわれが検討し
た結果は上記の文献に述べられているが、BP学習に及
ぼす影響が極端に大きいのは、学習過程で加わる時間的
に一定なオフセット誤差である。これは、式(8)及び
(9)を以下のようにおくことにより、
Generally, when BP learning is performed by an analog circuit, there is a problem that it is difficult to obtain sufficient calculation accuracy. In the case of a digital circuit, the calculation is a bit-precision fixed-point operation that is determined by the circuit, so it is easy to simulate the effect on the learning ability, but in the case of an analog circuit, various factors must be taken into consideration, so much Not considered. Although the result of our study is described in the above-mentioned document, it is the time-constant offset error added in the learning process that has an extremely large effect on the BP learning. This is done by setting equations (8) and (9) as follows:

【数7】 [Equation 7]

【0020】図5の例において、乗算器M4,M5に生
じるオフセットに相当する。両者は同程度に学習に影響
するが、乗算器M5の学習に成功する割合のシミュレー
ション結果を示す。
In the example of FIG. 5, this corresponds to the offset generated in the multipliers M4 and M5. Although both influence learning to the same extent, the simulation result of the rate of successful learning of the multiplier M5 is shown.

【0021】図9は従来のBP学習回路において乗算器
M5でのオフセット誤差が学習成功率に及ぼす影響を示
すシミュレーション結果である。同図は、従来のBP学
習回路において、乗算器M5に最大オフセット量で上限
を規定された任意の量のオフセットがランダムに組み込
まれた場合の学習成功率を示す。結合強度は[−1,
1]に限定してあるので、オフセット量はこの意味で規
格化されている。このシミュレーション結果は、2−2
−1の三層ネットークで排他論理和の関係を学習させた
結果であり、その場合の学習パラメータは、ε=0.0
1である。
FIG. 9 is a simulation result showing the effect of the offset error in the multiplier M5 on the learning success rate in the conventional BP learning circuit. This figure shows the learning success rate when an arbitrary amount of offset whose upper limit is defined by the maximum offset amount is randomly incorporated in the multiplier M5 in the conventional BP learning circuit. The bond strength is [-1,
1], the offset amount is standardized in this sense. This simulation result is 2-2
This is the result of learning the relation of exclusive OR with the three-layer network of -1, and the learning parameter in that case is ε = 0.0.
It is 1.

【0022】同図により、ニューロンの状態または、結
合強度の飽和値に比べて、0.5%程度以上のオフセッ
トがあると学習の成功率がかなり低下することがわか
る。オフセット誤差により学習能力が劣化する理由は、
学習則に従った結合強度変更量に加えて、オフセット誤
差による常に一定の変更が加わるために、学習が間違っ
た方向に進むこと、及び教師信号とネットワーク出力の
誤差がなくなってもオフセットによる変更が進むので、
正しい収束点に達しないということである。
From the figure, it can be seen that the learning success rate is significantly reduced when there is an offset of about 0.5% or more compared with the neuron state or the saturation value of the coupling strength. The reason why the learning ability deteriorates due to the offset error is
In addition to the amount of change in the coupling strength according to the learning rule, a constant change due to the offset error is always added, so that learning proceeds in the wrong direction, and even if there is no error between the teacher signal and the network output, the change due to the offset Because I will proceed
It means that the correct convergence point is not reached.

【0023】以上、BP学習に関してオフセットの影響
を説明したが、これは、教師信号とネットワーク出力の
差を最小にする誤り訂正学習法では一般的に生じる問題
である。このようなオフセットはLSI製造プロセスで
のパラメータばらつきなどで生じ、精度良く作られた差
動回路を用いたとしても10mV程度のオフセットがあ
り、完全に除去することはできない。
Although the influence of the offset on the BP learning has been described above, this is a problem that generally occurs in the error correction learning method that minimizes the difference between the teacher signal and the network output. Such an offset occurs due to parameter variations in the LSI manufacturing process, and even if an accurately made differential circuit is used, there is an offset of about 10 mV and it cannot be completely removed.

【0024】さらに、ニューラルネットワークLSIで
は高集積化が必要なために、素子数の多い高精度の回路
を採用することが難しく、簡略化した回路を用いること
が多いが、その場合は、さらにオフセット量が増加す
る。従って、アナログ回路でBP学習を行うと効率がか
なり落ちることになる。また、図7(A)のような差動
アンプを採用すると、素子数が2倍近くになるので、回
路面積や配線量、必要なパッケージのピン数が増加する
だけでなく、定電流源を用いているために消費電力が増
加するので高集積化が難しくなるという問題がある。
Further, since the neural network LSI requires a high degree of integration, it is difficult to adopt a highly accurate circuit having a large number of elements, and a simplified circuit is often used. The amount increases. Therefore, if BP learning is performed by an analog circuit, the efficiency will be considerably reduced. Further, when the differential amplifier as shown in FIG. 7A is adopted, the number of elements is nearly doubled, so that not only the circuit area, the amount of wiring, and the number of necessary package pins are increased, but also a constant current source is used. There is a problem that high integration is difficult because the power consumption increases due to the use.

【0025】本発明は上記の点に鑑みなされたもので、
上記問題点を解決し、ニューラル回路の学習法におい
て、回路のオフセット誤差による不完全な学習を回避す
るためのアナログニューラルネットワーク回路を提供す
ることを目的とする。
The present invention has been made in view of the above points,
It is an object of the present invention to solve the above problems and to provide an analog neural network circuit for avoiding incomplete learning due to the offset error of the circuit in the learning method of the neural circuit.

【0026】[0026]

【課題を解決するための手段】本発明のアナログニュー
ラルネットワーク回路は、所定の入力パターンベクトル
とそれに対応する教師パターンベクトルからなる学習パ
ターンベクトルを複数個学習するために、教師パターン
ベクトルと、入力パターンベクトルに対応するネットワ
ーク出力パターンベクトルとの差で定義される誤差信号
を最小にする方向に結合強度を更新する所定の学習則を
実行する回路を組み込んだアナログニューラルネットワ
ーク回路において、学習パターンベクトルを学習するた
めの学習過程が教師パターンベクトルを誤差信号として
所定の学習則を実行し、第1の結合強度変更量を計算す
る過程と、ネットワーク出力パターンベクトルを誤差信
号として学習則を実行し、第2の結合強度変更量を計算
する過程と、第1及び第2の結合強度変更量の差に比例
した量で結合強度を更新する過程とを有し、これら一連
の学習過程を複数の学習パターンについて繰り返すこと
により学習を行う回路を含む。
SUMMARY OF THE INVENTION An analog neural network circuit of the present invention uses a teacher pattern vector and an input pattern in order to learn a plurality of learning pattern vectors consisting of a predetermined input pattern vector and a teacher pattern vector corresponding thereto. Learning a learning pattern vector in an analog neural network circuit that incorporates a circuit that executes a predetermined learning rule that updates the coupling strength in the direction that minimizes the error signal defined by the difference between the vector and the network output pattern vector The learning process for performing a predetermined learning rule using the teacher pattern vector as an error signal, calculating the first coupling strength change amount, and the learning rule using the network output pattern vector as an error signal, Calculating the amount of change in bond strength of And a process of updating the beauty bond strength in an amount proportional to the difference between the second coupling strength change amount includes circuitry for performing learning by repeating the series of learning process for a plurality of learning patterns.

【0027】また、本発明のアナログニューラルネット
ワーク回路は、学習が教師パターンベクトルを誤差信号
として所定の学習則を実行し、第1の結合強度変更量を
計算し、第1の結合強度変更量に比例した量で結合強度
を更新する過程と、ネットワーク出力パターンベクトル
を誤差信号として学習則を実行し、第2の結合強度変更
量を計算し、第2の結合強度変更量の符号を変えた量に
比例した量で結合強度を更新する過程を実行する回路を
含む。
Further, in the analog neural network circuit of the present invention, the learning executes a predetermined learning rule by using the teacher pattern vector as an error signal, calculates the first coupling strength change amount, and calculates the first coupling strength change amount. A process in which the coupling strength is updated by a proportional amount and a learning rule is executed by using the network output pattern vector as an error signal to calculate the second coupling strength change amount, and the sign of the second coupling strength change amount is changed. A circuit for performing the process of updating the bond strength by an amount proportional to.

【0028】[0028]

【作用】本発明のアナログニューラルネットワーク回路
では、1回の学習は2つの相(フェーズ)に分けられ、
それぞれにおいて、学習信号(逆伝搬信号)として、教
師信号とネットワークの出力信号が与えられる。結合強
度は2つのフェーズでの変更量の差に比例して変更され
る。この方法では、各フェーズで一定にかかるオフセッ
ト誤差は差をとった段階で打ち消されてしまい、オフセ
ット誤差による学習への影響は全くなくなる。さらに、
学習パラメータを十分小さくしておけば、各フェーズの
差に従って結合強度を変更するのではなく、各フェーズ
毎に結合強度を変更していっても正しく学習が行われ
る。この場合、各フェーズでの結合強度変更量を記憶し
ておく必要がないので、ハードウェア化においても有利
である。以上の学習法は「学習」と「反学習」を繰り返
すボルツマンマシンの学習を誤り訂正学習に応用したも
のと考えるこことができる。
In the analog neural network circuit of the present invention, one learning is divided into two phases,
In each of them, a teacher signal and a network output signal are given as learning signals (counterpropagation signals). The bond strength is changed in proportion to the difference between the changes in the two phases. In this method, the offset error that is constant in each phase is canceled when the difference is obtained, and the offset error has no effect on learning. further,
If the learning parameter is made sufficiently small, the learning will be performed correctly even if the coupling strength is changed for each phase instead of changing the coupling strength according to the difference between the phases. In this case, since it is not necessary to store the coupling strength change amount in each phase, it is advantageous in hardware implementation. The above learning method can be considered as an application of Boltzmann machine learning in which “learning” and “anti-learning” are repeated to error correction learning.

【0029】本発明が提示する学習シーケンスは、教師
信号が与えられるユニットでの学習信号が教師信号とネ
ットワーク出力の線形結合で与えられ、且つ各結合強度
に対する変更量が学習信号に対して線形結合で与えられ
るような学習則に対して一般的に適用できる。
In the learning sequence presented by the present invention, the learning signal in the unit to which the teacher signal is given is given by the linear combination of the teacher signal and the network output, and the change amount for each coupling strength is linearly combined with the learning signal. It is generally applicable to learning rules such as those given by.

【0030】本発明は、誤り学習を教師信号とネットワ
ーク出力信号のそれぞれで独立に学習させ、それらの差
によって学習を進めるのでアナログ回路に不可避的に組
み込まれ、著しい学習能力劣化要因となるオフセット誤
差の影響を完全に打ち消すことができる。従って、演算
精度の低いアナログLSIでもBP学習など、高い精度
の要求される学習法を正しく実行することができる。
According to the present invention, the error learning is independently learned for each of the teacher signal and the network output signal, and the learning is advanced by the difference between them. Therefore, the offset error is inevitably incorporated in the analog circuit and causes a remarkable deterioration of the learning ability. The effect of can be completely canceled. Therefore, a learning method that requires high accuracy, such as BP learning, can be correctly executed even in an analog LSI having low calculation accuracy.

【0031】[0031]

【実施例】以下、本発明の実施例を従来技術の項で説明
したBP学習で説明する。本発明による学習法では、
(10)式として、 ζLi=ti (13) として学習を行うフェーズ(ボルツマンマシンの学習に
ならって、学習期とよんで、Lの添字を付ける)と、 ζUi=oi (14) として学習を行うフェーズ(反学習期と呼んで、Uの添
字を付ける。このときは結合強度変更量は符号を反転さ
せたものとなる)の一組で1回の学習過程とし、これを
繰り返すことで、学習を進める。これが本来のBP学習
と一致するのは(7)式から(9)式までが逆伝搬信号
ζに関して線形であるからである。各フェーズで(9)
式に相当する結合強度の変化量ΔwLij 及びΔwUij
それぞれ計算し、 Δwij=ε(ΔwLij −ΔwUij ) (15) に従って結合強度を変更する。
Embodiments of the present invention will be described below with reference to the BP learning described in the section of the prior art. In the learning method according to the present invention,
As equation (10), a phase for performing learning as ζ Li = t i (13) (following learning of Boltzmann machine is called a learning period, a subscript of L is added), and ζ Ui = o i (14) One set of learning phase (called anti-learning period, suffixed with U. At this time, the amount of change in the bond strength is the one with the sign reversed) is set as one learning process and repeated. Then, proceed with learning. This coincides with the original BP learning because the equations (7) to (9) are linear with respect to the backpropagation signal ζ. In each phase (9)
Change amounts Δw Lij and Δw Uij of the bond strength corresponding to the equation are calculated, and the bond strength is changed according to Δw ij = ε (Δw Lij −Δw Uij ) (15).

【0032】厳密には、上式のように各フェーズでの結
合強度変更量を計算してから、両者の差に比例した量で
実際の結合強度を変更しなければならないが、修正量を
決める学習パラメータεが十分小さければ、それぞれの
フェーズで結合強度を変更していっても(即ち学習期に
はεΔwLij だけ結合強度を変更し、反学習期には−ε
ΔwUij だけ結合強度を変更する)、学習は正しく行わ
れる。この方法のように、結合強度変更量を逐次計算し
ては、すぐに結合強度を変更していく方法を「オンライ
ン学習」と呼び、変更量を記憶しておく余分のメモリを
必要としないので、ハードウェア化には有利である。
Strictly speaking, it is necessary to calculate the amount of change in the bond strength in each phase as in the above equation, and then change the actual bond strength by an amount proportional to the difference between the two. If the learning parameter ε is sufficiently small, the bond strength is changed in each phase (that is, the bond strength is changed by εΔw Lij in the learning period, and −ε in the anti-learning period).
Learning is correctly performed by changing the coupling strength by Δw Uij ). Like this method, the method of sequentially calculating the bond strength change amount and immediately changing the bond strength is called "online learning", and it does not require an extra memory to store the change amount. It is advantageous for hardware implementation.

【0033】以上の学習法によれば、(11)乃至(1
2)式で示されたオフセット誤差による影響はすべて打
ち消されて学習結果には反映されてこないことが分か
る。
According to the above learning method, (11) to (1)
It can be seen that the influence of the offset error shown in the equation (2) is canceled out and is not reflected in the learning result.

【0034】次に本発明の学習方法を実行するアナログ
回路の回路構成の概要及び学習シーケンスについて説明
する。
Next, the outline of the circuit configuration of the analog circuit for executing the learning method of the present invention and the learning sequence will be described.

【0035】図1は本発明の一実施例のBP学習内蔵型
アナログニューラルネットワーク回路構成図を示し、図
2は図1における学習シーケンスを説明するタイミング
チャートを示す。本実施例では図5で示した従来例と殆
ど同じ回路ブロック及び回路アーキテクチャを使ってい
る。図2(A)はニューロンブロックN1 に入力される
入力信号であり、同図(B)は教師信号入力端子103
に入力される教師信号、同図(C)は逆伝搬信号切り替
えのクロック信号を示し、同図(D)はWPUの極性反
転端子101に印加される極性反転クロックφ2を示
す。
FIG. 1 shows a block diagram of an analog neural network circuit with built-in BP learning according to an embodiment of the present invention, and FIG. 2 shows a timing chart for explaining the learning sequence in FIG. This embodiment uses almost the same circuit block and circuit architecture as the conventional example shown in FIG. 2A shows an input signal input to the neuron block N 1 , and FIG. 2B shows a teacher signal input terminal 103.
, A clock signal for switching the backpropagation signal is shown in FIG. 6C, and a polarity inversion clock φ2 applied to the polarity inversion terminal 101 of the WPU is shown in FIG.

【0036】図1のニューラルネットワーク回路が図5
の回路と異なる点は、各学習パターンについて結合強度
変更回路における極性反転と逆伝搬信号入力部とを同期
的にスイッチングして上記の学習法を実行している点で
ある。
The neural network circuit of FIG. 1 is shown in FIG.
The point different from the circuit of (1) is that the above-mentioned learning method is executed by synchronously switching the polarity inversion and the back propagation signal input section in the coupling strength changing circuit for each learning pattern.

【0037】即ち、図5の従来では教師信号と出力ニュ
ーロンの出力との差が差動アンプによって計算され、逆
伝搬信号としてネットワークに送り返されていたが、図
1の実施例では教師信号と出力ニューロンの出力とを逆
誤差伝搬信号切り換え端子100によって切り換えなが
ら、各信号をネットワークに送り返す。そのタイミング
は図2において逆伝搬信号切り換えのクロック信号φ1
として示しているが、学習パタン1個を提示している間
に、同じ時間だけ教師信号とネットワーク出力がそれぞ
れ逆伝搬するように切り替える。このとき同時に、結合
強度修正の符号が反転するように、極性反転クロックφ
2をWPUの極性反転端子101(図6)に印加する。
That is, in the prior art of FIG. 5, the difference between the teacher signal and the output of the output neuron was calculated by the differential amplifier and sent back to the network as a backpropagation signal, but in the embodiment of FIG. 1, the teacher signal and the output. Each signal is sent back to the network while switching between the output of the neuron and the reverse error propagation signal switching terminal 100. The timing is the clock signal φ1 for switching the backward propagation signal in FIG.
However, while presenting one learning pattern, the teacher signal and the network output are switched so as to backpropagate for the same time. At the same time, the polarity reversal clock φ
2 is applied to the polarity reversal terminal 101 (FIG. 6) of the WPU.

【0038】結合強度制御回路(WPU)では、従来の
技術の項で説明したように、アナログ信号で入力された
結合強度修正信号Δwijをパルス信号に変換している
が、ここに、排他論理和回路を挿入して結合強度修正信
号を反転することが可能になっている。すなわち、図6
で示した極性反転端子101は、回路図から明らかなよ
うに、その端子にHighかLow を入力するに従って、それ
ぞれ、シナプスブロックのWPU回路に入力された結合
強度修正信号Δwijのままか、符号を反転した量に比例
して、結合強度を変更させる。従来のBP学習では、修
正信号の反転は必要なかったので、極性反転端子101
は常にHighに固定されていた。
In the coupling strength control circuit (WPU), the coupling strength correction signal Δw ij inputted as an analog signal is converted into a pulse signal as described in the section of the prior art. It is possible to insert a summing circuit to invert the coupling strength correction signal. That is, FIG.
As is clear from the circuit diagram, the polarity reversal terminal 101 indicated by is either the coupling strength correction signal Δw ij input to the WPU circuit of the synapse block as the High or Low is input to the terminal, or the sign The bond strength is changed in proportion to the amount of reversal. In the conventional BP learning, it is not necessary to invert the correction signal, so the polarity inversion terminal 101
Was always fixed at High.

【0039】図3は本発明の学習法を用いた場合の乗算
器M5でのオフセット誤差が学習成功率に及ぼす影響を
示すシミュレーション結果を示す。同図に示すシミュレ
ーションの条件は従来の技術の項で述べた(図9)の乗
算器M5と同様である。同図から明らかなようにオフセ
ット誤差の影響を打ち消しているのが分かる。
FIG. 3 shows a simulation result showing the effect of the offset error in the multiplier M5 on the learning success rate when the learning method of the present invention is used. The conditions of the simulation shown in the same figure are the same as those of the multiplier M5 described in the section of the prior art (FIG. 9). As can be seen from the figure, the effect of the offset error is canceled.

【0040】[0040]

【発明の効果】上述のように、従来技術で説明したBP
学習機能内蔵型のアナログニューラルネットワーク回路
において、本発明を適用する場合、回路構成上の変更点
は極めて僅かであり、学習動作シーケンスにクロック動
作が付加させるだけであるが、アナログ回路に不可避的
に組み込まれ、著しい学習能力劣化要因となるオフセッ
ト誤差の影響を完全に消去することができる効果は極め
て大きい。
As described above, the BP described in the prior art is used.
In the case of applying the present invention to an analog neural network circuit with a built-in learning function, the changes in the circuit configuration are extremely small, and only a clock operation is added to the learning operation sequence, but it is unavoidable in the analog circuit. The effect of being incorporated and capable of completely eliminating the influence of the offset error, which causes a significant deterioration of the learning ability, is extremely large.

【0041】オフセットの問題を考慮する必要がなくな
ったために、差動回路を動作ばらつきの大きいサブスレ
ショルド領域で動作させることが可能になり、低消費電
力の高集積なアナログLSIを作ることが可能になる。
Since it is no longer necessary to consider the problem of offset, it becomes possible to operate the differential circuit in the subthreshold region where the operation variation is large, and it is possible to make a highly integrated analog LSI with low power consumption. Become.

【0042】さらに、素子数が多くなる差動回路を採用
することさえ必ずしも必要でなくなり、より高集積なア
ナログニューラルネットワークLSIを作ることができ
る。また、この回路構成は差動回路などの構成が取りに
くい光回路でも有効に採用することができ、学習機能を
内蔵した高機能高集積光ニューラルネットワークの開発
が可能となる。
Furthermore, it is not always necessary to employ a differential circuit having a large number of elements, and a more highly integrated analog neural network LSI can be manufactured. In addition, this circuit configuration can be effectively adopted even in an optical circuit such as a differential circuit which is difficult to take, and it becomes possible to develop a highly functional and highly integrated optical neural network having a built-in learning function.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例のBP学習内蔵型アナログニ
ューラルネットワーク回路構成図である。
FIG. 1 is a block diagram of an analog neural network circuit with built-in BP learning according to an embodiment of the present invention.

【図2】図1における学習シーケンスを示すタイミング
チャートである。
FIG. 2 is a timing chart showing a learning sequence in FIG.

【図3】本発明の学習法を用いた場合の乗算器M5(図
5(C))でのオフセット誤差が学習成功率に及ぼす影
響を示すシミュレーション結果を示す図である。
FIG. 3 is a diagram showing a simulation result showing an influence of an offset error in the multiplier M5 (FIG. 5 (C)) on the learning success rate when the learning method of the present invention is used.

【図4】ニューラルネットワークの概念を表した図(3
層ネットワーク構造)である。
FIG. 4 is a diagram showing a concept of a neural network (3
Layer network structure).

【図5】従来のBP学習内蔵型アナログニューラルネッ
トワークの構成を示す図である。
FIG. 5 is a diagram showing a configuration of a conventional analog neural network with built-in BP learning.

【図6】図5(C)の結合強度回路(WPU)の構成図
である。
6 is a configuration diagram of the coupling strength circuit (WPU) of FIG. 5 (C).

【図7】図5(B)(C)に用いられている差動アンプ
と乗算器の回路構成図である。
FIG. 7 is a circuit configuration diagram of a differential amplifier and a multiplier used in FIGS. 5B and 5C.

【図8】図5(B)導関数生成回路の回路図である。FIG. 8 is a circuit diagram of the derivative generation circuit of FIG.

【図9】従来のBP学習回路において乗算器M5でのオ
フセット誤差が学習成功率に及ぼす影響を示すシミュレ
ーション結果を示す図である。
FIG. 9 is a diagram showing a simulation result showing an influence of an offset error in a multiplier M5 on a learning success rate in a conventional BP learning circuit.

【符号の説明】[Explanation of symbols]

A1 差動アンプ M1〜M6 乗算器 10 電圧パルス変換回路 11 記憶回路 12 差動アンプ 13,14 入力端子 30 導関数生成回路 31 結合強度制御回路(WPU) 100 逆伝搬信号切り替え端子 101 極性反転端子 103 教師信号入力端子 ui ニューロンiの内部状態 oi ニューロンiの出力値 wij シナプス結合強度 f 伝達関数 λ ニューロンのゲインを表す係数 ti 教師信号 ε 修正量を決める学習パラメータ Δwij 結合強度の変化量 ζ 逆伝搬信号A1 Differential amplifier M1 to M6 Multiplier 10 Voltage pulse conversion circuit 11 Storage circuit 12 Differential amplifier 13,14 Input terminal 30 Derivative function generation circuit 31 Coupling strength control circuit (WPU) 100 Back propagation signal switching terminal 101 Polarity inversion terminal 103 Teacher signal input terminal u i Internal state of neuron i Output value of o i neuron i w ij Synapse coupling strength f Transfer function λ Neuron gain coefficient t i Teacher signal ε Learning parameter Δw ij Change in coupling strength Quantity ζ backpropagation signal

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 所定の入力パターンベクトルと該ベクト
ルに対応する教師パターンベクトルからなる学習パター
ンベクトルを複数個学習するために、該教師パターンベ
クトルと、該入力パターンベクトルに対応するネットワ
ーク出力パターンベクトルとの差で定義される誤差信号
を最小にする方向に結合強度を更新する所定の学習則を
実行する回路を組み込んだアナログニューラルネットワ
ーク回路において、 該学習パターンベクトルを学習するための学習過程が該
教師パターンベクトルを誤差信号として該所定の学習則
を実行し、第1の結合強度変更量を計算する過程と、 該ネットワーク出力パターンベクトルを誤差信号として
該学習則を実行し、第2の結合強度変更量を計算する過
程と、 第1及び第2の結合強度変更量の差に比例した量で結合
強度を更新する過程とを有し、該過程を複数の学習パタ
ーンについて繰り返すことにより学習を行う回路を含む
ことを特徴とするアナログニューラルネットワーク回
路。
1. To learn a plurality of learning pattern vectors consisting of a predetermined input pattern vector and a teacher pattern vector corresponding to the vector, the teacher pattern vector and a network output pattern vector corresponding to the input pattern vector. In an analog neural network circuit that incorporates a circuit that executes a predetermined learning rule that updates the coupling strength in the direction that minimizes the error signal defined by the difference between the learning pattern vector and the learning pattern vector, A process of executing the predetermined learning rule by using a pattern vector as an error signal and calculating a first coupling strength change amount, and executing the learning rule by using the network output pattern vector as an error signal, and changing the second coupling strength change. The process of calculating the amount and the amount proportional to the difference between the first and second bond strength change amounts An analog neural network circuit including a circuit for performing learning by repeating the process for a plurality of learning patterns.
【請求項2】 前記学習が前記教師パターンベクトルを
誤差信号として前記所定の学習則を実行し、第1の結合
強度変更量を計算し、該第1の結合強度変更量に比例し
た量で結合強度を更新する過程と、前記ネットワーク出
力パターンベクトルを誤差信号として前記学習則を実行
し、第2の結合強度変更量を計算し、該第2の結合強度
変更量の符号を変えた量に比例した量で結合強度を更新
する過程から成ることを特徴とする請求項1記載のアナ
ログニューラルネットワーク回路。
2. The learning executes the predetermined learning rule by using the teacher pattern vector as an error signal, calculates a first coupling strength change amount, and combines the first coupling strength change amount by an amount proportional to the first coupling strength change amount. The process of updating the strength, the learning rule is executed by using the network output pattern vector as an error signal, the second coupling strength change amount is calculated, and the second coupling strength change amount is proportional to the changed sign. 2. The analog neural network circuit according to claim 1, comprising the step of updating the bond strength by the amount.
JP4276307A 1992-10-14 1992-10-14 Analog neural network circuit Pending JPH06131482A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4276307A JPH06131482A (en) 1992-10-14 1992-10-14 Analog neural network circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4276307A JPH06131482A (en) 1992-10-14 1992-10-14 Analog neural network circuit

Publications (1)

Publication Number Publication Date
JPH06131482A true JPH06131482A (en) 1994-05-13

Family

ID=17567635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4276307A Pending JPH06131482A (en) 1992-10-14 1992-10-14 Analog neural network circuit

Country Status (1)

Country Link
JP (1) JPH06131482A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007212700A (en) * 2006-02-09 2007-08-23 Nagoya Institute Of Technology Analog electronic circuit for active noise canceling system
WO2022029532A1 (en) * 2020-08-03 2022-02-10 株式会社半導体エネルギー研究所 Semiconductor device and electronic equipment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007212700A (en) * 2006-02-09 2007-08-23 Nagoya Institute Of Technology Analog electronic circuit for active noise canceling system
WO2022029532A1 (en) * 2020-08-03 2022-02-10 株式会社半導体エネルギー研究所 Semiconductor device and electronic equipment

Similar Documents

Publication Publication Date Title
EP0357016B1 (en) Neuron architecture
JP4620943B2 (en) Product-sum operation circuit and method thereof
US5056037A (en) Analog hardware for learning neural networks
US5630023A (en) Signal processor
JPH02193251A (en) Error backward propagation and nerve network system
CN111340203A (en) Neuromorphic system performing supervised learning using error backpropagation
EP0621549B1 (en) Nonlinear operation unit and data processing apparatus using the nonlinear operation unit
JPH0318985A (en) Information processor
JPH06131482A (en) Analog neural network circuit
JPH07210534A (en) Neural network
JPH076146A (en) Parallel data processing system
US5689621A (en) Modular feedforward neural network architecture with learning
JPH04216160A (en) Neural network circuit
JPH05128284A (en) Neuro-processor
Moreno et al. An analog systolic neural processing architecture
JPH09185596A (en) Coupling coefficient updating method in pulse density type signal processing network
Gencer et al. Design of An Analog Circuit-Based Artificial Neural Network
JPH04112355A (en) Self-learning type analog neuron circuit
JP3095798B2 (en) Analog back-propagation learning circuit and its driving method
JP2979562B2 (en) Learning processing device
JPH07113942B2 (en) Neurochip combiner
Zahner et al. Multilayer perceptrons with ALOPEX: 2D-template matching and VLSI implementation
JP3110434B2 (en) Analog backpropagation learning circuit
JP3137996B2 (en) Neural network using membership function and its learning method
JP3338713B2 (en) Signal processing device