JP3095798B2 - Analog back-propagation learning circuit and its driving method - Google Patents

Analog back-propagation learning circuit and its driving method

Info

Publication number
JP3095798B2
JP3095798B2 JP03048180A JP4818091A JP3095798B2 JP 3095798 B2 JP3095798 B2 JP 3095798B2 JP 03048180 A JP03048180 A JP 03048180A JP 4818091 A JP4818091 A JP 4818091A JP 3095798 B2 JP3095798 B2 JP 3095798B2
Authority
JP
Japan
Prior art keywords
learning
layer
input
output
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03048180A
Other languages
Japanese (ja)
Other versions
JPH04283884A (en
Inventor
豊栄 森泉
高道 中本
秀昭 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Corp filed Critical Japan Science and Technology Corp
Priority to JP03048180A priority Critical patent/JP3095798B2/en
Publication of JPH04283884A publication Critical patent/JPH04283884A/en
Application granted granted Critical
Publication of JP3095798B2 publication Critical patent/JP3095798B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、ニューラルネットワー
クのハードウェア化を図ったアナログ逆伝搬学習回路と
その駆動方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an analog back-propagation learning circuit in which a neural network is implemented as hardware and a driving method thereof.

【0002】[0002]

【従来の技術】近年、生体の神経系を模倣したニューラ
ルネットワークによる情報処理の研究が進んでいる。さ
まざまなモデルが提案されるとともに、パターン認識、
最適化問題等の分野において、従来のノイマン型コンピ
ュータより優れていることが確認されてきた。
2. Description of the Related Art In recent years, research on information processing using a neural network imitating the nervous system of a living body has been advanced. Various models are proposed, pattern recognition,
It has been confirmed that it is superior to conventional Neumann computers in fields such as optimization problems.

【0003】しかし、汎用プロッセサ上のソフトウェア
シミュレーションでは、ネットワークを大規模化するこ
とにより急激に計算量が増加して、高速に処理を行なう
ことには問題がある。そこで、LSIを中心とした回路
技術によるハードウェア化の研究が行なわれている。当
初は重み係数固定のホップフィルド(Hopfiel
d)モデルのLSI化が行なわれていたが、その後、シ
ナプス結合を可変にする機能を持ったLSIが研究され
ている。しかし、学習機能を持ったネットワークのハー
ドウェア化の研究はまだ不十分である。
However, in software simulation on a general-purpose processor, there is a problem in that a large-scale network causes a sudden increase in the amount of calculation and high-speed processing. Therefore, research on hardware implementation using circuit technology centered on LSIs has been conducted. Initially, the hop field (Hopfield) with a fixed weighting factor
d) The model has been implemented as an LSI, but subsequently, an LSI having a function of making synaptic connections variable has been studied. However, research on hardware implementation of networks with learning functions is still inadequate.

【0004】本願の発明者らは、複数センサ出力パター
ンをニューラルネットワークでパターン認識して、ガス
・においを識別するセンシングシステムを研究してい
る。このパターン認識を現在ソフトウェアシミュレーシ
ョンで行なっているが、小型で可搬型のシステムを作る
には、学習機能を含めた専用ハードウェアの開発が必要
である。
[0004] The inventors of the present application are studying a sensing system for recognizing gas or odor by performing pattern recognition of a plurality of sensor output patterns using a neural network. Currently, this pattern recognition is performed by software simulation, but in order to create a small and portable system, it is necessary to develop dedicated hardware including a learning function.

【0005】ところで、ニューラルネットワークには、
相互結合型と層状ネットワークがある。前者は最適化問
題、後者はパターン認識、制御等への応用が検討されて
いる。逆伝搬学習法はフィードバック結合を持たない層
状ネットワークの学習則として知られている。ネットワ
ークは、図13に示すようにモデル化されたニューロン
によって、図14に示すように構成される。ニューロン
は前層の出力に重みをかけて加算した量に非線形関数を
作用させて出力値を得る。非線形関数は連続で微分可能
な単調増加関数であればよいが、一般には数式1で表さ
れるシグモイド関数がよく用いられる。
[0005] By the way, neural networks include:
There are interconnected and layered networks. The former is being studied for optimization problems, and the latter for application to pattern recognition and control. The backpropagation learning method is known as a learning rule for a layered network having no feedback connection. The network is configured as shown in FIG. 14 by neurons modeled as shown in FIG. The neuron obtains an output value by applying a nonlinear function to an amount obtained by weighting and adding the output of the previous layer. The non-linear function may be a continuous and differentiable monotonically increasing function, but in general, a sigmoid function represented by Expression 1 is often used.

【0006】[0006]

【数1】 (Equation 1)

【0007】なお、図13における結合重み係数wij
正の時興奮性結合、負の時抑制性結合、零の時は結合の
ないことを表す。ネットワークの入力層にあるパターン
pの入力信号を与えると、入力層→中間層→出力層の順
に信号が伝送され出力を得る。この時、出力層のi番目
の出力をyPiとして、その時のニューロンの望ましい出
力(教師信号)をtPiとする。この二値間の二乗誤差は
数式2で表すことができる。
The connection weight coefficient w ij in FIG. 13 indicates a positive excitatory connection, a negative suppressive connection, and a zero value indicates no connection. When an input signal of the pattern p in the input layer of the network is given, the signal is transmitted in the order of input layer → intermediate layer → output layer to obtain an output. At this time, the i-th output of the output layer is defined as y Pi and the desired output (teacher signal) of the neuron at that time is defined as t Pi . The square error between the two values can be expressed by Equation 2.

【0008】[0008]

【数2】 (Equation 2)

【0009】逆伝搬学習法は数式2を最小にするよう
に、ネットワークの重み係数を変更し、出力を望ましい
出力に近づける学習法である。この際、重みの変更は入
力信号と逆に出力層→中間層→入力層の順に行なわれる
ため、この名称がついている。出力層の学習信号δPi
数式3で与えられる。
The back-propagation learning method is a learning method in which the weighting factor of the network is changed so as to minimize Equation 2, and the output approaches a desired output. At this time, the weight is changed in the order of the output layer, the intermediate layer, and the input layer, which is opposite to the input signal, and thus the name is given. The learning signal δ Pi of the output layer is given by Expression 3.

【0010】[0010]

【数3】 (Equation 3)

【0011】なお、ここで、f,f′は出力関数及びそ
の導関数、netPiはi番目のニューロンの内部状態
(前層出力の重み付け加算和)である。この学習信号δ
Piを用いると、中間層の学習信号δPjは数式4のように
表される。
Here, f and f 'are output functions and their derivatives, and net Pi is an internal state of the i-th neuron (weighted sum of outputs of the previous layer). This learning signal δ
When Pi is used, the learning signal δ Pj of the intermediate layer is expressed as in Expression 4.

【0012】[0012]

【数4】 (Equation 4)

【0013】数式3、数式4の学習信号を用いると、各
重み係数wijは、数式5の幅Δwijだけ変更される。
When the learning signals of Equations 3 and 4 are used, each weight coefficient w ij is changed by the width Δw ij of Equation 5.

【0014】[0014]

【数5】 (Equation 5)

【0015】ここで、εは経験的に決める定数であり、
収束までの学習回数やネットワークの安定性等に大きな
影響を与える。一連の学習を繰り返すことにより、出力
層のニューロンの出力値yPiは、望ましい出力値tp1
収束していく。1一般に逆伝搬学習法を用いる時は、全
パターンについて重み係数変更量を求め、一括して重み
係数を変更する方式が多く採用されている。
Here, ε is a constant determined empirically,
It has a large effect on the number of times of learning until convergence and the stability of the network. By repeating a series of learning, the output value y Pi of the neuron in the output layer converges on the desired output value t p1 . (1) In general, when the back propagation learning method is used, a method of obtaining weight coefficient change amounts for all patterns and changing the weight coefficients collectively is often adopted.

【0016】[0016]

【発明が解決しようとする課題】ところで、学習回路の
電子回路化の方式としては、アナログ方式、デジタル方
式、両者のハイブリッド方式、光方式がある。本願の発
明者らは、配線が少なく簡易な回路で実現できるアナロ
グ方式を採用し、逆伝搬学習則を用いたニューラルネッ
トワークをハードウェア化する研究を進めている。これ
とほぼ同時期に、逆伝搬学習則をデジタル方式で実現し
た例が報告された。
The electronic circuit of the learning circuit includes an analog system, a digital system, a hybrid system of both, and an optical system. The inventors of the present application have been studying to adopt an analog system which can be realized by a simple circuit with a small number of wirings and to make a neural network using a back propagation learning rule into hardware. Almost at the same time, there was reported an example in which the backpropagation learning rule was implemented digitally.

【0017】しかしながら、上記したデジタル方式によ
る逆伝搬学習では、回路に大きな近似を導入するか、テ
ーブル変換等でシグモイド(sigmoid)及びその
導関数を実現するために、ハードウェア量が大きくなる
等の問題がある。そこで、ここでは、ハードウェア量と
性能のトレードオフを考えて、アナログ方式を用いるよ
うにした。また、ハードウェア化にあたり入力、伝送を
時系列で行なう時分割多重方式を採用した。
However, in the above-described back propagation learning by the digital method, a large amount of hardware is required to introduce a large approximation to a circuit or to realize a sigmoid and its derivative by table conversion or the like. There's a problem. Therefore, here, the analog method is used in consideration of the trade-off between the hardware amount and the performance. In addition, a time-division multiplexing method in which input and transmission are performed in time series was adopted for hardware implementation.

【0018】これにより配線量を低減することができる
ばかりでなく、積和演算に必要な乗算器の個数も低減す
ることができる。また、アナログ方式ではニューロン間
のシナプス結合重みを記憶する、線形性の良い不揮発性
素子を必要とするが、半導体素子で実現するのが困難で
ある。そこで、本発明においては、リーク電流が少なく
線形性もよい、一種の濃淡電池である電気化学積分素子
を用いて、重みの変更と保持を実現するようにしてい
る。
As a result, not only the amount of wiring can be reduced, but also the number of multipliers required for the product-sum operation can be reduced. Further, the analog method requires a non-linear element having good linearity for storing synaptic connection weights between neurons, but it is difficult to realize the non-linear element using a semiconductor element. Therefore, in the present invention, the change and the holding of the weight are realized by using an electrochemical integrating element which is a kind of concentration cell having a small leak current and a good linearity.

【0019】更に、前記した一括して重み係数を変更す
る方式によるとアナログメモリの必要個数が増えるた
め、本発明においては、逐次変換方式を用いるようにし
た。また、今回、ネットワークについてシミュレーショ
ンにより検討を加え、回路定数の適正化を行ない、効率
的なアナログ逆伝搬学習回路の駆動方法を得るようにし
ている。
Further, according to the above-described method of changing the weighting factors collectively, the required number of analog memories increases, so the present invention uses a sequential conversion method. In addition, this time, the network is examined by simulation, circuit constants are optimized, and an efficient method of driving an analog back propagation learning circuit is obtained.

【0020】このように、本発明は、ニューロン間で並
列動作するハードウェアにより、簡単な回路構成で、し
かも学習時間を大幅に短縮可能なアナログ逆伝搬学習回
路とその駆動方法を提供することを目的としている。ま
た、本発明は、特に、シグモイド関数回路、重み係数変
更回路及び乗算回路の改良を図り、パターン認識能力の
向上、収束までの学習回数の減少を図ることを目的とし
ている。
As described above, the present invention provides an analog back-propagation learning circuit and a method for driving the analog back-propagation learning circuit, which have a simple circuit configuration and can greatly reduce the learning time by hardware that operates in parallel between neurons. The purpose is. It is another object of the present invention to improve a sigmoid function circuit, a weight coefficient changing circuit, and a multiplication circuit to improve the pattern recognition capability and reduce the number of times of learning until convergence.

【0021】[0021]

【課題を解決するための手段】本発明は、上記目的を達
成するために、入力層から出力層へ伝わる正伝搬モード
と、出力層から入力層へ逆に伝わる学習モードとを有す
るアナログ逆伝搬学習回路において、前記正伝搬モード
において、前層のニューロンの出力をアナログスイッチ
で切り替えて、時系列の入力を得る手段と、該時系列の
入力に同期させて重み係数を読み出し、入力との積を得
る乗算器と、各入力に対する積を積分器で足してニュー
ロンの内部状態を得る手段と、該ニューロンの内部状態
にシグモイド関数を作用させて出力値を得る手段と、前
記学習モードにおける出力層から中間への学習におい
て、ニューロンの出力と教師信号との誤差を得る減算器
と、その時のニューロンの内部状態にシグモイド導関数
を作用させて得た値との積を乗算器で求め第1の学習信
号を得る手段と、該第1の学習信号と前層の出力との積
で重み係数の変更量を得る手段と、前記学習モードにお
ける中間層から入力層への学習において、次層での学習
信号と重み係数の積を乗算器で得て、それらの和を加算
器で計算し、誤差信号を得る手段と、前記中間層での各
ユニットは所定のタイミングでサンプル&ホールド回路
にデータを取り込み、各ユニットでは該データに、その
時の内部状態にシグモイド導関数に作用させた値を乗じ
て第2の学習信号を得る手段と、該第2の学習信号に基
づいて前記出力層から中間層への学習と同様に重み係数
の変更を行う手段とを設けるようにしたものである。
SUMMARY OF THE INVENTION In order to achieve the above object, the present invention provides an analog back propagation having a forward propagation mode transmitted from an input layer to an output layer and a learning mode transmitted backward from an output layer to an input layer. In the learning circuit, in the positive propagation mode, the output of the neuron in the previous layer is switched by an analog switch to obtain a time-series input, and a weight coefficient is read out in synchronization with the time-series input, and the product of the input and A means for obtaining an internal state of a neuron by adding a product for each input by an integrator; a means for obtaining an output value by applying a sigmoid function to the internal state of the neuron; and an output layer in the learning mode. A subtractor that obtains the error between the output of the neuron and the teacher signal in learning from the middle to the middle, and a value obtained by applying a sigmoid derivative to the internal state of the neuron at that time , A means for obtaining a first learning signal, a means for obtaining a change amount of a weighting coefficient by a product of the first learning signal and an output of a previous layer, and an input from an intermediate layer in the learning mode. In the learning to the layer, means for obtaining the product of the learning signal and the weighting coefficient in the next layer by a multiplier, calculating the sum of them by an adder, and obtaining an error signal; Means for obtaining a second learning signal by multiplying the data at that time by a value obtained by operating the sigmoid derivative on the internal state at each unit; and obtaining the second learning signal at each unit. Means for changing the weighting coefficient based on the signal in the same manner as the learning from the output layer to the intermediate layer.

【0022】また、入力層から出力層へ伝わる正伝搬モ
ードと、出力層から入力層へ逆に伝わる学習モードとを
有するアナログ逆伝搬学習回路の駆動方法において、前
記正伝搬モードにおいて、前層のニューロンの出力を切
り替えて、時系列の入力を得るステップと、該時系列の
入力に同期させて重み係数を読み出し、入力との積を得
るステップと、各入力に対する積を足してニューロンの
内部状態を得るステップと、該ニューロンの内部状態に
シグモイド関数を作用させて出力値を得るステップと、
前記学習モードにおける出力層から中間層への学習にお
いて、ニューロンの出力と教師信号との誤差を得るステ
ップと、その時のニューロンの内部状態にシグモイド導
関数を作用させて得た値との積を求め第1の学習信号を
得るステップと、該第1の学習信号と前層の出力との積
で重み係数の変更量を得るステップと、前記学習モード
における中間層から入力層への学習において、次層での
学習信号と重み係数の積を得て、それらの和を計算し、
誤差信号を得るステップと、中間層での各ユニットは所
定のタイミングでデータを取り込み、各ユニットでは該
データに、その時の内部状態にシグモイド導関数に作用
させた値を乗じて第2の学習信号を得るステップと、該
第2の学習信号に基づいて前記出力層から中間層への学
習と同様に重み係数の変更を行うステップとを施すよう
にしたものである。
Further, in the method for driving an analog back propagation learning circuit having a forward propagation mode transmitted from the input layer to the output layer and a learning mode backwardly propagated from the output layer to the input layer, in the forward propagation mode, Switching the output of the neuron to obtain a time-series input; reading a weight coefficient in synchronization with the time-series input to obtain a product with the input; and adding the product for each input to the internal state of the neuron Obtaining an output value by applying a sigmoid function to the internal state of the neuron;
In the learning from the output layer to the hidden layer in the learning mode, a step of obtaining an error between the output of the neuron and the teacher signal and a product of a value obtained by applying a sigmoid derivative to the internal state of the neuron at that time are obtained. In the step of obtaining a first learning signal, the step of obtaining a change amount of a weight coefficient by the product of the first learning signal and the output of the previous layer, and the learning from the intermediate layer to the input layer in the learning mode, Obtain the product of the learning signal and the weight coefficient in the layer, calculate the sum of them,
Obtaining an error signal, each unit in the hidden layer captures data at a predetermined timing, and each unit multiplies the data by a value obtained by operating the internal state at that time on a sigmoid derivative to obtain a second learning signal. And a step of changing the weight coefficient based on the second learning signal in the same manner as the learning from the output layer to the intermediate layer.

【0023】[0023]

【作用】本発明によれば、入力層から出力層へ伝わる正
伝搬モードと、出力層から入力層へ逆に伝わる学習モー
ドとを有するアナログ逆伝搬学習回路の駆動方法におい
て、(1)前記正伝搬モードにおいて、前層のニューロ
ンの出力を切り替えて、時系列の入力を得て、(2)該
時系列の入力に同期させて重み係数を読み出し、入力と
の積を得て、(3)各入力に対する積を足してニューロ
ンの内部状態を得て、(4)該ニューロンの内部状態に
シグモイド関数を作用させて出力値を得て、(5)前記
学習モードにおける出力層から中間層への学習におい
て、ニューロンの出力と教師信号との誤差を得て、
(6)その時のニューロンの内部状態にシグモイド導関
数を作用させて得た値との積を求め、第1の学習信号を
得て、(7)該第1の学習信号と前層の出力との積で重
み係数の変更量を得て、(8)前記学習モードにおける
中間層から入力層への学習において、次層での学習信号
と重み係数の積を得て、それらの和を計算し、誤差信号
を得て、(9)中間層での各ユニットは所定のタイミン
グでデータを取り込み、各ユニットでは該データに、そ
の時の内部状態にシグモイド導関数に作用させた値を乗
じて第2の学習信号を得て、(10)該第2の学習信号
に基づいて前記出力層から中間層への学習と同様に重み
係数の変更を行うようにしている。
According to the present invention, there is provided a method of driving an analog back propagation learning circuit having a forward propagation mode transmitted from an input layer to an output layer and a learning mode transmitted backward from an output layer to an input layer. In the propagation mode, the output of the neuron in the previous layer is switched to obtain a time-series input, (2) a weight coefficient is read out in synchronization with the time-series input, and a product with the input is obtained, (3) The product of each input is added to obtain the internal state of the neuron, (4) a sigmoid function is applied to the internal state of the neuron to obtain an output value, and (5) the output from the output layer to the hidden layer in the learning mode. In learning, the error between the output of the neuron and the teacher signal is obtained,
(6) The product of a value obtained by applying a sigmoid derivative to the internal state of the neuron at that time is obtained to obtain a first learning signal. (7) The first learning signal and the output of the previous layer are obtained. (8) In learning from the hidden layer to the input layer in the learning mode, the product of the learning signal and the weighting coefficient in the next layer is obtained, and the sum of them is calculated. (9) Each unit in the intermediate layer fetches data at a predetermined timing, and each unit multiplies the data by a value obtained by multiplying the internal state at that time by a value applied to the sigmoid derivative. (10) The weight coefficient is changed based on the second learning signal in the same manner as the learning from the output layer to the intermediate layer.

【0024】従って、収束までの学習回数の減少法、さ
らに多様なパターンでの収束性能の向上を図ることがで
きる。
Therefore, it is possible to reduce the number of times of learning until convergence and to improve convergence performance in various patterns.

【0025】[0025]

【実施例】以下、本発明の実施例について図面を参照し
ながら詳細に説明する。図1は本発明の実施例を示すア
ナログ逆伝搬学習回路のブロック図である。図中、1〜
4は乗算器、5はシグモイド導関数回路、6は書き込み
回路、7,10,11はアナログスイッチ、8は積分回
路、9はシグモイド関数回路、12は電気化学積分素子
である。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a block diagram of an analog back propagation learning circuit showing an embodiment of the present invention. In the figure,
4 is a multiplier, 5 is a sigmoid derivative circuit, 6 is a writing circuit, 7, 10, and 11 are analog switches, 8 is an integration circuit, 9 is a sigmoid function circuit, and 12 is an electrochemical integration element.

【0026】ここでは、アナログ電圧を時分割多重方式
で伝送することにより実現している。ネットワークの動
作は、入力層から出力層へ伝わる正伝搬モードと、出力
層から入力層へ逆に伝わる学習モードとに分けられる。
以下、図1を用いてその動作の説明を行う。 (a)正伝搬モード 入力は前層のニューロンの出力yPjをアナログスイッチ
で切り替えることで、時系列の入力としている。これに
同期させて重み係数wijを読み出し、乗算器3で入力と
の積を得る。各入力に対する積を積分器で足し込むこと
により、ニューロンの内部状態netpiを得る。
Here, this is realized by transmitting the analog voltage in a time division multiplex system. The operation of the network can be divided into a forward propagation mode transmitted from the input layer to the output layer and a learning mode transmitted backward from the output layer to the input layer.
Hereinafter, the operation will be described with reference to FIG. (A) Positive Propagation Mode The input is a time-series input by switching the output y Pj of the neuron in the previous layer with an analog switch. The weighting coefficient w ij is read out in synchronization with this, and the multiplier 3 obtains the product with the input. The product for each input is added by an integrator to obtain the internal state net pi of the neuron.

【0027】[0027]

【数6】 (Equation 6)

【0028】これに出力関数(シグモイド関数)を作用
させて出力値yPiを得る。
An output function (sigmoid function) is applied to this to obtain an output value y Pi .

【0029】[0029]

【数7】 (Equation 7)

【0030】(b)学習モード 図2(a)に示すように、出力層→中間層での学習は、
ニューロンの出力yPiと教師信号tpiとの誤差を減算器
13により求める。その時の内部状態netpiにシグモ
イド導関数を作用させて得た値との積を乗算器で計算
し、数式3の第1の学習信号δp1を得る。
(B) Learning Mode As shown in FIG. 2A, learning from the output layer to the hidden layer is performed by:
An error between the output y Pi of the neuron and the teacher signal t pi is obtained by the subtractor 13. The product of the internal state net pi at that time and a value obtained by applying a sigmoid derivative to the sigmoid derivative is calculated by a multiplier to obtain a first learning signal δ p1 of Expression 3.

【0031】重み係数の変更量Δwは、学習信号と前層
の出力(入力信号)との積で得られる〔数式5参照〕。
εは回路の利得を調整することで決まる。実際の重みの
変更は、重み係数の変更量Δwに相当する電流を流すこ
とにより、電気化学積分素子の電圧を変えるようにして
いる。一方、図2(b)に示すように、中間→入力層で
は、次層(出力層)での学習信号δpiと結合重み係数w
ijの積を乗算器で求め、それらの和ej を加算器14で
計算し、誤差信号とする。
The change amount Δw of the weight coefficient is obtained by the product of the learning signal and the output (input signal) of the previous layer (see Equation 5).
ε is determined by adjusting the gain of the circuit. The actual weight is changed by passing a current corresponding to the weight coefficient change amount Δw to change the voltage of the electrochemical integration element. On the other hand, as shown in FIG. 2B, in the intermediate → input layer, the learning signal δ pi and the connection weight coefficient w in the next layer (output layer)
The product of the ij calculated with the multiplier, and calculate their sum e j in adder 14, and the error signal.

【0032】[0032]

【数8】 (Equation 8)

【0033】この誤差信号は時系列であるから、中間層
での各ユニットは適当なタイミングでサンプル&ホール
ド回路15にデータを取り込む。各ユニットではこのデ
ータに、その時の内部状態にシグモイド導関数に作用さ
せた値を乗じて数式4の第2の学習信号を得る。該第2
の学習信号から中間層−出力層の場合と同様に重み係数
の変更を行う。
Since this error signal is a time series, each unit in the intermediate layer fetches data into the sample & hold circuit 15 at an appropriate timing. Each unit multiplies this data by a value obtained by operating the internal state at that time on the sigmoid derivative to obtain a second learning signal of Expression 4. The second
The weight coefficient is changed in the same manner as in the case of the intermediate layer-output layer from the learning signal of.

【0034】上述の正伝搬学習を行うネットワーク構成
を図3に示す。これは入力、中間、出力層が各3ニュー
ロンの時の構成図である。図3において、20は入力1
〜3を切り替えるアナログスイッチ、21はユニット1
〜3、22はユニット1〜3の出力を切り替えるアナロ
グスイッチ、23はそのアナログスイッチ22に接続さ
れるユニット1〜3、24は減算器、25は加算器、2
6はサンプル&ホールド回路である。 (c)動作タイミング 正伝搬モードと学習モードの切り替えと、重み係数の切
り替えのために制御信号が必要である。また、積和演算
の積分器リセット、サンプル&ホールド回路のタイミン
グ等も必要である。制御信号はカウンタ及びEPROM
を用いたタイミングシーケンサにより発生させる。タイ
ミングチャートを図4に示す。
FIG. 3 shows a network configuration for performing the above-described normal propagation learning. This is a configuration diagram when the input, intermediate, and output layers are each 3 neurons. In FIG. 3, 20 is input 1
Analog switch for switching between 3 and 21, unit 1
3, 22 are analog switches for switching the outputs of the units 1 to 3, 23 is a unit connected to the analog switch 22, 1 to 3 and 24 are subtractors, 25 is an adder,
6 is a sample & hold circuit. (C) Operation Timing A control signal is required for switching between the normal propagation mode and the learning mode and for switching the weighting coefficient. In addition, it is necessary to reset the integrator of the product-sum operation, the timing of the sample and hold circuit, and the like. Control signal is counter and EPROM
It is generated by a timing sequencer using. FIG. 4 shows a timing chart.

【0035】まず、積分器リセット信号を入れる〔ステ
ップ(イ)〕。同時に入力、教師信号のパターンを1つ
進める。中間層の正伝搬モードで重み係数を順次替え
て、積和演算を行ない、内部状態、出力を決定する〔ス
テップ(ロ)〜(ホ)〕。出力層の正伝搬モードは前層
の出力と重み係数を同期させて読みだし積和演算を行な
い内部状態、出力を決定する〔ステップ(ヘ)〜
(リ)〕。
First, an integrator reset signal is input (step (a)). At the same time, the input and teacher signal patterns are advanced by one. The weighting coefficients are sequentially changed in the intermediate layer positive propagation mode, a product-sum operation is performed, and the internal state and output are determined (steps (b) to (e)). In the positive propagation mode of the output layer, the output of the preceding layer and the weighting coefficient are synchronized to be read out, the product sum operation is performed, and the internal state and the output are determined [step (f) to
(R)].

【0036】ネットワークの出力を保持するためにサン
プル&ホールド回路のホールド信号をいれる〔ステップ
(ヌ)〕。ここまでが正伝搬モードで、判別だけを行う
時は、ここでリターンする。次に、出力→中間層の学習
信号に重み係数を順次乗じて誤差信号を計算し、前層の
相当するニューロンは同期した信号でホールドする〔ス
テップ(ル)〜(カ)〕。
In order to hold the output of the network, a hold signal of the sample & hold circuit is input [step (nu)]. This is the normal propagation mode, and when only determination is performed, the process returns here. Next, an error signal is calculated by sequentially multiplying the learning signal of the output → intermediate layer by a weighting coefficient, and the corresponding neuron of the previous layer is held by a synchronized signal [steps (l) to (f)].

【0037】出力→中間層の学習信号は内部状態が決る
と同時に計算されている。中間→入力層も同様に誤差信
号が決まれば学習信号が得られる。学習信号に入力を乗
じ、対応する重みに書き込むことで結合の変更を行う
〔ステップ(ヨ)〜(ソ)〕。以上18クロックで1入
力パターンの学習が終わる。現在、クロック周波数を1
KHzとして、1パターンの1回の学習時間を18ms
かけて行っている。
Output → The learning signal of the intermediate layer is calculated at the same time when the internal state is determined. Similarly, a learning signal can be obtained from the middle to the input layer if the error signal is determined. The combination is changed by multiplying the learning signal by the input and writing the corresponding weight (steps (Y) to (S)). The learning of one input pattern is completed by the above 18 clocks. Currently, the clock frequency is 1
One learning time of one pattern is 18 ms, as KHz
I am going over it.

【0038】次に、上記ブロック図で示した各部の回路
構成について説明する。 (a)積分回路 入力に重み係数を乗じた、時系列の値を加算するために
積分回路を用いる。この積分回路は図5に示すようにオ
ペアンプ30を使った一般的なものを用いた。この時、
出力Vo1 は数式9で表すことができ、入力に比例した
加算和が得られることがわかる。
Next, the circuit configuration of each unit shown in the above block diagram will be described. (A) Integrating circuit An integrating circuit is used to add a time-series value obtained by multiplying an input by a weight coefficient. As this integration circuit, a general one using an operational amplifier 30 as shown in FIG. 5 was used. At this time,
The output Vo 1 can be represented by Expression 9, and it can be seen that an addition sum proportional to the input can be obtained.

【0039】[0039]

【数9】 (Equation 9)

【0040】オン・オフ型アナログスイッチS1 は正伝
搬の時だけONになり、OFFの時積分回路はニューロ
ンの内部状態をホールドし続ける役目をする。フィード
バックの抵抗R2 はホールド時の電圧を安定させるため
に接続されている。また、コンデンサC1 と並列に接続
されたアナログスイッチS2 は、図4のステップ(イ)
でONになり、出力電圧を0Vにリセットする。因み
に、抵抗R1 は32KΩ、抵抗R2 は3MΩ、C1
0.2μF、オペアンプ30はTL072である。 (b)シグモイド関数回路 出力関数として、シグモイド関数を用いている。オペア
ンプ31とダイオード32,33を使った近似関数回路
を図6に示す。入力側にダイオードリミッタ34をいれ
て、電圧を約±0.5Vに変換している。この時ダイオ
ード32,33の特性により、飽和型の非線形特性が得
られる。オペアンプ31の入力にはマイナス電圧で約−
1〜0Vにシフトさせ、オペアンプ31の利得を調整す
ることで出力値0〜1vのシグモイド近似関数を得る。
因みに、抵抗R4 は17.8KΩ、抵抗R5 は10K
Ω、抵抗R6 は270KΩ、抵抗R7 は8.87KΩ、
ダイオード32,33は1S1588、オペアンプ31
はTL072、−VB は−15Vである。
The on / off type analog switch S 1 is turned ON only during forward propagation, and when OFF, the integrating circuit serves to keep the internal state of the neuron. Resistance R 2 of the feedback are connected in order to stabilize the voltage of the hold. The analog switches S 2 connected in parallel with the capacitor C 1, the step of FIG. 4 (b)
And the output voltage is reset to 0V. Incidentally, the resistance R 1 is 32 KΩ, the resistance R 2 is 3 MΩ, C 1 is 0.2 μF, and the operational amplifier 30 is TL072. (B) Sigmoid function circuit A sigmoid function is used as an output function. FIG. 6 shows an approximate function circuit using an operational amplifier 31 and diodes 32 and 33. A diode limiter 34 is provided on the input side to convert the voltage to about ± 0.5V. At this time, a saturation type nonlinear characteristic is obtained by the characteristics of the diodes 32 and 33. The input of the operational amplifier 31 has a negative voltage of about-
By shifting the gain to 1 to 0 V and adjusting the gain of the operational amplifier 31, a sigmoid approximation function having an output value of 0 to 1 V is obtained.
Incidentally, the resistance R 4 is 17.8 KΩ, and the resistance R 5 is 10 K
Ω, the resistance R 6 is 270 KΩ, the resistance R 7 is 8.87 KΩ,
Diodes 32 and 33 are 1S1588, operational amplifier 31
The TL072, -V B is -15V.

【0041】入出力特性を図7に示す。図7において、
横軸は入力電圧(mV)、縦軸は出力電圧(mV)であ
る。なお、netpiを反転して入力すれば、通常のシグ
モイド関数と同様に使える。また、学習の時必要となる
シグモイド導関数については、後述する。 (c)電気化学積分素子と書き込み回路 アナログ回路で問題となる結合重みの保持には、電気化
学積分素子(三洋電機MD2B2)を用いている。この
電気化学積分素子は、銀イオン導電性の固体電解質Ag
121 931449と、銀イオン・電子混合導電体Ag
415 Se185 1560とを使用し、通電電気量を電圧の
形で積分記憶する性質を有しており、電圧は電荷量に比
例して変化する。通電を停止した後、出力電圧保持も非
常に安定している( 記憶電位時間変化0.3mv/48
hr)。また、正負両方の電圧値を保持できるので、興
奮性結合、抑制性結合を1つの回路で実現できる。以上
の点から、この電気化学積分素子は重み係数を保持する
アナログ量記憶素子に適している。
FIG. 7 shows the input / output characteristics. In FIG.
The horizontal axis is the input voltage (mV), and the vertical axis is the output voltage (mV). If net pi is inverted and input, it can be used in the same manner as a normal sigmoid function. The sigmoid derivative required for learning will be described later. (C) Electrochemical integrating element and writing circuit An electrochemical integrating element (Sanyo MD2B2) is used to hold the connection weight which is a problem in the analog circuit. This electrochemical integration element is composed of a silver ion conductive solid electrolyte Ag.
121 I 93 P 14 O 49 and silver ion / electron mixed conductor Ag
Using 415 Se 185 P 15 O 60, it has the property of integrating and storing the amount of electricity supplied in the form of a voltage, and the voltage changes in proportion to the amount of charge. After stopping the energization, the output voltage holding is also very stable (memory potential time change 0.3 mv / 48
hr). Also, since both positive and negative voltage values can be held, excitatory coupling and inhibitory coupling can be realized by one circuit. From the above points, this electrochemical integration element is suitable for an analog quantity storage element holding a weight coefficient.

【0042】電気化学積分素子を重み係数保持素子とし
て使う場合、入力電圧に比例した電荷量を書き込む回路
が必要となる。そのための電圧制御定電流源回路を図8
に示す。図8において、アナログスイッチ43は重み係
数の切り替え用、アナログスイッチ44は読み出し(a
端子)と書き込み(b端子)の切り替え用である。書き
込み時に入力電圧Vs2 が入ると、オペアンプ41の反
転入力側も電圧Vs2 になり、アースとの間に電流I=
Vs2 /R8 が流れる。オペアンプ41には電流が流れ
込まないので、すべて電気化学積分素子42に流れる。
従って、電気化学積分素子42の内部電圧に関係なく、
入力電圧Vs2 に比例した電流を流すことができる。因
みに、抵抗R8 は390Ω、オペアンプ41はTL07
2である。
When the electrochemical integration element is used as a weight coefficient holding element, a circuit for writing a charge amount proportional to the input voltage is required. FIG. 8 shows a voltage-controlled constant current source circuit for this purpose.
Shown in In FIG. 8, the analog switch 43 is for switching the weight coefficient, and the analog switch 44 is for reading (a
Terminal) and writing (b terminal). When the input voltage Vs 2 enters at the time of writing, the inverting input side of the operational amplifier 41 also has the voltage Vs 2 , and the current I =
Vs 2 / R 8 flows. Since no current flows into the operational amplifier 41, all the current flows through the electrochemical integration element 42.
Therefore, regardless of the internal voltage of the electrochemical integration element 42,
A current proportional to the input voltage Vs 2 can flow. Incidentally, the resistor R 8 is 390Ω, and the operational amplifier 41 is TL07.
2.

【0043】なお、当初は乗算器出力から抵抗を介して
アナログスイッチに接続する回路を用いていたが、乗算
器出力が小さくなると書き込み電荷量が入力電圧に比例
しなくなるのでこのような回路構成とした。 (d)乗算回路 乗算回路としては、図9に示すように、トランスコンダ
クタンス乗算器(インターシルICL8013)を用い
た。トランスコンダクタンス乗算器は、差動増幅器の利
得を外部電圧で制御することにより乗算を行う。図9に
おいて、差動増幅器45の利得AV は、 AV =V03/VX =RL /re ここで、re はエミッタ抵抗であり、 re =1/gm =KT/q・IE 03=VX ・AV =VX ・q・IE ・RL /(KT) なお、ここで、Kはボルッマン定数、Tは絶対温度であ
る。
Although a circuit was used to connect the output of the multiplier to the analog switch via a resistor at the beginning, when the output of the multiplier becomes smaller, the amount of charge to be written is not proportional to the input voltage. did. (D) Multiplication circuit As shown in FIG. 9, a transconductance multiplier (Intersil ICL8013) was used as the multiplication circuit. The transconductance multiplier performs multiplication by controlling the gain of the differential amplifier with an external voltage. 9, the gain A V of the differential amplifier 45, where A V = V 03 / V X = R L / r e, r e is the emitter resistance, r e = 1 / g m = KT / q · I E V 03 = V X · a V = V X · q · I E · R L / (KT) Note that, K is Borumman constant, T is the absolute temperature.

【0044】ここで、定電流源の電流値を外部電圧Vy
で制御するようにすれば、外部電圧Vy とVX の積をと
ることができる。そこで、図9に示すように、エミッタ
電流IE を制御する。この回路では、Vx は正負両方の
値がとれるが、VY は正でなければならない。これを正
負両方に拡張し、リニアリティ、フィードスルー特性を
改善している。
Here, the current value of the constant current source is set to the external voltage V y
In if to control, it is possible to take the product of the external voltage V y and V X. Therefore, as shown in FIG. 9, the emitter current IE is controlled. In this circuit, V x can be both positive and negative, but V Y must be positive. This is extended to both positive and negative to improve linearity and feedthrough characteristics.

【0045】従って、トランジスタのトランスコンダク
タンスの特性を利用し、そのままで4象限での乗算が行
うことができる。入出力は電圧値で、2入力の積の10
分の1の電圧値を出力する。 (e)アナログスイッチ C−MOS ICを用い、1回路8接点のHC4051
と3回路2接点のHC4053を用いている。いずれも
ON抵抗が40Ω程度と小さい。
Therefore, multiplication in four quadrants can be performed as it is, utilizing the characteristics of the transconductance of the transistor. Input and output are voltage values, 10 of product of 2 inputs
Output a voltage value of 1 / (E) HC4051 with 8 contacts per circuit using analog switch C-MOS IC
And HC4053 having three contacts and three circuits. In each case, the ON resistance is as small as about 40Ω.

【0046】また、加算器、減算器は標準的なオペアン
プ回路、サンプル&ホールド回路は市販のIC(LF3
98)を用いている。次に、本発明のアナログ逆伝搬学
習回路の回路定数について説明する。ネットワークをハ
ードウェア化すると、様々な制約がでてくる。例えば、
電源電圧での飽和や入出力電流の制限等である。また、
非線形関数を正確に近似しようとすればするほど回路規
模は大きくなり、複雑になっていく。
The adder and the subtracter are standard operational amplifier circuits, and the sample and hold circuit is a commercially available IC (LF3
98). Next, circuit constants of the analog back propagation learning circuit of the present invention will be described. When a network is implemented as hardware, various restrictions are imposed. For example,
Examples include saturation at the power supply voltage and limitation of input / output current. Also,
The more accurately the nonlinear function is approximated, the larger the circuit scale and the more complicated it becomes.

【0047】そこで、種々の条件を課して回路シミュレ
ーションを行ない、回路定数の適正化を行った。さら
に、シグモイド導関数を実現し易い簡略化した形に変
え、その収束状況をシミュレーションし、簡略化の影響
を調べた。 (A)シミュレーションと実測値の比較 シミュレーションが正確に回路動作を表すかどうか、学
習後の重み係数の値と出力値を比べて確認した。簡単の
ため、シグモイド導関数を除いた二層構成のネットワー
ク(入力層3、出力層3ニューロン)で、比較を行っ
た。ε=0.56の時の結果を表1に示す。入力は3パ
ターンで各パターンベクトルが直交している単純な場合
である。表1より重み係数、出力値ともほぼ一致してい
ることがわかり、本シミュレーションが回路動作を十分
反映していると考えられる。以後、パラメータ変更の楽
なシミュレーションで回路の検討を行った。
Therefore, circuit simulation was performed under various conditions to optimize the circuit constants. Furthermore, the sigmoid derivative was changed to a simplified form that was easy to realize, and the convergence state was simulated to examine the effect of the simplification. (A) Comparison between Simulation and Actual Measured Value Whether or not the simulation accurately represents the circuit operation was confirmed by comparing the value of the weight coefficient after learning with the output value. For simplicity, the comparison was performed using a two-layer network (input layer 3 and output layer 3 neurons) excluding the sigmoid derivative. Table 1 shows the results when ε = 0.56. The input is a simple case where three pattern vectors are orthogonal to each other. From Table 1, it can be seen that the weighting factor and the output value are almost the same, and it is considered that this simulation sufficiently reflects the circuit operation. Thereafter, the circuit was examined by an easy simulation of parameter change.

【0048】最終的に考慮した点は、各ICの電源電圧
における出力電圧飽和、重み係数変更用電流回路の出力
電流制限、アナログスイッチのON抵抗、アナログスイ
ッチ保護のための入力制限等である。また、シグモイド
関数は、シグモイド関数回路より実測した値を折れ線近
似して用いている。
The points finally considered are output voltage saturation at the power supply voltage of each IC, output current limitation of the weight coefficient changing current circuit, ON resistance of the analog switch, input limitation for analog switch protection, and the like. As the sigmoid function, a value actually measured by a sigmoid function circuit is used as a line-line approximation.

【0049】[0049]

【表1】 [Table 1]

【0050】(B)二層構成ネットワーク 回路化されたネットワークでは、学習時のεの値は各演
算回路の利得により決定される。前述の二層構成のネッ
トワークにおいて、重み係数の増幅度を変えることでε
の値を変化させて、収束の変化について調べた。入力は
3パターンで、各パターンベクトル間の角度が10度し
か離れていない近接パターンである。重み係数の初期値
は±10mVの範囲の乱数である。結果を表2に示す。
出力と教師信号の二乗誤差が0.1以下となった時を収
束とした。なお、εが0.56以下の時は重み係数の更
新が遅く、収束までの学習回数が多くなってしまう。逆
にεが56.6のように大きすぎると振動してしまい、
安定な収束は得られない。結局、εが5.6でうまく動
作した。さらに、初期値を小さくする(±1mV)こと
により、収束までの学習回数は表2の1/4〜1/5ま
で減少した。実際の回路でも同様の学習回数で収束する
ことを確認することができた。
(B) Two-Layered Network In a circuitized network, the value of ε at the time of learning is determined by the gain of each arithmetic circuit. In the above-described two-layer network, by changing the amplification factor of the weight coefficient,
And the change of convergence was examined. The input is three patterns, which are close patterns in which the angle between each pattern vector is only 10 degrees apart. The initial value of the weight coefficient is a random number in the range of ± 10 mV. Table 2 shows the results.
The time when the square error between the output and the teacher signal became 0.1 or less was regarded as convergence. When ε is 0.56 or less, the update of the weight coefficient is slow, and the number of times of learning until convergence increases. Conversely, if ε is too large, such as 56.6, it will vibrate,
Stable convergence cannot be obtained. In the end, ε worked well at 5.6. Further, by reducing the initial value (± 1 mV), the number of times of learning until convergence was reduced to 1 / to の of Table 2. It was confirmed that the convergence was achieved with the same number of times of learning in an actual circuit.

【0051】[0051]

【表2】 [Table 2]

【0052】(C)シグモイド導関数の検討 二層構成のネットワークでは、EXOR(排他的論理
和)のように線形分離できないパターンは識別できない
ことが知られている。そのようなパターンでも識別でき
るように、ネットワークを三層構成とし、シグモイド導
関数も加える。しかし、シグモイド導関数は正確な関数
の実現が難しいので、簡単化した関数を考えて検討を行
った。
(C) Examination of Sigmoid Derivatives It is known that in a two-layer network, a pattern that cannot be linearly separated, such as EXOR (exclusive OR), cannot be identified. In order to identify even such a pattern, the network has a three-layer structure, and a sigmoid derivative is added. However, since it is difficult to realize an accurate function of the sigmoid derivative, a study was performed considering a simplified function.

【0053】(a)シグモイド導関数の評価 シグモイド導関数の実際の形状〔図10(a)〕を参考
にして、導関数を簡単化し、三角近似〔図10
(b)〕、方形近似〔図10(c)〕、一定値〔図10
(d)〕の場合につき検討した。一定値は導関数がない
ことを意味する。三層構成のネットワークで入力をEX
ORパターンとした時、各導関数の収束への影響を調べ
た結果を表3に示す。
(A) Evaluation of sigmoid derivative Referring to the actual shape of the sigmoid derivative (FIG. 10A), the derivative is simplified and triangular approximation [FIG.
(B)], square approximation [FIG. 10 (c)], constant value [FIG.
(D)] was examined. A constant value means that there is no derivative. EX input in a three-layer network
Table 3 shows the results of examining the effect of each derivative on convergence when the OR pattern was used.

【0054】なお、ここで、ニューロン数は入力、中
間、出力層でそれぞれ2、3、2個である。εは0.1
として、重み係数の初期値は±10mVの範囲の乱数で
10回変更した。収束判定は前章と同様である。一定値
では収束せず、適当な導関数が必要なことがわかる。方
形近似の場合はM=2Vで表3の収束学習回数が得ら
れ、Mの値を変えてもこれ以上の改善は得られなかっ
た。三角近似で行った場合は、収束までの学習回数がシ
グモイド導関数の時と大差無く、十分代用できることが
わかる。
The number of neurons in the input, intermediate and output layers is 2, 3, and 2, respectively. ε is 0.1
The initial value of the weighting coefficient was changed ten times with random numbers in the range of ± 10 mV. The convergence judgment is the same as in the previous section. It does not converge at a constant value, indicating that an appropriate derivative is required. In the case of the square approximation, the number of convergence learnings shown in Table 3 was obtained when M = 2 V. Even if the value of M was changed, no further improvement was obtained. It can be seen that when the triangular approximation is performed, the number of times of learning up to convergence is not much different from that of the sigmoid derivative, and can be sufficiently substituted.

【0055】[0055]

【表3】 [Table 3]

【0056】次に、三角近似での裾の広がりの影響につ
いて、同様に調べた結果を表4に示す。広がり(L)は
小さすぎると学習が進んでからの誤差の減り方が遅く、
収束までの回数が増える。これは、望ましい出力を得る
前に導関数の値が小さくなり、重み係数の変更が鈍くな
るためと考えられる。(L)が大きすぎると初期値によ
っては回数が増えてしまう。なお、(L)の大きさにつ
いては、4Vを中心に±0.5V程度の誤差であれば収
束に影響しないことがわかった。
Next, Table 4 shows the results of a similar study on the influence of the spread of the tail in the triangular approximation. If the spread (L) is too small, the reduction of the error after learning progresses slowly,
The number of times until convergence increases. This is presumably because the derivative value decreases before the desired output is obtained, and the change of the weighting factor becomes slow. If (L) is too large, the number will increase depending on the initial value. In addition, as for the magnitude of (L), it was found that an error of about ± 0.5 V centered at 4 V does not affect convergence.

【0057】[0057]

【表4】 [Table 4]

【0058】(b)シグモイド導関数回路 前項の評価をふまえ、シグモイド導関数は三角近似した
回路を用いて、±4Vの範囲で値を持つようにした。オ
ペアンプとダイオードによる折れ線近似回路を図11に
示す。2つの折れ線を加算することで三角近似を実現し
ている。第1のオペアンプ51では、ダイオード54に
加わる電圧は、
(B) Sigmoid Derivative Circuit Based on the evaluation described in the preceding section, the sigmoid derivative has a value in the range of ± 4 V using a circuit approximated by a triangle. FIG. 11 shows a broken line approximation circuit using an operational amplifier and a diode. Triangular approximation is realized by adding two broken lines. In the first operational amplifier 51, the voltage applied to the diode 54 is

【0059】[0059]

【数10】 (Equation 10)

【0060】の時零となる。この点を境に入力の抵抗値
が変化する。すなわち、増幅度はこれより小さいVs3
時、
At this time, it becomes zero. At this point, the input resistance value changes. That is, when the amplification degree is smaller than V s3 ,

【0061】[0061]

【数11】 [Equation 11]

【0062】大きいVs3の時At the time of large V s3

【0063】[0063]

【数12】 (Equation 12)

【0064】となり、−(R10/R11)VB の点で折れ
線となる。第2のオペアンプ52でも同様であり、入力
が−(R15/R16)VB の時入力抵抗が、出力が−(R
19/R18)VB の時フィードバック抵抗がそれぞれ変わ
り、増幅度を変化させる。抵抗値をうまく選ぶことによ
り、図10(b)に示した入出力特性を実現する。な
お、53、55、56はダイオードである。
, And becomes a polygonal line at the point of − (R 10 / R 11 ) V B. The same applies to the second operational amplifier 52. When the input is − (R 15 / R 16 ) V B , the input resistance is-
19 / R 18) changes the feedback resistance when V B, respectively, to change the amplification degree. By properly selecting the resistance value, the input / output characteristics shown in FIG. Incidentally, 53, 55 and 56 are diodes.

【0065】実際の回路の特性を図12に示す。図12
において、横軸は入力電圧(mV)、縦軸は出力電圧
(mV)である。 (D)三層構成でのシミュレーションとの比較 ネットワークを三層構成にして、前述の三角近似導関数
を組み込んだ時のシミュレーションと実測値の比較を行
った。εは0.1であり、初期値は±10mVの範囲の
乱数である。
FIG. 12 shows the characteristics of the actual circuit. FIG.
In the graph, the horizontal axis represents the input voltage (mV), and the vertical axis represents the output voltage (mV). (D) Comparison with Simulation in Three-Layer Configuration A network having a three-layer configuration and a simulation in which the above-described triangular approximation derivative was incorporated was compared with measured values. is 0.1 and the initial value is a random number in the range of ± 10 mV.

【0066】直交パターン、近接パターン、EXORパ
ターンともシミュレーションと同程度の学習回数で教師
信号にほぼ一致した出力パターンとなった。しかし、重
み係数の値は近接、EXORパターンの場合、全く違う
ものとなった。その時の重み係数値を用いても、二乗誤
差は小さいことがシミュレーションで確かめられた。ま
た、シミュレーションである程度学習した後の重み係数
を用いて回路を動作させた。その時の二乗誤差は1.6
3で重み係数は±30mVの範囲であった。収束した時
の重み係数はほぼ等しくなった(表5)。そこで、実際
の回路では学習初期段階で誤差を含み、シミュレーショ
ンとは別の初期値から始めた様になってしまい、別の解
に収束したと考えられる。
Each of the orthogonal pattern, the proximity pattern, and the EXOR pattern became an output pattern that almost coincided with the teacher signal with the same number of learnings as the simulation. However, the values of the weighting factors were completely different in the case of the proximity and EXOR patterns. It was confirmed by simulation that the square error was small even when the weight coefficient value at that time was used. In addition, the circuit was operated using the weighting coefficients after some learning by simulation. The square error at that time is 1.6
At 3, the weight coefficient was in the range of ± 30 mV. The weighting factors at the time of convergence were almost equal (Table 5). Therefore, it is considered that the actual circuit includes an error in the initial stage of learning, starts as an initial value different from the simulation, and converges to another solution.

【0067】[0067]

【表5】 [Table 5]

【0068】このように、シミュレーションにより回路
の検討を行った結果、二層構成のネットワークでシグモ
イド導関数が無い場合、εを調整することにより入力が
近接しているパターンでも、十分早い回数で収束するこ
とを確かめられた。三層構成のネットワークでEXOR
パターンの様に線形分離できないパターンを学習するに
は、導関数が必要となってくる。その場合でも三角近似
した導関数で代用できることが確かめられた。この関数
はオペアンプとダイオードによる折れ線近似回路で実現
することができる。
As described above, the circuit was examined by simulation. As a result, when there is no sigmoid derivative in the network having the two-layer structure, even if the input pattern is close to the input pattern, the convergence can be achieved quickly enough by adjusting ε. I was sure to do. EXOR in a three-layer network
To learn a pattern that cannot be linearly separated like a pattern, a derivative is needed. Even in that case, it was confirmed that the trigonometric derivative can be substituted. This function can be realized by a broken line approximation circuit using an operational amplifier and a diode.

【0069】なお、本発明は上記実施例に限定されるも
のではなく、本発明の趣旨に基づいて種々の変形が可能
であり、これらを本発明の範囲から排除するものではな
い。
It should be noted that the present invention is not limited to the above-described embodiment, but various modifications are possible based on the spirit of the present invention, and these are not excluded from the scope of the present invention.

【0070】[0070]

【発明の効果】以上、詳細に説明したように、本発明に
よれば、逆伝搬学習法のハードウェア化を、アナログ電
圧を時分割して伝送する方法で実現し、配線及び回路を
簡素化することができ、しかも学習時間を大幅に短縮す
ることができる。また、重み係数の保持は電気化学積分
素子で行ったが、線形性がよく保持特性も優れており、
正負両方の電圧を保持できることにより、可変の重み係
数を扱うのに適している。
As described above in detail, according to the present invention, the hardware of the back propagation learning method is realized by a method of transmitting an analog voltage in a time-division manner, thereby simplifying wiring and circuits. And the learning time can be greatly reduced. The retention of the weighting factor was performed by an electrochemical integration element, but the linearity was good and the retention characteristics were excellent.
The ability to hold both positive and negative voltages is suitable for handling variable weighting factors.

【0071】更に、シミュレーションにより、二層構成
のネットワークでシグモイド導関数が無い場合、εを調
整することにより入力が近接しているパターンでも、十
分早い回数で収束することができる。また、三層構成の
ネットワークでEXORパターンの様に線形分離できな
いパターンを学習するには、導関数が必要となってくる
が、その場合でも三角近似した導関数で代用できる。
Further, according to the simulation, if there is no sigmoid derivative in the network having the two-layer structure, by adjusting ε, it is possible to converge a sufficiently fast number of times even for a pattern whose inputs are close to each other. In order to learn a pattern that cannot be linearly separated like an EXOR pattern in a three-layer network, a derivative is required. In this case, a derivative approximated by a triangle can be used instead.

【0072】従って、上記のように構成することによ
り、収束までの学習回数の減少法、さらに多様なパター
ンでの収束性能の向上を図ることができる。
Therefore, with the above configuration, it is possible to reduce the number of times of learning until convergence and to improve the convergence performance in various patterns.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例を示すアナログ逆伝搬学習回路
のブロック図である。
FIG. 1 is a block diagram of an analog back propagation learning circuit showing an embodiment of the present invention.

【図2】本発明の出力→中間層及び中間→入力層におけ
る誤差信号の説明図である。
FIG. 2 is an explanatory diagram of an error signal in an output → intermediate layer and an intermediate → input layer of the present invention.

【図3】本発明の実施例を示す正伝搬、学習を行うネッ
トワークの構成図である。
FIG. 3 is a configuration diagram of a network for performing normal propagation and learning according to an embodiment of the present invention.

【図4】本発明の実施例を示すアナログ逆伝搬学習回路
の動作タイミングチャートである。
FIG. 4 is an operation timing chart of the analog back-propagation learning circuit according to the embodiment of the present invention.

【図5】本発明の実施例を示すアナログ逆伝搬学習回路
の積分回路の構成図である。
FIG. 5 is a configuration diagram of an integration circuit of the analog backpropagation learning circuit according to the embodiment of the present invention.

【図6】本発明の実施例を示すアナログ逆伝搬学習回路
のシグモイド関数回路図である。
FIG. 6 is a sigmoid function circuit diagram of an analog backpropagation learning circuit showing an embodiment of the present invention.

【図7】本発明の実施例を示すアナログ逆伝搬学習回路
のシグモイド関数入出力特性図である。
FIG. 7 is a sigmoid function input / output characteristic diagram of the analog back propagation learning circuit showing the embodiment of the present invention.

【図8】本発明の実施例を示すアナログ逆伝搬学習回路
の重み係数変更回路図である。
FIG. 8 is a circuit diagram of a weight coefficient changing circuit of the analog back propagation learning circuit according to the embodiment of the present invention.

【図9】本発明の実施例を示すアナログ逆伝搬学習回路
の乗算器回路図である。
FIG. 9 is a multiplier circuit diagram of the analog back propagation learning circuit showing the embodiment of the present invention.

【図10】本発明の実施例を示すアナログ逆伝搬学習回
路のシグモイド及び近似導関数の概略を示す図である。
FIG. 10 is a diagram schematically illustrating a sigmoid and an approximate derivative of the analog back propagation learning circuit according to the embodiment of the present invention.

【図11】本発明の実施例を示すアナログ逆伝搬学習回
路の三角近似導関数回路図である。
FIG. 11 is a triangular approximation derivative circuit diagram of an analog back propagation learning circuit showing an embodiment of the present invention.

【図12】本発明の実施例を示すアナログ逆伝搬学習回
路の三角近似導関数入出力特性図である。
FIG. 12 is a triangular approximation derivative input / output characteristic diagram of the analog back propagation learning circuit showing the embodiment of the present invention.

【図13】モデル化されたニューロンを示す図である。FIG. 13 illustrates a modeled neuron.

【図14】アナログ逆伝搬学習回路の概略構成図であ
る。
FIG. 14 is a schematic configuration diagram of an analog back propagation learning circuit.

【符号の説明】[Explanation of symbols]

1〜4 乗算器 5 シグモイド導関数回路 6 書き込み回路 7,10,11,20,22,43,44 アナログ
スイッチ 8 積分回路 9 シグモイド関数回路 12,42 電気化学積分素子 13,24 減算器 14,25 加算器 15,26 サンプル&ホールド回路 21,23 ユニット1〜3 30,31,41 オペアンプ 32,33,54,55,56 ダイオード 34 ダイオードリミッタ 45 差動増幅器 51 第1のオペアンプ 52 第2のオペアンプ 53 第3のオペアンプ
1-4 Multiplier 5 Sigmoid derivative circuit 6 Write circuit 7, 10, 11, 20, 22, 43, 44 Analog switch 8 Integrator 9 Sigmoid function circuit 12, 42 Electrochemical integral element 13, 24 Subtractor 14, 25 Adder 15, 26 Sample & hold circuit 21, 23 Units 1-3 30, 31, 41 Operational amplifier 32, 33, 54, 55, 56 Diode 34 Diode limiter 45 Differential amplifier 51 First operational amplifier 52 Second operational amplifier 53 Third operational amplifier

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平2−64788(JP,A) 特開 平2−66688(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06G 7/60 G06F 15/18 ────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-2-64788 (JP, A) JP-A-2-66688 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G06G 7/60 G06F 15/18

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力層から出力層へ伝わる正伝搬モード
と、出力層から入力層へ逆に伝わる学習モードとを有す
るアナログ逆伝搬学習回路において、(a)前記正伝搬
モードにおいて、前層のニューロンの出力をアナログス
イッチで切り替えて、時系列の入力を得る手段と、
(b)該時系列の入力に同期させて重み係数を読み出
し、入力との積を得る乗算器と、(c)各入力に対する
積を積分器で足してニューロンの内部状態を得る手段
と、(d)該ニューロンの内部状態にシグモイド関数を
作用させて出力値を得る手段と、(e)前記学習モード
における出力層から中間層への学習において、ニューロ
ンの出力と教師信号との誤差を得る減算器と、(f)そ
の時のニューロンの内部状態にシグモイド導関数を作用
させて得た値との積を乗算器で求め、第1の学習信号を
得る手段と、(g)該第1の学習信号と前層の出力との
積で重み係数の変更量を得る手段と、(h)前記学習モ
ードにおける中間層から入力層への学習において、次層
での学習信号と結合重み係数の積を乗算器で得て、それ
らの和を加算器で計算し、誤差信号を得る手段と、
(i)前記中間層での各ユニットは所定のタイミングで
サンプル&ホールド回路にデータを取り込み、各ユニッ
トでは該データにその時の内部状態にシグモイド導関数
に作用させた値を乗じて第2の学習信号を得る手段と、
(j)該第2の学習信号に基づいて前記出力層から中間
層への学習と同様に重み係数の変更を行う手段とを具備
するアナログ逆伝搬学習回路。
1. An analog back propagation learning circuit having a forward propagation mode transmitted from an input layer to an output layer and a learning mode transmitted back from an output layer to an input layer, wherein: (a) in the forward propagation mode, Means for switching the output of the neuron with an analog switch to obtain a time-series input;
(B) a multiplier that reads out a weight coefficient in synchronization with the input of the time series and obtains a product of the input, and (c) means that obtains an internal state of the neuron by adding the product for each input by an integrator. d) means for obtaining an output value by applying a sigmoid function to the internal state of the neuron, and (e) subtraction for obtaining an error between the output of the neuron and the teacher signal in learning from the output layer to the intermediate layer in the learning mode. Means for obtaining, by a multiplier, a product of a value obtained by applying a sigmoid derivative to the internal state of the neuron at that time to obtain a first learning signal; and (g) obtaining the first learning signal. Means for obtaining the change amount of the weight coefficient by the product of the signal and the output of the previous layer; and (h) in learning from the intermediate layer to the input layer in the learning mode, the product of the learning signal and the connection weight coefficient in the next layer is calculated. Obtain with a multiplier and calculate their sum with an adder Means for obtaining an error signal,
(I) Each unit in the intermediate layer takes in data into the sample & hold circuit at a predetermined timing, and in each unit, the data is multiplied by a value obtained by operating the internal state at that time on a sigmoid derivative to perform second learning. Means for obtaining a signal;
(J) means for changing the weight coefficient based on the second learning signal in the same manner as the learning from the output layer to the intermediate layer.
【請求項2】 シグモイド関数回路の入力側にダイオー
ドリミッタを接続して飽和型の非線形特性を得ることを
特徴とする請求項1記載のアナログ逆伝搬学習回路。
2. The analog back-propagation learning circuit according to claim 1, wherein a diode limiter is connected to an input side of the sigmoid function circuit to obtain a saturated nonlinear characteristic.
【請求項3】 重み係数変更回路の書き込み回路を電圧
制御定電流源回路構成とし、電気化学積分素子の内部電
圧に関係なく、入力電圧に比例した電流を得て、該電流
を電気化学積分素子に流すようにしたことを特徴とする
請求項1記載のアナログ逆伝搬学習回路。
3. The writing circuit of the weighting coefficient changing circuit has a voltage-controlled constant current source circuit configuration, and obtains a current proportional to the input voltage regardless of the internal voltage of the electrochemical integration element. 2. The analog back-propagation learning circuit according to claim 1, wherein the analog back-propagation learning circuit is caused to flow.
【請求項4】 乗算器のトランジスタのトランスコンダ
クタンスの特性を用いて、4象限の乗算を行うことを特
徴とする請求項1記載のアナログ逆伝搬学習回路。
4. The analog back-propagation learning circuit according to claim 1, wherein the multi-quadrant multiplication is performed by using a transconductance characteristic of a transistor of the multiplier.
【請求項5】 線形分離できないパターンを学習する際
に、三角近似した導関数を用いて学習することを特徴と
する請求項1記載のアナログ逆伝搬学習回路。
5. The analog back-propagation learning circuit according to claim 1, wherein, when learning a pattern that cannot be linearly separated, learning is performed using a trigonometrically approximated derivative.
【請求項6】 入力層から出力層へ伝わる正伝搬モード
と、出力層から入力層へ逆に伝わる学習モードとを有す
るアナログ逆伝搬学習回路の駆動方法において、(a)
前記正伝搬モードにおいて、前層のニューロンの出力を
切り替えて、時系列の入力を得るステップと、(b)該
時系列の入力に同期させて重み係数を読み出し、入力と
の積を得るステップと、(c)各入力に対する積を足し
てニューロンの内部状態を得るステップと、(d)該ニ
ューロンの内部状態にシグモイド関数を作用させて出力
値を得るステップと、(e)前記学習モードにおける出
力層から中間層への学習において、ニューロンの出力と
教師信号との誤差を得るステップと、(f)その時のニ
ューロンの内部状態にシグモイド導関数を作用させて得
た値との積を求め、第1の学習信号を得るステップと、
(g)該第1の学習信号と前層の出力との積で重み係数
の変更量を得るステップと、(h)前記学習モードにお
ける中間層から入力層への学習において、次層での学習
信号と結合重み係数の積を得て、それらの和を計算し、
誤差信号を得るステップと、(i)中間層での各ユニッ
トは所定のタイミングでデータを取り込み、各ユニット
では該データに、その時の内部状態にシグモイド導関数
に作用させた値を乗じて第2の学習信号を得るステップ
と、(j)該第2の学習信号に基づいて前記出力層から
中間層への学習と同様に重み係数の変更を行うステップ
とを有するアナログ逆伝搬学習回路の駆動方法。
6. A method for driving an analog back-propagation learning circuit having a forward propagation mode transmitted from an input layer to an output layer and a learning mode transmitted backward from an output layer to an input layer, wherein (a)
In the positive propagation mode, a step of switching the output of the neuron in the previous layer to obtain a time-series input, and (b) reading a weight coefficient in synchronization with the time-series input and obtaining a product of the input and the weight coefficient. (C) adding the product to each input to obtain an internal state of the neuron; (d) obtaining an output value by applying a sigmoid function to the internal state of the neuron; and (e) outputting in the learning mode. Obtaining the error between the output of the neuron and the teacher signal in learning from the layer to the intermediate layer; and (f) obtaining the product of the value obtained by applying a sigmoid derivative to the internal state of the neuron at that time. Obtaining one learning signal;
(G) obtaining a change amount of a weight coefficient by a product of the first learning signal and an output of a previous layer; and (h) learning in a next layer in learning from the intermediate layer to the input layer in the learning mode. Obtain the product of the signal and the coupling weight coefficient, calculate the sum of them,
Obtaining an error signal; and (i) each unit in the intermediate layer captures data at a predetermined timing, and in each unit, the data is multiplied by a value obtained by operating the internal state at that time on a sigmoid derivative to obtain a second signal. And (j) changing the weighting factor based on the second learning signal in the same manner as the learning from the output layer to the intermediate layer. .
JP03048180A 1991-03-13 1991-03-13 Analog back-propagation learning circuit and its driving method Expired - Fee Related JP3095798B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03048180A JP3095798B2 (en) 1991-03-13 1991-03-13 Analog back-propagation learning circuit and its driving method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03048180A JP3095798B2 (en) 1991-03-13 1991-03-13 Analog back-propagation learning circuit and its driving method

Publications (2)

Publication Number Publication Date
JPH04283884A JPH04283884A (en) 1992-10-08
JP3095798B2 true JP3095798B2 (en) 2000-10-10

Family

ID=12796188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03048180A Expired - Fee Related JP3095798B2 (en) 1991-03-13 1991-03-13 Analog back-propagation learning circuit and its driving method

Country Status (1)

Country Link
JP (1) JP3095798B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111291873A (en) * 2014-07-21 2020-06-16 徐志强 Method and device for simulating prefabricated synapse

Also Published As

Publication number Publication date
JPH04283884A (en) 1992-10-08

Similar Documents

Publication Publication Date Title
CN108284442B (en) Mechanical arm flexible joint control method based on fuzzy neural network
CN110991633B (en) Residual error neural network model based on memristor network and application method thereof
Shima et al. Neuro chips with on-chip back-propagation and/or Hebbian learning
Danilin et al. Determining the fault tolerance of memristorsbased neural network using simulation and design of experiments
JP3095798B2 (en) Analog back-propagation learning circuit and its driving method
JPH0318985A (en) Information processor
JP3331668B2 (en) Nonlinear operation unit and information processing apparatus using the same
JPH07210534A (en) Neural network
Abden et al. Multilayer perceptron analog hardware implementation using low power operational transconductance amplifier
Gencer et al. Design of An Analog Circuit-Based Artificial Neural Network
JP3110434B2 (en) Analog backpropagation learning circuit
Moreno et al. An analog systolic neural processing architecture
Liu et al. Fully parallel on-chip learning hardware neural network for real-time control
Kawaguchi et al. Analog neural network model based on improved logarithmic multipliers
Wang Analog CMOS implementation of backward error propagation
JP3523325B2 (en) Neural network, signal processing device using the same, autonomous system, autonomous robot, and mobile system
JPH0547870B2 (en)
CN109657786B (en) Finite element equation set neural network solver
Mayes et al. Pulsed VLSI for RBF neural networks
Nakashima et al. How to design a regularization term for improving generalization
Zahner et al. Multilayer perceptrons with ALOPEX: 2D-template matching and VLSI implementation
Zhu et al. A fast constructive learning algorithm for single-hidden-layer neural networks
Watkins et al. Different approaches to implementing a radial basis function neurocomputer
CN114664350A (en) PageRank algorithm hardware circuit implementation method based on memristor array
KUMAR et al. System dynamics simulation of Hopfield neural networks

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000725

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees