JP2003263624A - Learning arithmetic circuit for neural network device - Google Patents

Learning arithmetic circuit for neural network device

Info

Publication number
JP2003263624A
JP2003263624A JP2002061432A JP2002061432A JP2003263624A JP 2003263624 A JP2003263624 A JP 2003263624A JP 2002061432 A JP2002061432 A JP 2002061432A JP 2002061432 A JP2002061432 A JP 2002061432A JP 2003263624 A JP2003263624 A JP 2003263624A
Authority
JP
Japan
Prior art keywords
output
circuit
neural network
load
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002061432A
Other languages
Japanese (ja)
Inventor
Michihito Ueda
路人 上田
Kiyoyuki Morita
清之 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2002061432A priority Critical patent/JP2003263624A/en
Publication of JP2003263624A publication Critical patent/JP2003263624A/en
Pending legal-status Critical Current

Links

Landscapes

  • Amplifiers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To execute the learning of an analog neural network device as quickly as possible. <P>SOLUTION: This arithmetic circuit is proposed to calculate the optimal load value directly from the change of an output at the time of finely changing a load at the time of executing learning by a back propagation method in an analog neural network device. This arithmetic circuit is able to obtain the proper load as the output of an analog circuit directly after a transient response time by using the similarity of gate voltage/drain current characteristics and proper load arithmetic operation in the non-saturated area of an MOS transistor. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は半導体素子に関し、
ニューラルネットワーク情報処理を実行するニューラル
ネットワーク装置の学習演算回路に関する。
TECHNICAL FIELD The present invention relates to a semiconductor device,
The present invention relates to a learning arithmetic circuit of a neural network device that executes neural network information processing.

【0002】[0002]

【従来の技術】パターン認識や画像の処理といった演算
処理を高速に行える装置として、生物の脳のように動作
するコンピュータ、ニューラルネットワーク装置に関す
る研究が行われている。特に、ニューラル・ネットワー
ク情報処理(以下NNと表記)では、入力数が増加する
と積算や和算の回数が爆発的に増加することから、これ
をアナログ演算により並列的に処理する非ノイマン方式
の専用装置を実現することで演算を高速化しようとする
アプローチがある。
2. Description of the Related Art As a device capable of high-speed arithmetic processing such as pattern recognition and image processing, research has been conducted on a computer and a neural network device that operate like a living brain. Especially, in neural network information processing (hereinafter referred to as NN), the number of integrations and summations explosively increases as the number of inputs increases. Therefore, it is a dedicated non-Neumann method that processes these in parallel by analog operations. There is an approach to speed up the calculation by realizing the device.

【0003】このようなニューラル・ネットワーク装置
とその学習方法については、例えば特開平3−2268
84号公報に記載の「アナログニューラルネットワーク
学習装置」が挙げられる。
Such a neural network device and its learning method are disclosed in, for example, Japanese Patent Laid-Open No. 3-2268.
The "analog neural network learning device" described in Japanese Patent Publication No. 84 is cited.

【0004】この従来例では、NNの学習法として一般
的なバックプロパゲーション法(以下BP法と表記)に
よる学習をアナログニューラル・ネットワーク装置で実
行する汎用的な手法について開示している。
This conventional example discloses a general-purpose method for executing learning by a general back propagation method (hereinafter referred to as BP method) as an NN learning method by an analog neural network device.

【0005】図10には従来技術例のニューラル・ネッ
トワーク装置の素子構成を、図11には実際の学習動作
における動作手順を示している。従来例では、荷重を実
際に微小変化させ、その時の出力変化からBP法におけ
る最適荷重を算出し、これを繰り返すことで学習を実行
するとしている。具体的には、図10の評価関数測定装
置213において誤差を演算し、これに基づいて修正量
計算装置215において適切な修正荷重を演算すること
を繰り返すことで学習を収束させる。
FIG. 10 shows an element structure of a neural network device of a prior art example, and FIG. 11 shows an operation procedure in an actual learning operation. In the conventional example, the load is actually slightly changed, the optimum load in the BP method is calculated from the output change at that time, and the learning is executed by repeating this. Specifically, the learning is converged by repeating the calculation of the error in the evaluation function measuring device 213 of FIG. 10 and the calculation of an appropriate correction load in the correction amount calculating device 215 based on the error.

【0006】さらにこの学習方法を用いる最大の利点
は、中間層の出力が分からなくてもBP法を適用でき、
また、閾値関数が不明でも(または関数として記述でき
なくても)、出力変化によりBP法が適用できるため閾
値素子のバラツキなどに柔軟に対応できるという点であ
る。
Furthermore, the greatest advantage of using this learning method is that the BP method can be applied without knowing the output of the intermediate layer,
In addition, even if the threshold function is unknown (or cannot be described as a function), the BP method can be applied depending on the output change, so that it is possible to flexibly cope with variations in threshold elements.

【0007】[0007]

【発明が解決しようとする課題】しかし、上記従来例の
ニューラル・ネットワーク装置においては、図10の評
価関数測定装置213及び修正量計算装置215につい
ては具体的な開示は全くなされていない。学習時の誤差
量の演算及び修正荷重演算は荷重の変化毎にこれを行う
必要がある。荷重の変更は全ての荷重に対して、数百回
から数千回程度という膨大な回数が経験的に必要である
ため、アナログ・並列化して素子が高速化できても、誤
差演算によって学習時間があまり短くできないという課
題を有していた。
However, in the above-mentioned conventional neural network apparatus, the evaluation function measuring apparatus 213 and the correction amount calculating apparatus 215 of FIG. 10 are not specifically disclosed. The calculation of the error amount at the time of learning and the correction load calculation need to be performed every time the load changes. Since it is empirically necessary to change the load a few hundred times to a few thousand times for all loads, even if analog / parallelization can be used to speed up the element, the learning time is calculated by error calculation. Had a problem that it could not be shortened too much.

【0008】[0008]

【課題を解決するための手段】以上の課題を解決するた
め、本発明者等は、アナログのニューラル・ネットワー
ク装置において、バック・プロパゲーション法による学
習を行う際、荷重を微小変化させた時の出力の変化から
直接、最適な荷重値を演算する回路を提案する。この演
算回路は、MOSトランジスタの非飽和領域でのゲート
電圧−ドレイン電流特性と修正荷重演算の類似を利用す
ることにより、アナログ回路の出力として過渡応答時間
後に直接適切荷重を出力として得ることができる。
In order to solve the above-mentioned problems, the inventors of the present invention, when performing learning by a back propagation method in an analog neural network device, when the load is slightly changed, We propose a circuit that calculates the optimum load value directly from the output change. This arithmetic circuit can directly obtain an appropriate load as the output of the analog circuit after the transient response time by utilizing the gate voltage-drain current characteristic in the non-saturation region of the MOS transistor and the analog of the modified load calculation. .

【0009】この回路を適用することにより、アナログ
・ニューラル・ネットワーク装置の学習を極めて高速に
実行することが可能となる。
By applying this circuit, the learning of the analog neural network device can be executed at extremely high speed.

【0010】[0010]

【発明の実施の形態】以下、本発明の実施形態について
図面を参照しながら説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0011】図1は実施形態のニューラル・ネットワー
ク装置の構成を説明する図である。図1において、1は
ニューラル・ネットワーク装置である。3はニューロ素
子である。5は入出力パターンデータを格納したメモリ
である。本実施形態では入力データは特徴量を0〜1で
表したベクトルとしてデジタル・データとして記憶され
ている。7は入力データ保持部であり、入出力パターン
データ5から選択した入力パターンを格納する。9はD
/Aコンバータであり、入力データ保持部7のデジタル
情報をアナログ出力としてニューロ素子へ入力する。1
1はD/Aコンバータである。13はA/Dコンバータ
でありニューロ素子3のアナログ出力をデジタル信号に
変換する。15は制御部であり、入出力パターンの選択
を行うほか、シナプスの荷重を変化させたり出力の誤差
を演算して新規荷重を決定するなどの演算も行う。17
はセル選択部であり、制御部15によりニューロ素子上
の所定のシナプスを選択して書込可能な状態とする。所
定のシナプスが書込可能な状態になると制御部から書込
荷重値が出力され、D/Aコンバータ11を通してアナ
ログ値としてニューロ素子へ伝えられる。19はメモリ
であり、演算に必要な変数を保持するRAM動作する部
分や、学習が完了したときの荷重マトリクスを格納する
不揮発RAM部などからなる。21は出力であり、制御
部で学習が完了したときにニューロ素子3の出力が出力
される。23は学習演算回路であり、ニューロ素子3の
出力と入出力パターンデータ5からの教師信号との比較
から修正荷重値を演算する。学習演算回路23からの出
力はA/Dコンバータ13によりデジタル信号に変換さ
れ、制御部15へと送られる。
FIG. 1 is a diagram for explaining the configuration of the neural network system of the embodiment. In FIG. 1, reference numeral 1 is a neural network device. 3 is a neuro element. Reference numeral 5 is a memory that stores input / output pattern data. In this embodiment, the input data is stored as digital data as a vector in which the characteristic amount is represented by 0 to 1. An input data holding unit 7 stores an input pattern selected from the input / output pattern data 5. 9 is D
A / A converter, which inputs the digital information of the input data holding unit 7 to the neuro element as an analog output. 1
1 is a D / A converter. An A / D converter 13 converts the analog output of the neuro element 3 into a digital signal. Reference numeral 15 denotes a control unit, which performs input / output pattern selection, and also performs calculations such as changing the synapse load and calculating an output error to determine a new load. 17
Is a cell selection unit, and a predetermined synapse on the neuro element is selected by the control unit 15 to be in a writable state. When a predetermined synapse becomes writable, a write weight value is output from the control unit and transmitted to the neuro element through the D / A converter 11 as an analog value. Reference numeral 19 denotes a memory, which includes a RAM operating portion that holds variables necessary for calculation, a non-volatile RAM portion that stores a weight matrix when learning is completed, and the like. Reference numeral 21 denotes an output, and when the learning is completed by the control unit, the output of the neuro element 3 is output. Reference numeral 23 denotes a learning calculation circuit, which calculates a modified weight value by comparing the output of the neuro element 3 and the teacher signal from the input / output pattern data 5. The output from the learning arithmetic circuit 23 is converted into a digital signal by the A / D converter 13 and sent to the control unit 15.

【0012】本実施形態のニューラル・ネットワーク装
置は、ニューラルネットワークの演算で、積算や和算、
閾値処理のほかに、もう一つ頻繁に演算が行われる修正
荷重量の算出をアナログ演算で実行する学習演算回路を
有した点に特徴を有する。このように専用の演算回路を
設けることで、学習時間をより短縮できる。
The neural network system according to the present embodiment is a neural network operation that performs integration, summation,
In addition to the threshold value processing, another feature is that it has a learning calculation circuit that executes the calculation of the correction load amount that is frequently calculated by analog calculation. By providing the dedicated arithmetic circuit in this way, the learning time can be further shortened.

【0013】このように本実施形態は、学習演算回路2
3に特徴を有するため、以下、学習演算回路23につい
て説明する。なお、ニューロ素子3については、ニュー
ラルネットワーク演算をアナログ演算する動作をするも
のであれば、以下で説明する学習演算回路を適用するこ
とが可能である。
As described above, in this embodiment, the learning arithmetic circuit 2
The learning calculation circuit 23 will be described below because it has the characteristics of 3. As for the neuro element 3, a learning operation circuit described below can be applied as long as it operates to perform analog operation of neural network operation.

【0014】まず、NNにおける学習法で一般的なBP
法の計算手順について説明する。
First, a BP generally used in the learning method in the NN.
The calculation procedure of the method will be described.

【0015】ある入力値がニューロ素子3に与えられた
ときの出力値をOk、目的値をTk(教師値)とする。こ
こでkは出力ベクトルの番号を示し、出力端子数がnの
時、kは1以上n以下の自然数である。
The output value when a certain input value is given to the neuro element 3 is O k , and the target value is T k (teacher value). Here, k represents the number of the output vector, and when the number of output terminals is n, k is a natural number of 1 or more and n or less.

【0016】このとき、誤差Epは、以下の式(1)で
定義される。
At this time, the error E p is defined by the following equation (1).

【0017】[0017]

【数1】 [Equation 1]

【0018】なお、添え字のpは入出力パターン番号を
表す。学習させる入出力の相関データのパターンがm通
りの場合、pは1以上m以下の自然数である。
The subscript p represents an input / output pattern number. When there are m patterns of input / output correlation data to be learned, p is a natural number of 1 or more and m or less.

【0019】中間層の荷重の変更量をΔVkj、出力層の
荷重変更量をΔWjiとするとBP法では、このEpから
荷重修正量は、次の式(2)
[0019] The change amount of the load of the intermediate layer [Delta] V kj, in the load amount of change in the output layer and [Delta] W ji BP method, load correction amount from the E p, the following equation (2)

【0020】[0020]

【数2】 [Equation 2]

【0021】および式(3)And equation (3)

【0022】[0022]

【数3】 [Equation 3]

【0023】で計算される。なお、jは中間層のニュー
ロの番号であり、iは入力の番号である。またαは学習
係数であり、学習を効率的に実行できる数値に設定す
る。本実施形態ではたとえばα=0.8としている。
Is calculated by Note that j is the neuron number of the middle layer, and i is the input number. Further, α is a learning coefficient, and is set to a numerical value that enables efficient learning. In this embodiment, for example, α = 0.8.

【0024】式(2)及び式(3)を用いて、修正荷重
値は、式(4)
Using the equations (2) and (3), the corrected load value is given by the equation (4).

【0025】[0025]

【数4】 [Equation 4]

【0026】および式(5)And equation (5)

【0027】[0027]

【数5】 [Equation 5]

【0028】で与えられる。Is given by

【0029】式(1)〜(5)から、荷重を微小変更し
たときの誤差の変化を取得・算出することでBP法によ
る学習動作を実行することができる。
From equations (1) to (5), the learning operation by the BP method can be executed by acquiring and calculating the change in the error when the load is slightly changed.

【0030】以上の手順で修正荷重を計算することがで
きる。
The correction load can be calculated by the above procedure.

【0031】このような演算は、例えばオペアンプなど
を用いた和算器、減算器、乗算器などによりアナログ演
算回路を構成し演算を実行できることは言うまでもな
い。しかし、単純にこれらを配置してしまうと、非常に
多くの素子数が必要となり、装置のコストが高くなると
いう課題を有している。
Needless to say, such an arithmetic operation can be performed by forming an analog arithmetic circuit with a summing device, a subtractor, a multiplier, etc. using an operational amplifier or the like. However, if these are simply arranged, there is a problem that a very large number of elements are required and the cost of the device increases.

【0032】本実施形態のニューラル・ネットワーク装
置は、この学習演算回路をより小さく構成でき、より安
価でニューラル・ネットワーク装置を提供できるもので
ある。
In the neural network system of this embodiment, the learning operation circuit can be made smaller, and the neural network system can be provided at a lower cost.

【0033】図2には本実施形態のニューラルネットワ
ーク装置の学習演算回路の動作原理説明図を示してい
る。
FIG. 2 shows an explanatory diagram of the operating principle of the learning operation circuit of the neural network system of this embodiment.

【0034】図2において、25は電界効果型トランジ
スタであり、本実施形態ではVtがほぼ0[V]のN型
MOSトランジスタである。以下、電界効果型トランジ
スタを単にMOSと略して表記する。27は電流測定回
路であり、一方はMOS(25)のソース電極と接続さ
れ、他方は他の電極に接続され、例えば接地されてい
る。MOS(25)のゲート電極には以下の説明で得ら
れる教師信号と出力電圧の差に対応した電圧が入力され
る。またMOS(25)のドレインには同様に以下の説
明で得られる出力電圧の変分に対応した電圧を入力す
る。
In FIG. 2, reference numeral 25 is a field effect transistor, which is an N-type MOS transistor having Vt of almost 0 [V] in this embodiment. Hereinafter, the field effect transistor is simply referred to as MOS. 27 is a current measuring circuit, one of which is connected to the source electrode of the MOS (25) and the other of which is connected to the other electrode, for example, is grounded. A voltage corresponding to the difference between the teacher signal and the output voltage obtained in the following description is input to the gate electrode of the MOS (25). Similarly, a voltage corresponding to the variation of the output voltage obtained in the following description is input to the drain of the MOS (25).

【0035】以上のような非常に簡単な回路構成を基本
とした学習回路により、式(1)〜(5)に示した学習
動作を実行できることを本発明者等は発見した。
The present inventors have found that the learning operation based on the above-mentioned very simple circuit configuration can execute the learning operation shown in the equations (1) to (5).

【0036】以下、図2の構成により学習演算が実行で
きる理由について、具体的な動作によって説明する。
Hereinafter, the reason why the learning operation can be executed by the configuration of FIG. 2 will be described by a concrete operation.

【0037】修正荷重値を求めるためには式(2)、
(3)に従った演算を実行することが必要である。式
(2)、(3)の意味するところは、荷重値を微小変更
させたときの誤差の変化量により荷重変更値を得るとい
うものである。
In order to obtain the corrected load value, equation (2),
It is necessary to execute the operation according to (3). The expressions (2) and (3) mean that the load change value is obtained from the change amount of the error when the load value is slightly changed.

【0038】具体的には、荷重W0のときの出力誤差を
0、荷重をΔW変化させてW1(=W0+ΔW)とした
ときの出力誤差をE1とすると、誤差の変化量ΔE(=
1−E0)から修正荷重値はそれぞれ、式(6)
Specifically, assuming that the output error when the load is W 0 is E 0 and the output error when the load is changed by ΔW to be W 1 (= W 0 + ΔW) is E 1 , the change amount of the error is ΔE (=
From E 1 −E 0 ), the corrected load value is calculated by the equation (6).

【0039】[0039]

【数6】 [Equation 6]

【0040】および式(7)And equation (7)

【0041】[0041]

【数7】 [Equation 7]

【0042】で与えられる。Is given by

【0043】式(6)または(7)の算出結果を式
(4)または式(5)へ代入することにより新しい荷重
を算出することができる。
A new load can be calculated by substituting the calculation result of equation (6) or (7) into equation (4) or equation (5).

【0044】ここで、荷重W0のときの出力をOk0、荷
重W1のときの出力をOk1とし、目標とする教師信号を
kとすると、誤差の変化量ΔEは定義より式(8)で
与えられる。
Here, when the output at the load W 0 is O k0 , the output at the load W 1 is O k1 , and the target teacher signal is T k , the change amount ΔE of the error is defined by the expression (E). Given in 8).

【0045】[0045]

【数8】 [Equation 8]

【0046】式(8)へOk1=Ok0+ΔOの関係を入力
して整理すると式(9)を得る。
When the relation of O k1 = O k0 + ΔO is input into the equation (8) and rearranged, the equation (9) is obtained.

【0047】[0047]

【数9】 [Equation 9]

【0048】本発明者らは、式(9)がMOSトランジ
スタの非飽和領域でのドレイン電流特性と非常によく似
た特性を示していることを見出した。
The present inventors have found that the equation (9) exhibits characteristics very similar to the drain current characteristics in the non-saturated region of the MOS transistor.

【0049】ここでMOSのドレイン電流は式(10)
であらわされる。
Here, the MOS drain current is expressed by the equation (10).
It is represented by.

【0050】[0050]

【数10】 [Equation 10]

【0051】ここにβは式(11)で定義される。Here, β is defined by the equation (11).

【0052】[0052]

【数11】 [Equation 11]

【0053】ここで、ε0は真空の誘電率(=8.85
4・10-12[F/m])、εoxはゲート絶縁膜の比誘
電率、μはキャリアの移動度である。
Here, ε 0 is the dielectric constant of vacuum (= 8.85).
4 · 10 −12 [F / m]), ε ox is the relative dielectric constant of the gate insulating film, and μ is the mobility of carriers.

【0054】さらにMOSの閾値電圧が無視できるくら
い小さい(〜0[V])とすると、式(10)は次の式
(12)のように変形できる。
Further, assuming that the threshold voltage of the MOS is so small as to be negligible (up to 0 [V]), the equation (10) can be transformed into the following equation (12).

【0055】[0055]

【数12】 [Equation 12]

【0056】式(12)と式(9)の類似に着目する
と、 VG=Tk−Ok0 ・・・(式14) VD=ΔO ・・・(式15) で算出される電圧を図2のMOSにそれぞれ印加すれば
MOSのドレイン電流が誤差変化量に比例した値を出力
することが理解できる。
Focusing on the similarity between the equations (12) and (9), the voltage calculated by V G = T k −O k0 (Equation 14) V D = ΔO (Equation 15) It can be understood that, if each is applied to the MOS of FIG. 2, the drain current of the MOS outputs a value proportional to the error change amount.

【0057】なお、図2はニューラル・ネットワーク装
置の出力が1つの場合について示したが、複数ある場合
はMOSを並列接続し、電流の総和Iallを取れば良
い。この場合、同様にして式(13)が成立する。
Although FIG. 2 shows the case where the neural network device has one output, when there are plural outputs, the MOSs may be connected in parallel and the total current I all may be obtained. In this case, the equation (13) is similarly established.

【0058】[0058]

【数13】 [Equation 13]

【0059】これにより複数出力における全体の誤差変
化量は ΔE=Iall・2/β ・・・(式16) となり、回路上で誤差量の変化が容易に測定できること
となる。
As a result, the total error change amount at a plurality of outputs is ΔE = I all · 2 / β (Equation 16), and the change in error amount can be easily measured on the circuit.

【0060】このような原理を用いることにより、アナ
ログニューラル・ネットワーク装置の学習動作を容易に
実行することが可能である。
By using such a principle, the learning operation of the analog neural network device can be easily executed.

【0061】なお、式(10)はVD<VG−Vtの範囲
で成立する式であるが、出力変化量ΔOは教師信号差
(Tk−Ok0)より十分に小さいため、本発明の電圧印
加手法ではこの式は大部分の場合において成立する。ま
た、VD>VG−Vtである飽和領域のVDが印加されたと
しても荷重修正値が本来の値よりやや小さく演算される
が、収束回数が多少多くなるものの、収束演算そのもの
には影響を与えることなく学習動作を実行できるもので
ある。
Equation (10) holds in the range of V D <V G -V t , but since the output variation ΔO is sufficiently smaller than the teacher signal difference (T k -O k0 ), In the voltage application method of the invention, this formula holds in most cases. Although V D> V G -V t V D of the saturation region is load correction value is slightly smaller operations than the original value even if they are applied, although the convergence number of times becomes somewhat large, the convergence calculation itself Is capable of performing a learning operation without affecting.

【0062】図3は、本実施形態の学習演算回路の構成
を模式的に示した図である。図3において、31は出力
変分演算部であり、33は誤差演算部である。
FIG. 3 is a diagram schematically showing the configuration of the learning arithmetic circuit of this embodiment. In FIG. 3, 31 is an output variation calculation unit, and 33 is an error calculation unit.

【0063】図4には図3の出力変分演算部31の構成
例を示した。図4において41はスイッチであり、NN
の出力を伝達する回路を切替える。43は荷重変更前出
力電圧保持回路であり、スイッチ41を切替えることに
より荷重を微小変更した後の出力を受け、これを保持す
る。45は荷重変更後出力電圧保持回路であり、スイッ
チ41を切替えることにより荷重を微小変更した後の出
力を受け、これを保持する。47は教師信号保持回路で
ある。48は減算回路1であり、荷重変更後荷重変更前
出力電圧保持回路43と出力電圧保持回路45の出力の
差を出力Aとして出力する。また49は減算回路2であ
り、教師信号保持回路47の出力と荷重変更前出力電圧
保持回路13の出力の差を出力Bとして出力する。な
お、電圧の保持については、例えばアナログ回路のピー
ク・ホールド回路を用いることで入力電圧を保持し出力
しつづけることが可能である。
FIG. 4 shows an example of the configuration of the output variation calculation unit 31 shown in FIG. In FIG. 4, 41 is a switch, NN
Switch the circuit that transmits the output of. Reference numeral 43 denotes an output voltage holding circuit before load change, which receives the output after the load is finely changed by switching the switch 41 and holds the output. Reference numeral 45 denotes a load change output voltage holding circuit, which receives the output after the load is finely changed by switching the switch 41 and holds the output. Reference numeral 47 is a teacher signal holding circuit. A subtraction circuit 1 outputs a difference between outputs of the output voltage holding circuit 43 and the output voltage holding circuit 45 after the load change and before the load change as an output A. Further, 49 is a subtraction circuit 2, which outputs the difference between the output of the teacher signal holding circuit 47 and the output of the pre-load change output voltage holding circuit 13 as an output B. Regarding the voltage holding, it is possible to hold the input voltage and keep outputting it by using, for example, a peak hold circuit of an analog circuit.

【0064】図5には図3の誤差演算部33の構成例を
示している。図5において51a〜51kは誤差演算回
路である。53は修正荷重演算回路である。誤差演算回
路51a〜51kへは、ニューロ素子の出力の夫々に対
して図4の出力変分演算部31で演算した出力Aと出力
Bが入力される。また誤差演算回路51a〜51kから
はそれぞれ出力として誤差変化量に応じた電流が出力さ
れ、修正荷重演算回路53へ入力され、最終的に修正荷
重値を例えば電圧として出力する。このように式(9)
に従った2乗誤差変分の総和演算を、ニューロ素子から
の複数の出力に対する誤差変化量に相当する電流を同一
配線へ導入することで簡便に演算することができるもの
である。
FIG. 5 shows an example of the configuration of the error calculator 33 of FIG. In FIG. 5, 51a to 51k are error calculation circuits. Reference numeral 53 is a modified load calculation circuit. The output A and the output B calculated by the output variation calculation unit 31 of FIG. 4 are input to the error calculation circuits 51a to 51k respectively for the outputs of the neuro elements. Further, the error calculation circuits 51a to 51k respectively output currents corresponding to the error change amounts, which are input to the correction load calculation circuit 53, and finally output the correction load value as, for example, a voltage. Thus equation (9)
It is possible to simply calculate the sum of squared error variations according to the above by introducing into the same wiring a current corresponding to the error variation for a plurality of outputs from the neuro element.

【0065】図6は図5の一つの誤差演算回路51の構
成の一例を示している。
FIG. 6 shows an example of the configuration of one error calculation circuit 51 shown in FIG.

【0066】図6において61は入力端子1であり、出
力変分演算部31の出力Aとしてニューラル・ネットワ
ーク装置の荷重微小変更前後の出力変分が入力される。
63は入力端子2であり、出力変分演算部31の出力B
としてニューラル・ネットワーク装置の出力の教師値の
差が入力される。65は増幅回路であり、出力Aの電圧
を増幅する。このような増幅回路の例としては図7に示
すようなオペアンプを用いた非反転増幅器を用いれば、
出力は抵抗R1、R2によってVO=Vin・(1+R2/R
1)と増幅して出力される。66a,bは入力反転回路
であり、入力信号電圧の正負を反転して出力する。この
ような入力反転回路の例としては、図8に示すようなオ
ペアンプを用いた反転増幅器を用いることができる。こ
こで抵抗R1とR2の値を等しくすれば、出力VOは入力
と絶対値が等しく符号が反対の出力とすることができ
る。67a,bはドレイン選択スイッチであり、本実施
形態では67aがNMOS、67bがPMOSとしてい
る。NMOS67a及びPMOS67bのドレインは入
力端子1(61)へ接続され、ゲートは増幅回路65の
出力に接続されている。本実施形態では図7のR1とR2
の値を、R2がR1より例えば10倍程度大きくし、十分
大きい電圧として出力させることにより、NMOS67
aまたはPMOS67bのいずれかがONになった際の
閾値ロスによる電圧の降下を抑制するようにしている。
69a〜69dは誤差演算素子であり、図2で説明した
MOSトランジスタからなる。誤差演算素子69a,6
9cのゲートは入力端子2(63)に直接接続され、誤
差演算素子69b,69dのゲートは入力反転回路66
a、bにより正負を反転して出力Bが入力される。誤差
演算素子69a〜69dのソースは共通配線に接続さ
れ、電流は図5の修正荷重演算回路53へ入力される。
In FIG. 6, reference numeral 61 denotes an input terminal 1 to which the output variation before and after the minute load change of the neural network device is input as the output A of the output variation calculation unit 31.
63 is the input terminal 2 and the output B of the output variation calculation unit 31
The difference between the teacher values of the outputs of the neural network device is input as. An amplifier circuit 65 amplifies the voltage of the output A. As an example of such an amplifier circuit, if a non-inverting amplifier using an operational amplifier as shown in FIG. 7 is used,
The output is V O = V in · (1 + R 2 / R) due to the resistances R 1 and R 2 .
1 ) is amplified and output. 66a and 66b are input inversion circuits, which invert the positive and negative of the input signal voltage and output it. As an example of such an input inverting circuit, an inverting amplifier using an operational amplifier as shown in FIG. 8 can be used. Here, if the resistors R 1 and R 2 have the same value, the output V O can be an output having the same absolute value as the input and the opposite sign. 67a and b are drain selection switches, and in this embodiment, 67a is an NMOS and 67b is a PMOS. The drains of the NMOS 67a and the PMOS 67b are connected to the input terminal 1 (61), and the gates are connected to the output of the amplifier circuit 65. In this embodiment, R 1 and R 2 in FIG.
By setting the value of R 2 to be about 10 times larger than R 1 and outputting a sufficiently large voltage, the NMOS 67
The voltage drop due to the threshold loss when either a or the PMOS 67b is turned on is suppressed.
Reference numerals 69a to 69d are error calculation elements, which are MOS transistors described in FIG. Error calculation elements 69a, 6
The gate of 9c is directly connected to the input terminal 2 (63), and the gates of the error operation elements 69b and 69d are the input inverting circuit 66.
The output B is input by inverting the positive / negative by a and b. The sources of the error calculation elements 69a to 69d are connected to the common wiring, and the current is input to the correction load calculation circuit 53 of FIG.

【0067】図2の説明ではMOSトランジスタにより
誤差演算を行う基本動作について説明したが、図6の回
路構成は、さらに実際的な動作を得るための回路構成と
している。すなわち、式(9)の演算におけるΔOや
(Tk−Ok0)の値は、正の値とは限らないため、図2
のようなトランジスタ1つの構成では適正な誤差演算が
行えない場合がある点を改善している。
In the description of FIG. 2, the basic operation of performing the error calculation by the MOS transistor has been described, but the circuit configuration of FIG. 6 has a circuit configuration for obtaining a more practical operation. That is, the value of ΔO or (T k −O k0 ) in the calculation of the equation (9) is not always a positive value, and therefore, FIG.
With the configuration of one transistor as described above, there is a case where an appropriate error calculation cannot be performed in some cases.

【0068】図6の誤差演算回路51の動作を以下説明
する。 (a)入力A,入力Bとも正の電圧の場合 増幅回路65により増幅された出力Aの電圧がNMOS
67a及びPMOS67bのゲートに印加され、NMO
S67aのみがON状態となる。出力Aの電圧を増幅す
る意味は、十分に絶対値の大きい電圧をゲートに入力す
ることでMOSトランジスタでのVtロスを抑制する効
果がある。
The operation of the error calculation circuit 51 of FIG. 6 will be described below. (A) When the input A and the input B are both positive voltages, the voltage of the output A amplified by the amplifier circuit 65 is NMOS.
67a and the gate of PMOS 67b are applied to the NMO
Only S67a is turned on. The meaning of amplifying the voltage of the output A is to suppress the Vt loss in the MOS transistor by inputting a voltage having a sufficiently large absolute value to the gate.

【0069】これにより誤差演算素子69a,69bの
ドレインに出力Aの電圧が印加される。
As a result, the voltage of the output A is applied to the drains of the error calculation elements 69a and 69b.

【0070】一方、出力Bが正であるため、誤差演算素
子69aのみがMOSトランジスタとして機能し、ドレ
イン電流として誤差に相当する電流を出力する。他の誤
差演算素子69b,c,dからは電流は出力しない。 (b)入力Aが正、入力Bが負の電圧の場合 NMOS67aのみがON状態となり、誤差演算素子6
9a,69bのドレインに出力Aの電圧が印加される。
On the other hand, since the output B is positive, only the error calculation element 69a functions as a MOS transistor and outputs a drain current corresponding to an error. No current is output from the other error calculation elements 69b, c, d. (B) When the input A has a positive voltage and the input B has a negative voltage, only the NMOS 67a is turned on, and the error calculation element 6
The voltage of the output A is applied to the drains of 9a and 69b.

【0071】一方、出力Bが負であるため、誤差演算素
子69aのみから誤差相当電流が出力される。 (c)入力Aが負、入力Bが正の電圧の場合 PMOS67bのみがON状態となり、誤差演算素子6
9c,69dのドレインに出力Aの電圧(負電圧)が印
加される。
On the other hand, since the output B is negative, the error equivalent current is output only from the error calculation element 69a. (C) When the input A has a negative voltage and the input B has a positive voltage, only the PMOS 67b is turned on, and the error calculation element 6
The voltage (negative voltage) of the output A is applied to the drains of 9c and 69d.

【0072】一方、出力Bが正であるため、誤差演算素
子69dのみから誤差相当電流(負)が出力される。 (d)入力A,入力Bとも負の電圧の場合 PMOS67bのみがON状態となり、誤差演算素子6
9c,69dのドレインに出力Aの電圧(負電圧)が印
加される。
On the other hand, since the output B is positive, the error equivalent current (negative) is output only from the error calculation element 69d. (D) When the input A and the input B are both negative voltages, only the PMOS 67b is turned on, and the error calculation element 6
The voltage (negative voltage) of the output A is applied to the drains of 9c and 69d.

【0073】一方、出力Bが負であるため、誤差演算素
子69cのみから誤差相当電流(負)が出力される。
On the other hand, since the output B is negative, the error equivalent current (negative) is output only from the error calculation element 69c.

【0074】以上の動作により、出力A、出力Bの極性
に拠らず、誤差演算素子69a〜69dのいずれか1つ
が誤差演算の機能動作を実行することになり、信号極性
に拠らず安定して誤差演算が可能である。
By the above operation, any one of the error operation elements 69a to 69d performs the function operation of the error operation regardless of the polarities of the output A and the output B, and is stable regardless of the signal polarity. Error calculation is possible.

【0075】図9には図5の修正荷重演算回路53の回
路構成の一例を示している。
FIG. 9 shows an example of the circuit configuration of the modified load calculation circuit 53 of FIG.

【0076】図9はオペアンプを用いた電流−電圧変換
回路であり、図9のような配線を施すことで、電流を電
圧に変換する作用をする。オペアンプのマイナス端子に
図8の回路の出力である誤差相当電流を入力する。一方
でオペアンプのプラス端子を接地すると、オペアンプの
出力電圧VOは図に示した抵抗Rを用いて、次の式で計
算できる。
FIG. 9 shows a current-voltage conversion circuit using an operational amplifier, which has the function of converting a current into a voltage by providing the wiring as shown in FIG. The error equivalent current output from the circuit of FIG. 8 is input to the negative terminal of the operational amplifier. On the other hand, if the positive terminal of the operational amplifier is grounded, the output voltage V O of the operational amplifier can be calculated by the following equation using the resistor R shown in the figure.

【0077】VO=−Iin・R ・・・(式14) 一方、式(13)を変形すると ΔE=2・Iall/β ・・・(式15) 式(15)と式(4)、(5)、(6)、(7)を用い
ることにより、荷重修正量ΔWmodifは以下の式で表さ
れる。
V O = −I in · R (Equation 14) On the other hand, if Equation (13) is transformed, ΔE = 2 · I all / β (Equation 15) Equation (15) and Equation (4) ), (5), (6), and (7), the load correction amount ΔW modif is expressed by the following equation.

【0078】 ΔWmodif=−α・2・Iall/β/ΔW=2・α・VO/R/β/Δ W ・・・(式16) 式(16)によりVOから荷重修正量を得ることができ
る。
ΔW modif = −α · 2 · I all / β / ΔW = 2 · α · V O / R / β / Δ W (Equation 16) The load correction amount is calculated from V O according to Equation (16). Obtainable.

【0079】逆にR=2・α・VO/β/ΔWとその値
を設定すれば、ΔWmodif=VOとなり、出力VOをその
まま荷重修正量として用いることができ、さらに演算量
を減らすことが可能である。
[0079] By setting the value and R = 2 · α · V O / β / ΔW Conversely, ΔW modif = V O, and the output V O can be used as the load correction amount as it is, the more the amount of computation It is possible to reduce.

【0080】以上、本実施形態のニューラル・ネットワ
ーク装置の学習演算回路は、誤差演算という複雑な演算
をMOSの特性を利用することで極めて小さい回路規模
で等価的に実行でき、出力をデジタル情報に変換した後
に演算処理を繰り返す場合に対して、各段に学習速度を
向上することが可能である。
As described above, the learning operation circuit of the neural network device of this embodiment can perform a complicated operation called an error operation equivalently with a very small circuit scale by utilizing the characteristics of MOS, and output the digital information. It is possible to improve the learning speed in each stage in the case where the arithmetic processing is repeated after the conversion.

【0081】なお、本実施形態はニューロ素子の形はに
左右されるものでなく、荷重を変更すると出力が変化す
る全てのアナログ・ニューロ素子の学習回路として適用
できることは言うまでもない。
Needless to say, this embodiment is not dependent on the shape of the neuro element, and can be applied as a learning circuit for all analog neuro elements whose output changes when the load is changed.

【0082】さらに、本実施形態の最大の特徴点は、図
2で説明した通り、ニューロ素子の誤差演算をMOSト
ランジスタの非飽和領域での特性を応用することで実行
する点にある。本実施形態でMOSトランジスタのゲー
トやドレインに印加する電圧を演算する回路についても
いくつかの例により説明したが、これら周辺回路の構成
や動作については、必ずしもこの構成、動作に限定され
るものではなく、なんら本発明の本質を限定するもので
はない。
Further, the greatest feature of this embodiment is that the error calculation of the neuro element is executed by applying the characteristic in the non-saturation region of the MOS transistor as described with reference to FIG. Although the circuit for calculating the voltage applied to the gate and the drain of the MOS transistor has been described in this embodiment with some examples, the configuration and operation of these peripheral circuits are not necessarily limited to this configuration and operation. Without limiting in any way the essence of the invention.

【0083】[0083]

【発明の効果】本発明のアナログのニューラル・ネット
ワーク装置は、バック・プロパゲーション法による学習
を行う際、荷重を微小変化させた時の出力の変化から直
接、最適な荷重値を演算する回路を具備するものであ
る。この演算回路は、MOSトランジスタの非飽和領域
でのゲート電圧−ドレイン電流特性と適切荷重演算の類
似を利用することにより、アナログ回路の出力として過
渡応答時間後に直接適切荷重を出力として得ることがで
きる。
The analog neural network device of the present invention has a circuit for calculating an optimum load value directly from a change in output when a load is slightly changed when performing learning by the back propagation method. It is equipped with. This arithmetic circuit can directly obtain the appropriate load as the output of the analog circuit after the transient response time by utilizing the analog of the gate voltage-drain current characteristic in the non-saturation region of the MOS transistor and the appropriate load calculation. .

【0084】この回路を適用することにより、アナログ
・ニューラル・ネットワーク装置の学習を極めて高速に
実行することが可能となる。
By applying this circuit, the learning of the analog neural network device can be executed at extremely high speed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施形態のニューラル・ネットワーク
装置の構成説明図
FIG. 1 is an explanatory diagram of a configuration of a neural network device according to an embodiment of the present invention.

【図2】同実施形態のニューラルネットワーク装置の学
習演算回路の動作原理説明図
FIG. 2 is an explanatory diagram of an operation principle of a learning operation circuit of the neural network device of the same embodiment.

【図3】同実施形態の学習演算回路の模式的構成図FIG. 3 is a schematic configuration diagram of a learning arithmetic circuit of the same embodiment.

【図4】同実施形態の出力変分演算部構成例を示す図FIG. 4 is a diagram showing a configuration example of an output variation calculation unit according to the same embodiment.

【図5】同実施形態の誤差演算部構成例を示す図FIG. 5 is a diagram showing a configuration example of an error calculation unit according to the same embodiment.

【図6】同実施形態の誤差演算回路の構成例を示す図FIG. 6 is a diagram showing a configuration example of an error calculation circuit according to the same embodiment.

【図7】同実施形態の増幅回路例を示す図FIG. 7 is a diagram showing an example of an amplifier circuit of the same embodiment.

【図8】同実施形態の入力反転回路例を示す図FIG. 8 is a diagram showing an example of an input inverting circuit of the same embodiment.

【図9】同実施形態の修正荷重演算回路構成例を示す図FIG. 9 is a diagram showing an example of a modified load calculation circuit configuration of the same embodiment.

【図10】従来技術例のニューラル・ネットワーク装置
の構成図
FIG. 10 is a block diagram of a neural network device of a prior art example.

【図11】同従来技術例の学習動作手順説明図FIG. 11 is an explanatory diagram of a learning operation procedure of the prior art example.

【符号の説明】[Explanation of symbols]

1 ニューラル・ネットワーク装置 3 ニューロ素子 5 メモリ 7 入力データ保持部 9 D/Aコンバータ 11 D/Aコンバータ 13 A/Dコンバータ 15 制御部 17 セル選択部 19 メモリ 21 出力 23 学習演算回路 25 電界効果型トランジスタ 27 電流測定回路 31 出力変分演算部 33 誤差演算部 41 スイッチ 43 荷重変更前出力電圧保持回路 45 荷重変更後出力電圧保持回路 47 教師信号保持回路 48 減算回路1 49 減算回路2 51a〜51k 誤差演算回路 53 修正荷重演算回路 61 入力端子1 63 入力端子2 65 増幅回路 66a,b 入力反転回路 67a,b ドレイン選択スイッチ 69a〜69d 誤差演算素子 1 Neural network device 3 neuro elements 5 memory 7 Input data storage 9 D / A converter 11 D / A converter 13 A / D converter 15 Control unit 17 Cell selection section 19 memory 21 output 23 Learning arithmetic circuit 25 Field effect transistor 27 Current measurement circuit 31 Output variation calculator 33 Error calculator 41 switch 43 Output voltage holding circuit before load change 45 Output voltage holding circuit after load change 47 Teacher signal holding circuit 48 Subtraction circuit 1 49 Subtraction circuit 2 51a to 51k error calculation circuit 53 Corrected load calculation circuit 61 Input terminal 1 63 Input terminal 2 65 amplifier circuit 66a, b input inversion circuit 67a, b Drain selection switch 69a-69d Error calculation element

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 荷重を微小変更する前後のニューラル・
ネットワーク装置の出力変化に比例する電圧である出力
変化量を電界効果型トランジスタのドレイン−ソース間
に印加し、荷重変更前の教師信号と出力信号の差である
教師信号差を前記電界効果型トランジスタのゲート電極
に印加したときに流れるドレイン電流により、誤差変化
値を算出することを特徴とするニューラルネットワーク
装置の学習演算回路。
1. A neural network before and after a minute change in load.
An output change amount, which is a voltage proportional to an output change of the network device, is applied between the drain and source of the field effect transistor, and a teacher signal difference, which is a difference between the teacher signal before the weight change and the output signal, is applied to the field effect transistor. A learning operation circuit of a neural network device, wherein an error change value is calculated by a drain current flowing when applied to the gate electrode of the.
【請求項2】 誤差変化量を荷重の微小変更量で除した
値に比例した値に、荷重を変更する請求項1に記載のニ
ューラル・ネットワーク装置の学習演算回路。
2. The learning arithmetic circuit of the neural network apparatus according to claim 1, wherein the load is changed to a value proportional to a value obtained by dividing the error change amount by the minute change amount of the load.
【請求項3】 請求項2に記載の荷重変更動作を全ての
荷重に対して実行する動作を繰り返すことにより学習を
実行するニューラル・ネットワーク装置の学習演算回
路。
3. A learning arithmetic circuit of a neural network device for performing learning by repeating the operation of executing the load changing operation according to claim 2 for all the loads.
【請求項4】 出力変化量と教師信号差の正負の組合せ
(4種類)に従って、異なる電界効果型トランジスタに
より請求項1に記載の演算を実行するニューラル・ネッ
トワーク装置の学習演算回路。
4. A learning arithmetic circuit of a neural network device for executing the arithmetic operation according to claim 1 by different field effect transistors according to positive / negative combinations (4 types) of an output change amount and a teacher signal difference.
【請求項5】 前記ニューラル・ネットワーク装置の出
力が複数あって、これら複数の出力の夫々に請求項1の
学習演算回路を設けたことを特徴とするニューラル・ネ
ットワーク装置の学習演算回路。
5. A learning operation circuit for a neural network device, wherein the neural network device has a plurality of outputs, and the learning operation circuit according to claim 1 is provided for each of the plurality of outputs.
【請求項6】 荷重変更前の出力を保持する荷重変更前
出力電圧保持回路と、荷重変更後の出力を保持する荷重
変更後出力電圧保持回路と、教師信号値を保持する教師
信号保持回路と、前記荷重変更後出力電圧保持回路の出
力と前記荷重変更前出力電圧保持回路の出力の差を演算
する第1の減算回路と、前記教師信号保持回路の出力と
前記荷重変更前出力電圧保持回路の出力の差を演算する
第2の減算回路とを具備し、前記第1の減算回路の出力
を電界効果型トランジスタのドレイン−ソース間に印加
し、前記第2の減算回路の出力を電界効果型トランジス
タのゲートに印加する請求項1に記載のニューラルネッ
トワーク装置の学習演算回路。
6. A pre-load change output voltage holding circuit for holding an output before load change, a post-load change output voltage holding circuit for holding an output after load change, and a teacher signal holding circuit for holding a teacher signal value. A first subtraction circuit for calculating the difference between the output of the output voltage holding circuit after the weight change and the output of the output voltage holding circuit before the weight change, the output of the teacher signal holding circuit and the output voltage hold circuit before the weight change And a second subtraction circuit for calculating the difference between the outputs of the first subtraction circuit, the output of the first subtraction circuit is applied between the drain and the source of the field effect transistor, and the output of the second subtraction circuit is subjected to the field effect. The learning operation circuit of the neural network device according to claim 1, wherein the learning operation circuit is applied to the gate of the type transistor.
【請求項7】 出力変化量を増幅する増幅回路の出力
が、第1のN型の電界効果型トランジスタ(NMOS)
と第1のP型の電界効果型トランジスタ(PMOS)の
ゲートに接続され、前記出力変化量が前記第1のNMO
Sと第2のPMOSのドレインに入力され、前記第1の
NMOSのソースには第2のNMOSと第3のNMOS
のドレインが接続され、前記第1のPMOSのソースに
は第2のPMOSと第3のPMOSのドレインが接続さ
れ、前記第2のNMOSと前記第3のNMOSと前記第
2のPMOSと前記第3のPMOSのソースが接続され
(共通ソース)、前記教師信号差が前記第2のNMOS
と第2のPMOSのゲートに入力され、さらに前記教師
信号差を正負反転する入力反転回路の出力が前記第3の
NMOSと第3のPMOSのゲートに接続された構成を
具備し、前記共通ソースに接続された配線を流れる電流
値により、ニューロ素子の誤差変化値を算出することを
特徴とするニューラルネットワーク装置の学習演算回
路。
7. An output of an amplifier circuit for amplifying an output change amount is a first N-type field effect transistor (NMOS).
Is connected to the gate of a first P-type field effect transistor (PMOS), and the output change amount is equal to the first NMO.
S and the drain of the second PMOS are input, and the source of the first NMOS is the second NMOS and the third NMOS.
Of the second PMOS and the drain of the third PMOS are connected to the source of the first PMOS, the second NMOS, the third NMOS, the second PMOS and the second PMOS. The source of the third PMOS is connected (common source), and the teacher signal difference is the second NMOS.
And a gate of the second PMOS, and an output of an input inverting circuit for inverting the teacher signal difference is connected to the gates of the third NMOS and the third PMOS. A learning operation circuit of a neural network device, which calculates an error change value of a neuro element based on a current value flowing through a wire connected to the.
JP2002061432A 2002-03-07 2002-03-07 Learning arithmetic circuit for neural network device Pending JP2003263624A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002061432A JP2003263624A (en) 2002-03-07 2002-03-07 Learning arithmetic circuit for neural network device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002061432A JP2003263624A (en) 2002-03-07 2002-03-07 Learning arithmetic circuit for neural network device

Publications (1)

Publication Number Publication Date
JP2003263624A true JP2003263624A (en) 2003-09-19

Family

ID=29195742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002061432A Pending JP2003263624A (en) 2002-03-07 2002-03-07 Learning arithmetic circuit for neural network device

Country Status (1)

Country Link
JP (1) JP2003263624A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018109968A (en) * 2016-12-28 2018-07-12 株式会社半導体エネルギー研究所 Data processing device, electronic component, and electronic apparatus using neural network
WO2020129204A1 (en) * 2018-12-20 2020-06-25 Tdk株式会社 Neuromorphic circuit, neuromorphic array learning method and program
KR20200124705A (en) * 2018-04-05 2020-11-03 레인 뉴로모픽스 인크. Systems and methods for efficient matrix multiplication
JP2022531766A (en) * 2019-05-02 2022-07-11 シリコン ストーリッジ テクノロージー インコーポレイテッド Transforming and calibrating output array neurons for analog neural memory in deep learning artificial neural networks
US11450712B2 (en) 2020-02-18 2022-09-20 Rain Neuromorphics Inc. Memristive device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018109968A (en) * 2016-12-28 2018-07-12 株式会社半導体エネルギー研究所 Data processing device, electronic component, and electronic apparatus using neural network
JP7073090B2 (en) 2016-12-28 2022-05-23 株式会社半導体エネルギー研究所 Data processing equipment, electronic components, and electronic devices that utilize neural networks
KR20200124705A (en) * 2018-04-05 2020-11-03 레인 뉴로모픽스 인크. Systems and methods for efficient matrix multiplication
JP2021518615A (en) * 2018-04-05 2021-08-02 レイン・ニューロモーフィックス・インコーポレーテッドRain Neuromorphics Inc. Systems and methods for efficient matrix multiplication
JP7130766B2 (en) 2018-04-05 2022-09-05 レイン・ニューロモーフィックス・インコーポレーテッド Systems and methods for efficient matrix multiplication
KR102449941B1 (en) * 2018-04-05 2022-10-06 레인 뉴로모픽스 인크. Systems and Methods for Efficient Matrix Multiplication
WO2020129204A1 (en) * 2018-12-20 2020-06-25 Tdk株式会社 Neuromorphic circuit, neuromorphic array learning method and program
JPWO2020129204A1 (en) * 2018-12-20 2021-03-11 Tdk株式会社 Neuromorphic circuits, learning methods and programs for neuromorphic arrays
JP2022531766A (en) * 2019-05-02 2022-07-11 シリコン ストーリッジ テクノロージー インコーポレイテッド Transforming and calibrating output array neurons for analog neural memory in deep learning artificial neural networks
US11450712B2 (en) 2020-02-18 2022-09-20 Rain Neuromorphics Inc. Memristive device

Similar Documents

Publication Publication Date Title
US11461621B2 (en) Methods and systems of implementing positive and negative neurons in a neural array-based flash memory
US20200026993A1 (en) Neural network circuit
CN108763163B (en) Analog vector-matrix multiplication circuit
JP6773621B2 (en) Arithmetic logic unit
CN109086249B (en) Analog vector-matrix multiplication circuit
EP2845316B1 (en) Electronic circuit for adjusting an offset of a differential amplifier
US20050138100A1 (en) Product-sum operation circuit and method
US10340002B1 (en) In-cell differential read-out circuitry for reading signed weight values in resistive processing unit architecture
JP2021502036A (en) Current Steering Digital-Analog Converter
US6586972B2 (en) Transistor-mismatch-insensitive current comparator cell
CN111611534B (en) Dynamic bias analog vector-matrix multiplication operation circuit and operation control method thereof
JP2003263624A (en) Learning arithmetic circuit for neural network device
US9825132B2 (en) Systems and methods for filtering and computation using tunneling transistors
Szczęsny High speed and low sensitive current-mode CMOS perceptron
JP3331668B2 (en) Nonlinear operation unit and information processing apparatus using the same
JPH0318985A (en) Information processor
CN112632460B (en) Source coupled drain summed analog vector-matrix multiplication circuit
US5717833A (en) System and method for designing fixed weight analog neural networks
JPH0690736B2 (en) MOSFET multiplication calculator
Mayes et al. Pulsed VLSI for RBF neural networks
JPH06187472A (en) Analog neural network
JP2002279393A (en) Sound recognition circuit
JP4635612B2 (en) Sample and hold circuit
JP3191678B2 (en) Neuro element
JP4996589B2 (en) Sensitivity adjustment circuit