JPH04216160A - Neural network circuit - Google Patents

Neural network circuit

Info

Publication number
JPH04216160A
JPH04216160A JP2402928A JP40292890A JPH04216160A JP H04216160 A JPH04216160 A JP H04216160A JP 2402928 A JP2402928 A JP 2402928A JP 40292890 A JP40292890 A JP 40292890A JP H04216160 A JPH04216160 A JP H04216160A
Authority
JP
Japan
Prior art keywords
circuit
neuron
output
neural network
derivative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2402928A
Other languages
Japanese (ja)
Inventor
Takashi Morie
隆 森江
Yoshihito Amamiya
好仁 雨宮
Atsushi Iwata
穆 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2402928A priority Critical patent/JPH04216160A/en
Publication of JPH04216160A publication Critical patent/JPH04216160A/en
Pending legal-status Critical Current

Links

Landscapes

  • Semiconductor Integrated Circuits (AREA)

Abstract

PURPOSE:To obtain a neural network circuit which constitutes an analog LSI incorporating a circuit for calculating a back propagation method and has such a circuit configuration that the deterioration of learning ability caused by a difference in arithmetic operation resulting from the analog LSI hardly occurs. CONSTITUTION:This neural network circuit is constituted of a neuron circuit 10 and synapse circuits 15a and 15b. The neuron circuit 10 is constituted of nonlinear processing means 12a and 12b which generate transfer functions, a derived function generating means 13, and gain factor setting means 11a and 11b. The synapse circuits 15a and 15b are respectively constituted of coupling strength outputting means 17a and 17a which store, hold, and output synapse coupling strengths for multiplying data processing signals inputted from the circuit 10 and error signals and coupling strength modifying means 16a and 16b which modify the coupling strengths.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明はニュ−ラルネットワ−ク
回路に係り、特に誤差逆伝搬学習機能を組み込んだニュ
−ラルネットワ−ク回路に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network circuit, and more particularly to a neural network circuit incorporating a backpropagation learning function.

【0002】ニュ−ラルネットワ−ク回路とは、生物の
神経回路網をモデル化した回路のことをいう。ニュ−ラ
ルネットワ−クを使用することにより従来のノイマン形
計算機では難しかった文字認識や音声認識等のパタ−ン
認識処理、最適化問題の近似求解、ロボット制御等が容
易に実現できると期待されている。
[0002] A neural network circuit is a circuit modeled after a biological neural network. It is expected that by using neural networks, it will be possible to easily realize pattern recognition processes such as character recognition and speech recognition, approximate solutions to optimization problems, and robot control, which were difficult with conventional Neumann computers. There is.

【0003】0003

【従来の技術】図11は従来の最も単純な例のニュ−ラ
ルネットワ−ク回路の単位回路の構成図を示す。ニュ−
ラルネットワ−クの構成は単位回路をネットワ−ク状に
多数組み合わせたものである。この単位回路はニュ−ロ
ン回路と呼ばれ、一個のニュ−ロン回路は複数の入力端
子101,102,103,104,105の信号を受
けて、それぞれの入力信号に対して重み(シナプス結合
強度と呼ばれる)Wijを乗算して、その結果を全て加
算して、その加算結果を非線形処理して出力を決定する
。 このため、予めアルゴリズムのわかっていない処理に対
しても適応能力があることが特徴である。
2. Description of the Related Art FIG. 11 shows a block diagram of a unit circuit of the simplest conventional neural network circuit. new
The configuration of the ral network is a combination of a large number of unit circuits in the form of a network. This unit circuit is called a neuron circuit, and one neuron circuit receives signals from multiple input terminals 101, 102, 103, 104, and 105, and assigns a weight (synaptic connection strength) to each input signal. (called ) Wij, add all the results, and perform nonlinear processing on the addition results to determine the output. Therefore, it is characterized by its ability to adapt to processes for which the algorithm is not known in advance.

【0004】図12は3層ネットワ−ク構造の概念図を
示す。ネットワ−ク構成は層状ネットワ−ク(パ−セプ
トロン型、ラメルハ−ト型とも呼ぶ)で、層内のニュ−
ロン間には結合がなく、層間のニュ−ロン間は相互に結
合し、信号は入力層91から中間層93を経て、出力層
95に一方通行で伝わるものである。学習モデルは入力
したデ−タに対して望ましい出力結果を教師信号として
同時に与えて学習させ、最終的に教師信号なしの状態で
も望ましい結果を出力できるようにする。いわゆる、教
師あり学習モデルであり、その中でも特に応用の範囲も
広い誤差逆伝搬学習法(バックプロパゲ−ション法、以
下BP法と呼ぶ)である。この方法は学習が入力値に対
して出力値が望ましい出力値に近づくように、結合の強
さを出力層から入力層に向かって順に変化させていくこ
とによって実現されることより、実際の処理動作と反対
方向になされるためにBP法と呼ぶ。具体的な学習アル
ゴリズムは文献;“PARALLEL DISTRIB
UTED PROCESSING ”(パラレル・ディ
ストリビュ−ティッド・プロセシング)D.E.Rum
elhart, J.L. McClelland, 
and the PDP Research Grou
p(D.E. ラメルハ−ト、J.L.  マッカラン
ドとPDP 研究グル−プ)、MIT Press, 
1986  第1巻第8章(P−318 〜) 等に述
べられているが、ここでは結果だけを簡単に説明する。
FIG. 12 shows a conceptual diagram of a three-layer network structure. The network structure is a layered network (also called perceptron type or lamel heart type), with new layers within the layer.
There is no coupling between neurons, neurons between layers are coupled to each other, and signals are transmitted from the input layer 91 through the intermediate layer 93 to the output layer 95 in one direction. The learning model is made to learn by giving a desired output result as a teaching signal to the input data at the same time, so that it can finally output the desired result even in the absence of the teaching signal. This is a so-called supervised learning model, and among these, the error backpropagation learning method (hereinafter referred to as BP method) has a particularly wide range of applications. This method is realized by sequentially changing the connection strength from the output layer to the input layer so that the output value approaches the desired output value with respect to the input value. It is called the BP method because it is performed in the opposite direction to the motion. The specific learning algorithm can be found in the literature; “PARALLEL DISTRIB
UTED PROCESSING” (Parallel Distributed Processing) DE Rum
Elhart, J. L. McClelland,
and the PDP Research Group
p (D.E. Ramelhart, J.L. McCalland and PDP Research Group), MIT Press,
1986, Volume 1, Chapter 8 (P-318~), etc., but only the results will be briefly explained here.

【0005】出力層95に近い方を上層、入力層91に
近い方を下層と定義すると、ある上層ニュ−ロンiとす
ぐ下の下層ニュ−ロンjについて以下の入出力関係が成
り立つ。
If we define the layer closer to the output layer 95 as the upper layer and the layer closer to the input layer 91 as the lower layer, the following input-output relationship holds true for a certain upper layer neuron i and a lower layer neuron j immediately below.

【0006】[0006]

【数1】[Math 1]

【0007】       oi =f(u i)         
                     …(2)
ここで、u i 及びoi はそれぞれニュ−ロンiの
内部状態及び出力値であり、w ij はシナプス結合
強度である。伝達関数fは出力値が有限で単調増加する
S字型の関数で、シグモイド関数と呼ばれる非線形関数
である。 よく用いられる関数としては、ロジスティック関数;
[0007] oi = f(u i)
...(2)
Here, u i and oi are the internal state and output value of neuron i, respectively, and w ij is the synaptic connection strength. The transfer function f is an S-shaped function whose output value is finite and increases monotonically, and is a nonlinear function called a sigmoid function. Frequently used functions include the logistic function;


0008】
[
0008

【数2】[Math 2]

【0009】がある。ここでλはニュ−ロンのゲインを
表す係数(ここではゲインファクタと呼ぶ)であり、f
(ui )はシグモイド関数の値の変化が最も激しいと
ころでの曲線の傾きに一致する。
There is [0009]. Here, λ is a coefficient representing the gain of the neuron (referred to as gain factor here), and f
(ui) corresponds to the slope of the curve where the value of the sigmoid function changes most drastically.

【0010】次に学習アルゴリズムは以下のようになる
Next, the learning algorithm is as follows.

【0011】[0011]

【数3】[Math 3]

【0012】     δi=ζif′(ui)          
                  …(5)
δi=ζif′(ui)
...(5)

【00
13】
00
13]

【数4】[Math 4]

【0014】   Δwij=−εδi oj           
                    …(7)こ
こで、Eは出力信号と教師信号との差(誤差)を表す評
価関数で、通常の出力層ニュ−ロンの出力をoi 、教
師信号をti として、
Δwij=−εδi oj
...(7) Here, E is an evaluation function representing the difference (error) between the output signal and the teacher signal, where oi is the output of the normal output layer neuron and ti is the teacher signal.

【0015】[0015]

【数5】[Math 5]

【0016】とする。従って、出力層ニュ−ロンiにお
いて式(4)は           ζi =oi −ti     
                        …
(9)となり、中間層ニュ−ロンjとの間のシナプス結
合強度の修正量Δwijは式(7)で与えられる。ここ
でεは修正量を決めるパラメ−タである。
[0016] Therefore, in the output layer neuron i, equation (4) becomes ζi = oi −ti

(9), and the amount of modification Δwij of the synaptic connection strength with intermediate layer neuron j is given by equation (7). Here, ε is a parameter that determines the amount of correction.

【0017】以下再び式(6)、式(5)及び式(7)
の順に用いて下層に向かってシナプス強度修正量を計算
する。これらの計算を入力デ−タと教師デ−タの各組に
ついて何度も繰り返し行っていくと、評価関数Eの値が
0に収束していく。これにより学習が行えたことになる
[0017] Below, equation (6), equation (5) and equation (7) are again expressed.
The synaptic strength correction amount is calculated in the lower layers using the following steps: When these calculations are repeated many times for each set of input data and teacher data, the value of the evaluation function E converges to zero. This means that learning has been carried out.

【0018】[0018]

【発明が解決しようとする課題】しかるに上記で説明し
たニュ−ラルネットワ−ク回路はこれまでは主に、計算
機シュミレ−ションにより実行されてきたが、学習の計
算に時間がかかるという問題があった。
[Problem to be solved by the invention] However, until now, the neural network circuit described above has been mainly executed by computer simulation, but there was a problem that learning calculations took time. .

【0019】そこで、アナログ回路で並列計算を行わせ
、LSI化によって高集積化し、各種の応用に供しよう
という試みがなされ始めた。しかしながら、上記のよう
なBP学習法はアルゴリズムが複雑なために、LSI化
したという報告は未だなされていない。
[0019] Therefore, attempts have been made to perform parallel computation using analog circuits, increase integration through LSI, and apply them to various applications. However, since the algorithm of the above-mentioned BP learning method is complicated, there have been no reports of its implementation in LSI.

【0020】また、アナログ回路でのBP法の計算が困
難な理由の一つに伝達関数fの導関数f′の計算が難し
いことがあげられる。ここで、もし、伝達関数fが上記
の式3で表されるようなロジスティック関数であれは、
導関数f′は   f′(ui )=λf(ui )[1−f(ui 
)]          …(10)となる。式(10
)の右辺のλf(ui )[1−f(ui )]は伝達
関数を差動増幅器で実現したときであり、差動増幅器の
反転・非反転出力の積によって回路的に容易に実現でき
る。しかし、実際には差動増幅器等の電子回路でつくる
伝達関数は正確なロジスティック関数にならないので、
式(10)の演算結果は正しい導関数からずれてくる。 これにより、式(10)の右辺を近似関数と呼ぶ。さら
に、実際のアナログ回路では、回路を構成するアナログ
素子の特性のばらつきが加わって関数形状に歪を生じた
りする。特に値が0になる付近の演算誤差が大きく影響
する。
Furthermore, one of the reasons why it is difficult to calculate the BP method using an analog circuit is that it is difficult to calculate the derivative f' of the transfer function f. Here, if the transfer function f is a logistic function as expressed by the above equation 3, then
The derivative f' is f'(ui)=λf(ui)[1-f(ui
)] ...(10). Formula (10
λf(ui)[1-f(ui)] on the right side of ) is when the transfer function is realized by a differential amplifier, and can be easily realized in terms of a circuit by the product of the inverting and non-inverting outputs of the differential amplifier. However, in reality, the transfer function created by electronic circuits such as differential amplifiers is not an accurate logistic function, so
The calculation result of equation (10) deviates from the correct derivative. Thereby, the right side of equation (10) is called an approximation function. Furthermore, in actual analog circuits, variations in the characteristics of analog elements making up the circuit may cause distortion in the function shape. In particular, calculation errors near the value 0 have a large effect.

【0021】次に計算機シュミレ−ションで得られた結
果について説明する。図13、図14は近似導関数を用
いた場合のシュミレ−ションの結果を示す。両図中、(
A)のaは式(3)で表されたロジスティック関数、b
〜dは差動増幅器で典型的に生じる区分線形関数的な関
数である。これらのシグモイド関数を用いて式(10)
での右辺λf(ui )[1−f(ui )]で求めた
近似導関数を用いた図13と、さらにその近似導関数の
裾をカットした場合の図14について、入力層−中間層
−出力層の3層ネットワ−ク(ニュ−ロン数は2−2−
1)で排他論理和の学習を行わせた時に正しく学習でき
た割合を示したものである。図13(B)に示すように
、最も区分線形関数に近い関数dでは、学習パラメ−タ
εが0.04を境に学習パラメ−タεが大きくなると学
習が良好にできなくなることがわかる。さらに、近似導
関数の裾をカットした場合の図14ではいずれの伝達関
数においても学習能力が劣化することがわかる。例えば
、図14(B)に示す関数bは学習パラメ−タεが0.
1になったときに学習能力の比率は0に落ち込む。 また、関数dも学習パラメ−タが0.13のときに比率
0となる。
Next, the results obtained by computer simulation will be explained. 13 and 14 show simulation results using approximate derivatives. In both figures, (
In A), a is the logistic function expressed by equation (3), and b
~d is a piecewise linear function that typically occurs in differential amplifiers. Using these sigmoid functions, equation (10)
13 using the approximate derivative obtained from the right-hand side λf(ui)[1-f(ui)], and FIG. 14 using the approximate derivative obtained by cutting the tail of the approximate derivative, the input layer - intermediate layer - 3-layer network in the output layer (number of neurons is 2-2-
This shows the percentage of correct learning achieved when exclusive OR learning was performed in step 1). As shown in FIG. 13B, it can be seen that for the function d that is closest to the piecewise linear function, as the learning parameter ε increases beyond 0.04, the learning cannot be performed satisfactorily. Furthermore, in FIG. 14 when the tail of the approximate derivative is cut, it can be seen that the learning ability deteriorates in any transfer function. For example, in the function b shown in FIG. 14(B), the learning parameter ε is 0.
When it reaches 1, the learning ability ratio drops to 0. Furthermore, the ratio of the function d is 0 when the learning parameter is 0.13.

【0022】このようになる理由として排他論理和のよ
うに0.1の飽和値を出力させるような学習では特に中
間層のニュ−ロンが飽和領域で動作するように学習させ
る必要があるが、裾がカットされている場合には動作す
る以前に導関数の値が0になってしまい、学習が進まな
くなるためである。
The reason for this is that in learning that outputs a saturation value of 0.1, such as exclusive OR, it is necessary to train neurons in the middle layer to operate in the saturation region. This is because if the tail is cut, the value of the derivative becomes 0 before the operation begins, and learning will not proceed.

【0023】このようにアナログ回路で正確な導関数が
生成できないために生じる学習能力の劣化もニュ−ラル
ネットワ−クのLSI化の問題となっている。
Deterioration of the learning ability caused by the inability of analog circuits to generate accurate derivatives is also a problem in LSI implementation of neural networks.

【0024】本発明は上記の点に鑑みなされたもので、
BP法を計算する回路を組み込んだアナログLSIを構
成することができ、アナログLSIで生じる演算誤差が
学習能力に影響しないような回路構成のニュ−ラルネッ
トワ−ク回路を提供することを目的とする。
[0024] The present invention has been made in view of the above points.
It is an object of the present invention to provide a neural network circuit having a circuit configuration in which an analog LSI incorporating a circuit for calculating the BP method can be constructed, and a calculation error occurring in the analog LSI does not affect learning ability.

【0025】[0025]

【課題を解決するための手段】図1は本発明の原理構成
図を示す。層内のニュ−ロン間には結合がなく、層間の
ニュ−ロン間は相互に結合している層状のニュ−ラルネ
ットワ−ク回路において、ニュ−ラルネットワ−ク回路
はニュ−ロン回路10とシナプス回路15a,15bを
有し、ニュ−ロン回路10は下層ニュ−ロン群18から
供給される信号に伝達関数で表される非線形処理を行う
非線形処理手段12a.12bと、導関数を発生するた
めの導関数発生手段13と、ニュ−ロンのゲインを表す
係数を独立に設定するゲインファクタ設定手段11a,
11bと、上層ニュ−ロン群19から伝搬する誤差信号
に導関数発生手段により発生した値を乗算し、乗算値の
信号を逆方向に出力する誤差信号出力手段14よりなり
、シナプス回路15a,15bはシナプス結合強度を保
持し、ニュ−ロン回路10から供給された信号に結合強
度を乗算して修正し、出力する結合強度修正手段16a
,16bと、誤差信号に結合強度を乗算し、誤差信号出
力手段14を実行する結合強度出力手段17a,17b
よりなる
[Means for Solving the Problems] FIG. 1 shows a diagram of the basic configuration of the present invention. In a layered neural network circuit in which there is no connection between neurons within a layer and neurons between layers are mutually connected, the neural network circuit has a synapse with the neuron circuit 10. The neuron circuit 10 has circuits 15a and 15b, and the neuron circuit 10 includes nonlinear processing means 12a . 12b, derivative generating means 13 for generating a derivative, and gain factor setting means 11a for independently setting a coefficient representing the gain of the neuron.
11b, and an error signal output means 14 which multiplies the error signal propagated from the upper neuron group 19 by a value generated by the derivative generation means and outputs the multiplied value signal in the opposite direction, and synapse circuits 15a and 15b. is a connection strength modifying means 16a that holds the synaptic connection strength, corrects the signal supplied from the neuron circuit 10 by multiplying it by the connection strength, and outputs the result.
, 16b, and coupling strength output means 17a, 17b for multiplying the error signal by the coupling strength and executing the error signal output means 14.
becomes more

【0026】[0026]

【作用】ニュ−ロン回路内の伝達関数と導関数のそれぞ
れの発生手段において、両者のゲインファクタを独立に
設定できる非線形処理手段と導関数発生手段により、導
関数のゲインファクタを伝達関数のゲインファクタより
も小さくすることができ、これによりアナログ回路での
演算誤差による学習能力の劣化を防ぐ。また、ニュ−ロ
ン回路の下層から上層に向かうデ−タ信号を処理すると
ともに、上層から下層に向かう誤差信号をも処理する誤
差信号出力手段を併せ持つニュ−ロン回路及びシナプス
回路を組み合わせることにより、LSI化に適したBP
学習機能を組み込んだニュ−ラルネットワ−ク回路がで
きる。
[Operation] In the transfer function and derivative generation means in the neuron circuit, the gain factor of the derivative is changed to the transfer function gain using the nonlinear processing means and the derivative generation means that can independently set the gain factors of both. This can be made smaller than the factor, thereby preventing deterioration of learning ability due to calculation errors in analog circuits. In addition, by combining a neuron circuit and a synapse circuit that process data signals going from the lower layer of the neuron circuit to the upper layer, and also have an error signal output means that processes error signals going from the upper layer to the lower layer, BP suitable for LSI
A neural network circuit with a built-in learning function can be created.

【0027】[0027]

【実施例】図2は裾をカットした近似導関数のゲインフ
ァクタを固定して伝導関数のゲインファクタを変化させ
た時のシュミレ−ションの結果を示す。この方法はアナ
ログ回路で生じる演算誤差による学習能力の劣化をさけ
るものである。同図と図13、14とを比較すると伝達
関数のゲインファクタが導関数のゲインファクタより小
さい時は学習パラメ−タεに関係なく全く学習ができな
かったが伝達関数のゲインが導関数のゲインファクタよ
り大きい場合は学習パラメ−タε小さい限り、良好に学
習できた。このことから伝達関数がロジスティック関数
でないために多少導関数の形が歪んでいる状態であった
り、または、裾付近の演算精度が悪くても導関数のゲイ
ンファクタより大きいゲインファクタを有する伝達関数
を用いれば学習能力の劣化が回避できる。これにより以
下に学習能力の劣化が回避できる方法を述べる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 2 shows the results of a simulation in which the gain factor of the approximate derivative with its tail cut is fixed and the gain factor of the transfer function is varied. This method avoids deterioration of learning ability due to calculation errors that occur in analog circuits. Comparing this figure with Figures 13 and 14, when the gain factor of the transfer function was smaller than the gain factor of the derivative, no learning was possible regardless of the learning parameter ε, but the gain of the transfer function was the gain of the derivative. If it is larger than the factor, learning was successful as long as the learning parameter ε was small. This means that the shape of the derivative may be somewhat distorted because the transfer function is not a logistic function, or even if the calculation precision near the tail is poor, the transfer function may have a gain factor larger than the gain factor of the derivative. If used, deterioration of learning ability can be avoided. A method for avoiding deterioration of learning ability will be described below.

【0028】図3は差動増幅器の回路図を示す。同図中
、電圧Vb121及び電圧Vb222は適切なアナログ
動作を行うためのバイアス電圧である。また、入力用の
配線25、26と出力用の配線23、24は一対の配線
になっており、ノイズや基準レベルの変動に強い差動型
である。
FIG. 3 shows a circuit diagram of a differential amplifier. In the figure, voltage Vb121 and voltage Vb222 are bias voltages for performing appropriate analog operations. Further, the input wirings 25 and 26 and the output wirings 23 and 24 are a pair of wirings, and are of a differential type that is resistant to noise and fluctuations in the reference level.

【0029】図4は乗算回路の回路図を示す。同図は図
3と同様に、電圧Vb131及び電圧Vb232はバイ
アス電圧である。また、入力用の配線33,34,35
,36と出力用の配線37、38は一対の配線になって
いる。図3の差動増幅器、図4の乗算回路ともに電圧入
力、電流出力である。
FIG. 4 shows a circuit diagram of a multiplication circuit. In this figure, as in FIG. 3, the voltage Vb131 and the voltage Vb232 are bias voltages. In addition, input wiring 33, 34, 35
, 36 and the output wirings 37 and 38 form a pair of wirings. Both the differential amplifier in FIG. 3 and the multiplication circuit in FIG. 4 have voltage input and current output.

【0030】図5は本発明の要部となるニュ−ロン回路
の一実施例の概要を示す。ニュ−ロン回路40は乗算器
41,44,46,47、差動増幅器45,48により
構成されている。また、2つの乗算器42,46と差動
増幅器45より構成される導関数f′を生成する導関数
生成部42と、乗算器47と差動増幅器48より構成さ
れる伝達関数fを生成する伝達関数生成部43がある。 同図において、簡単のために、差動回路の1対の配線を
1本の線で示しているが、例外的にニュ−ロン回路40
の中央にある伝達関数の導関数f′を発生する導関数生
成部42の差動増幅器45の出力のみ1対で示す。
FIG. 5 shows an outline of an embodiment of a neuron circuit which is a main part of the present invention. The neuron circuit 40 is composed of multipliers 41, 44, 46, 47 and differential amplifiers 45, 48. Further, there is a derivative generating section 42 that generates a derivative f', which is composed of two multipliers 42 and 46 and a differential amplifier 45, and a transfer function f, which is composed of a multiplier 47 and a differential amplifier 48. There is a transfer function generation section 43. In the figure, for simplicity, a pair of wires in the differential circuit is shown as a single line; however, as an exception, the neuron circuit 40
Only the output of the differential amplifier 45 of the derivative generator 42 which generates the derivative f' of the transfer function at the center of is shown as a pair.

【0031】同図中、上記の式(1)で求められるニュ
−ロンiの出力値ui が乗算器44,47に入力され
る。そのうち伝達関数生成部43の乗算器47に入力さ
れるとoi =f(ui )が出力される。一方、導関
数生成分42の乗算器44に入力されると上記式(10
)の計算が実行され、導関数f′が誤差信号ζi と共
に乗算器41に入力され上記の式(5)の計算を行い、
誤差信号δi を出力する。
In the figure, the output value ui of neuron i determined by the above equation (1) is input to multipliers 44 and 47. When inputted to the multiplier 47 of the transfer function generation section 43, oi=f(ui) is output. On the other hand, when input to the multiplier 44 of the derivative generation component 42, the above formula (10
) is executed, and the derivative f' is input to the multiplier 41 together with the error signal ζi to calculate the above equation (5),
An error signal δi is output.

【0032】図6は本発明の他の要部となるシナプス回
路の一実施例の概要を示す。シナプス回路50は3つの
乗算器51,52,54とシナプス結合強度を記憶・修
正するシナプス結合強度調整回路53より構成される。
FIG. 6 shows an outline of an embodiment of a synapse circuit which is another essential part of the present invention. The synaptic circuit 50 includes three multipliers 51, 52, and 54, and a synaptic connection strength adjustment circuit 53 that stores and modifies the synaptic connection strength.

【0033】同図中、シナプス結合強度調整回路53は
シナプス結合強度に比例したアナログ電圧を保持し、常
時出力する機能と外部からの学習信号に比例してシナプ
ス結合強度を増減する機能を持つ。これはEEPROM
(Electrically erasable/pr
ogramable read−only memor
y) などの不揮発性メモリに制御回路を組み合わせる
ことで実現できる。参考となる文献として、“フロ−テ
ィングゲ−トMOSのアナログ動作”藤田、雨宮、岩田
  1990年電子情報通信学会秋期全国大会講演論文
集5−224ペ−ジがある。また、不揮発性でなく、一
時的記憶で良い場合、もしくはリフレッシュ回路を設け
る場合はMOSキャパシタに電荷を蓄える方法も用いら
れる。
In the figure, a synaptic connection strength adjustment circuit 53 holds an analog voltage proportional to the synaptic connection strength and has a function of constantly outputting it and a function of increasing or decreasing the synaptic connection strength in proportion to an external learning signal. This is an EEPROM
(Electrically erasable/pr
ogramable read-only memory
This can be realized by combining a control circuit with a non-volatile memory such as y). A reference document is "Analog Operation of Floating Gate MOS" by Fujita, Amemiya, and Iwata, Proceedings of the 1990 IEICE Autumn National Conference, page 5-224. Furthermore, when the memory is not non-volatile and only temporary storage is required, or when a refresh circuit is provided, a method of storing charge in a MOS capacitor is also used.

【0034】同図において入力信号として下層ニュ−ロ
ン回路jからの出力値であるoj とシナプス結合強度
調整回路53からの出力値が乗算器51に入力される。 乗算器51は入力された2つの値を乗算し、その計算結
果であるwijoj を次段に出力する。さらに、乗算
器52には入力信号として下層ニュ−ロン回路j から
の出力値であるoj と上層ニュ−ロンiからの誤差信
号であるδi が入力され、この2つの値が乗算される
。その計算結果はシナプス結合強度調整回路53に出力
される。シナプス結合強度調整回路53は入力された値
によりシナプス結合強度を記憶すると共に入力された値
に基づいて式(7)を実行して修正を行い、その値を乗
算器51及び54に出力する。また、乗算器54には誤
差信号δi も入力される。これにより乗算器54は2
つの値を乗算し、計算結果であるwijδi が出力さ
れ式(6)のwijに関する項が計算される。
In the figure, the output value oj from the lower neuron circuit j and the output value from the synaptic connection strength adjustment circuit 53 are input to a multiplier 51 as input signals. The multiplier 51 multiplies the two input values and outputs the calculation result wijoj to the next stage. Furthermore, the multiplier 52 receives as input signals oj, which is the output value from the lower neuron circuit j, and δi, which is the error signal from the upper neuron i, and these two values are multiplied. The calculation result is output to the synaptic connection strength adjustment circuit 53. The synaptic connection strength adjustment circuit 53 stores the synaptic connection strength based on the input value, performs correction by executing equation (7) based on the input value, and outputs the value to the multipliers 51 and 54. Further, an error signal δi is also input to the multiplier 54. As a result, the multiplier 54 becomes 2
The calculation result wijδi is output, and the term related to wij in equation (6) is calculated.

【0035】図7は本発明の一実施例の回路のブロック
図を示す。同図は入力端子61、62に入力信号が供給
され、出力端子63、64から出力されるまでの信号の
流れを説明するものである。
FIG. 7 shows a block diagram of a circuit according to an embodiment of the present invention. This figure explains the flow of signals from input signals being supplied to input terminals 61 and 62 to being output from output terminals 63 and 64.

【0036】入力端子61、62に入力される外部回路
からの信号ui はそれぞれ入力層としてのニュ−ロン
回路Ni1,Ni2に供給される。ニュ−ロン回路Ni
1,Ni2は式(2)によって求められるoi をそれ
ぞれシナプス回路S1 ,S3及び、S2 ,S4 に
出力する。シナプス回路S1 ,S3 ,S2 ,S4
 は誤差信号wijδi を前段のニュ−ロン回路Ni
1,Ni2に出力すると共にニュ−ロン回路Ni1,N
i2からの信号oj に結合強度wijをかけた  w
ijoi を中間層としてのニュ−ロン回路Nh1,N
 h2 に出力する。
Signals ui from an external circuit inputted to input terminals 61 and 62 are supplied to neuron circuits Ni1 and Ni2 as input layers, respectively. Neuron circuit Ni
1 and Ni2 output the oi determined by equation (2) to the synaptic circuits S1, S3 and S2, S4, respectively. Synaptic circuits S1, S3, S2, S4
converts the error signal wijδi to the preceding neuron circuit Ni
1, Ni2 and neuron circuit Ni1,N
The signal oj from i2 is multiplied by the coupling strength wij
Neuron circuit Nh1,N with ijoi as the middle layer
Output to h2.

【0037】ニュ−ロン回路Nh1,N h2 は式(
6)で得られるζi にニュ−ロン回路Nh1,N h
2 で求められる導関数f′を乗算し、逆方向に出力す
るための式(5)を実行し、計算結果δi を前段のシ
ナプス回路S1 ,S2 ,S3 ,S4 に出力する
と共にニュ−ロン出力oi を夫々次段のシナプス回路
S5 ,S6 ,S7 ,S8 に入力する。シナプス
回路S5 ,S6 ,S7 ,S8 はwijδi の
値を前段のニュ−ロン回路Nh1,N h2 に出力す
ると共にニュ−ロン回路Nh1,N h2 からの信号
oj に結合強度を乗算して得た計算結果wijoj 
を出力層としてのニュ−ロン回路No1,No2に出力
する。
The neuron circuits Nh1 and Nh2 are expressed by the formula (
The neuron circuit Nh1, Nh is added to ζi obtained in 6).
2 is multiplied by the derivative f' found in 2, executes equation (5) for output in the opposite direction, and outputs the calculation result δi to the previous stage synapse circuits S1, S2, S3, S4 and the neuron output. oi is input to the next-stage synapse circuits S5, S6, S7, and S8, respectively. The synapse circuits S5, S6, S7, and S8 output the value of wijδi to the neuron circuits Nh1 and Nh2 in the previous stage, and the calculation obtained by multiplying the signal oj from the neuron circuits Nh1 and Nh2 by the coupling strength. Result wijoj
is output to neuron circuits No. 1 and No. 2 as output layers.

【0038】ニュ−ロン回路No1,No2は式(9)
の計算結果ζi にニュ−ロン回路内部で求められる導
関数f′を乗算することにより式(5)の計算結果δi
 を下層に出力すると共に、ニュ−ロン出力oi を出
力する。 この出力はまた、夫々差動増幅器65、66に入力され
る。差動増幅器65、66ではそれぞれ教師信号t1 
(望べき値)が入力され、式(9)を行い、その計算結
果ζi がニュ−ロン回路No1,No2に戻される。
[0038] Neuron circuits No. 1 and No. 2 are expressed by formula (9)
By multiplying the calculation result ζi by the derivative f′ found inside the neuron circuit, the calculation result δi of equation (5) is obtained.
It outputs the neuron output oi to the lower layer. This output is also input to differential amplifiers 65 and 66, respectively. The differential amplifiers 65 and 66 each receive a teacher signal t1.
(desired value) is input, formula (9) is performed, and the calculation result ζi is returned to neuron circuits No. 1 and No. 2.

【0039】上記の各シナプス回路S1 〜S8 で計
算されるwijoi 及びwijoj は電流量である
。この値が外付けの抵抗で加算され、式(6)の結果と
なり、次のニュ−ロン回路に入力される。ニュ−ロン回
路及びシナプス回路の機能は上述の通りであるが、式(
1)及び(6)での和をとる機能はキルヒホッフの法則
により電流の総和で得られ、図7に示す抵抗に発生する
電圧で検出される。また、各抵抗はアナログ動作の基準
電位に固定される。
wijoi and wijoj calculated in each of the above synaptic circuits S1 to S8 are current amounts. This value is added by an external resistor to obtain the result of equation (6), which is input to the next neuron circuit. The functions of the neuron circuit and synaptic circuit are as described above, but the formula (
The function of calculating the sum in 1) and (6) is obtained by the sum of currents according to Kirchhoff's law, and is detected by the voltage generated across the resistor shown in FIG. Further, each resistor is fixed to a reference potential for analog operation.

【0040】図8は本発明の一実施例のニュ−ロン回路
の詳細な回路図を示す。同図の構成は図5と同様である
ので、同一構成部分には同一符号を付す。端子71〜7
7に入力される電圧は中性点を与える基準電圧VNNで
あり、端子82に入力される電圧は電源電圧VDDであ
る。 端子78,79,80,81に入力される電圧VSF,
VSF’ は夫々伝達関数及び伝達関数の導関数のゲイ
ンファクタを設定するための乗算電圧である。本実施例
の場合、VSF>VSF’ と設定することにより、伝
達関数のゲインファクタを導関数のゲインファクタより
も大きくすることができる。同図中、カレントミラ−回
路82は生成された伝達関数の導関数の波形を修正する
FIG. 8 shows a detailed circuit diagram of a neuron circuit according to an embodiment of the present invention. The configuration in this figure is the same as that in FIG. 5, so the same components are given the same reference numerals. Terminals 71-7
The voltage input to terminal 7 is a reference voltage VNN that provides a neutral point, and the voltage input to terminal 82 is power supply voltage VDD. Voltage VSF input to terminals 78, 79, 80, 81,
VSF' is a multiplication voltage for setting the gain factor of the transfer function and the derivative of the transfer function, respectively. In the case of this embodiment, by setting VSF>VSF', the gain factor of the transfer function can be made larger than the gain factor of the derivative. In the figure, a current mirror circuit 82 modifies the waveform of the derivative of the generated transfer function.

【0041】次に同図における動作を説明する。先ず、
ニュ−ロン回路40の乗算器47には端子80、81か
ら乗算電圧VSFが供給され、また、下層ニュ−ロン群
からの出力信号ui が入力される。ニュ−ロン入力u
i は乗算器47に供給すると共に、乗算器44にも供
給する。
Next, the operation in the figure will be explained. First of all,
The multiplier 47 of the neuron circuit 40 is supplied with the multiplication voltage VSF from terminals 80 and 81, and also receives the output signal ui from the lower neuron group. neuron input u
i is supplied to the multiplier 47 and also to the multiplier 44 .

【0042】乗算器47では入力された信号の乗算を行
い差動増幅器48に出力する。このとき端子75、76
より基準電圧VNNが供給される。これにより乗算器4
7と差動増幅器48により伝達関数fを生成し、式(2
)により、ニュ−ロン出力oi としてシナプス回路5
0に出力する回路43を構成する。
The multiplier 47 multiplies the input signals and outputs the multiplied signals to the differential amplifier 48. At this time, terminals 75 and 76
The reference voltage VNN is supplied from the reference voltage VNN. This allows multiplier 4
7 and the differential amplifier 48 to generate a transfer function f, and formulate the equation (2
), the synaptic circuit 5 is used as the neuron output oi.
A circuit 43 that outputs 0 is configured.

【0043】次に乗算器44には下層ニュ−ロン群から
の出力信号ui が入力され、端子78、79より導関
数のゲインファクタを決める乗算電圧VSF’ が供給
される。乗算器44は入力された信号の乗算を行い、差
動増幅器48に出力する。このとき端子71、72より
基準電圧VNNが供給される。差動増幅器48は反転・
非反転出力を乗算器46に出力する。乗算器46は入力
値より式(10)を実行し、その計算結果を導関数f′
とする。これらの乗算器44、46、差動増幅器45に
より導関数生成部42を構成する。
Next, the output signal ui from the lower neuron group is input to the multiplier 44, and a multiplication voltage VSF' which determines the gain factor of the derivative is supplied from terminals 78 and 79. The multiplier 44 multiplies the input signals and outputs the result to the differential amplifier 48. At this time, the reference voltage VNN is supplied from the terminals 71 and 72. The differential amplifier 48 is an inverting
A non-inverted output is output to multiplier 46. The multiplier 46 executes equation (10) from the input value and converts the calculation result into a derivative f'
shall be. These multipliers 44, 46 and differential amplifier 45 constitute a derivative generating section 42.

【0044】但し、図8の回路では乗算器46への入力
の基準電圧をグランドにとったために差動出力はオフセ
ットを生じる。このため、一方の出力のみを使いカレン
トミラ−回路83を介して基準電圧VNNを0レベルと
する信号を作り、乗算器41のx+ に入力する。この
とき、乗算器41のもう一方の入力端子x− にはVN
Nを加える。
However, in the circuit shown in FIG. 8, since the reference voltage input to the multiplier 46 is set to ground, an offset occurs in the differential output. For this reason, only one output is used to generate a signal that sets the reference voltage VNN to 0 level via the current mirror circuit 83 and is input to x+ of the multiplier 41. At this time, the other input terminal x- of the multiplier 41 has VN
Add N.

【0045】乗算器41は上層ニュ−ロン群から伝搬す
る式(4)または(6)で表される誤差信号ζi が入
力される。乗算器41はこの誤差信号ζi に導関数f
′を乗算する式(5)を行い、逆方向に計算結果δi 
を出力する。
The multiplier 41 receives an error signal ζi expressed by equation (4) or (6) propagated from the upper layer neuron group. The multiplier 41 applies a derivative f to this error signal ζi.
', and calculate the calculation result δi in the opposite direction.
Output.

【0046】図10は本発明の一実施例のシナプス回路
の詳細な回路図を示す。同図は図6と同一の構成である
ので同一符号を付す。先ず、シナプス回路50の乗算器
51にはニュ−ロン回路40の出力信号oi とシナプ
ス強度wijが供給される。乗算器51はoi にシナ
プス強度wijを乗算する式(1)を実行し、出力する
FIG. 10 shows a detailed circuit diagram of a synapse circuit according to an embodiment of the present invention. Since this figure has the same configuration as FIG. 6, the same reference numerals are given. First, the multiplier 51 of the synapse circuit 50 is supplied with the output signal oi of the neuron circuit 40 and the synapse strength wij. The multiplier 51 executes equation (1) for multiplying oi by the synaptic strength wij and outputs the result.

【0047】次にニュ−ロン回路40の出力信号oi 
は、乗算器52にも供給される。また、乗算器52はニ
ュ−ロン回路から入力される信号δi が入力され、式
(7)が実行され、シナプス結合強度の修正量Δwij
としてシナプス結合強度調整回路53に出力される。
Next, the output signal oi of the neuron circuit 40
is also supplied to multiplier 52. Further, the multiplier 52 receives the signal δi input from the neuron circuit, executes equation (7), and calculates the correction amount Δwij of the synaptic connection strength.
The signal is output to the synaptic connection strength adjustment circuit 53 as a signal.

【0048】シナプス結合強度調整回路53はシナプス
結合強度を変化させる学習信号wijを発生させ、乗算
器54と前述の乗算器51に供給する。乗算器54はニ
ュ−ロン回路40から供給されたδi とシナプス結合
強度調整回路53から供給信号のシナプス結合強度wi
jを乗算して前段に伝える。
The synaptic connection strength adjustment circuit 53 generates a learning signal wij for changing the synaptic connection strength, and supplies it to the multiplier 54 and the multiplier 51 described above. The multiplier 54 uses δi supplied from the neuron circuit 40 and the synaptic connection strength wi of the signal supplied from the synaptic connection strength adjustment circuit 53.
Multiply by j and send to the previous stage.

【0049】図9は本発明の一実施例のニュ−ロン回路
のシュミレ−ションの結果を示す。同図は上述したニュ
−ロン回路について適切なパラメ−タを設定して回路シ
ュミレ−ションを行った時の入出力の関係を示すもので
ある。伝達関数のゲインを決める乗算電圧VSFを0.
5Vとし、伝達関数fの導関数f′のゲインを決める乗
算電圧VSF’ を0.3Vと設定している。ニュ−ロ
ン回路に入力される誤差信号ζi の値はそれぞれ0.
2V,0.3V,0.4Vとしており、その場合のニュ
−ロン回路から出力される出力信号oi を示している
FIG. 9 shows the results of a simulation of a neuron circuit according to an embodiment of the present invention. This figure shows the input/output relationship when a circuit simulation is performed by setting appropriate parameters for the above-mentioned neuron circuit. The multiplication voltage VSF that determines the gain of the transfer function is set to 0.
5V, and the multiplication voltage VSF' which determines the gain of the derivative f' of the transfer function f is set to 0.3V. The value of the error signal ζi input to the neuron circuit is 0.
2V, 0.3V, and 0.4V, and the output signal oi output from the neuron circuit in those cases is shown.

【0050】なお、本実施例はゲイン可変増幅器をつく
るために差動増幅器と乗算器のみを用いて回路を構成し
たものであるが、素子数の削減や回路の占有面積の低減
を目指して回路を単純化することは、通常の回路設計技
術を有する当業者にとって容易に達成できる。
In this example, the circuit was constructed using only a differential amplifier and a multiplier to create a variable gain amplifier, but the circuit was constructed with the aim of reducing the number of elements and the area occupied by the circuit. This simplification is easily accomplished by those skilled in the art having ordinary circuit design skills.

【0051】[0051]

【発明の効果】上述の如く本発明によれば、ニュ−ロン
回路内に伝達関数と導関数のゲインファクタを独立に設
定できる回路を有することにより、導関数のゲインファ
クタを伝達関数のゲインファクタよりも小さくすること
ができ、これにより、アナログ回路での演算誤差による
学習能力の劣化を防ぐことができる。
As described above, according to the present invention, by having a circuit in the neuron circuit that can independently set the gain factors of the transfer function and the derivative, the gain factor of the derivative can be set as the gain factor of the transfer function. This can prevent the learning ability from deteriorating due to calculation errors in analog circuits.

【0052】また、デ−タ信号処理と誤差信号処理を同
時に行うニュ−ロン回路及びシプナス回路を組み合わせ
ることによりLSI化に適したBP法の学習機能内蔵の
ニュ−ラルネットワ−ク回路を構成することにより高集
積化ができる。
Furthermore, by combining a neuron circuit and a sinus circuit that simultaneously perform data signal processing and error signal processing, a neural network circuit with a built-in learning function of the BP method suitable for LSI implementation can be constructed. This allows for higher integration.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の原理構成図である。FIG. 1 is a diagram showing the principle configuration of the present invention.

【図2】近似導関数のゲインファクタを固定して導関数
のゲインファクタを変化させた時のシュミレ−ション結
果を示す図である。
FIG. 2 is a diagram showing simulation results when the gain factor of the approximate derivative is fixed and the gain factor of the derivative is varied.

【図3】差動増幅器の回路図である。FIG. 3 is a circuit diagram of a differential amplifier.

【図4】乗算回路の回路図である。FIG. 4 is a circuit diagram of a multiplication circuit.

【図5】本発明の要部となるニュ−ロン回路構成の一実
施例を示す図である。
FIG. 5 is a diagram showing an embodiment of a neuron circuit configuration, which is a main part of the present invention.

【図6】本発明の他の要部となるシナプス回路構成の一
実施例を示す図である。
FIG. 6 is a diagram showing an example of a synapse circuit configuration, which is another essential part of the present invention.

【図7】本発明の一実施例の回路のブロック図である。FIG. 7 is a block diagram of a circuit according to an embodiment of the present invention.

【図8】本発明の一実施例のニュ−ロン回路の詳細な回
路図である。
FIG. 8 is a detailed circuit diagram of a neuron circuit according to an embodiment of the present invention.

【図9】本発明の一実施例のシナプス回路の詳細な回路
図である。
FIG. 9 is a detailed circuit diagram of a synapse circuit according to an embodiment of the present invention.

【図10】本発明の一実施例のニュ−ロン回路のシュミ
レ−ションの結果を示す図である。
FIG. 10 is a diagram showing the results of a simulation of a neuron circuit according to an embodiment of the present invention.

【図11】従来の最も単純な例のニュ−ラルネットワ−
ク回路の構成図である。
[Figure 11] The simplest example of a conventional neural network
FIG. 2 is a configuration diagram of a circuit.

【図12】ニュ−ラルネットワ−クの3層ネットワ−ク
構造の概念図である。
FIG. 12 is a conceptual diagram of a three-layer network structure of a neural network.

【図13】近似導関数を用いた場合のシュミレ−ション
結果を示す図である。
FIG. 13 is a diagram showing simulation results when approximate derivatives are used.

【図14】近似導関数を用いた場合のシュミレ−ション
結果を示す図である。
FIG. 14 is a diagram showing simulation results using approximate derivatives.

【符号の説明】[Explanation of symbols]

11a,11b  ゲインファクタ設定手段12a,1
2b  非線形処理手段 13  導関数発生手段 14  誤差信号出力手段 10,40  ニュ−ロン回路 15,50  シナプス回路 16a,16b  結合強度出力手段 17a,17b  結合強度修正手段 18  下層ニュ−ロン群 19  上層ニュ−ロン群 41,44,46,51,52,54  乗算器42 
 導関数生成部 43  伝達関数生成部 45,48  差動増幅器
11a, 11b gain factor setting means 12a, 1
2b Nonlinear processing means 13 Derivative generation means 14 Error signal output means 10, 40 Neuron circuits 15, 50 Synapse circuits 16a, 16b Connection strength output means 17a, 17b Connection strength correction means 18 Lower layer neuron group 19 Upper layer neurons Ron group 41, 44, 46, 51, 52, 54 Multiplier 42
Derivative function generation section 43 Transfer function generation section 45, 48 Differential amplifier

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】層内のニュ−ロン間には結合がなく、層間
のニュ−ロン間は相互に結合している層状のニュ−ラル
ネットワ−ク回路において、前記ニュ−ラルネットワ−
ク回路はニュ−ロン回路とシナプス回路を有し、前記ニ
ュ−ロン回路は下層ニュ−ロン群から供給される信号に
伝達関数で表される非線形処理を行う非線形処理手段と
、導関数を発生するための導関数発生手段と、ニュ−ロ
ンのゲインを表す係数を独立に設定するゲインファクタ
設定手段と、上層ニュ−ロン群から伝搬する誤差信号に
該導関数発生手段により発生した値を乗算し、乗算値の
信号を逆方向に出力する誤差信号出力手段とよりなり、
前記シナプス回路はシナプス結合強度を保持し、前記ニ
ュ−ロン回路から供給された信号に結合強度を乗算して
修正し、出力する結合強度修正手段と、該誤差信号に結
合強度を乗算し、前記誤差信号出力手段を実行する結合
強度出力手段とよりなることを特徴とするニュ−ラルネ
ットワ−ク回路。
1. In a layered neural network circuit in which there is no connection between neurons within a layer and neurons between layers are mutually connected, the neural network
The circuit has a neuron circuit and a synapse circuit, and the neuron circuit includes a nonlinear processing means that performs nonlinear processing expressed by a transfer function on the signal supplied from the lower neuron group, and a nonlinear processing means that generates a derivative. gain factor setting means for independently setting a coefficient representing the gain of the neuron; and multiplying the error signal propagating from the upper neuron group by the value generated by the derivative generation means. and serves as an error signal output means for outputting a signal of the multiplied value in the opposite direction,
The synapse circuit holds the synaptic connection strength, and includes a connection strength correction means for multiplying and correcting the signal supplied from the neuron circuit by the connection strength, and outputting the signal; A neural network circuit comprising: coupling strength output means for executing error signal output means.
JP2402928A 1990-12-17 1990-12-17 Neural network circuit Pending JPH04216160A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2402928A JPH04216160A (en) 1990-12-17 1990-12-17 Neural network circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2402928A JPH04216160A (en) 1990-12-17 1990-12-17 Neural network circuit

Publications (1)

Publication Number Publication Date
JPH04216160A true JPH04216160A (en) 1992-08-06

Family

ID=18512692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2402928A Pending JPH04216160A (en) 1990-12-17 1990-12-17 Neural network circuit

Country Status (1)

Country Link
JP (1) JPH04216160A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017068491A1 (en) * 2015-10-23 2017-04-27 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and electronic device
US20170118479A1 (en) * 2015-10-23 2017-04-27 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and electronic device
WO2018002766A1 (en) * 2016-06-30 2018-01-04 株式会社半導体エネルギー研究所 Display device and moving body
WO2018025116A1 (en) * 2016-08-03 2018-02-08 Semiconductor Energy Laboratory Co., Ltd. Imaging device, imaging module, electronic device, and imaging system
US11099814B2 (en) 2016-10-12 2021-08-24 Semiconductor Energy Laboratory Co., Ltd. Neural network semiconductor device and system using the same
JP2021140805A (en) * 2016-03-18 2021-09-16 株式会社半導体エネルギー研究所 Artificial neural network

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190112830A (en) * 2015-10-23 2019-10-07 가부시키가이샤 한도오따이 에네루기 켄큐쇼 Semiconductor device and electronic device
WO2017068490A1 (en) * 2015-10-23 2017-04-27 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and electronic device
US10674168B2 (en) 2015-10-23 2020-06-02 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and electronic device
US10922605B2 (en) 2015-10-23 2021-02-16 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and electronic device
JP2017130221A (en) * 2015-10-23 2017-07-27 株式会社半導体エネルギー研究所 Semiconductor device and electronic device
CN107077639A (en) * 2015-10-23 2017-08-18 株式会社半导体能源研究所 Semiconductor device and electronic equipment
WO2017068491A1 (en) * 2015-10-23 2017-04-27 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and electronic device
JP2021108144A (en) * 2015-10-23 2021-07-29 株式会社半導体エネルギー研究所 Semiconductor device and electronic apparatus
US11893474B2 (en) 2015-10-23 2024-02-06 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and electronic device
US20170118479A1 (en) * 2015-10-23 2017-04-27 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and electronic device
JP2017102904A (en) * 2015-10-23 2017-06-08 株式会社半導体エネルギー研究所 Semiconductor device and electronic device
JP2021140805A (en) * 2016-03-18 2021-09-16 株式会社半導体エネルギー研究所 Artificial neural network
US11636883B2 (en) 2016-03-18 2023-04-25 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and system using the same
WO2018002766A1 (en) * 2016-06-30 2018-01-04 株式会社半導体エネルギー研究所 Display device and moving body
WO2018025116A1 (en) * 2016-08-03 2018-02-08 Semiconductor Energy Laboratory Co., Ltd. Imaging device, imaging module, electronic device, and imaging system
US11699068B2 (en) 2016-08-03 2023-07-11 Semiconductor Energy Laboratory Co., Ltd. Imaging device, imaging module, electronic device, and imaging system
US11099814B2 (en) 2016-10-12 2021-08-24 Semiconductor Energy Laboratory Co., Ltd. Neural network semiconductor device and system using the same
US11755286B2 (en) 2016-10-12 2023-09-12 Semiconductor Energy Laboratory Co., Ltd. Neural network semiconductor device and system using the same

Similar Documents

Publication Publication Date Title
EP0357016B1 (en) Neuron architecture
US4951239A (en) Artificial neural network implementation
JP6724870B2 (en) Artificial neural network circuit training method, training program, and training device
Shima et al. Neuro chips with on-chip back-propagation and/or Hebbian learning
US10340002B1 (en) In-cell differential read-out circuitry for reading signed weight values in resistive processing unit architecture
US11042715B2 (en) Electronic system for performing a multiplication of a matrix and vector
Haghiri et al. VLSI implementable neuron-astrocyte control mechanism
US20210406661A1 (en) Analog Hardware Realization of Neural Networks
US5630023A (en) Signal processor
US6876989B2 (en) Back-propagation neural network with enhanced neuron characteristics
JPH04216160A (en) Neural network circuit
US5568414A (en) Nonlinear operation unit and data processing apparatus using the nonlinear operation unit
JP2760170B2 (en) Learning machine
JPH0264787A (en) Hierarchy structure neutral net
Gencer et al. Design and validation of an artificial neural network based on analog circuits
JPH05128284A (en) Neuro-processor
US20040083193A1 (en) Expandable on-chip back propagation learning neural network with 4-neuron 16-synapse
JPH06131482A (en) Analog neural network circuit
JP2976835B2 (en) Neural network device
JPH04112355A (en) Self-learning type analog neuron circuit
JPH06187472A (en) Analog neural network
US11487990B2 (en) Resistive crossbar arrays with reduced numbers of elements
Martinez-Nieto et al. A CMOS mixed mode non-linear processing unit for adaptive sensor conditioning in portable smart systems
KR940005512B1 (en) Nonlinear synapse circuit of neural network
US20240005141A1 (en) Analog Hardware Realization of Neural Networks Using Libraries of I/O Interfaces and Power Management Units