JPH09167195A - Neuro element - Google Patents

Neuro element

Info

Publication number
JPH09167195A
JPH09167195A JP7329098A JP32909895A JPH09167195A JP H09167195 A JPH09167195 A JP H09167195A JP 7329098 A JP7329098 A JP 7329098A JP 32909895 A JP32909895 A JP 32909895A JP H09167195 A JPH09167195 A JP H09167195A
Authority
JP
Japan
Prior art keywords
input
transistors
neural network
equation
neuro element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7329098A
Other languages
Japanese (ja)
Other versions
JP3175567B2 (en
Inventor
Hirofumi Inada
洋文 稲田
Akira Nagami
旭 永見
Naoya Miyano
尚哉 宮野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Sumitomo Metal Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Metal Industries Ltd filed Critical Sumitomo Metal Industries Ltd
Priority to JP32909895A priority Critical patent/JP3175567B2/en
Publication of JPH09167195A publication Critical patent/JPH09167195A/en
Application granted granted Critical
Publication of JP3175567B2 publication Critical patent/JP3175567B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a neural network using a radius base function in simple configuration and to easily produce a neuro element by multiplying outputs provided from a differential amplifier equipped with plural transistors. SOLUTION: Concerning the neuro element for consisting of the neural network while using the radius base function, a differential amplifier circuit 11 is provided with a constant voltage source 21, two resistors RC, two bipolar transistors Q1 and Q2 , two variable resistors RE and constant current source 22. In this case, the input to the virtual node of neural network is defined as an input to any one of transistors Q1 and Q2 at least. Then, collector voltages generated by collector currents I1 and I2 of both the transistors Q1 and Q2 become the inputs of multiplier circuit part 13, and the multiplier circuit part 13 finds the product of these two voltages and outputs that product.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、人間の脳の神経系
を模倣したニューラルネットワークを構成するためのニ
ューロ素子に関し、特に、半導体集積回路で容易に実現
できるニューロ素子に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural element for constructing a neural network imitating the nervous system of the human brain, and more particularly to a neural element which can be easily realized by a semiconductor integrated circuit.

【0002】[0002]

【従来の技術】人間の脳の神経系を模倣したニューラル
ネットワークを有する情報処理装置(ニューロコンピュ
ータ)が注目されている。このようなニューロコンピュ
ータは、所定の学習アルゴリズムに従って多数のニュー
ロン間の結合強度を変更することにより、ノイマン型コ
ンピュータが不得意であるあいまいな情報処理における
解を得ることができる。
2. Description of the Related Art An information processing apparatus (neurocomputer) having a neural network imitating the nervous system of the human brain has been receiving attention. Such a neurocomputer can obtain an ambiguous solution in information processing that Neumann-type computers are not good at by changing the connection strength between many neurons according to a predetermined learning algorithm.

【0003】ニューラルネットワークをプログラムでは
なく装置として実現するために必要であるニューロ素子
の従来例として、EEPROMを用いたものが提案されている
(特開平3−144785号公報)。このニューロ素子では、
各入力信号にそれぞれの係数を乗算し、それらの合計を
例えばシグモイド関数のようなしきい値関数に入力し、
その関数の計算値をニューロ素子の出力としている。
As a conventional example of a neuro element necessary for realizing a neural network as a device rather than a program, a device using an EEPROM has been proposed (JP-A-3-144785). With this neuro element,
Multiply each input signal by the respective coefficient and enter the sum of them into a threshold function such as a sigmoid function,
The calculated value of the function is used as the output of the neuro element.

【0004】一方、しきい値関数とは異なり、動径基底
関数を用いたニューラルネットワークも考案されている
が、この種のニューラルネットワークをハードウェアに
て実現する構成としては、ガウス関数を動径基底関数と
したニューラルネットワークについてのみが知られてい
る(“A Gaussian Synapse Circuit For Analog VLSINe
ural Networks")
On the other hand, unlike the threshold function, a neural network using a radial basis function has also been devised. As a configuration for realizing this kind of neural network by hardware, a Gaussian function is a radial vector. Only neural networks with basis functions are known (“A Gaussian Synapse Circuit For Analog VLSINe
ural Networks ")

【0005】[0005]

【発明が解決しようとする課題】ガウス関数を動径基底
関数とするニューラルネットワークを構成するためのニ
ューロ素子の回路は複雑であり、その製造も容易ではな
いという課題がある。
The circuit of the neuro element for constructing the neural network having the Gaussian function as the radial basis function is complicated and its manufacture is not easy.

【0006】本発明は斯かる事情に鑑みてなされたもの
であり、動径基底関数を用いたニューラルネットワーク
を簡単な構成のハードウェアにて実現できて誤動作を防
止できると共に、容易な工程にて製造可能であって歩留
りが高いニューロ素子を提供することを目的とする。
The present invention has been made in view of such circumstances, and a neural network using a radial basis function can be realized by hardware having a simple structure to prevent malfunction, and at a simple process. It is an object of the present invention to provide a neuro element that can be manufactured and has a high yield.

【0007】[0007]

【課題を解決するための手段】本発明の請求項1に係る
ニューロ素子は、動径基底関数を用いてニューラルネッ
トワークを構成するためのニューロ素子において、2個
のトランジスタを有し、前記ニューラルネットワークの
仮想するノードへの入力を前記両トランジスタの少なく
とも一方のトランジスタの入力とする差動増幅器と、該
差動増幅器から得られる前記両トランジスタの出力を乗
算する乗算器とを備えることを特徴とする。
A neuro element according to claim 1 of the present invention is a neuro element for constructing a neural network using a radial basis function, which has two transistors, and the neural network A differential amplifier having an input to a virtual node of at least one of the transistors as an input, and a multiplier for multiplying outputs of the both transistors obtained from the differential amplifier. .

【0008】本発明の請求項2に係るニューロ素子は、
請求項1において、前記動径基底関数が、f(b,x)
=A/{1+cosh(bx)}(但し、A:定数,
b:学習則によって決定されるパラメータ)であること
を特徴とする。
A neuro element according to claim 2 of the present invention comprises:
The radial basis function according to claim 1, wherein f (b, x) is
= A / {1 + cosh (bx)} (where A: constant,
b: parameter determined by the learning rule).

【0009】[0009]

【発明の実施の形態】以下、本発明をその実施の形態を
示す図面に基づいて具体的に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be specifically described below with reference to the drawings showing the embodiments.

【0010】図1は、動径基底関数を用いた一般的なニ
ューラルネットワークの構成の一例を示す模式図であ
り、この例では、2次元の入力ベクトルから1次元の出
力ベクトルを得るようになっている。ニューラルネット
ワークは、第1入力ノード1a及び第2入力ノード1bを有
する入力層と、第1中間ノード2a及び第2中間ノード2b
を有する中間層と、出力ノード3を有する出力層とから
構成されている。
FIG. 1 is a schematic diagram showing an example of the configuration of a general neural network using a radial basis function. In this example, a one-dimensional output vector is obtained from a two-dimensional input vector. ing. The neural network includes an input layer having a first input node 1a and a second input node 1b, a first intermediate node 2a and a second intermediate node 2b.
And an output layer having an output node 3.

【0011】第1入力ノード1aには入力値in[1]が
入力され、パラメータt[1][1]を用いて変換され
た値が第1中間ノード2aに、パラメータt[2][1]
を用いて変換された値が第2中間ノード2bにそれぞれ出
力される。一方、第2入力ノード1bには入力値in
[2]が入力され、パラメータt[1][2]を用いて
変換された値が第1中間ノード2aに、パラメータt
[2][2]を用いて変換された値が第2中間ノード2b
にそれぞれ出力される。なお、t[1][1],t
[2][1],t[1][2],t[2][2]は動径
基底関数の学習則(例えば確率的勾配降下法,参考文献
“Characterization of complexities in Czochralski
crystal growth by nonlinear forecasting",T.Miyano
et al., J.Appl.Phys. 76(5), 1 September 1994)によ
って決定されるパラメータである。
The input value in [1] is input to the first input node 1a, and the value converted using the parameter t [1] [1] is input to the first intermediate node 2a and the parameter t [2] [1]. ]
The value converted by using is output to the second intermediate node 2b. On the other hand, the input value in is input to the second input node 1b.
[2] is input, and the value converted using the parameters t [1] [2] is input to the first intermediate node 2a and the parameter t
[2] The value converted using [2] is the second intermediate node 2b.
Respectively. Note that t [1] [1], t
[2] [1], t [1] [2], t [2] [2] are learning rules for radial basis functions (for example, stochastic gradient descent method, reference “Characterization of complexities in Czochralski”).
crystal growth by nonlinear forecasting ", T. Miyano
76 (5), 1 September 1994), et al., J. Appl. Phys.

【0012】第1中間ノード2aは、動径基底関数f
(b,x)を用いてh[1]を下記(式1)のように算
出して出力ノード3へ出力する。また、第2中間ノード
2bは、同様に、動径基底関数f(b,x)を用いてh
[2]を下記(式2)のように算出して出力ノード3へ
出力する。なお、b[1],b[2]は動径基底関数の
学習則によって決定されるパラメータである。
The first intermediate node 2a has a radial basis function f
H (1) is calculated using (b, x) as in the following (Equation 1) and output to the output node 3. Also, the second intermediate node
2b is also h using the radial basis function f (b, x).
[2] is calculated as in the following (Equation 2) and output to the output node 3. Note that b [1] and b [2] are parameters determined by the learning rule of the radial basis function.

【0013】[0013]

【数1】 [Equation 1]

【0014】出力ノード3は、下記(式3)のように出
力値out[1]を算出して出力する。なお、c
[1],c[2]は動径基底関数の学習則によって決定
されるパラメータである。 out[1]=c[1]・h[1]+c[2]・h[2] …(式3)
The output node 3 calculates and outputs the output value out [1] as in the following (formula 3). Note that c
[1] and c [2] are parameters determined by the learning rule of the radial basis function. out [1] = c [1] · h [1] + c [2] · h [2] (Equation 3)

【0015】このようなニューラルネットワーク構成に
あって、従来例では動径基底関数としてガウス関数を用
いていたが、本発明では下記(式4)に示すような動径
基底関数f(b,x)を使用している。 f(b,x)=A/{1+cosh(bx)} …(式4) 但し、A:定数, b:学習則によって決定されるパラ
メータ cosh(bx)={exp(bx)+exp(−b
x)}/2
In such a neural network configuration, the Gaussian function is used as the radial basis function in the conventional example, but in the present invention, the radial basis function f (b, x) as shown in the following (Equation 4) is used. ) Is used. f (b, x) = A / {1 + cosh (bx)} (Equation 4) where A: constant, b: parameter determined by learning rule cosh (bx) = {exp (bx) + exp (-b)
x)} / 2

【0016】なお、上述の例では、入力ベクトルが2次
元、出力ベクトルが1次元であるとしたが、入力,出力
の次元はこれらの値に限定されることはなく、任意であ
って良い。
In the above example, the input vector is two-dimensional and the output vector is one-dimensional, but the input and output dimensions are not limited to these values and may be arbitrary.

【0017】図2は、本発明のニューロ素子のハードウ
ェアによる構成を示す回路図である。この回路は、差動
増幅回路部11とバイアス部12と乗算回路部13とから構成
されている。差動増幅回路部11は、定電圧源21と、2個
の抵抗Rc と、2個のバイポーラトランジスタQ1 ,Q
2 と、2個の可変抵抗RE と、定電流源22とを有する。
また、バイアス部12は、バイアス電圧を印加するための
2個の電源23と、入力信号源24とを有する。このような
回路構成例は公知である。なお、トランジスタQ1 ,Q
2 は、MOSトランジスタであっても良い。
FIG. 2 is a circuit diagram showing a hardware configuration of the neuro element of the present invention. This circuit includes a differential amplifier circuit section 11, a bias section 12, and a multiplication circuit section 13. The differential amplifier circuit unit 11 includes a constant voltage source 21, two resistors R c , and two bipolar transistors Q 1 and Q 1 .
It has two , two variable resistors R E, and a constant current source 22.
The bias unit 12 also has two power supplies 23 for applying a bias voltage and an input signal source 24. Such a circuit configuration example is known. The transistors Q 1 and Q
2 may be a MOS transistor.

【0018】トランジスタQ1 のコレクタは、一方の抵
抗Rc を介して定電圧源21に接続している。トランジス
タQ1 のベースは、入力信号源24及び一端が接地された
一方の電源23の直列回路に接続されている。トランジス
タQ1 のエミッタは、一方の可変抵抗RE を介して一端
が接地された定電流源22に接続している。トランジスタ
2 のコレクタは、他方の抵抗Rc を介して定電圧源21
に接続している。トランジスタQ2 のベースは、一端が
接地された他方の電源23に接続されている。トランジス
タQ2 のエミッタは、他方の可変抵抗RE を介して定電
流源22に接続している。これらの両トランジスタQ1
2 の特性は同一である。また、両可変抵抗RE は、図
示しない外部からの制御電圧に応じてその抵抗値を調整
できる可変抵抗である。
The collector of the transistor Q 1 is connected to the constant voltage source 21 via one resistor R c . The base of the transistor Q 1 is connected to a series circuit of the input signal source 24 and one power supply 23 whose one end is grounded. The emitter of the transistor Q 1 is connected to the constant current source 22 whose one end is grounded through one variable resistor R E. The collector of the transistor Q 2 has a constant voltage source 21 via the other resistor R c.
Connected to The base of the transistor Q 2 is connected to the other power supply 23 whose one end is grounded. The emitter of the transistor Q 2 is connected to the constant current source 22 via the other variable resistor R E. Both of these transistors Q 1 ,
The characteristics of Q 2 are the same. Both variable resistors R E are variable resistors whose resistance value can be adjusted according to a control voltage from the outside (not shown).

【0019】各電源23は、回路の動作電圧を設定するた
めに一定のバイアス電圧VBIASを印加する。また、入力
信号源24は、時間的に変化する入力信号としての入力電
圧v inを印加する。乗算回路部13の2つの入力端子は、
両トランジスタQ1 ,Q2 の各コレクタにそれぞれ接続
されている。つまり両トランジスタQ1 ,Q2 のコレク
タ電流I1 ,I2 によって生ずるコレクタ電圧が乗算回
路部13の入力となっており、乗算回路部13はその2つの
電圧の積を求め、その積を出力する。ここで、両トラン
ジスタQ1 ,Q2 のオン抵抗が同じで、両可変抵抗RE
の抵抗値が同じである場合には、乗算回路部13からの出
力は、コレクタ電流I1 ,I2 の積に比例する。
Each power supply 23 sets the operating voltage of the circuit.
A constant bias voltage VBIASIs applied. Also type
The signal source 24 is an input signal as a time-varying input signal.
Pressure v inIs applied. The two input terminals of the multiplication circuit unit 13 are
Both transistors Q1, QTwoConnect to each collector of
Have been. That is, both transistors Q1, QTwoCollection of
Current I1, ITwoThe collector voltage generated by
It is an input of the path unit 13, and the multiplication circuit unit 13
Calculate the product of voltage and output the product. Where both tran
Jista Q1, QTwoHave the same on-resistance and both variable resistors RE
If the resistance values of the
Force is collector current I1, ITwoProportional to the product of

【0020】ところで、図2に示す回路において両可変
抵抗RE の値を0とした場合、トランジスタQ1 ,Q2
に流れるコレクタ電流I1 ,I2 はそれぞれ、「改訂
集積回路工学(2)」(コロナ社 柳井,永田著)の47
ページに示されているように、下記(式5),(式6)
となる。但し、(式5),(式6)において、αは電流
増幅率、IEEは定電流源22の電流値、qは電子の電荷
量、kはボルツマン定数、Tは温度である。
By the way, in the circuit shown in FIG. 2, when the value of both variable resistors R E is 0, the transistors Q 1 and Q 2 are
The collector currents I 1 and I 2 flowing in the
Integrated Circuit Engineering (2) ”(Corona Publishing Co., Ltd. Yanai, Nagata) 47
As shown on the page, the following (Equation 5), (Equation 6)
Becomes However, in (Equation 5) and (Equation 6), α is the current amplification factor, I EE is the current value of the constant current source 22, q is the charge amount of electrons, k is the Boltzmann constant, and T is the temperature.

【0021】[0021]

【数2】 (Equation 2)

【0022】なお、入力電圧vinは、図1に示すニュー
ラルネットワークにおける第1中間ノード2aを例にする
と、下記(式7)に示す値に比例した電圧である。
The input voltage v in is a voltage proportional to the value shown in the following (formula 7) when the first intermediate node 2a in the neural network shown in FIG. 1 is taken as an example.

【0023】[0023]

【数3】 (Equation 3)

【0024】図3は、入力信号となるvinを生成する回
路の構成を示すブロック図である。図3に示す構成例
は、n個のパラメータt[1][1],…,t[1]
[n]を入力してvinを生成する一般的な生成回路を表
している。例えば上記(式7)の値に比例したvinを生
成する場合には、n=2である。
FIG. 3 is a block diagram showing a configuration of a circuit for generating v in which is an input signal. The configuration example shown in FIG. 3 has n parameters t [1] [1], ..., T [1].
This shows a general generation circuit that inputs [n] and generates v in . For example, when generating v in proportional to the value of (Equation 7), n = 2.

【0025】図3に示すvin生成回路は、n個の減算器
31とn個の2乗器32と総和器33と平方根演算器34とを有
する。i(1≦i≦n)番目の減算器31は、入力値in
[1]とパラメータt[1][i]との差を求め、その
差を対応するi番目の2乗器32に出力する。i番目の2
乗器32は、入力された差の2乗値を求め、その2乗値を
総和器33に出力する。総和器33は、すべての2乗器32か
らの2乗値を加算し、その加算値を平方根演算器34に出
力する。平方根演算器34は、総和器33からの総和値の平
方根の値を求め、その平方根値に比例した入力電圧vin
を出力する。
The v in generation circuit shown in FIG. 3 has n subtractors.
It has 31 and n squarers 32, a summer 33 and a square root calculator 34. The i (1 ≦ i ≦ n) th subtractor 31 receives the input value in
The difference between [1] and the parameter t [1] [i] is obtained, and the difference is output to the corresponding i-th squarer 32. i-th 2
The multiplier 32 obtains the squared value of the input difference and outputs the squared value to the summer 33. The adder 33 adds the squared values from all the squarers 32 and outputs the added value to the square root calculator 34. The square root calculator 34 obtains the value of the square root of the sum value from the adder 33, and the input voltage v in proportional to the square root value.
Is output.

【0026】上記(式5),(式6)に基づいてI1
2 の積を計算すると、その乗算値I1 ×I2 は下記
(式8)のようになる。
Based on the above (formula 5) and (formula 6), I 1 ,
When the product of I 2 is calculated, the multiplication value I 1 × I 2 is as shown in (Equation 8) below.

【0027】[0027]

【数4】 (Equation 4)

【0028】図4は、上記(式8)の関係を、横軸にv
in、縦軸にI1 ・I2 をとって示したグラフである。グ
ラフは、縦軸つまりvin=0に関して対称であり、vin
=0のときに最大値(αIEE2 /4を取る。
FIG. 4 shows the relationship of the above (formula 8) with v on the horizontal axis.
3 is a graph in which I 1 and I 2 are plotted on the vertical axis and in . The graph is symmetric about the vertical axis, ie v in = 0, and v in
= Maximum at 0 take (αI EE) 2/4.

【0029】ここで、可変抵抗RE の抵抗値を0から大
きくしていくと、グラフの形状が、図4に破線で示すよ
うに、除々に膨らんでくる。このことは、上記(式8)
にパラメータbを導入して下記(式9)のようにした場
合と同じ効果を奏する。
Here, when the resistance value of the variable resistor R E is increased from 0, the shape of the graph gradually expands as shown by the broken line in FIG. This is the same as the above (Equation 8).
The same effect as the case where the parameter b is introduced into the equation (9) below is obtained.

【0030】[0030]

【数5】 (Equation 5)

【0031】この(式9)において、α,IEEの何れも
が一定値となるので、(式9)の分子の値が定数とな
り、I1 ・I2 の値が前述の(式4)に相当する。ま
た、両トランジスタQ1 ,Q2 のコレクタ電流I1 ,I
2 の積に比例した出力が乗算回路部13にて求められる。
よって、図2に示すような回路構成とすることにより、
(式4)に示す動径基底関数f(b,x)を用いたニュ
ーロ素子を実現できることになる。この場合、図2に示
す回路において可変抵抗RE の抵抗値を変化させること
により、(式4)に示す動径基底関数のパラメータbを
変化させることができる。
In this (Equation 9), since both α and I EE are constant values, the numerator value of (Equation 9) is a constant, and the values of I 1 and I 2 are the above-mentioned (Equation 4). Equivalent to. Also, the collector currents I 1 and I of both transistors Q 1 and Q 2 are
An output proportional to the product of 2 is obtained by the multiplication circuit unit 13.
Therefore, by using the circuit configuration as shown in FIG.
It is possible to realize a neuro element using the radial basis function f (b, x) shown in (Equation 4). In this case, the parameter b of the radial basis function shown in (Equation 4) can be changed by changing the resistance value of the variable resistor R E in the circuit shown in FIG.

【0032】図5は、本発明のニューロ素子のハードウ
ェアによる構成を示す別の回路図である。図2の両可変
抵抗RE を取り除き、両トランジスタQ1 ,Q2 のベー
スに可変抵抗RB を付けた回路である。両可変抵抗RB
を変化させることにより、図2の回路と同様な効果を得
ることができる。
FIG. 5 is another circuit diagram showing the hardware configuration of the neuro element of the present invention. This is a circuit in which both variable resistors R E of FIG. 2 are removed and a variable resistor R B is attached to the bases of both transistors Q 1 and Q 2 . Both variable resistors R B
By changing, it is possible to obtain the same effect as the circuit of FIG.

【0033】以上のように本発明では、(式4)に示す
動径基底関数を、集積回路で容易に製造可能な差動増幅
器,乗算器等を有する図2の回路のみで実現することが
できる。
As described above, in the present invention, the radial basis function shown in (Equation 4) can be realized only by the circuit of FIG. 2 having the differential amplifier, the multiplier, etc. which can be easily manufactured by the integrated circuit. it can.

【0034】動径基底関数としてガウス関数を用いたニ
ューロ素子では、前述の文献“A Gaussian Synapse Cir
cuit For Analog VLSI Neural Networks”に示されてい
るように、そのガウス関数の半値幅を変化させるために
は、トランジスタのゲート幅とゲート長とを変化させな
ければならないので、ニューロ素子の作製時にその半値
幅は固定されてしまって、後で変更することができな
い。これに対して、本発明のニューロ素子では、可変抵
抗RE (トランジスタのエミッタ抵抗)に外部から印加
する制御電圧を変化させてその抵抗値の大きさを調整す
ることにより、(式4)に示す動径基底関数について任
意の半値幅を得ることができる。
In the neuro element using the Gaussian function as the radial basis function, the above-mentioned document “A Gaussian Synapse Cir” is used.
As shown in "Cuit For Analog VLSI Neural Networks", the gate width and gate length of the transistor must be changed in order to change the half-value width of the Gaussian function. Since the half-width is fixed and cannot be changed later, in the neuro element of the present invention, the control voltage applied from the outside to the variable resistance R E (emitter resistance of the transistor) is changed. By adjusting the magnitude of the resistance value, an arbitrary half width can be obtained for the radial basis function shown in (Equation 4).

【0035】[0035]

【発明の効果】以上詳述したように、本発明のニューロ
素子は、差動増幅器と、差動増幅器から得られる2つの
出力を乗算する乗算器とを備えた構成としたので、動径
基底関数を用いたニューラルネットワークを簡易な構成
のハードウェアにて実現できると共に、動径基底関数の
ニューロ素子を、例えば半導体集積回路にて容易に製造
することが可能となる。
As described above in detail, since the neuro element of the present invention is configured to include the differential amplifier and the multiplier that multiplies two outputs obtained from the differential amplifier, the radial basis A neural network using a function can be realized by hardware having a simple structure, and a neuro element having a radial basis function can be easily manufactured by, for example, a semiconductor integrated circuit.

【図面の簡単な説明】[Brief description of the drawings]

【図1】動径基底関数を用いたニューラルネットワーク
の構成を示す模式図である。
FIG. 1 is a schematic diagram showing a configuration of a neural network using a radial basis function.

【図2】本発明のニューロ素子のハードウェアによる構
成を示す回路図である。
FIG. 2 is a circuit diagram showing a hardware configuration of a neuro element of the present invention.

【図3】入力電圧vinを生成する回路の構成を示すブロ
ック図である。
FIG. 3 is a block diagram showing a configuration of a circuit that generates an input voltage v in .

【図4】入力電圧vinとコレクタ電流I1 ,I2 の乗算
値I1 ・I2 との関係を示すグラフである。
FIG. 4 is a graph showing a relationship between an input voltage v in and a multiplication value I 1 · I 2 of collector currents I 1 and I 2 .

【図5】本発明のニューロ素子のハードウェアによる構
成を示す回路図である。
FIG. 5 is a circuit diagram showing a hardware configuration of the neuro element of the present invention.

【符号の説明】[Explanation of symbols]

1a 第1入力ノード 1b 第2入力ノード 2a 第1中間ノード 2b 第2中間ノード 3 出力ノード 11 差動増幅回路部 12 バイアス部 13 乗算回路部 Q1 ,Q2 バイポーラトランジスタ RE ,RB 可変抵抗1a first input node 1b second input node 2a first intermediate node 2b the second intermediate node 3 output node 11 the differential amplifier circuit 12 bias unit 13 multiplying circuit Q 1, Q 2 bipolar transistor R E, R B variable resistor

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 動径基底関数を用いてニューラルネット
ワークを構成するためのニューロ素子において、2個の
トランジスタを有し、前記ニューラルネットワークの仮
想するノードへの入力を前記両トランジスタの少なくと
も一方のトランジスタの入力とする差動増幅器と、該差
動増幅器から得られる前記両トランジスタの出力を乗算
する乗算器とを備えることを特徴とするニューロ素子。
1. A neuro element for constructing a neural network using a radial basis function, which has two transistors, and inputs to a virtual node of the neural network is at least one of the both transistors. And a multiplier for multiplying the outputs of the both transistors obtained from the differential amplifier.
【請求項2】 前記動径基底関数が、f(b,x)=A
/{1+cosh(bx)}(但し、A:定数,b:学
習則によって決定されるパラメータ)であることを特徴
とする請求項1記載のニューロ素子。
2. The radial basis function is f (b, x) = A
The neuro element according to claim 1, wherein the neuro element is / {1 + cosh (bx)} (where A is a constant and b is a parameter determined by a learning rule).
JP32909895A 1995-12-18 1995-12-18 Neuro element Expired - Fee Related JP3175567B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32909895A JP3175567B2 (en) 1995-12-18 1995-12-18 Neuro element

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32909895A JP3175567B2 (en) 1995-12-18 1995-12-18 Neuro element

Publications (2)

Publication Number Publication Date
JPH09167195A true JPH09167195A (en) 1997-06-24
JP3175567B2 JP3175567B2 (en) 2001-06-11

Family

ID=18217597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32909895A Expired - Fee Related JP3175567B2 (en) 1995-12-18 1995-12-18 Neuro element

Country Status (1)

Country Link
JP (1) JP3175567B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102983819A (en) * 2012-11-08 2013-03-20 南京航空航天大学 Imitating method of power amplifier and imitating device of power amplifier
WO2013111973A1 (en) * 2012-01-27 2013-08-01 한국과학기술원 Visual cortical circuit apparatus, visual cortical imitation system and object search system using visual cortical circuit apparatus
CN113554167A (en) * 2021-05-31 2021-10-26 汎思数据股份有限公司 Deep learning neural network storage and inference method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013111973A1 (en) * 2012-01-27 2013-08-01 한국과학기술원 Visual cortical circuit apparatus, visual cortical imitation system and object search system using visual cortical circuit apparatus
US9286566B2 (en) 2012-01-27 2016-03-15 Korea Advanced Institute Of Science And Technology Visual cortical circuit apparatus, visual cortical imitation system and object search system using visual cortical circuit apparatus
US9798971B2 (en) 2012-01-27 2017-10-24 Korea Advanced Institute Of Science And Technology Visual cortical circuit apparatus, visual cortical imitation system and object search system using visual cortical circuit apparatus
CN102983819A (en) * 2012-11-08 2013-03-20 南京航空航天大学 Imitating method of power amplifier and imitating device of power amplifier
CN113554167A (en) * 2021-05-31 2021-10-26 汎思数据股份有限公司 Deep learning neural network storage and inference method

Also Published As

Publication number Publication date
JP3175567B2 (en) 2001-06-11

Similar Documents

Publication Publication Date Title
Baake et al. Ising quantum chain is equivalent to a model of biological evolution
Nisar et al. Design of morlet wavelet neural network for solving a class of singular pantograph nonlinear differential models
Li et al. Stability and stabilization with additive freedom for delayed Takagi–Sugeno fuzzy systems by intermediary-polynomial-based functions
Mulder et al. General current-mode analysis method for translinear filters
Ableidinger et al. A stochastic version of the Jansen and Rit neural mass model: analysis and numerics
Lin et al. FPGA implementation of a wavelet neural network with particle swarm optimization learning
Zang et al. Nonlinear extension of Bode's integral based on an information-theoretic interpretation
Suma Community based network reconstruction for an evolutionary algorithm framework
Chu An exponential convergence estimate for analog neural networks with delay
Treesatayapun A data-driven adaptive controller for a class of unknown nonlinear discrete-time systems with estimated PPD
Liu et al. Implementation of hodgkin-huxley neuron model with the novel memristive oscillator
Ye et al. A fast and adaptive ICA algorithm with its application to fetal electrocardiogram extraction
Yan et al. A unified framework for asymptotic and transient behavior of linear stochastic systems
Gauthier et al. Learning unseen coexisting attractors
JPH09167195A (en) Neuro element
Takaloo et al. Design and analysis of the Morris–Lecar spiking neuron in efficient analog implementation
Yoshimura Design of a simplified adaptive fuzzy backstepping control for uncertain discrete-time nonlinear systems
JPH05225364A (en) Variable-resistance type mosfet analog multiplier
JP3191678B2 (en) Neuro element
Huang A note on the mean-field limit for the particle swarm optimization
Daliri et al. A comparative study between E‐neurons mathematical model and circuit model
KR100270826B1 (en) System and method for designing fixed weight analog neural networks
NL9201248A (en) MOSFET CONTROLLED MULTIPLIERS.
Rasedee et al. Approximating non linear higher order ODEs by a three point block algorithm
Nabet Electronic hardware for vision modeling

Legal Events

Date Code Title Description
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees