JPH0318985A - Information processor - Google Patents

Information processor

Info

Publication number
JPH0318985A
JPH0318985A JP15232789A JP15232789A JPH0318985A JP H0318985 A JPH0318985 A JP H0318985A JP 15232789 A JP15232789 A JP 15232789A JP 15232789 A JP15232789 A JP 15232789A JP H0318985 A JPH0318985 A JP H0318985A
Authority
JP
Japan
Prior art keywords
circuit
coupling coefficient
transistor
value
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP15232789A
Other languages
Japanese (ja)
Inventor
Tomoyuki Watabe
知行 渡部
Toru Umaji
馬路 徹
Tatsuji Matsuura
達治 松浦
Hitoshi Kume
久米 均
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP15232789A priority Critical patent/JPH0318985A/en
Publication of JPH0318985A publication Critical patent/JPH0318985A/en
Pending legal-status Critical Current

Links

Landscapes

  • Analogue/Digital Conversion (AREA)

Abstract

PURPOSE:To reduce the number of elements, to simplify the manufacturing process and to execute the signal processing at a high speed by using a source - drain resistance of a transistor having a charge accumulation gate as a coupling coefficient, and varying the coupling coefficient by an electric signal application time. CONSTITUTION:A sigmoid function generator 101 shown by a voltage driver and a sigmoid function generator 101 shown by a current amplifier correspond to an intermediate layer and an output layer, respectively. A charge accumulation gate type transistor (MNOS element) 11 is a coupling coefficient Wij for connecting NMj and NOi, and the coupling coefficient is constituted of one piece of element by using the source - drain impedance of the transistor. At the time of updating the coupling coefficient, a pulse voltage having pulse width of length being proportional to the necessary change quantity of the coupling coefficient is applied to a control electrode 113 by a voltage/ time converter 13. In this case, whether the coefficient increases or decreases is determined by the polarity of the MNOS element and positive/negative of the pulse, and both positive and negative pulses are used properly. In such a way, the circuit and the manufacturing process can be simplified remarkably, and a high speed operation can be realized.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は情報処理装置に関し、特にアナログ回路を用い
てニューラルネットLSIを構成した情報処理装置に関
する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an information processing device, and more particularly to an information processing device in which a neural network LSI is configured using analog circuits.

ニューラルネットにューラルネットワーク。Neural network to neural network.

人工神経回路網)は生物の神経構造を見習った電気回路
によって、あいまいさや経験法則を含む認識問題や判断
問題を効率良く解こうとするものである。近年、アナロ
グまたはデジタル方式によりシリコンチップ上でこれを
実現するニューラルネットLSI(またはニューロチッ
プ)の実現に対する要請が増大している。
Artificial neural networks (artificial neural networks) attempt to efficiently solve recognition and judgment problems that involve ambiguity and empirical rules using electrical circuits that mimic the neural structure of living organisms. In recent years, there has been an increasing demand for the implementation of neural network LSIs (or neurochips) that implement this on silicon chips using analog or digital methods.

〔従来の技術〕[Conventional technology]

この発明に関係する公知例としては、J、P、Sage
*に、Thompson and R,S、11ith
ers rAN ARTIFICIALNHLIRAL
  NETVORK  INTEGRATED  CI
RCUIT  BASED  ONMNO5/CCD 
 PRINCIPLESJ  Digest  of 
 TechnicalPapers onthe Co
nference on  Naural  Netw
orksin  Computing  (Apr、8
6)  ppa81−385  (by  Amari
canInstitute of Physics) 
Jが挙げられる。
Publicly known examples related to this invention include J.P. Sage
* Thompson and R,S, 11th
ers rAN ARTIFICIALNHLIRAL
NETVORK INTEGRATED CI
RCUIT BASED ONMNO5/CCD
PRINCIPLESJ Digest of
Technical Papers on the Co
nference on Naural Netw
Orksin Computing (Apr, 8
6) ppa81-385 (by Amari
can Institute of Physics)
An example is J.

この公知例はアナログMO8技術を用いるLSI構成法
の1例である。各ニューロンの出力信号の大小はCCD
上に蓄えた電荷量で表わす、結合係数はEHFROM等
に用いられるMNO8素子に蓄えられた電荷量で表す、
第11図にMNO8素子の構造を示す、MNO8素子は
電荷を不揮発的に蓄積できるゲートをもつトランジスタ
である。ナイトライド層114に電荷を蓄積する。制御
電極113に与える電圧により蓄積電荷(図中の十−記
号)を出し入れする。結合係数の値はその#I積重電荷
量で与える。その電荷量をCCDを用いた電荷転送およ
び読みだし/書き込み技術によりアナログ量として読み
出し/または書き込む、MNO8素子に対する電荷の書
き込みおよび読みだしの方法はMNO8素子の両側にC
ODゲートをおき、これを順次間いて書き込み読みだし
を行なうものである。すなわちMNO8素子1個と両側
のCOD素子2個の、合計3素子で結合係数1個を構成
する。
This known example is an example of an LSI configuration method using analog MO8 technology. The size of the output signal of each neuron is determined by the CCD
The coupling coefficient is expressed as the amount of charge stored in the above, and the coupling coefficient is expressed as the amount of charge stored in the MNO8 element used in EHFROM, etc.
FIG. 11 shows the structure of an MNO8 element. The MNO8 element is a transistor having a gate that can store charge in a non-volatile manner. Charge is accumulated in the nitride layer 114. Accumulated charges (cross symbols in the figure) are put in and taken out by applying a voltage to the control electrode 113. The value of the coupling coefficient is given by its #I accumulated charge amount. The charge amount is read/written as an analog amount using charge transfer and read/write technology using a CCD.
An OD gate is provided, and reading and writing are performed by sequentially intervening the OD gates. That is, a total of three elements, one MNO8 element and two COD elements on both sides, constitute one coupling coefficient.

なおMNO5素子のほかにも電荷を不揮発的に蓄積でき
るゲートをもつトランジスタとしてフローティングゲー
トトランジスタ等がある。フローティングゲートトラン
ジスタは前記のナイトライド層のかわりに浮遊ゲートを
有するものである。
In addition to the MNO5 element, there are floating gate transistors and the like as transistors having a gate that can nonvolatilely store charge. A floating gate transistor has a floating gate instead of the nitride layer.

ここでニューラルネットとして一般的な、階層構造ニュ
ーラルネットについて参考として紹介する。また第4図
を用いて詳細な用語と記号の定義を行なう、第4図の記
号は、本明細書を通じて用いるものである。
Here, we will introduce a hierarchical neural network, which is a common type of neural network, for reference. Further, detailed terms and symbols are defined using FIG. 4, and the symbols in FIG. 4 are used throughout this specification.

第4図に、階層構造ニューラルネットの基本構成を示す
、以下、バックプロパゲーション形ニューラルネットを
例にとってその動作を説明する。
FIG. 4 shows the basic configuration of a hierarchical neural network.The operation thereof will be explained below by taking a backpropagation neural network as an example.

左端にニューロンNIk  (k=1〜n)からなる入
力層、そして中間にニューロンNMa  (j=1〜m
)からなる中間層、右端にニューロンN O5(i=1
〜L)からなる出力層がある。この回路に入力信号の組
Xx=X、(以下入力ベクトルXと呼ぶ)を与えると対
応する高力信号の組Y1〜YL(以下出力ベクトルYと
呼ぶ)を発生する。教師信号の組T1〜TL、(以下教
師ベクトルTと呼ぶ)は入力ベクトルXに対して出力ベ
クトルYがとるべき理想値(お手本)である、中間層の
出力を中間層ベクトルZ (Zx=Z−)と呼ぶ、入力
層ニューロンNIhから中間層ニューロンNM−を結ぶ
結合係数をm J h s中間層ニューロンNMjから
出力層ニューロンNO!を結ぶ結合係数をW s aと
する。入力層の出力X+−(k=1〜n)は、入力ベク
トルXがそのまま出力される。ここでベクトルX、Y、
Z、Tの各コンポーネントおよび結合係数W目tmah
の各コンポーネントの大きさは1通常0(完全off)
から1(完全on)の間の任意のアナログ値をとる。
At the left end is an input layer consisting of neurons NIk (k = 1 to n), and in the middle is a neuron NMa (j = 1 to m
), with a neuron N O5 (i=1
There is an output layer consisting of ~L). When this circuit is given a set of input signals Xx=X (hereinafter referred to as input vector X), it generates a corresponding set of high-power signals Y1 to YL (hereinafter referred to as output vector Y). The set of teacher signals T1 to TL (hereinafter referred to as the teacher vector T) is the ideal value (model) that the output vector Y should take for the input vector X, and the output of the intermediate layer is expressed as the intermediate layer vector Z (Zx=Z The coupling coefficient connecting the input layer neuron NIh to the hidden layer neuron NM- is called m J h s from the hidden layer neuron NMj to the output layer neuron NO! Let W s a be the coupling coefficient connecting . The input vector X is output as is as the output X+-(k=1 to n) of the input layer. Here vectors X, Y,
Each component of Z and T and the coupling coefficient W tmah
The size of each component is 1 usually 0 (completely off)
to 1 (completely on).

中間層ベクトル2は次式で与えられる。The intermediate layer vector 2 is given by the following equation.

Z−=f(Σ mJh*  xm)         
     ・・・o)k=1 ここでfは第4図の上段に示した、ニューロンの入出力
関数である。ふつうは図の曲線の形状のシグモイド関数
が用いられる。また、出力ベクトルYは次式で与えられ
る。
Z−=f(Σ mJh* xm)
...o) k=1 Here, f is the input/output function of the neuron shown in the upper part of FIG. Usually, a sigmoid function in the shape of the curve shown in the figure is used. Further, the output vector Y is given by the following equation.

Yi=f(Σ  W i a 傘 ZJ)      
           −<2)j=ま ただし、O≦Xh、 Yi* Za+ mah+ W*
a≦1以上示したように、結合係数m Jh I W 
I Jの値の組を種々変えることにより、同じニューラ
ルネットで異なる入出力変換特性を得ることができる。
Yi=f(Σ W i a umbrella ZJ)
−<2) j=square, O≦Xh, Yi* Za+ mah+ W*
As shown above, a≦1, the coupling coefficient m Jh I W
By varying the set of IJ values, different input/output conversion characteristics can be obtained with the same neural network.

すなわち種々の異なる機能を持っ認識マシン等を実現す
ることができる。
In other words, it is possible to realize a recognition machine having various different functions.

さて、入力ベクトルに対して希望の変換ルールにより変
換された出力ベクトルが得られるように結合係数の値を
決定することを「学習するJという、その方法は種々研
究されてきたが最近の有力な手法の一つがバックプロパ
ゲーション法である。
Now, a method called ``learning'' has been used to determine the value of the coupling coefficient so as to obtain an output vector converted from the input vector according to the desired conversion rule. One of the methods is the backpropagation method.

まず所望の教師ベクトルTがわがっている入力ベクトル
Xを複数組用意する。出力ベクトルY(Ys〜YL)と
教師ベクトルT(Tl〜T L )が一致するように結
合係数を決める。各係数の初期値としては通常乱数を与
えておく、その後、以下の漸化式を用いて結合係数を繰
返し修正していく、詳細は省略して結果を示す、繰返し
計算のある時点の結合係数WIJとm a bに、加え
るべき一回の修正量をそれぞれΔW I J 、6m 
Jhとすると1次式で示される。
First, a plurality of sets of input vectors X having different desired teacher vectors T are prepared. The coupling coefficient is determined so that the output vector Y (Ys to YL) and the teacher vector T (Tl to T L ) match. Usually, a random number is given as the initial value of each coefficient.Then, the coupling coefficient is iteratively modified using the recurrence formula below.The details are omitted and the results are shown.The coupling coefficient at a certain point in the iterative calculation. The amount of one-time correction to be added to WIJ and m a b is ΔW I J , 6m, respectively.
Let Jh be expressed by a linear equation.

Δw*a= ’? ”(Ti  Y弧)傘Y、拳(1−
Yl)”ZJ・・・(3) i=1 喰 ’NtJ*Z4 傘 (1−Z a)串 Xhコ−
(4)i=1 傘Y處、−(i −ZJ)傘xhl    ・・・(5
)ただしYIJ=w息−−21(これは入力が21だけ
のときの出力Yi ) 、η=定数、である。
Δw*a='? ”(Ti Y arc) Umbrella Y, fist (1-
Yl)"ZJ...(3) i=1 喰'NtJ*Z4 Umbrella (1-Z a) Skewer Xh Co-
(4) i = 1 umbrella Y place, - (i - ZJ) umbrella xhl ... (5
) where YIJ=w-21 (this is the output Yi when the input is only 21), η=constant.

ここでηは通常0.1〜0.3程度の値がもちいられ、
過剰修正による発散を防ぐ。
Here, a value of about 0.1 to 0.3 is usually used for η,
Prevent divergence due to overcorrection.

以上の修正を繰り返し、複数の例題のどれに対してもY
がTにほぼ等しくなるまで繰り返す、これがすむとこの
回路はある変換ルールを学習したことになる。その結果
未知の入力ベクトルに対してもほぼ妥当な類推値を出力
することができる。
By repeating the above corrections, you can get Y for any of multiple examples.
This is repeated until T becomes approximately equal to T. Once this is completed, this circuit has learned a certain conversion rule. As a result, it is possible to output an almost valid analogy value even for an unknown input vector.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

上記の公知例の方法では第1に結合係数1個に対して素
子数3個を要するという欠点がある。第2に信号として
電荷を用いるためMNO8素子、CCD素子、および通
常のMO8素子という3種類の素子構造を同一チップ上
に形成する必要がある。このためLSIの製造プロセス
が非常に111Mになるという欠点がある。第3にMN
OSおよびCCDにより電荷を順次転送して信号処理を
行なうので動作が低速であるという欠点がある。
The first drawback of the above-mentioned known method is that three elements are required for one coupling coefficient. Second, since charges are used as signals, it is necessary to form three types of element structures on the same chip: an MNO8 element, a CCD element, and a normal MO8 element. Therefore, there is a drawback that the LSI manufacturing process is extremely 111M. Thirdly, MN
Since signal processing is performed by sequentially transferring charges using the OS and CCD, the operation speed is low.

また公知側以外に、デジタル方式でニューラルネットL
SIを構成する方法もある。デジタル方式はアナログ方
式に比べ素子数が5ないし10倍多くなる問題がある。
In addition to the publicly known side, neural network L
There are also ways to configure SI. The problem with the digital method is that it requires 5 to 10 times more elements than the analog method.

したがって本発明の目的は少ない素子数と、簡単な製造
プロセスと、高速な信号処理速度を有するニューラルネ
ットLSIによる情報処理装置を実現することである。
Therefore, an object of the present invention is to realize an information processing device using a neural network LSI that has a small number of elements, a simple manufacturing process, and a high signal processing speed.

〔課題を解決するための手段〕[Means to solve the problem]

本発明は上記目的を達成するため、第1に電荷蓄積用ゲ
ートをもつトランジスタのソース・ドレイン間抵抗を結
合係数として用いることにより同トランジスタ1個だけ
で結合係数1個を実現する。
In order to achieve the above object, the present invention first uses the source-drain resistance of a transistor having a charge storage gate as a coupling coefficient, thereby realizing one coupling coefficient with only one transistor.

第2にCGDI子を不要とし、電荷蓄積用ゲートをもつ
トランジスタと通常のMO8素子の2種類だけをLSI
上に構成する製造プロセスを可能にする。第3に信号と
して電圧および電流を用いることにより高速動作を実現
することを特徴とするものである。
Second, it eliminates the need for a CGDI element and uses only two types of LSI elements: a transistor with a charge storage gate and an ordinary MO8 element.
Enables the manufacturing process to be configured above. Thirdly, it is characterized by realizing high-speed operation by using voltage and current as signals.

〔作用〕[Effect]

電荷を不揮発的に蓄積できるゲートをもつトランジスタ
のドレイン・ソース間コンダクタンスGDSは、電荷蓄
積ゲートの蓄積電荷によって変化する。このときコンダ
クタンスGosの変化量は、制御電圧を印加する時間の
長さにほぼ比例するといλ関係がある。また制御電圧の
正負によってGosの増加または減少を自由に選択でき
る。これに着目し、上記Gosを結合係数として用いる
。結合係数更新には、結合係数の必要変更量に比例した
長さのパルス幅を持つパルス電圧を制御電極に印加する
。このとき、係数が増加するが減少するかはMNO8素
子の極性とパルスの正負で決まり、正負両パルスを使い
分ける。
The drain-source conductance GDS of a transistor having a gate that can nonvolatilely store charge changes depending on the charge stored in the charge storage gate. At this time, the amount of change in the conductance Gos is approximately proportional to the length of time for which the control voltage is applied, and there is a relationship λ. Further, it is possible to freely select increase or decrease of Gos depending on the positive or negative value of the control voltage. Focusing on this, the above Gos is used as a coupling coefficient. To update the coupling coefficient, a pulse voltage having a pulse width proportional to the required change amount of the coupling coefficient is applied to the control electrode. At this time, whether the coefficient increases or decreases is determined by the polarity of the MNO8 elements and the positive/negative pulse, and both positive and negative pulses are used properly.

結合係数の必要変化景の決定はアナログ回路等で行なう
Determination of the required variation of the coupling coefficient is performed using an analog circuit or the like.

以下実施例によって本発明の詳細な説明する。The present invention will be explained in detail below with reference to Examples.

〔実施例〕〔Example〕

第1図は本発明第1の実施例の部分図(概念図)である
、第4図の構造のうち、中間層、出方層、およびその間
の結合係数W1−の組が示されている。
FIG. 1 is a partial diagram (conceptual diagram) of the first embodiment of the present invention. Of the structure of FIG. 4, a set of an intermediate layer, an output layer, and a coupling coefficient W1- therebetween is shown. .

電圧ドライバで示したシグモイド関数発生器101は、
中間層に相当する。ここにはm個の電圧ドライバが含ま
れている0図示しであるj#目の電圧ドライバが中間層
ニューロンNM−である。その出力が中間層ベクトル2
のj番目の要素Z1である・−慇ンプで示したシグモイ
ド関数発生器101は、出力層に相当する。ここにはL
個の電流アンプが含まれている0図示しである1番目の
電流アンプが出力層ニューロンN Oiにあたる。
The sigmoid function generator 101 shown as a voltage driver is
Corresponds to the middle class. Here, m voltage drivers are included, and the j#th voltage driver shown in the 0 diagram is the middle layer neuron NM-. The output is the hidden layer vector 2
The sigmoid function generator 101, which is the j-th element Z1 of . . . , corresponds to the output layer. Here is L
The first current amplifier shown in the diagram, which includes 1 current amplifiers, corresponds to the output layer neuron N Oi.

その出力が出力ベクトルYの1番目の要素Y1である。The output is the first element Y1 of the output vector Y.

電荷蓄積ゲート形トランジスタ(ここではMNO5素子
)11がNM−とN01を結ぶ結合係数wiJである。
A charge storage gate type transistor (here, an MNO5 element) 11 is a coupling coefficient wiJ that connects NM- and N01.

結合係数はトランジスタのソース・ドレイン間インピー
ダンスを用いることにより素子1個で構成されている。
The coupling coefficient is constructed using one element by using the impedance between the source and drain of the transistor.

j=1〜m、i=1〜Lにわたる全結合を、結合係数マ
トリクス23で構成する。各トランジスタの制御電極1
13を図の点線で示した配線で接続し、アドレスデコー
ダ(図示されてない)で所望のトランジスタの制御電極
に電圧を印加する。ここではwl−を更新するときの結
線状態の概念図として、(iy J)番■のトランジス
タ11がアドレスされて制御電圧が印加されている結線
状態を、実細線の矢印で模擬的に示している。
All connections over j=1 to m and i=1 to L are configured by a connection coefficient matrix 23. Control electrode 1 of each transistor
13 are connected by wiring shown by dotted lines in the figure, and a voltage is applied to the control electrode of a desired transistor using an address decoder (not shown). Here, as a conceptual diagram of the connection state when updating wl-, the connection state in which the transistor 11 of number (iy J) is addressed and the control voltage is applied is shown in a simulated manner using solid thin arrows. There is.

出力Y1がとるべき値として教師ベクトルの要JI T
 * が与えられている。Yi とT、の差からwll
の必要修正量Δw崖1を計算する回路が、W t J修
正量決定回路104である。ΔWIJを求める計算方法
は〔従来の技術〕の式(3)を用いる。その回路構成は
第2図を用いて後述する。104の出力はΔw1−の大
きさに対応した電圧である。この電圧に比例したパルス
幅τを有する、パルス制御電圧を発生する回路が、電圧
・時間変換器13である。13の出力パルスをトランジ
スタ11の制御電極113に印加すると、結合係数がち
ょうどΔW r aだけ変化するように、パルス幅τと
パルス電圧値を決める。iとjを順次進めてアドレスを
行ない、結合係数マトリクス23の更新を行なう。
The value that output Y1 should take is JI T of the teacher vector.
* is given. From the difference between Yi and T, wll
The circuit that calculates the necessary correction amount Δw cliff 1 is the W t J correction amount determination circuit 104 . The calculation method for determining ΔWIJ uses Equation (3) in [Prior Art]. The circuit configuration will be described later with reference to FIG. The output of 104 is a voltage corresponding to the magnitude of Δw1-. The voltage/time converter 13 is a circuit that generates a pulse control voltage having a pulse width τ proportional to this voltage. The pulse width τ and the pulse voltage value are determined so that when the output pulse No. 13 is applied to the control electrode 113 of the transistor 11, the coupling coefficient changes by exactly ΔW r a. Addressing is performed by sequentially advancing i and j, and the coupling coefficient matrix 23 is updated.

以下、第2図によりさらに詳細に説明する。A more detailed explanation will be given below with reference to FIG.

第2図は本発明第1の実施例の部分図である。FIG. 2 is a partial view of the first embodiment of the present invention.

第1図の具体回路にあたる6図のアンプ記号は1が中間
層のシグモイド関数発生器、2が出力層のシグモイド関
数発生器である。これらは厳密なシグモイド関数を発生
する必要はなく、通常のアナログアンプで実現できる。
The amplifier symbols in FIG. 6, which correspond to the specific circuit in FIG. 1, are 1 for the sigmoid function generator in the intermediate layer, and 2 for the sigmoid function generator in the output layer. These do not need to generate a strict sigmoid function and can be achieved with a normal analog amplifier.

これらのアンプの入力インピーダンスは電荷蓄積ゲート
形トランジスタ(MNO8I!4子)11のGosに比
シテテキルタケ小さく選ぶ。
The input impedance of these amplifiers is selected to be smaller than the Gos of the charge storage gate type transistor (MNO8I!4 transistors) 11.

以下、(x* J)番目の結合係数を更新する状態につ
いて回路の動作を説明する。先に第1図で示したW i
 J修正量決定回路104が、3カ所の接続点201,
202,203でZJ、yl、Tムに接続されている。
Hereinafter, the operation of the circuit will be described for the state in which the (x*J)th coupling coefficient is updated. W i shown earlier in Figure 1
The J correction amount determination circuit 104 connects three connection points 201,
202 and 203 are connected to ZJ, yl, and T.

この接続点は(le j)の値が変わるにつれて順次切
り換えていく。図の回路と、〔従来の技術〕の式(3)
との対応を以下述べる。
This connection point is sequentially switched as the value of (le j) changes. The circuit shown in the figure and the formula (3) of [prior art]
The correspondence with this is described below.

まず接続点201,202から取り込んだYlとT1の
差を減算器14で求め、これにY、を乗する。また、)
ligh側の基準電圧vM(論理1に対応)からYiを
減じた差を作り、さらにこれを乗する。
First, the subtracter 14 calculates the difference between Yl and T1 taken in from the connection points 201 and 202, and this is multiplied by Y. Also,)
A difference is created by subtracting Yi from the reference voltage vM (corresponding to logic 1) on the light side, and this is further multiplied.

つぎに接続点203から取り込んだZ−をさらに乗する
。この演算結果は(Ts  Yi)傘Y、拳(1−Yt
)串Zaである。これは比例係数ηを増幅器の利得で調
整すればそのまま式(3)を示しており、ΔW t a
に対応する電圧である。この電圧を電圧・時間変換器1
3で所望のパルス幅τをもつ制御電圧パルスに変換する
。このパルスを1つだけ発生させる。これをW I J
を形成しているMNO5素子11の制御電極113に印
加する。
Next, Z- taken in from the connection point 203 is further multiplied. This calculation result is (Ts Yi) umbrella Y, fist (1-Yt
) Kushi Za. If the proportionality coefficient η is adjusted by the gain of the amplifier, this directly shows equation (3), and ΔW t a
is the voltage corresponding to This voltage is converted to voltage/time converter 1
3, it is converted into a control voltage pulse having a desired pulse width τ. Only one pulse is generated. W I J this
is applied to the control electrode 113 of the MNO5 element 11 forming the .

この更新用回路は一1*Jの値の順番に従って接続を切
り換えるのではなく、l+Jのそれぞれに対して上記の
wtjtl正量決定回路を設け、同時に更新を行なって
もよい。
This updating circuit does not switch the connection according to the order of the values of -1*J, but the above-mentioned wtjtl positive amount determining circuit may be provided for each of l+J and updating may be performed at the same time.

第3図は本発明の第1の実施例の全体図である。FIG. 3 is an overall view of the first embodiment of the present invention.

入力層(X 1−X n )と中間層(Zl−Z−)を
結ぶ結合係数ml、および中間層と出力層(Y1〜Y+
、)を結ぶ結合係数W I Jのマトリクス回路23が
設けである。その外側にmJkとW I Jの更新用回
路が設けられている。Δw1j発生用の回路は第2回と
同じである。Δmlの発生(〔従来の技術〕の式(5)
)では中間層ベクトルが25だけのときの出力Yiaが
必要であり、全体をiに関して加算する必要がある。こ
の手順は以下のとおりである#まず図の21から2.の
所に示したスイチツをすべてonにしておく、そして第
2図で述べたようにΔW i aの更新を行なう、ΔW
 1Jの値をサンプルホールド回路で保存しながら前記
のスイッチをZaだけonLで他はoffする。このと
きの出力信号Y、がYIJであるから、この状態で図の
アナログ回路部を動作させる。結果をアキュムレータA
The coupling coefficient ml connecting the input layer (X1-Xn) and the intermediate layer (Zl-Z-), and the coupling coefficient ml connecting the intermediate layer and the output layer (Y1 to Y+
, ) is provided with a matrix circuit 23 of coupling coefficients W I J. On the outside thereof, mJk and W I J update circuits are provided. The circuit for generating Δw1j is the same as the second time. Generation of Δml (formula (5) of [prior art])
) requires the output Yia when there are only 25 hidden layer vectors, and it is necessary to add the whole with respect to i. This procedure is as follows: #First, from 21 to 2 in the figure. Turn on all the switches shown in Figure 2, and update ΔW i a as described in Figure 2.
While the value of 1J is stored in the sample and hold circuit, only Za is turned on and the others are turned off. Since the output signal Y at this time is YIJ, the analog circuit section shown in the figure is operated in this state. Transfer the result to accumulator A
.

Acc21に蓄える。アキュムレータはアナログ方式で
も、デジタル方式にAD、DA変換を付加したものでも
よい、これでiの1からLまで累積して4m Jhの値
を得る。これを電圧・時間変換器に印加し、4m a 
mに比例したパルスを1個だけ発生させる。これをMN
O8素子に印加してm a hの更新を行なう、これに
より、i、j、にのアドレスを順次切り換えて学習を行
なう。
Store in Acc21. The accumulator may be an analog system or a digital system with AD and DA conversion added, and it accumulates from i 1 to L to obtain a value of 4m Jh. Apply this to a voltage/time converter, and
Only one pulse proportional to m is generated. This is MN
This is applied to the O8 element to update m ah , thereby sequentially switching addresses i, j, and learning.

本実施例により、簡単な回路構成と製造プロセスで高速
なアナログニューラルネットLSIが構成できる。
According to this embodiment, a high-speed analog neural network LSI can be constructed with a simple circuit configuration and manufacturing process.

第6図は本発明第2の実施例の部分図である。FIG. 6 is a partial view of a second embodiment of the present invention.

第2図のyi傘(vi<−Yt)の計算回路をデルタ回
路と名付ける要素回路を用いて簡略化している。
The calculation circuit for the yi umbrella (vi<-Yt) in FIG. 2 is simplified using an element circuit named a delta circuit.

Yl”(VM−Yl)という式はYiに関する簡単な放
物線関数である。その関数形をa(yi)で表す。
The expression Yl'' (VM-Yl) is a simple parabolic function regarding Yi. Its functional form is expressed as a(yi).

(ここでvMは原理式上はlに対応する)、a(yi)
の形状は上に凸の放物線で、YiがOと1のとき値が0
となる。またyt が0.5 のとき最大値をとる++
YtはOから1の範囲で変化する(付録参照)、シたが
って、Gは近似的にはY稟が0または1に近いとき0に
近づくような上に凸の関数を作ればよい、これがデルタ
回路である。
(Here, vM corresponds to l in principle), a(yi)
The shape of is an upwardly convex parabola, and the value is 0 when Yi is O and 1.
becomes. Also, it takes the maximum value when yt is 0.5++
Yt varies in the range from O to 1 (see appendix). Therefore, G can be approximated by creating an upwardly convex function that approaches 0 when Y is close to 0 or 1. It is a delta circuit.

第5図は本発明第2の実施例の要素回路図である。デル
タ回路の構成法を示したものである。
FIG. 5 is an elemental circuit diagram of a second embodiment of the present invention. This shows how to configure a delta circuit.

(a)、(b)は原理図である。(a)はリファレンス
電圧が少し異なる2つのアンプの入出力持性Vs とv
2の概念図である1両アンプは低利得形にして特性の傾
きを小さくし、出力のローレベルとハイレベルは各々等
しく、その値はVi、とVWである。(b)にVi−V
zの特性概念図を示す。
(a) and (b) are principle diagrams. (a) shows the input/output characteristics Vs and v of two amplifiers with slightly different reference voltages.
The single-amplifier shown in the conceptual diagram of No. 2 is of a low gain type to reduce the slope of the characteristic, and the low level and high level of the output are equal, and their values are Vi and VW. (b) Vi-V
A conceptual diagram of the characteristics of z is shown.

アンプの飽和特性により、(b)のように入力が0と1
に近いときに出力がほぼ0になる。G(Yl)に近い形
の特性が得られる。(C)にアンプの回路図を示す、ト
ランスコンダクタンスアンプを用いている。(d)にデ
ルタ回路を示す。
Due to the saturation characteristics of the amplifier, the input is 0 and 1 as shown in (b).
When the output is close to , the output becomes almost 0. Characteristics similar to those of G(Yl) can be obtained. A transconductance amplifier is used, the circuit diagram of which is shown in (C). (d) shows a delta circuit.

第7図は本発明第2の実施例の全体図である。FIG. 7 is an overall view of the second embodiment of the present invention.

同様にデルタ回路を用いて回路を簡略化している。Similarly, the circuit is simplified using a delta circuit.

本実施例によれば簡略化した回路で第1の実施例と同様
の効果が得られる。
According to this embodiment, the same effects as in the first embodiment can be obtained with a simplified circuit.

第8図および第9図は本発明第3の実施例の部分図およ
び全体図である。ここではG(Yl)の回路を完全に省
略して回路のいっそうの簡略化を図っている。G(Yl
)はYlが0.5 近くではあまり変化しない、そこで
a(Vt)を一定値(=1)に固定したものである0本
構成によれば、精度は若干落ちるものの、さらに簡略化
された構造が得られる。
FIGS. 8 and 9 are a partial view and an overall view of a third embodiment of the present invention. Here, the G(Yl) circuit is completely omitted to further simplify the circuit. G(Yl
) does not change much when Yl is near 0.5, so a zero-wire configuration in which a(Vt) is fixed at a constant value (=1) provides a more simplified structure, although the accuracy is slightly lower. is obtained.

第10図は本発明第4の実施例の全体図である。FIG. 10 is an overall view of the fourth embodiment of the present invention.

ここでは第9図の回路からさらに21傘(■に−ZJ)
の演算を取り除いたものである。VM−Z−の演算を行
なう減算器14を除去した。ZJの項はY I Jの中
にすでに含まれるので除算器を用いてこれを取り除いた
0本構成によっても精度は若干落ちるものの、さらに簡
略化された構造が得られる。
Here, 21 more umbrellas (-ZJ in ■) are added from the circuit in Figure 9.
This is the result of removing the operation. The subtracter 14 that performs the VM-Z- calculation is removed. Since the ZJ term is already included in Y I J, a 0-line configuration in which this term is removed using a divider also results in a more simplified structure, although the accuracy is slightly lower.

〔発明の効果〕〔Effect of the invention〕

以上述べたように本発明によれば、第1に電荷蓄積用ゲ
ートをもつトランジスタ1個だけで結合係数1個を実現
でき回路が大幅に簡略化できる。
As described above, according to the present invention, firstly, one coupling coefficient can be realized with only one transistor having a charge storage gate, and the circuit can be greatly simplified.

第2に電荷蓄積用ゲートをもつトランジスタと通常のM
O8素子の2種類だけをLSI上に構成すればよいため
製造プロセスが大幅に簡略化できる。
Second, a transistor with a charge storage gate and a normal M
Since only two types of O8 elements need be constructed on the LSI, the manufacturing process can be greatly simplified.

第3に信号として電圧および電流を用いることにより高
速動作を実現することができる。これらの大きな効果を
有するものである。
Third, high-speed operation can be achieved by using voltage and current as signals. It has these great effects.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明第1の実施例の部分図(概念図)、第2
図は本発明第1の実施例の部分図、第3図は本発明第1
の実施例の全体図、第4図は階層構造ニューラルネット
の基本楕成図、第5図は本発明第2の実施例の要素回路
図、((a)、(b)は原理図、(c)はトランスコン
ダクタンスアンプの回路図、(d)はデルタ回路の回路
図)、第6図は本発明第2の実施例の部分図、第7図は
本発明第2の実施例の全体図、第8図は本発明第3の実
施例の部分図、第9図は本発明第3の実施例の全l・・
・中間層のシグモイド関数発生器、2・・・出力層のシ
グモイド関数発生器、11・・・電荷蓄積ゲート形トラ
ンジスタ(MNO8素子)、12・・・乗算器、13・
・・電圧・時間変換器、14・・・減算器、21・・・
アキュムレータ、22・・・除算器、23・・・結合係
数マトリクス、24・・・サンプルホールド回路、51
・・・トランスコンダクタンスアンプ、101・・・シ
グモイド関数発生器、104・・・W I J修正量決
定回路。 113・・・制御電極、201,202,203・・・
接続点。 ネ 4 目 驚飲f N+へ (d) 1 トランスコ〉タークタンス7ンア
Figure 1 is a partial diagram (conceptual diagram) of the first embodiment of the present invention;
The figure is a partial diagram of the first embodiment of the present invention, and Figure 3 is a partial diagram of the first embodiment of the present invention.
4 is a basic ellipse diagram of the hierarchical neural network, FIG. 5 is an elemental circuit diagram of the second embodiment of the present invention, ((a) and (b) are principle diagrams, ( (c) is a circuit diagram of a transconductance amplifier, (d) is a circuit diagram of a delta circuit), FIG. 6 is a partial diagram of the second embodiment of the present invention, and FIG. 7 is an overall diagram of the second embodiment of the present invention. , FIG. 8 is a partial diagram of the third embodiment of the present invention, and FIG. 9 is a complete diagram of the third embodiment of the present invention.
- Sigmoid function generator in intermediate layer, 2... Sigmoid function generator in output layer, 11... Charge storage gate type transistor (8 MNO elements), 12... Multiplier, 13.
...Voltage/time converter, 14...Subtractor, 21...
Accumulator, 22... Divider, 23... Coupling coefficient matrix, 24... Sample and hold circuit, 51
. . . Transconductance amplifier, 101 . . . Sigmoid function generator, 104 . . . W I J correction amount determination circuit. 113... Control electrode, 201, 202, 203...
connection point. Ne4 Eye surprise f To N+ (d) 1 Transco〉Turktance 7nA

Claims (1)

【特許請求の範囲】 1、電荷を不揮発的に蓄積できるゲートをもつトランジ
スタのソース・ドレイン間抵抗を、ニューラルネットの
結合係数として用い、結合係数更新時に上記トランジス
タに電気信号を印加して結合係数を変化させる装置であ
つて、結合係数の更新後の値と更新前の値の差に比例し
た時間だけ上記電気信号を印加することにより結合係数
を修正することを特徴とする情報処理装置。 2、上記トランジスタをMNOSトランジスタで構成し
たことを特徴とする特許請求の範囲第1項記載の情報処
理装置。 3、出力ベクトルの要素の値から、対応する教師ベクト
ルの要素の値を差し引いた差信号を形成する回路と、上
記差信号に中間層ベクトルの要素の値を乗じた積信号を
形成する回路と、上記積信号に比例した長さの時間だけ
前記トランジスタに前記電気信号を印加する回路を具備
したことを特徴とする特許請求の範囲第1項記載の情報
処理装置。 4、出力ベクトルの要素の値から、対応する教師ベクト
ルの要素の値を差し引いた第1の差信号を形成する回路
と、第1の差信号に上記出力ベクトルの要素の値を乗じ
て第1の積信号を形成する回路と、一定電圧から上記出
力ベクトルの要素の値を差し引いた第2の差信号を形成
する回路と、第1の積信号に第2の差信号を乗じて第2
の積信号を形成する回路と、第2の積信号に対応する中
間層ベクトルの要素の値を乗じて第3の積信号を形成す
る回路と、第3の積信号に比例した長さの時間だけ上記
トランジスタに上記電気信号を印加する回路を具備した
ことを特徴とする特許請求の範囲第1項記載の情報処理
装置。 5、第1の増幅回路と、入力のオフセット電圧が第1の
増幅回路とは異なる第2の増幅回路と、第1および第2
の増幅回路に共通の入力信号を加える手段と、第1の増
幅回路の出力から第2の増幅回路の出力を差し引いた差
信号を形成する回路を具備することを特徴とする特許請
求の範囲第1項記載の情報処理装置。
[Claims] 1. The source-drain resistance of a transistor with a gate that can nonvolatilely store charge is used as a coupling coefficient of a neural network, and when updating the coupling coefficient, an electric signal is applied to the transistor to calculate the coupling coefficient. What is claimed is: 1. An information processing device for modifying a coupling coefficient by applying the electric signal for a time proportional to a difference between a value of the coupling coefficient after updating and a value before updating. 2. The information processing device according to claim 1, wherein the transistor is formed of an MNOS transistor. 3. A circuit that forms a difference signal by subtracting the value of the corresponding element of the teacher vector from the value of the element of the output vector, and a circuit that forms a product signal by multiplying the difference signal by the value of the element of the intermediate layer vector. 2. The information processing apparatus according to claim 1, further comprising a circuit for applying the electrical signal to the transistor for a period of time proportional to the product signal. 4. A circuit that generates a first difference signal by subtracting the value of the corresponding element of the teacher vector from the value of the element of the output vector, and a circuit that generates a first difference signal by multiplying the first difference signal by the value of the element of the output vector. a circuit that forms a product signal of
a circuit for forming a product signal by multiplying the second product signal by the value of the element of the corresponding intermediate layer vector to form a third product signal; and a time period proportional to the third product signal. 2. The information processing apparatus according to claim 1, further comprising a circuit for applying the electric signal to the transistor. 5. A first amplifier circuit, a second amplifier circuit whose input offset voltage is different from that of the first amplifier circuit, and first and second amplifier circuits;
and a circuit for forming a difference signal obtained by subtracting the output of the second amplifier circuit from the output of the first amplifier circuit. The information processing device according to item 1.
JP15232789A 1989-06-16 1989-06-16 Information processor Pending JPH0318985A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15232789A JPH0318985A (en) 1989-06-16 1989-06-16 Information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15232789A JPH0318985A (en) 1989-06-16 1989-06-16 Information processor

Publications (1)

Publication Number Publication Date
JPH0318985A true JPH0318985A (en) 1991-01-28

Family

ID=15538107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15232789A Pending JPH0318985A (en) 1989-06-16 1989-06-16 Information processor

Country Status (1)

Country Link
JP (1) JPH0318985A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019517138A (en) * 2016-05-17 2019-06-20 シリコン ストーリッジ テクノロージー インコーポレイテッドSilicon Storage Technology, Inc. Deep Learning Neural Network Classifier Using Nonvolatile Memory Array
US10699779B2 (en) 2017-11-29 2020-06-30 Silicon Storage Technology, Inc. Neural network classifier using array of two-gate non-volatile memory cells
US10748630B2 (en) 2017-11-29 2020-08-18 Silicon Storage Technology, Inc. High precision and highly efficient tuning mechanisms and algorithms for analog neuromorphic memory in artificial neural networks
US10803943B2 (en) 2017-11-29 2020-10-13 Silicon Storage Technology, Inc. Neural network classifier using array of four-gate non-volatile memory cells
US11087207B2 (en) 2018-03-14 2021-08-10 Silicon Storage Technology, Inc. Decoders for analog neural memory in deep learning artificial neural network
US11270771B2 (en) 2019-01-29 2022-03-08 Silicon Storage Technology, Inc. Neural network classifier using array of stacked gate non-volatile memory cells
JP2022519494A (en) * 2019-01-29 2022-03-24 シリコン ストーリッジ テクノロージー インコーポレイテッド Neural network classifier using an array of 4-gate non-volatile memory cells
US11409352B2 (en) 2019-01-18 2022-08-09 Silicon Storage Technology, Inc. Power management for an analog neural memory in a deep learning artificial neural network
US11423979B2 (en) 2019-04-29 2022-08-23 Silicon Storage Technology, Inc. Decoding system and physical layout for analog neural memory in deep learning artificial neural network
US11893478B2 (en) 2019-01-18 2024-02-06 Silicon Storage Technology, Inc. Programmable output blocks for analog neural memory in a deep learning artificial neural network

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11790208B2 (en) 2016-05-17 2023-10-17 Silicon Storage Technology, Inc. Output circuitry for non-volatile memory array in neural network
JP2019517138A (en) * 2016-05-17 2019-06-20 シリコン ストーリッジ テクノロージー インコーポレイテッドSilicon Storage Technology, Inc. Deep Learning Neural Network Classifier Using Nonvolatile Memory Array
US11972795B2 (en) 2016-05-17 2024-04-30 Silicon Storage Technology, Inc. Verification of a weight stored in a non-volatile memory cell in a neural network following a programming operation
US11853856B2 (en) 2016-05-17 2023-12-26 Silicon Storage Technology, Inc. Programming methods for neural network using non-volatile memory array
US11829859B2 (en) 2016-05-17 2023-11-28 Silicon Storage Technology, Inc. Verification of a weight stored in a non-volatile memory cell in a neural network following a programming operation
US11308383B2 (en) 2016-05-17 2022-04-19 Silicon Storage Technology, Inc. Deep learning neural network classifier using non-volatile memory array
US10699779B2 (en) 2017-11-29 2020-06-30 Silicon Storage Technology, Inc. Neural network classifier using array of two-gate non-volatile memory cells
US10748630B2 (en) 2017-11-29 2020-08-18 Silicon Storage Technology, Inc. High precision and highly efficient tuning mechanisms and algorithms for analog neuromorphic memory in artificial neural networks
US10803943B2 (en) 2017-11-29 2020-10-13 Silicon Storage Technology, Inc. Neural network classifier using array of four-gate non-volatile memory cells
US11087207B2 (en) 2018-03-14 2021-08-10 Silicon Storage Technology, Inc. Decoders for analog neural memory in deep learning artificial neural network
US11409352B2 (en) 2019-01-18 2022-08-09 Silicon Storage Technology, Inc. Power management for an analog neural memory in a deep learning artificial neural network
US11500442B2 (en) 2019-01-18 2022-11-15 Silicon Storage Technology, Inc. System for converting neuron current into neuron current-based time pulses in an analog neural memory in a deep learning artificial neural network
US11646075B2 (en) 2019-01-18 2023-05-09 Silicon Storage Technology, Inc. Neural network classifier using array of three-gate non-volatile memory cells
JP2022523292A (en) * 2019-01-18 2022-04-22 シリコン ストーリッジ テクノロージー インコーポレイテッド Neural network classifier using an array of 2-gate non-volatile memory cells
US11270763B2 (en) 2019-01-18 2022-03-08 Silicon Storage Technology, Inc. Neural network classifier using array of three-gate non-volatile memory cells
US11893478B2 (en) 2019-01-18 2024-02-06 Silicon Storage Technology, Inc. Programmable output blocks for analog neural memory in a deep learning artificial neural network
JP2022519494A (en) * 2019-01-29 2022-03-24 シリコン ストーリッジ テクノロージー インコーポレイテッド Neural network classifier using an array of 4-gate non-volatile memory cells
US11270771B2 (en) 2019-01-29 2022-03-08 Silicon Storage Technology, Inc. Neural network classifier using array of stacked gate non-volatile memory cells
US11423979B2 (en) 2019-04-29 2022-08-23 Silicon Storage Technology, Inc. Decoding system and physical layout for analog neural memory in deep learning artificial neural network

Similar Documents

Publication Publication Date Title
US11663457B2 (en) Neural network circuits having non-volatile synapse arrays
CN111433792B (en) Counter-based resistance processing unit of programmable resettable artificial neural network
US20200053299A1 (en) Image sensor with analog sample and hold circuit control for analog neural networks
JP4620943B2 (en) Product-sum operation circuit and method thereof
EP0357016B1 (en) Neuron architecture
US5264734A (en) Difference calculating neural network utilizing switched capacitors
US10381074B1 (en) Differential weight reading of an analog memory element in crosspoint array utilizing current subtraction transistors
US10453527B1 (en) In-cell differential read-out circuitry for reading signed weight values in resistive processing unit architecture
JPH03250244A (en) Information processor
Mizutani et al. On derivation of MLP backpropagation from the Kelley-Bryson optimal-control gradient formula and its application
JPH0318985A (en) Information processor
WO2019033084A1 (en) Pulse-width modulated multiplier
US10832773B1 (en) Architecture for enabling zero value shifting
US5329610A (en) Neural network employing absolute value calculating synapse
US5485548A (en) Signal processing apparatus using a hierarchical neural network
CN112734022B (en) Four-character memristor neural network circuit with recognition and sequencing functions
Gi et al. A ReRAM-based convolutional neural network accelerator using the analog layer normalization technique
Bobylev et al. Manufacture and testing of a pulsed hardware neural network with memristor synapses for a biomorphic neuroprocessor
Wang Analog CMOS implementation of backward error propagation
JPH03144785A (en) Neuro element
JP3095798B2 (en) Analog back-propagation learning circuit and its driving method
Asai et al. A MOS circuit for a nonmonotonic neural network with excellent retrieval capabilities
US20240028297A1 (en) Semiconductor device performing a multiplication and accumulation operation
CN116451751A (en) Synaptic structure, neural network circuit, integrated memory chip and electronic device for storing positive and negative weights by using single nonvolatile device
Cao et al. A local search based learning method for multiple-valued logic networks