JP2003223790A - Synapse element and integrated circuit device including the same - Google Patents

Synapse element and integrated circuit device including the same

Info

Publication number
JP2003223790A
JP2003223790A JP2002382081A JP2002382081A JP2003223790A JP 2003223790 A JP2003223790 A JP 2003223790A JP 2002382081 A JP2002382081 A JP 2002382081A JP 2002382081 A JP2002382081 A JP 2002382081A JP 2003223790 A JP2003223790 A JP 2003223790A
Authority
JP
Japan
Prior art keywords
synapse
neural network
mos
integrated circuit
control gate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002382081A
Other languages
Japanese (ja)
Other versions
JP2003223790A5 (en
Inventor
Yutaka Arima
裕 有馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eng Kk
Original Assignee
Eng Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eng Kk filed Critical Eng Kk
Priority to JP2002382081A priority Critical patent/JP2003223790A/en
Publication of JP2003223790A publication Critical patent/JP2003223790A/en
Publication of JP2003223790A5 publication Critical patent/JP2003223790A5/ja
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To implement a high integration of a synapse circuit with a learning function which is the most important subject in achievement of a neural network associative memory LSI (In a neural network constituting of an associative memory, many synapses are required and the number is almost the square of the number of the neuron, and therefore, high integration of synapses is most effective for high integration of the associative memory). <P>SOLUTION: An A-MOS synapse can implement comparable integration to that of a DRAM because of its simplified circuit configuration and compact circuit size. With the present cutting-edge technology (0.15 μm CMOS), approximately 1 G synapses can be integrated on one chip. Accordingly, it is possible to implement a neural network with approximately 30,000 neurons all coupled together on one chip. This corresponds to a network scale capable of associatively storing approximately 5,000 patterns. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、ニューラルネッ
トワーク連想メモリーLSIに関するものであり、学習
機能を備えたシナプス素子を高集積に実現できる技術を
提供する。ニューロ連想メモリーにおいては、連想パタ
ーンを自由に且つ高速に記憶する為に、学習機能を備え
たシナプス回路が是非必要である。この発明によるシナ
プス素子によって構成されるニューラルネットワーク連
想メモリーLSIは、DRAM並の高集積を実現できる
ので、従来は難しかった、数千以上のパターンを記憶で
きる連想メモリーLSIの実用化に貢献できる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network associative memory LSI, and provides a technique capable of realizing highly integrated synapse elements having a learning function. In a neuro-associative memory, a synapse circuit with a learning function is absolutely necessary to store associative patterns freely and at high speed. Since the neural network associative memory LSI configured by the synapse element according to the present invention can realize high integration like DRAM, it can contribute to the practical application of an associative memory LSI capable of storing thousands of patterns, which has been difficult in the past.

【0002】[0002]

【従来の技術】近年、脳の情報処理様式に基づく脳型コ
ンピュータの研究開発が活発に行われている。脳型コン
ピュータが得意とする、パターン認識や文脈連想、組み
合わせ最適化などの直感的情報処理は、情報処理機械が
人間との自然なコミュニケーションを実現するために必
要不可欠な技術であり、機械が社会の中で違和感なく利
用され溶け込むためのブレークスルーを与えるものと期
待されている。脳型コンピュータの実用化には、その専
用ハードウエアの開発が不可欠である。特に、脳型コン
ピュータを構成する主要部品として、ニューラルネット
ワーク連想メモリーLSIの開発が強く求められてい
る。ニューラルネットワーク連想メモリーLSIを実用
化する為には、学習機能を有したシナプス回路の高集積
化が最大の課題である。連想メモリーを構成するニュー
ラルネットワークでは、シナプスの数がニューロン数の
ほぼ2乗に比例して多数必要なので、シナプスの高集積
化が連想メモリーの高集積化に最も有効である。また、
その連想メモリーが連想パターンを高速かつ自在に記憶
する為には、シナプスに学習機能を持たせることが必要
である。
2. Description of the Related Art In recent years, research and development of brain-type computers based on the information processing mode of the brain have been actively conducted. Intuitive information processing, such as pattern recognition, contextual association, and combinatorial optimization, that a brain computer is good at is an essential technology for information processing machines to realize natural communication with humans, and machines are It is expected to give a breakthrough so that it can be used and blended in without any discomfort. In order to put a brain-type computer into practical use, the development of dedicated hardware is indispensable. In particular, the development of a neural network associative memory LSI has been strongly demanded as a main component of a brain computer. In order to put the neural network associative memory LSI into practical use, the most important issue is the high integration of the synapse circuit having a learning function. In a neural network that constitutes an associative memory, a large number of synapses is required in proportion to almost the square of the number of neurons, and thus high integration of synapses is most effective for high integration of associative memory. Also,
In order for the associative memory to store associative patterns at high speed and freely, it is necessary for the synapse to have a learning function.

【0003】[0003]

【発明が解決しようとする課題】学習機能を有した連想
メモリーニューラルネットワークLSIに関する先行技
術として、特許「学習機能付集積回路装置」発明者:有
馬裕、他(出願:平成1年9月19日特開平03−80
379 5,148,514 Sep.15,199
2.5,293,457 Mar.8,1994.)に
ついて簡単に説明する。図7は、従来のニューラルネッ
トワークLSIのブロック構成例を示している。チップ
の4辺に各々1列に並べられたニューロン回路が配置さ
れ、その他のチップ内部の殆どの領域にシナプスをマト
リックス状に配列、配置した構成になっている。これら
の配置と相互接続配線によって、連想メモリー用ニュー
ラルネットワークが効率良く構成できる。学習機能を有
したシナプス回路の例を図8に示す。キャパシターC1
の蓄積電荷量でシナプス荷重値(Wij)を表現してい
る。C1の蓄積電荷量は、チャージポンプ回路で構成さ
れた荷重修正回路とそれに修正信号を与える学習制御回
路によって、学習則(ΔWij=±ηSiSj、ηは学
習係数でACP+/−に与えるパルス数に対応する)に
従い修正される。SiおよびSjは、各々、このシナプ
スに信号を与えるニューロンiとjの出力信号に対応し
ている。この先行例では、対称なシナプス結合(Wij
=Wji)を想定しているので、一つのシナプス荷重値
に二つのシナプス結合演算回路が搭載されている。図9
は、ニューロン回路例を示している。シナプスからの出
力信号電流を共通ノードで足しあわせて(キルヒホフア
ダー)、その信号を電圧に変換してニューロンのしきい
値(Vref)と、コンパレータで比較している。二つ
のセレクター(SEL1/2)は、本ニューロン回路内
のレジスター(SR(P))内の属性データと学習制御
信号IselSに従って、コンパレータの出力か教師デ
ーター(SR(T))かを選択出力する。この先行技術
によれば、学習機能を有したシナプス回路を比較的高集
積に実装することができる。実際、0.8μmCMOS
テクノロジーを使って、8万シナプス、400ニューロ
ンを1チップに集積することに成功している(Y.Ar
ima,et al.”A Refreshable
Analog VLSINeural Network
Chip with 400 Neuronsand
40K Synapses,”IEEE,Journ
al of Solid−State Circuit
s,Vol.27,No.12,pp.1854−18
61,Dec.,1992.)。またこの先行技術を使
って、現在の最先端テクノロジー0.15μmCMOS
を使った場合には、約200万シナプス、約2000ニ
ューロンを1チップに集積することが可能である。その
場合、約300パターン程度の連想記憶が可能である
が、実用には、記憶容量が不十分である。そこで、学習
機能を有したシナプス回路の更なる高集積化を検討し、
今回、先に発明したA−MOSデバイスによるシナプス
回路を考案した。
As a prior art relating to an associative memory neural network LSI having a learning function, a patent "integrated circuit device with learning function" inventor: Yu Arima, et al. (Application: September 19, 1991) JP 03-80
379 5,148,514 Sep. 15,199
2.5, 293, 457 Mar. 8, 1994. ) Will be briefly described. FIG. 7 shows a block configuration example of a conventional neural network LSI. Neuron circuits arranged in one row are arranged on each of the four sides of the chip, and synapses are arranged and arranged in a matrix in most of the other areas inside the chip. With these arrangements and interconnection wiring, a neural network for associative memory can be efficiently constructed. FIG. 8 shows an example of a synapse circuit having a learning function. Capacitor C1
The synapse load value (Wij) is represented by the accumulated charge amount of. The accumulated charge amount of C1 is determined by a weight correction circuit composed of a charge pump circuit and a learning control circuit that gives a correction signal to the learning rule (ΔWij = ± ηSiSj, where η is a learning coefficient and corresponds to the number of pulses given to ACP +/−. Will be corrected according to Si and Sj respectively correspond to the output signals of neurons i and j that give a signal to this synapse. In this precedent example, a symmetric synaptic connection (Wij
= Wji), two synapse connection arithmetic circuits are mounted on one synapse load value. Figure 9
Shows an example of a neuron circuit. The output signal current from the synapse is added at the common node (Kirchhoff adder), the signal is converted into a voltage, and the threshold value (Vref) of the neuron is compared with the comparator. The two selectors (SEL1 / 2) selectively output the output of the comparator or the teacher data (SR (T)) according to the attribute data in the register (SR (P)) in the present neuron circuit and the learning control signal IselS. . According to this prior art, a synapse circuit having a learning function can be mounted in a relatively highly integrated manner. Actually 0.8 μm CMOS
Using technology, we succeeded in integrating 80,000 synapses and 400 neurons on one chip (Y. Ar.
ima, et al. "A Refreshable
Analog VLSINeural Network
Chip with 400 Neuronsand
40K Synapses, "IEEE, Journal
al of Solid-State Circuit
s, Vol. 27, No. 12, pp. 1854-18
61, Dec. , 1992. ). In addition, using this prior art, the current state-of-the-art technology 0.15 μm CMOS
With, it is possible to integrate about 2 million synapses and about 2000 neurons on one chip. In that case, associative storage of about 300 patterns is possible, but the storage capacity is insufficient for practical use. Therefore, we considered further high integration of the synapse circuit with a learning function,
This time, we devised a synapse circuit using the previously invented A-MOS device.

【0004】[0004]

【課題を解決するための手段】本発明では、先に発明し
たA−MOSデバイス(Adjustable β−M
OS:略称A−MOS)(特許「半導体素子」発明者:
有馬裕 出願:平成13年1月26日特願2001−
018133)を使って、学習機能を有した高集積なA
−MOSシナプスを提案している。A−MOSデバイス
は、図10に示すデバイス構成をしており、制御ゲート
の電圧を調整することで利得係数βをアナログ変調する
ことができる。利得係数βの変調特性は、図11に示す
素子形状パラメータによって設定することができる。図
12は、A−MOSにおけるβ変調原理を説明した図で
ある。図12内左図は、制御ゲートチャネルのコンダク
タンスを通常ゲートと同等にした場合を表しており、薄
い影の部分が実効的なゲート領域を示している。図12
内右図は、制御ゲートチャネルのコンダクタンスを通常
ゲートより十分に大きくした場合である。これらの図で
分かるように、A−MOSは、制御ゲート電圧を変える
ことで実効的なゲート長Lとゲート幅Wをアナログ的に
変調することができる。その結果、A−MOSは、制御
ゲート電圧による利得係数βのアナログ変調を実現して
いる。A−MOSでは、ソースドレイン電流Isdは次
式にほぼ比例するので、ドレイン側にダイオード特性の
負荷を設けることで、通常ゲート電圧Vgと制御ゲート
電圧Vcgの積算値(近似)を出力することができる。 Isd∝Vg×Vcg1−2 また、複数のA−MOSのドレインを共通ノードで接続
し電流を加算すれば、積和演算を表現することができ
る。
In the present invention, the A-MOS device (Adjustable β-M) previously invented is used.
OS: Abbreviation A-MOS (Patent "semiconductor element" inventor:
Yu Arima Application: January 26, 2001 Japanese Patent Application 2001-
018133), a highly integrated A with a learning function
-Proposing MOS synapses. The A-MOS device has the device configuration shown in FIG. 10, and the gain coefficient β can be analog-modulated by adjusting the voltage of the control gate. The modulation characteristic of the gain coefficient β can be set by the element shape parameter shown in FIG. FIG. 12 is a diagram for explaining the β modulation principle in the A-MOS. The left diagram in FIG. 12 shows a case where the conductance of the control gate channel is made equal to that of the normal gate, and a thin shaded portion shows an effective gate region. 12
The inner right figure shows the case where the conductance of the control gate channel is made sufficiently larger than that of the normal gate. As can be seen from these figures, the A-MOS can modulate the effective gate length L and gate width W in an analog manner by changing the control gate voltage. As a result, the A-MOS realizes analog modulation of the gain coefficient β by the control gate voltage. In the A-MOS, the source / drain current Isd is approximately proportional to the following equation, and therefore, by providing a load having a diode characteristic on the drain side, an integrated value (approximation) of the normal gate voltage Vg and the control gate voltage Vcg can be output. it can. Isd∝Vg 2 × Vcg 1-2 If the drains of a plurality of A-MOSs are connected at a common node and currents are added, a product-sum operation can be expressed.

【0005】[0005]

【発明の効果】発明のA−MOSシナプスは、その簡単
な回路構成とコンパクトな回路サイズにより、DRAM
並の集積度を実現できる。現在の最先端テクノロジー
(0.15μmCMOS)を使えば、1チップに1G個
程度のシナプスを集積することが可能で、約3万ニュー
ロンの全結合ニューラルネットワークを1チップで実現
できることになる。これは、約5000パターンを連想
記憶できるネットワーク規模に相当する。
The A-MOS synapse according to the present invention has a simple circuit configuration and a compact circuit size, which makes it a DRAM.
It is possible to achieve an average degree of integration. Using the current state-of-the-art technology (0.15 μm CMOS), it is possible to integrate about 1 G synapses on one chip, and a fully connected neural network of about 30,000 neurons can be realized on one chip. This corresponds to a network scale capable of associatively storing about 5000 patterns.

【0006】[0006]

【発明の実施の形態】本発明は、ニューラルネットワー
クを構成するシナプス回路にA−MOSを用いることを
特徴としている。本発明の回路構成では、A−MOS制
御ゲートの電位によって、シナプス荷重値を表現してい
る。A−MOSのβ可変特性によって、シナプス荷重値
(制御ゲート電圧)とニューロン信号(入力ゲート電
圧)との積が実現されている。A−MOS制御ゲート
は、フローティングであり、それと容量結合された学習
制御電圧を調整することで、ホットエレクトロンの注入
によるシナプス荷重値の修正を可能にして、学習機能を
実現している。図1にA−MOSシナプスの回路構成例
を示す。A−MOSの入力ゲートには他ニューロンの出
力信号Sjを接続し、A−MOSの制御ゲートの蓄積電
荷によってシナプス荷重値Wijを表現する。この回路
構成の結果、A−MOSトランジスタを流れるソースド
レイン電流Isdは、ニューロンの出力信号Sjとシナ
プス荷重値Wijの積値に対応して変化する。図2に示
すように、A−MOSの制御ゲートはフローティングに
して、学習制御電圧Vcノードとの間に容量結合させ、
また、A−MOSのドレインノードを複数のA−MOS
で共通接続して、そのノードを軸索信号線としその電流
和をニューロンの入力信号とする回路構成によって、ニ
ューラルネットワークを構成できる。図2内に示した、
ニューロンの出力信号を判定出力するコンパレータに
は、しきい値Vrefと共通ノードと接続されたp−M
OSトランジスタTr.Bで生じる電圧とが与えられて
いる。また、共通ノードMには、p−MOSトランジス
タTr.Rのドレインも接続されている。Tr.Rのゲ
ートにニューロン信号Siの反転遅延信号(遅延時間:
td)を与える構成によって、ニューロン信号がONに
なって、一定の遅延時間後にTr.RがONとなり、共
通ノードの電位は上昇し、ニューロンの出力は強制的に
OFFとなる。さらにその後の一定の遅延時間後には、
Tr.RはOFFとなり、共通ノードに接続されている
A−MOSシナプスの駆動能力に対応した時間後に、再
びニューロンiの出力がONとなり、一連の動作が繰り
返される。すなわち、共通ノードに流れる電流の総和に
従って、ニューロンの出力信号のパルス発生頻度が変調
されることになる。図3に、ニューロンの信号出力に関
する各種信号の挙動の例を示す。ニューロンの出力信号
Siのパルス信号周期Tは次式で与えられる。 T=2td+tr+tw ここで、trはTr.Rによる共通ノードMに対する遅
延時間に対応し、twは全シナプスによる共通ノードM
に対する遅延時間に対応している。従って、シナプスか
らの合計信号が多くなる(電流が増える)ほどtwは小
さくなり、Tも短くなるので、ニューロンの出力パルス
信号の発生頻度がシナプスからの合計信号で多くなるこ
とを実現している。次に、連想パターンを記憶する為の
ニューラルネットワーク学習時、即ち、シナプス荷重値
を修正する時の各種信号状態を図4に示す。シナプス荷
重値を修正することは、各A−MOSシナプスの制御ゲ
ートに蓄積された電荷量を修正することに対応してい
る。制御ゲートに蓄積された電荷量を修正するには、制
御電圧VcとTr.Rおよび遅延回路の電源電圧VdH
とを適宜制御することで、学習則(ΔWij=±ηSi
Sj)に従った制御ゲートの蓄積電荷量修正を実行する
ことができる。まず、学習時には電源電圧VdHをVd
より十分高い値にする。このことによって、A−MOS
のドレイン付近のホットキャリアー注入を可能にする。
またこの時、コンパレータのしきい値電圧Vrefも制
御電圧Vcに対応して変更する。hebbの学習則(Δ
Wij=+ηSiSj)を実行する場合は、制御電圧V
cを”Low”(〜GND)にする。そうすることで制
御ゲートの電位は低い値にシフトし、図5に示したホッ
トキャリアー注入特性例で分かるように、アバランシェ
によるホールの注入が支配的となり、SiとSjが共に
ONの時にのみシナプス荷重値は増加することになる。
次に、反hebbの学習則(ΔWij=−ηSiSj)
を実行する場合は、制御電圧Vcを”High”(〜V
dH)にし、制御ゲートの電位を高い値にシフトするこ
とで、チャネルホットエレクトロンの注入を支配的と
し、SiとSjが共にONの時にのみシナプス荷重値を
減少させることができる。各学習則実行時のシナプス素
子における電位状態を、各々図6内に示す。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention is characterized in that an A-MOS is used in a synapse circuit which constitutes a neural network. In the circuit configuration of the present invention, the synapse weight value is expressed by the potential of the A-MOS control gate. The product of the synapse weight value (control gate voltage) and the neuron signal (input gate voltage) is realized by the β variable characteristic of the A-MOS. The A-MOS control gate is floating, and by adjusting the learning control voltage capacitively coupled to it, the synapse load value can be corrected by injecting hot electrons to realize the learning function. FIG. 1 shows a circuit configuration example of an A-MOS synapse. The output signal Sj of another neuron is connected to the input gate of the A-MOS, and the synapse weight value Wij is expressed by the charge accumulated in the control gate of the A-MOS. As a result of this circuit configuration, the source / drain current Isd flowing through the A-MOS transistor changes corresponding to the product value of the output signal Sj of the neuron and the synapse weight value Wij. As shown in FIG. 2, the control gate of the A-MOS is floated and capacitively coupled with the learning control voltage Vc node.
In addition, the drain node of the A-MOS is connected to a plurality of A-MOSs.
A neural network can be configured by a circuit configuration in which the node is an axon signal line and the sum of currents is an input signal to a neuron, which are commonly connected with each other. As shown in Figure 2,
The comparator that determines and outputs the output signal of the neuron has p-M connected to the threshold Vref and the common node.
OS transistor Tr. The voltage generated at B is given. Further, the common node M has a p-MOS transistor Tr. The drain of R is also connected. Tr. An inverted delay signal (delay time:
td), the neuron signal is turned on, and after a certain delay time, Tr. R is turned on, the potential of the common node rises, and the output of the neuron is forced off. After a certain delay time after that,
Tr. R is turned off, and after a time corresponding to the driving ability of the A-MOS synapse connected to the common node, the output of the neuron i is turned on again, and a series of operations are repeated. That is, the pulse generation frequency of the output signal of the neuron is modulated according to the sum of the currents flowing through the common node. FIG. 3 shows an example of behavior of various signals related to signal output of the neuron. The pulse signal period T of the output signal Si of the neuron is given by the following equation. T = 2td + tr + tw where tr is Tr. Corresponding to the delay time for the common node M by R, tw is the common node M by all synapses.
It corresponds to the delay time for. Therefore, as the total signal from the synapse increases (the current increases), tw becomes smaller and T becomes shorter, so that the frequency of occurrence of the output pulse signal of the neuron becomes larger with the total signal from the synapse. . Next, FIG. 4 shows various signal states at the time of learning the neural network for storing the associative pattern, that is, at the time of correcting the synapse weight value. Modifying the synapse weight value corresponds to modifying the amount of charge accumulated in the control gate of each A-MOS synapse. To correct the amount of charge accumulated in the control gate, the control voltage Vc and Tr. R and the power supply voltage VdH of the delay circuit
By appropriately controlling and, the learning rule (ΔWij = ± ηSi
It is possible to execute the correction of the accumulated charge amount of the control gate according to Sj). First, during learning, the power supply voltage VdH is changed to Vd
Use a higher value. As a result, the A-MOS
Allows hot carrier injection near the drain.
At this time, the threshold voltage Vref of the comparator is also changed corresponding to the control voltage Vc. hebb's learning rule (Δ
Wij = + ηSiSj), the control voltage V
Set c to "Low" (to GND). By doing so, the potential of the control gate shifts to a low value, and as can be seen from the hot carrier injection characteristic example shown in FIG. 5, hole injection by avalanche becomes dominant, and synapse only occurs when both Si and Sj are ON. The load value will increase.
Next, the anti-hebb learning rule (ΔWij = −ηSiSj)
When executing the control voltage, the control voltage Vc is set to "High" (~ V
dH) and by shifting the potential of the control gate to a high value, the injection of channel hot electrons becomes dominant, and the synapse load value can be reduced only when both Si and Sj are ON. The potential states in the synapse element when each learning rule is executed are shown in FIG.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のシナプス回路でA−MOSを使用した
基本素子構成回路図例を示す。
FIG. 1 shows an example of a basic element configuration circuit diagram using an A-MOS in a synapse circuit of the present invention.

【図2】本発明のシナプス回路でA−MOSを使用した
回路構成例を示す。
FIG. 2 shows a circuit configuration example using an A-MOS in the synapse circuit of the present invention.

【図3】各種信号の挙動例を示す。FIG. 3 shows an example of behavior of various signals.

【図4】学習時の各種信号の状態例を示す。FIG. 4 shows an example of states of various signals during learning.

【図5】ホットエレクトロン注入特性例を示す。FIG. 5 shows an example of hot electron injection characteristics.

【図6】学習時のシナプス荷重値修正を示す。FIG. 6 shows correction of synapse load value during learning.

【図7】従来型ニューラルネットワークLSIブロック
構成図を示す。
FIG. 7 shows a block diagram of a conventional neural network LSI block.

【図8】従来型シナプス回路構成図を示す。FIG. 8 shows a conventional synapse circuit configuration diagram.

【図9】従来型ニューロン回路構成図を示す。FIG. 9 shows a conventional neuron circuit configuration diagram.

【図10】A−MOS素子構成図例を示す。FIG. 10 shows an example of an A-MOS device configuration diagram.

【図11】A−MOS素子構成パラメータ例を示す。FIG. 11 shows an example of A-MOS device configuration parameters.

【図12】A−MOSのβ変調図例を示す。。FIG. 12 shows an example of a β-modulation diagram of an A-MOS. .

【符号の説明】[Explanation of symbols]

A−MOS:Adjustable β−MOS(特願
2001−018133) Wij:制御ゲート Sj:通常ゲート GND:グラウンド Vd:電源電圧 Vc:制御電圧 Cv:コンデンサー電圧 Vref:シナプスの出力信号電流のニューロしきい値
電圧 W:実効ゲート幅 L:実効ゲート長 θ:通常ゲートと制御ゲートのなす角度
A-MOS: Adjustable β-MOS (Japanese Patent Application No. 2001-018133) Wij: Control gate Sj: Normal gate GND: Ground Vd: Power supply voltage Vc: Control voltage Cv: Capacitor voltage Vref: Neuro threshold value of synapse output signal current Voltage W: Effective gate width L: Effective gate length θ: Angle between normal gate and control gate

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】ニューラルネットワークの要素であるシナ
プスの機能を実現する素子であって、利得係数βをアナ
ログ的に電圧変調可能なMOSトランジスタのゲートに
他ニューロンの出力信号を与え、そのβ変調用制御ゲー
トの電位をシナプス荷重値として、当該トランジスタの
ソースドレイン電流をシナプスの出力信号とする機能構
成を特徴とするシナプス素子
1. An element for realizing the function of a synapse, which is an element of a neural network, wherein an output signal of another neuron is applied to the gate of a MOS transistor capable of analog-voltage-modulating a gain coefficient β for β modulation thereof. A synapse element characterized by a functional configuration in which the potential of the control gate is used as a synapse load value and the source / drain current of the transistor is used as an output signal of the synapse.
【請求項2】ニューラルネットワークを構成する半導体
集積回路において、少なくとも一つのシナプス機能を、
請求項1のシナプス素子で構成することを特徴とする半
導体集積回路装置
2. In a semiconductor integrated circuit which constitutes a neural network, at least one synapse function,
A semiconductor integrated circuit device comprising the synapse element according to claim 1.
【請求項3】請求項2のシナプス素子におけるβ変調制
御ゲートが、複数のシナプス素子に共通の制御信号ノー
ドと容量(キャパシター)を介して接続されていること
を特徴とする半導体集積回路装置
3. The semiconductor integrated circuit device according to claim 2, wherein the β modulation control gate in the synapse element is connected to a control signal node common to a plurality of synapse elements via a capacitor.
【請求項4】図2に示す回路構成を含むことを特徴とす
る、半導体集積回路装置
4. A semiconductor integrated circuit device comprising the circuit configuration shown in FIG.
【請求項5】請求項1のシナプス素子において、そのβ
変調用制御ゲートに蓄積された電荷量を、ホットキャリ
アーによって修正することを特徴とする、シナプス荷重
値修正機能を備えたシナプス素子
5. The synapse element according to claim 1, wherein β
A synapse element with a synapse load value correction function, characterized in that the amount of charge accumulated in the modulation control gate is corrected by hot carriers.
JP2002382081A 2001-11-26 2002-11-22 Synapse element and integrated circuit device including the same Pending JP2003223790A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002382081A JP2003223790A (en) 2001-11-26 2002-11-22 Synapse element and integrated circuit device including the same

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001402112 2001-11-26
JP2001-402112 2001-11-26
JP2002382081A JP2003223790A (en) 2001-11-26 2002-11-22 Synapse element and integrated circuit device including the same

Publications (2)

Publication Number Publication Date
JP2003223790A true JP2003223790A (en) 2003-08-08
JP2003223790A5 JP2003223790A5 (en) 2005-07-14

Family

ID=27759620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002382081A Pending JP2003223790A (en) 2001-11-26 2002-11-22 Synapse element and integrated circuit device including the same

Country Status (1)

Country Link
JP (1) JP2003223790A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7548894B2 (en) 2005-06-24 2009-06-16 Elpida Memory, Inc. Artificial neural network
JP2009541914A (en) * 2006-06-26 2009-11-26 サフロン・テクノロジー,インコーポレイテッド Nonlinear associative memory using a linear array of associative memory cells and method of operation thereof
US9418333B2 (en) 2013-06-10 2016-08-16 Samsung Electronics Co., Ltd. Synapse array, pulse shaper circuit and neuromorphic system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7548894B2 (en) 2005-06-24 2009-06-16 Elpida Memory, Inc. Artificial neural network
JP2009541914A (en) * 2006-06-26 2009-11-26 サフロン・テクノロジー,インコーポレイテッド Nonlinear associative memory using a linear array of associative memory cells and method of operation thereof
US9418333B2 (en) 2013-06-10 2016-08-16 Samsung Electronics Co., Ltd. Synapse array, pulse shaper circuit and neuromorphic system

Similar Documents

Publication Publication Date Title
CN111433792B (en) Counter-based resistance processing unit of programmable resettable artificial neural network
US6829598B2 (en) Method and apparatus for modeling a neural synapse function by utilizing a single conventional MOSFET
Morie et al. An all-analog expandable neural network LSI with on-chip backpropagation learning
US5336937A (en) Programmable analog synapse and neural networks incorporating same
US5264734A (en) Difference calculating neural network utilizing switched capacitors
US5010512A (en) Neural network having an associative memory that learns by example
US20190279079A1 (en) Neuromorphic system with transposable memory and virtual look-up table
JPH0214389A (en) Semiconductor integrated circuit
US11055610B2 (en) Circuit for CMOS based resistive processing unit
US10818333B2 (en) Circuitry for one-transistor synapse cell and operation method of the same
US5237210A (en) Neural network accomodating parallel synaptic weight adjustments for correlation learning algorithms
US7092923B2 (en) Synapse element with learning function and semiconductor integrated circuit device including the synapse element
US5247206A (en) Neural network accommodating parallel synaptic weight adjustments in a single cycle
Murray Silicon implementations of neural networks
Asai et al. Analog reaction-diffusion chip imitating Belousov-Zhabotinsky reaction with hardware oregonator model
Zhou et al. A 300 MHz MOS-only memristor emulator
JP2003223790A (en) Synapse element and integrated circuit device including the same
CN112420841B (en) Negative differential resistance circuit and neuron transistor structure
US20210232903A1 (en) Spintronic Computing Architecture and Method
Guimaraes et al. Single-electron winner-take-all network
Ghosh et al. OTA-based neural network architectures with on-chip tuning of synapses
Pereira-Rial et al. Design of a 5-bit Signed SRAM-based In-Memory Computing Cell for Deep Learning Models
Gordon et al. Biological learning modeled in an adaptive floating-gate system
US5999643A (en) Switched-current type of hamming neural network system for pattern recognition
US20220366946A1 (en) Semiconductor device performing a multiplication and accumulation operation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041125

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20041125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070904

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080108