JPH09198366A - 低電圧、超低電力コンダクタンスモード・ニューロン - Google Patents

低電圧、超低電力コンダクタンスモード・ニューロン

Info

Publication number
JPH09198366A
JPH09198366A JP8308597A JP30859796A JPH09198366A JP H09198366 A JPH09198366 A JP H09198366A JP 8308597 A JP8308597 A JP 8308597A JP 30859796 A JP30859796 A JP 30859796A JP H09198366 A JPH09198366 A JP H09198366A
Authority
JP
Japan
Prior art keywords
neural network
synapse
neuron
input
transistor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8308597A
Other languages
English (en)
Inventor
Vito Fabbrizio
ヴィート・ファッブリツィオ
Gianluca Colli
ジャンルーカ・コッリ
Alan Kramer
アラン・クラメール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
STMicroelectronics SRL
Original Assignee
SGS Thomson Microelectronics SRL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SGS Thomson Microelectronics SRL filed Critical SGS Thomson Microelectronics SRL
Publication of JPH09198366A publication Critical patent/JPH09198366A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Read Only Memory (AREA)
  • Semiconductor Memories (AREA)

Abstract

(57)【要約】 【課題】 低電圧、超低電力コンダクタンスモード・ニ
ューロンを提供する。 【解決手段】 個々にプログラム可能なコンダクタンス
を有する複数のメモリセル(15,17)と、前記メモ
リセル(15,17)と結合されたニューロン(5)と
を含有するニューラル・ネットワーク(1)であって、
個々の前記メモリセル(15,17)が、それぞれの入
力信号が供給される入力(11,13)を有し、前記ニ
ューロン(5)が、前記メモリセル(15,17)の全
コンダクタンスに基づいて出力信号を発生させるコンダ
クタンス測定手段を有することを特徴とするニューラル
・ネットワーク(1)を提供する。

Description

【発明の詳細な説明】
【発明の属する技術分野】本発明は、低電圧、超低電力
コンダクタンスモード・ニューロンに関する。
【従来の技術】従来、人工知能システムは、複雑な仕事
を実施するニューラル・ネットワークを特徴としてお
り、特にテクスチュア解析、ファクシミリ送信における
カーネル・フィルタリング、自動車軌道システム、パタ
ーン認識、ニューラルCADシステムにおけるハードウ
ェア・シミュレーション、光学的認識応用における前処
理に適用されてきた。ニューラル・ネットワークは、生
物学的構成要素と同じ名称のニューロンで知られる単位
を構成要素としており、ニューロンは重み付き入力の加
法および減法を基礎として、それにより様々な数学的形
式が考案されてきた。本発明ではマッカロック−ピッツ
のモデル(McCulloch−Pitts mode
l)の2進ニューロンを参照する。このモデルによれ
ば、出力は“0”か“1”の2進値をとると仮定され、
しきい値および重みを決定し、不連続時間で作用する。
個々のニューロンは複数のシナプス入力結合と1つの出
力とを有するプロセス要素から成り、入出力信号は一方
向に送信されている。分類では、ニューラル・ネットワ
ーク・パラメータは定数であり、トポロジーおよびニュ
ーラル・ネットワークの重みの情報により開始される認
識および解析を実行する。図1にマッカロックーピッツ
のモデルの概略図を示す。図中x1,x2,…,xiは
入力、w1,w2,…,wiは重み、Oは出力である。
ニューロンはノード定義関数fにより示され、重み付き
入力を代入し、以下の式に従って出力を得る。
【数1】 一般に、関数fは、入力と重みとの積の和をしきい値と
比較し、その結果により出力の2進値を決定する。ニュ
ーラル・ネットワークを実施するため、様々な解法が知
られており、例えば、S.Satyanarayana
et al.の“A Reconfigurable
VLSI Neural Network” IEE
E Journal of Solid−State
Circuits 27:1,Jan.1992、B.
E.Boser et al.の“An Analog
Neural Network Processor
with Programmable Topo1o
gy”IEEE Journal of Solid−
State Circuits 26:12,Dec.
1991、A.Kramer et al.の“EEP
R0M Device As a Reconfigu
rable Ana1og Element for
NeuralNetworks”IEDM,1989,
pp.259−262に記載されている。
【発明が解決しようとする課題】ところが、全ての従来
の解法は、電力消費と正確さとの間のトレードオフで、
広い集積面積を必要とし、設計において複雑である。更
に、従来のものは、高電力を必要とするが高速に設計さ
れた解法(電流モード計算法:currentmode
computation)と、低速の動作であるが低
電力に設計された解法(電荷モード計算法:charg
e mode computation)との間で選択
する必要があった。ニューラル・ネットワーク設計のア
ナログ実施は、ある種の問題に対する標準的なディジタ
ル技術より効果的な計算方法を提供するが、一般に、計
算法の変化により、電流または電荷のどちらかを使用す
ることに基礎をおいている。そこで、本発明の目的は、
コンダクタンスモード計算法の概念を基礎とするアナロ
グ・ニューラル・ネットワーク回路の新しいクラスを提
供することにある。この回路のクラスでは、蓄積される
重み付きの入力はコンダクタンスとして表現され、コン
ダクタンスモード・ニューロンは非線形に適用され出力
する。ニューラル・ネットワークのハードウェア実施に
おいて重要なのは、広範囲の適用に満足する適用性およ
び電力消費について考慮することであり、本発明では、
1つの結合に対して超低電力を消費させ、1つのニュー
ロンに対して多数の結合が可能な回路に重点を置いた。
本発明の他の目的は、コンパクトで低電力であり、高入
力範囲を有するニューラル・ネットワークであって、高
速で動作し、異なる供給電圧(低電圧においても)に対
応し、ディジタル環境にインタフェースする必要がな
く、従って携帯装置で使用可能なニューラル・ネットワ
ークを提供することにある。本発明の前記ならびにその
他の目的と新規な特徴は、本明細書の記述および添付図
面から明らかになるであろう。
【課題を解決するための手段】本願において開示される
発明のうち、代表的なものの概要を簡単に説明すると、
下記のとおりである。すなわち、本発明のニューラル・
ネットワークは、1組の浮遊ゲートトランジスタを基礎
とする簡単な回路によるシナプスを包含したものであ
り、アナログ乗法および重み記憶を低電力消費、高密
度、高い正確さで提供する。このアナログ乗法および重
み記憶は同時に一組のトランジスタの浮遊ゲートで行わ
れる。
【作用】前記した本発明のコンダクタンスモード計算法
の概念を基礎とするアナログ・ニューラル・ネットワー
ク回路によれば、計算を速くすることができ、これらの
原理に基づいた回路は5〜10MHzで計算することが
できる。また、コンダクタンスモード計算法では、2つ
のコンダクタンスを比較するのに最低限の電荷を必要と
するので、そのエネルギー消費はされるべき決定の困難
さに従って正比例する。更に、これらの回路による計算
の正確さは高く、小さなテスト回路の試験では8〜9ビ
ットの本質的な正確さを得た。
【発明の実施の形態】本発明では、アナログ記憶および
アナログ計算のため1組のフラッシュEEPROMを使
用する。基本的に、中心となる計算概念は、プログラム
可能なスイッチトコンダクタンスとして浮遊ゲートを利
用することである。1つのアナログ値を浮遊ゲートのし
きい値として記憶することにより、そして、第2のディ
ジタル値を浮遊ゲートのゲート端子に適用することによ
り、素子のコンダクタンスが0(オフ)または予めプロ
グラムされた値にすることができる。2つのコンダクタ
ンス加法線を含む微分入力法の実行では、重みをコンダ
クタンスの形で記憶する。この重みは“正”か“負”で
ある。そして、コンダクタンス比較ニューロンは“正”
コンダクタンスの合計を“負”コンダクタンスの合計と
比較し、重み入力(コンダクタンス)の合計の極性を決
定する。図3にこのようなニューロン素子の機能を電気
回路により示す。“正”コンダクタンス素子の合計また
は“負”コンダクタンス素子の合計の集合はニューラル
・ネットワークのシナプスを構成する。これらのシナプ
スのコンダクタンスまたは重みはニューロン素子にプロ
グラムされたしきい値電圧(vt)により決定され、こ
のしきい値電圧に制御され得る正確さはシナプス重みの
効果的なビットに均等な正確さを与える。約64mVの
正確さで浮遊ゲートのしきい値をプログラムすることが
できる。この正確さは2V入力駆動に対して5ビット
(32レベル)に相当する。2つの浮遊ゲートの使用は
ビットの符号を重みあたり合計6ビットにするよう加算
する。本発明ではニューロンとして、ニューロンの“活
性化機能”を与えるようコンダクタンス比較器を使用す
る。本発明では2つのコンダクタンスを比較するので、
非常に小さなエネルギーで計算することができ、全電力
消費を少なくする。図4Aではニューロン計算を実施す
る回路を示す。この回路はコンダクタンス比較器であ
り、3つの主要ブロック、すなわちバッファ4と、シナ
プス91と、ニューロン5とを包含する。バッファ4は
シナプス91をニューロン5から非干渉化し、ニューロ
ンは比較を実施する。この回路にその出力をディジタル
化するようラッチ6を含めてもよい。図4Bでは、第1
の興奮(正の重み付き)シナプス2と、第2の抑制(負
の重み付き)シナプス3と、非干渉ステージ(バッフ
ァ)4と、比較ステージ(ニューロン)5と、ラッチ6
とを包含するニューラル・ネットワーク1を示す。シナ
プス2はn個の入力信号x1,x2,…,xnを供給さ
れる複数(n)の入力11と、電流11を通す出力12
とを含み、シナプス3は同じn個の入力信号を供給され
る同数の入力13と、電流12を通す出力14とを含
む。ここで、個々の入力信号は、興奮シナプス2の入力
11と抑制シナプス3の入力13とが並列に供給されて
いる。本実施形態では、シナプス91が正の重み付きシ
ナプス2と負の重み付きシナプス3とで実施されている
が、本発明の要旨を逸脱しないその他の回路設計として
1種類の重み付きシナプスを使用してもよい。比較モー
ドにおいて正と負のシナプスを使用すると確かな利益を
得るが、これが本発明を利用する全ての実施形態で要求
されるものではない。シナプス2は、入力11と同数の
メモリセル15を構成する複数のシナプス重み付き要素
(ここではフラッシュEEPROM)を含む。詳述する
と、個々のセル15はアースされたソース端子と、対応
する入力11に接続されたゲート端子と、他のセル15
のドレイン端子に接続されたドレイン端子と、出力12
を有する。同様に、シナプス3はセル15と同数のメモ
リセル17を構成する複数のシナプス重み付き要素を含
み、個々のセル17はアースされたソース端子と、対応
する入力13に接続されたゲート端子と、他のセル17
のドレイン端子に接続されたドレイン端子と、出力14
を有する。セル15および17に使用されるフラッシュ
EEPROMは本発明の実施形態の一つである。効果的
な長時間アナログ記憶のための浮遊ゲート技術の使用は
従来、特にニューラル・ネットワーク実施において良く
知られており、例えば、A.Kramer et a
l.の“Flash−based Programma
ble Nonlinear Capacitor f
or Switch Capacitor Imple
mentations for Neural Net
work”IEDM,1993,pp.17.6.1−
17.6.4を参照されたい。しかし、その他の可能な
メモリセル、例えば、EEPROM)ダイナミック浮遊
ゲート素子、固定非浮遊ゲート素子、またはコンダクタ
ンスを発生させるのに適した他の種のプログラム可能な
要素は他の実施形態で使用される。本発明を基礎とする
概念の一つに、計算を実施するための、そして、アナロ
グ値のコンダクタンス信号を通信に適した2進値の出力
信号に変換するためのコンダクタンス加法の利用があ
る。非干渉ステージすなわちバッファ4は、第1のダイ
オード接続NチャネルMOSトランジスタ20と、第2
および第3のNチャネルMOSトランジスタ21,22
とを含む。詳述すると、第1トランジスタ20は、電流
Ibを発生する電流源26を介して供給電圧VDDの供
給線25に接続されたドレイン端子と、それ自身のドレ
イン端子およびトランジスタ21,22のゲート端子に
接続されたゲート端子(ノードA)と、アースされたソ
ース端子とを有する。第2のトランジスタ21は、シナ
プス2の出力12に接続されたソース端子と、バッファ
4の第1の出力27を定義するドレイン端子とを有す
る。第3のトランジスタ22は、シナプス3の出力14
に接続されたソース端子と、バッファ4の第2の出力2
8を定義するドレイン端子とを有する。リセットトラン
ジスタ(図ではスイッチ29で示す)はトランジスタ2
0のゲート端子とソース端子との間に位置しており、制
御入力29aの役割を果たしている。この入力29a
(電圧VR)の制御信号により、スイッチ29はトラン
ジスタ20〜22のゲート端子をアースし、従って、ネ
ットワーク1が使用されていない時、メモリセル15,
17のドレイン端子をアースし、メモリセルを通る電流
を切ることができる。ニューロン5は、正および負の重
みに分離されたシナプス2および3の間の差を検知する
コンダクタンス比較器を含む。このコンダクタンスモー
ド・ニューロンは、大規模なアレイを基礎とするアナロ
グ・ニューラル・ネットワークの実施に適するブロック
であり、アナログおよびディジタル部分回路の混合(混
合モード)を用いて設計された。ニューロン回路は、そ
のデータ入出力はディジタルであるが、内部のシリコン
領域および電力消費を減らすようアナログ重みおよびア
ナログ計算を使用する。ディジタルI/O信号の使用に
よりシステムレベルでの集積を格段に簡略化した。本発
明の1つの実施形態ではI/Oはディジタルであるが、
変形例としてアナログI/Oを使用してもよい。ニュー
ロン5は、それぞれがバッファ4の出力27,28に接
続され、それぞれに互いに接続されている対称な第1お
よび第2の部分31,32を含む。部分31は3つのP
チャネルMOSトランジスタ33〜35を含み、その全
てのソース端子は供給線25に接続され、それぞれのゲ
ート端子は互いに接続されている。ダイオード接続トラ
ンジスタ33はトランジスタ34,35とカレントミラ
ー回路を形成し、そのドレイン端子はノード36に接続
され、バッファ4の出力27に接続されている。トラン
ジスタ34のドレイン端子は部分32のノード37に接
続され、トランジスタ35のドレイン端子はニューロン
5の出力38を形成し、ラッチ6に接続されている。同
様に、部分32は3つのPチャネルMOSトランジスタ
43〜45を含み、その全てのソース端子は供給線25
に接続され、それぞれのゲート端子は互いに接続されて
いる。ダイオード接続トランジスタ43はトランジスタ
44,45とカレントミラー回路を形成し、そのドレイ
ン端子はノード36に接続され、バッファ4の出力28
に接続されている。トランジスタ44のドレイン端子は
部分31のノード36に接続され、トランジスタ45の
ドレイン端子はニューロン5の出力39を形成し、ラッ
チ6に接続されている。リセットトランジスタ(図では
スイッチ40,41で示す)はそれぞれ供給線25とト
ランジスタ33〜35およびトランジスタ43〜45の
ゲート端子との間に位置しており、制御入力40a,4
1aの役割を果たしている。この入力40a,41a
(電圧VR)の制御信号により、スイッチ40,41は
それぞれトランジスタ33〜35およびトランジスタ4
3〜45のゲート端子を供給電圧にショートし、従っ
て、ネットワーク1が使用されていない時、トランジス
タを切ることができる。ラッチ6は3つのNチャネルM
OSトランジスタ47〜49を含む従来型のものであ
る。詳述すると、トランジスタ47のソースおよびドレ
イン端子はそれぞれニューロン5の出力38,39に接
続され、ゲート端子はイネーブル信号ENを供給する制
御入力50を形成する。トランジスタ48のドレイン端
子はニューロン5の出力38に接続され、ゲート端子は
ニューロン5の出力39に接続され、ソース端子はアー
スされている。トランジスタ49のドレイン端子はニュ
ーロン5の出力39に接続され、ゲート端子はニューロ
ン5の出力38に接続され、ソース端子はアースされて
いる。個々のシナプスは浮遊ゲート素子により実施され
るコンダクタンス要素である。ここではバッファに対す
るいくつかの設計上の制限を挙げる。第1に、プログラ
ムの妨げを最小にするため、シナプスの浮遊ゲート素子
のドレイン電圧をできるだけ低く(<100mV)維持
することが重要である。第2に、本発明は多数のシナプ
スを使用するものであり、それぞれが2程度の内部ドレ
イン電気容量を有するので、大きな電位差で実施しよう
とすると、シナプスのドレイン端子の反応は遅くなる。
広範囲の出力電圧で高速のニューロンを有するには、シ
ナプスのドレインノードをニューロンから非干渉化する
必要がある。シナプス2または3のメモリセル15また
は17の場合、シナプスの数は1〜1000まで可能で
ある。本発明の目的は、1〜1000個のシナプスの共
通モード範囲の問題を解決し、低電力消費、小さなシリ
コン領域、および高い正確さを保証することにある。ネ
ットワーク1のシナプス2,3のメモリセル15,17
は、重みw1に従ってプログラムされるか、または、個
々の入力電圧値に対して所定のコンダクタンスを与える
よう、異なるしきい値レベルにプログラムされてもよ
い。最も簡単な場合、メモリセルは2つの2進数(それ
ぞれ入力11,13で所定の入力電圧に対してオンかオ
フか)を定義するようプログラムされ、入力電圧(入力
信号x1,…,xn)が所定の数の不連続値(例えば4
つ)であってもよい。変形例として、メモリセルは複数
のしきい値を与えるようプログラムされ、入力電圧が、
データ入力信号によりセルの導電率を実際に評価するよ
う所定の範囲内を連続的に変化してもよい。その結果、
入力信号x1,…,xnが入力11,13に供給される
と、個々のメモリセル15,17を通る電流はセルのコ
ンダクタンスに関係し、個々のノード12,14を通る
電流11,12はそれぞれのシナプス2,3の全てのセ
ルの電流の和に等しく、また、それはシナプスの全コン
ダクタンスに関係する。バッファ4は非干渉化のために
備えられ、特に、ニューロンがセル15,17の全電気
容量ではなく、トランジスタ21,22の電気容量(ト
ランジスタ21,22のドレイン端子とゲート端子との
間の電気容量およびドレイン端子とソース端子との間の
電気容量)のみを検知するよう保証するために備えられ
ている。供給され得るセル15,17の個数が多量(ニ
ューロンあたり1000個のシナプス重み付き要素の
数)であることから、その全電気容量は極めて高くなり
得るからである。後により詳細に説明するように、この
ことはネットワーク1が格段に速く評価する役割を果た
している。計算時に電力消費を少なくするには、シナプ
スを実行する全ての装置をトリオード両域で動作させる
とよい。しかし、このことはいつも要求されることでは
ない。本発明では、バッファ4はシナプス2,3の出力
12,14で低い電圧を維持するよう設けられ、メモリ
セル15,17がトリオード領域で作動し、ネットワー
ク1も低供給電圧、低電力で作動する。バッファ4の作
用を興奮シナプス2を参照して数学的に説明するが、同
じことが抑制シナプス3にも適用できる。MOSトラン
ジスタのソース端子とゲート端子との間の電位差は、し
きい値電圧(トランジスタがオンされたときの最低電
圧)と過電圧(しきい値を越えた電圧)との和に等しい
ので、次の式がトランジスタ20に当てはまる。
【数2】 ここで、VAはノードAとグラウンドとの間の電位差、
VGS,20,VOV,20,Vth,20はそれぞれ
トランジスタ20のゲート端子とソース端子との間の電
位差、過電圧、しきい値電圧である。更に、VBを出力
12とグラウンドとの間の電位差(セル15のドレイン
端子とソース端子との間の電位差)とすると、
【数3】 ここで、VGS,21,VOV,21,Vth,21は
それぞれトランジスタ21のゲート端子とソース端子と
の間の電位差、過電圧、しきい値電圧である。同じ技術
を使用して製造されたトランジスタはほぼ同じしきい値
電圧、すなわち、Vth,20≒Vth,21であるの
で、(1)を(2)に代入し、簡単な計算により、
【数4】 トランジスタ21はトランジスタ20と比較して無視で
きる大きさの過電圧を有しているとしてもよいので、
(3)は、
【数5】 すなわち、セル15のドレイン端子とソース端子との間
の電位差は、トランジスタ20の過電圧に等しい。通常
領域で作動するトランジスタ20に関して、次の式が当
てはまる。
【数6】 ここで、Ibはトランジスタ20を通る電流であり、電
流源26により発生する電流に等しく、Kは比例定数で
ある。(4)を(5)に代入し、簡単な計算により、
【数7】 従って、電流源26の大きさを適切に測ることにより、
セル15(そして17)のドレイン端子とソース端子と
の間の電位差は予め決定され、特にセル15のゲート端
子とソース端子との間の電位差より小さくされる。ニュ
ーロン5は、シナプス素子に由来する2つの異なるコン
ダクタンスを比較する回路を検知するコンダクタンスで
ある。ニューロン5により、興奮シナプスからの電流1
1と抑制シナプスからの電流12とを比較することがで
き、更にラッチ6が加わることで、出力O(ノード3
9)でディジタル信号を発生することができ、そのディ
ジタル信号の値は2つの電流のうちどちらが大きいかを
示している。詳述すると、ニューロン5はフィードバッ
ク電流センサとして機能し、回路がオンされるとトラン
ジェント状態が観察され、その状態の終わりにシナプス
に接続されている部分31または32のどちらかに全て
の電流がより大きな出力電流を伴って流れ、他の部分は
実質的にオフにされる。ニューロン5の機能を説明する
と、電流11および12が共通の量Icで表され、微分
量ΔIだけ異なると仮定する。例えば、興奮シナプス2
が電流11=Ic+ΔIを、抑制シナプス3が電流12
=Icを発生すると仮定する。リセット信号VRをスイ
ッチしてバッファ4とニューロン5をショートさせた状
態にすると、セル15,17は電流を通し、電流11お
よび12は部分31,32をオンするよう流れる。とこ
ろが、このトランジェント状態において、2つの部分の
カレントミラー回路は同じ速さでオンされず、低い電気
容量線に接続されたミラー回路(低いコンダクタンスで
大きい電流)の方が速くオンされ、問題となっている例
では、部分31のトランジスタ33および34の方が部
分32のトランジスタ43および44よりも速くオンさ
れ、電流がより速くノード37に供給される。詳述する
と、トランジスタ33(従ってトランジスタ34)は電
流I1=Ic+ΔIを通す。ところが、ノード37から
は電流12=Icしか要求されないので、トランジスタ
34により供給された過剰な電流がトランジスタ43に
流れ、このような状態を維持することができず、電流は
消滅し、同時にノード37の電圧が供給電圧VDDに上
昇する。一方、トランジスタ44がオンされると、電流
がノード36に供給され、トランジスタ33を通る電流
が減少し、トランジスタ34によりノード37に供給さ
れた電流に小さな変化が生じる。部分31および32が
互いに接続されているので、ある種のフィードバックが
それらの間で起こり、大きな電流の通るシナプスに接続
された部分(この場合、部分31)がシナプス2,3に
必要な全電流を実質的に供給し、他の部分(この場合、
部分32)は実質的にオフにされる。従って、問題とな
っている例では、このトランジェント状態の終わりに、
実質的に全ての電流Ic+ΔIが部分31に流れ、無視
できる大きさの電流が部分32に流れる。ニューロンに
クロスミラーおよび正のフィードバックを使用すること
により、本発明は共通モード電流を消去することがで
き、最低コンダクタンスでシナプス線を区別することが
できる。このことは回路が広範囲の入力電流に渡って高
い正確さを得る役割を果たしている。回路の速度は全電
流と共に変化する。従って、速度性能を最適化し、出力
をディジタル化するため、本発明では標準的なラッチ6
を使用する。図7のグラフは、本出願人によるシミュレ
ーションテストで得られたトランジスタ33,34,4
3,44を通る電流を示し、スイッチ29,40,41
の入力でリセット信号VRをスイッチし、ラッチ(EN
信号)をイネーブルしている。図からわかるように、ト
ランジェント状態の終わりに電流133はIc+ΔI
に、電流134はIcに、電流143および144はO
にそれぞれ等しくなる。また、図6のグラフは出力電圧
Oおよびノード38での電圧(V38)を示す。小さな
電流の通るシナプスに接続された部分(部分32)のオ
フ状態は対応する出力ノード(39)を供給電圧から絶
縁し、一方、大きな電流の通るシナプスに接続された部
分(部分31)の高いコンダクタンス状態は対応する出
力ノード(38)を供給電圧VDDにラッチする。その
結果、例に示されるとおり、EN信号をロウにスイッチ
しトランジスタ47のショートをオフにした状態で、オ
ンにされた部分31に接続されたゲート端子を有するト
ランジスタ49はオンにされ、出力Oをアースする。そ
して他のトランジスタ48はオフを維持する。反対に、
抑制シナプス3が興奮シナプス2より低いコンダクタン
ス(大きい電流)である場合、部分32とトランジスタ
48はオンにされ、部分31とトランジスタ49はオフ
にされ、出力Oはハイになりトランジスタ45を介して
供給電圧Vにラッチする。図8はニューロン実行のテス
ト構造を示す。このテスト構造はニューロンに接続され
た2組のトランジスタを含む。1組のトランジスタは非
常に大きく(B=800μm/2μm)、正および負の
シナプスに共通モード信号を送る。他の組のトランジス
タは最小フラッシュ素子のように小さく(S=0.8μ
m/2μm)、変化する入力信号を送る。2つの大きい
“共通モード”トランジスタ間のオフセット補正の後、
共通モード電圧が両組のトランジスタに供給され、小さ
いトランジスタの組を介して出力を制御するのに必要な
最小入力信号が測定される。1000サイクルに対す
る、入力により正確に制御される出力の回数のパーセン
トを求めることを主旨とする測定が行われ、“0011
00…”入力パターンを使用した。最大共通モード電圧
(Vcommon)を0.9V(Vtは約100〜20
0mV)に固定して、出力を2つの“小さな”トランジ
スタ間の入力電位差(Vinput)の関数として測定
し、その統計を取る。図10によれば、正確さはVin
put=120mVから減少する。この測定と正確さと
の一致は装置の正確なしきい値電圧に依存し、vtが
0.7Vと0.8Vとの間を変化するプロセスの場合、
悪くとも8ビット、良くて9ビットの正確さを得る。こ
の解析は製造困難の後、正確な特性にされたドロントラ
ンジスタ次元に基づく。図9では他のテスト構造が実施
され、ニューロン比較器の計算の正確さを評価してい
る。このテスト構造は、シフトレジスタにより制御され
る入力を有する共通モード入力のための複数の1kフラ
ッシュ素子(0.8μm/2μm)と、ラッチにより制
御される入力を有する微分入力のための32個のフラッ
シュ素子とを含む。テスト構造はまたフラッシュ素子の
ためのプログラムおよび消去ドライバを含む。全ての1
kフラッシュ素子は共通モード信号を正および負シナプ
スに送り、16個の補正フラッシュ素子はプログラムエ
ラーを補正し、残りの16個の入力フラッシュ素子は入
力信号を適用して全正確さを測定する。全てのフラッシ
ュ素子がVt=2.5Vにプログラムされると、シフト
レジスタは“1”で満たされる。ゲート電圧は全てのフ
ラッシュ素子をVt+LTBに固定する。Vt+LTB
をフラッシュ素子に適用するということは共通モード信
号を正および負のシナプスに送ることである(前述のテ
スト構造の大きいトランジスタによりなされたよう
に)。比較の後、一連の“001100…”が1から1
6個の入力に適用され1,000,000サイクルに対
する正確な出力をテストする。図11では正確な出力の
パーセントを、適用された入力の数(1〜16)の関数
で示した。入力数が増加すると、正確な出力パーセント
も増加し、LSB=32mVで入力数が6の時100%
に接近することが明らかである。これは7ビットの正確
さに相当する。図13では正確さをLSB電圧の関数で
示し、LSBが128mVに増加すると、1ビットの正
確さが減少する。回路の効果的な正確さは共通モード信
号に依存する。図12は0.5kフラッシュ素子(減少
された共通モード)を使用した同様のテストを示すもの
である。この場合100%電流出力に必要な入力は2個
であり、効果的な正確さは8ビット付近である。図14
はニューロン機能の10MHzクロックでの測定を示す
ものである。制限は最高速度10MHzを有する個々の
PADドライバに起因する。シミュレーションではニュ
ーロン計算のピーク速度は30MHzである。図15は
1回の計算あたりのニューロンの電力消費を示す。電力
消費は5Vの電源および1.7MHzの周波数で166
pJに等しい。これは入力乗法アキュムレート作動(1
k入力)あたり166pJに相当する。以上、本発明者
によってなされた発明を実施形態に基づき具体的に説明
し、例示したが、本発明は前記実施形態に限定されるも
のではなく、その要旨を逸脱しない範囲で、種々変更可
能であることはいうまでもない。
【発明の効果】本出願において開示される発明のうち、
代表的なものによって得られる効果を簡単に説明すれ
ば、下記の通りである。すなわち、プログラムレベルに
より変化するコンダクタンスを有するメモリセルを使用
したシナプスを実施することにより、シナプスは低い出
力電圧(ノード12,14)になるようバイアスされ、
ネットワーク1を低電圧状態、従って、携帯装置および
システムにおいて使用することができる。更に、シナプ
スの小さな電流での作動は(1000個の入力の場合、
100pJ)ネットワーク全体の低電力作動を可能に
し、従って、電圧および電力が制限されるものに応用さ
れる。セル15,17のドレイン端子での電圧の減少
は、セルでのソフト書込を防止または最低限にし、ネッ
トワークの高い信頼性を保証した。低電圧とバッファ4
によるシナプスとニューロンの非干渉化の利益により、
ネットワークの高速評価(30Hzまで)が可能になっ
た。説明したとおり、ニューロンをフィードバック・コ
ンダクタンス比較器として形成することにより、慎重な
コンダクタンスの比較、すなわちシナプスの微少に異な
るコンダクタンスさえも比較することが可能になった。
特に、オフバランス・ニューロン5そしてラッチ6に使
用された2つのコンダクタンスの微少値により、コンダ
クタンス自身の大きさに比べてほんのわずかな差(1:
1000の比)のコンダクタンスさえも比較することが
可能となった。また、本発明によるネットワークは広い
入力範囲を与え、10ビットまで区別することができ、
0.7μmCMOS技術を使用して小さな集積面積(2
00×32μm)にすることができ、容易に集積できる
簡単な構造を有し、ディジタル環境にインタフェースす
る必要がない。更に、本発明は次の利点を有する。開示
されたコンダクタンスモード計算法は、ニューロン決定
するよう加法ノードで最小電流パルスを生じる。更に、
この最小電流パルスおよび高速計算時間により低電力で
作動する。本発明による計算の解は高い正確さを有し、
特に得られた解は9ビットの本質的な正確さおよび7〜
8ビットの測定された正確さを有する。
【図面の簡単な説明】
【図1】マッカロック−ピッツのモデルによるニューロ
ンの概略図である。
【図2】プログラム可能なスイッチトコンダクタンスと
してのフラッシュ素子機能の理想的な図式概念図であ
る。
【図3】ニューロン機能の電機回路図である。
【図4A】本発明によるニューラル・ネットワークのブ
ロック図である。
【図4B】本発明によるニューラル・ネットワークの全
回路図である。
【図5】リセット信号VRおよびラッチ(EN信号)の
経時的変化を示すグラフである。
【図6】出力電圧Oおよびノード18での電圧(V3
8)の経時的変化を示すグラフである。
【図7】トランジスタ33,34,43,44を通る電
流I33,I34,I43,I44の経時的変化を示す
グラフである。
【図8】1つのテスト構造を示す図である。
【図9】他の1つのテスト構造を示すブロック図であ
る。
【図10】1つのテスト構造の本質的な正確さのグラフ
である。
【図11】共通モードの1kフラッシュ素子を使用した
正確さのグラフである。
【図12】共通モードの0.5kフラッシュ素子を使用
した正確さのグラフである。
【図13】共通モードの1kフラッシュ素子を使用した
LSBに対する正確さのグラフである。
【図14】ニューロン機能の10MHzクロック図であ
る。
【図15】5Vの電源で9kΩの集積された抵抗に電流
を通した電力消費測定図である。
【符号の説明】 1 ニューラル・ネットワーク 2 興奮シナプス 3 抑制シナプス 4 バッファ 5 ニューロン 11,13 入力 15,17 メモリセル 91 シナプス
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ジャンルーカ・コッリ イタリア国、27039 サンナッツァーロ・ デ・ブルゴンディ、ヴィア・カヴァリエー ル・ポローネ、10 (72)発明者 アラン・クラメール イタリア国、20052 モンツァ、ヴィア・ レオンカヴァーロ、54

Claims (16)

    【特許請求の範囲】
  1. 【請求項1】 個々にプログラム可能なコンダクタンス
    を有する複数のシナプス重み付き要素と、 前記シナプス重み付き要素と結合されたニューロン・ス
    テージとを含有するニューラル・ネットワークであっ
    て、個々の前記シナプス重み付き要素が、それぞれの入
    力信号が供給されるシナプス入力接続を有し、前記ニュ
    ーロン・ステージが、前記シナプス重み付き要素の全コ
    ンダクタンスに基づいて出力信号を発生させるコンダク
    タンス測定手段を有することを特徴とするニューラル・
    ネットワーク。
  2. 【請求項2】 請求項1記載のニューラル・ネットワー
    クであって、 前記シナプス重み付き要素は、興奮シナプス重み付き要
    素と抑制シナプス重み付き要素を有し、前記コンダクタ
    ンス測定手段は、前記抑制シナプス重み付き要素と前記
    興奮シナプス重み付き要素のコンダクタンスを比較し、
    前記比較の結果に基づいて出力信号を発生させる比較手
    段を有することを特徴とするニューラル・ネットワー
    ク。
  3. 【請求項3】 請求項2記載のニューラル・ネットワー
    クであって、 前記各シナプス重み付き要素は出力端子を個々に有し、
    前記興奮シナプス重み付き要素の前記出力端子はすべて
    互いに接続されていると共に前記ニューロン・ステージ
    の第1入力と接続されており、前記抑制シナプス重み付
    き要素の出力端子はすべて互いに接続されていると共に
    前記ニューロン・ステージの第2入力と接続されてお
    り、さらに、前記ニューロン・ステージの前記比較手段
    は、前記ニューロン・ステージの前記第1および第2入
    力におけるコンダクタンスを比較することを特徴とする
    ニューラル・ネットワーク。
  4. 【請求項4】 請求項2記載のニューラル・ネットワー
    クであって、 前記シナプス重み付き要素はメモリセルを有することを
    特徴とするニューラル・ネットワーク。
  5. 【請求項5】 請求項4記載のニューラル・ネットワー
    クであって、 興奮シナプス重み付き要素の数と抑制シナプス重み付き
    要素の数が入力信号の数と等しく、前記メモリセルは第
    1および第2端子と制御端子を有し、前記メモリセルの
    前記第1端子は第1基準電位ラインに接続され、興奮シ
    ナプス重み付き要素を形成する前記セルの第2端子は互
    いに接続されると共に前記ニューロン・ステージの前記
    第1入力に接続され、抑制シナプス重み付き要素を形成
    する前記セルの前記第2端子は互いに接続されると共に
    前記ニューロン・ステージの前記第2入力に接続され、
    さらに、前記各入力信号は、興奮シナプス重み付き要素
    を形成するメモリセルの制御端子と抑制シナプス重み付
    き要素を形成するメモリセルの制御端子に並列に供給さ
    れることを特徴とするニューラル・ネットワーク。
  6. 【請求項6】 請求項4記載のニューラル・ネットワー
    クであって、 前記メモリセルは、フラッシュEEPROMであること
    を特徴とするニューラル・ネットワーク。
  7. 【請求項7】 請求項1記載のニューラル・ネットワー
    クであって、 前記シナプス重み付き要素と前記ニューロン・ステージ
    との間に非干渉ステージをさらに有することを特徴とす
    るニューラル・ネットワーク。
  8. 【請求項8】 請求項7記載のニューラル・ネットワー
    クであって、 前記非干渉ステージは、前記シナプス重み付き要素の前
    記出力端子のための低電圧バイアス手段を有することを
    特徴とするニューラル・ネットワーク。
  9. 【請求項9】 請求項8記載のニューラル・ネットワー
    クであって、 前記低電圧バイアス手段は、前記メモリセルを線形領域
    にて動作させることを特徴とするニューラル・ネットワ
    ーク。
  10. 【請求項10】 請求項8記載のニューラル・ネットワ
    ークであって、 前記バイアス手段は、第1および第2基準電位ラインの
    間に接続されてバイアスノードを画定するダイオード要
    素と、第1および第2端子と制御端子を有する第1およ
    び第2トランジスタとを有し、前記第1トランジスタの
    前記第1端子は前記興奮シナプス重み付き要素の前記出
    力端子と接続され、前記第2トランジスタの前記第1端
    子は前記抑制シナプス重み付き要素の前記出力端子と接
    続され、前記第1トランジスタの前記第2端子は前記ニ
    ューロン・ステージの前記第1入力に接続され、前記第
    2トランジスタの前記第2端子は前記ニューロン・ステ
    ージの前記第2入力に接続され、さらに、前記第1およ
    び第2トランジスタの前記制御端子は前記バイアスノー
    ドに接続されることを特徴とするニューラル・ネットワ
    ーク。
  11. 【請求項11】 請求項9記載のニューラル・ネットワ
    ークであって、 前記第1および第2トランジスタと前記ダイオード要素
    はMOSトランジスタを有することを特徴とするニュー
    ラル・ネットワーク。
  12. 【請求項12】 請求項1記載のニューラル・ネットワ
    ークであって、 前記ニューロン・ステージは、前記ニューロン・ステー
    ジの前記第1入力に接続された第1部分と、前記ニュー
    ロン・ステージの前記第2入力に接続された第2部分と
    を有し、前記第1および第2部分は、前記第2および第
    1入力とそれぞれ接続された第1および第2フィードバ
    ックノードをそれぞれ画定するカレントミラー回路をそ
    れぞれ有することを特徴とするニューラル・ネットワー
    ク。
  13. 【請求項13】 請求項12記載のニューラル・ネット
    ワークであって、 前記部分は、第3、第4および第5トランジスタを有
    し、前記第1および第2部分の前記第3トランジスタは
    ダイオード接続されると共に前記ニューロン・ステージ
    の前記第1および第2入力にそれぞれ接続されており、
    前記第4トランジスタは前記第3トランジスタにカレン
    トミラー回路接続されると共に前記第1および第2フィ
    ードバックノードをそれぞれ画定し、さらに、前記第5
    トランジスタは前記第3トランジスタにカレントミラー
    回路接続されると共に第1および第2出力ノードをそれ
    ぞれ画定することを特徴とするニューラル・ネットワー
    ク。
  14. 【請求項14】 請求項13記載のニューラル・ネット
    ワークであって、 前記ニューロン・ステージの前記第1および第2出力ノ
    ードとそれぞれ接続された第1および第2入力を有する
    と共に、前記ニューラル・ネットワークの前記出力を画
    定するラッチステージをさらに含むことを特徴とするニ
    ューラル・ネットワーク。
  15. 【請求項15】 請求項2記載のニューラル・ネットワ
    ークであって、 前記比較手段は、前記興奮シナプス重み付き要素と接続
    された第1入力を有する第1部分と、前記抑制シナプス
    重み付き要素と接続された第2入力を有する第2部分と
    を有し、前記第1部分および前記第2部分は互いの部分
    に対する正のフィードバックを形成するように互いに結
    合させるため、前記比較手段は、初期入力電流が大きい
    場合には第1部分または第2部分をオンにさせることに
    より、また、初期入力電流が小さい場合には他の部分を
    オフにさせることにより前記興奮シナプス重み付き要素
    のコンダクタンスを前記抑制シナプス重み付き要素のコ
    ンダクタンスと比較し、それにより、何れの部分がオン
    となっているかに従って前記ディジタル出力信号を出力
    することを特徴とするニューラル・ネットワーク。
  16. 【請求項16】 請求項15記載のニューラル・ネット
    ワークであって、 前記第1および第2部分はカレントミラー回路を有する
    ため、初期入力電流の大きい部分は前記興奮シナプス重
    み付き要素および前記抑制シナプス重み付き要素の両方
    に対するすべての電流を供給することを特徴とするニュ
    ーラル・ネットワーク。
JP8308597A 1995-10-13 1996-10-14 低電圧、超低電力コンダクタンスモード・ニューロン Pending JPH09198366A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP95830433A EP0768610B1 (en) 1995-10-13 1995-10-13 Low-voltage, very-low-power neural network
IT95830433.9 1995-10-13

Publications (1)

Publication Number Publication Date
JPH09198366A true JPH09198366A (ja) 1997-07-31

Family

ID=8222032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8308597A Pending JPH09198366A (ja) 1995-10-13 1996-10-14 低電圧、超低電力コンダクタンスモード・ニューロン

Country Status (4)

Country Link
US (3) US6032140A (ja)
EP (1) EP0768610B1 (ja)
JP (1) JPH09198366A (ja)
DE (1) DE69518326T2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999021105A1 (en) * 1997-10-20 1999-04-29 Microsoft Corporation Automatically recognizing the discourse structure of a body of text
WO2013111973A1 (ko) * 2012-01-27 2013-08-01 한국과학기술원 시각신경 회로장치, 시각신경 회로장치를 이용한 시각신경 모방시스템 및 객체탐색 시스템
JP2019053563A (ja) * 2017-09-15 2019-04-04 株式会社東芝 演算装置

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69518326T2 (de) * 1995-10-13 2001-01-18 St Microelectronics Srl Niederspannungsneuronalnetzwerk mit sehr niedrigem Leistungsverbrauch
ITMI990737A1 (it) * 1999-04-09 2000-10-09 St Microelectronics Srl Procedimento per aumentare la precisione equivalente di calcolo in una memoria associativa analogica
US6580296B1 (en) 2000-09-22 2003-06-17 Rn2R, L.L.C. Low power differential conductance-based logic gate and method of operation thereof
WO2002069497A2 (en) * 2001-02-27 2002-09-06 Broadcom Corporation High speed latch comparators
US6501294B2 (en) 2001-04-26 2002-12-31 International Business Machines Corporation Neuron circuit
US6583651B1 (en) 2001-12-07 2003-06-24 Stmicroelectronics, Inc. Neural network output sensing and decision circuit and method
US7062476B2 (en) * 2002-06-17 2006-06-13 The Boeing Company Student neural network
US20080196766A1 (en) * 2007-02-21 2008-08-21 Wilber Ross Gandy Breakaway self-sealing safety valve
US9760533B2 (en) 2014-08-14 2017-09-12 The Regents On The University Of Michigan Floating-gate transistor array for performing weighted sum computation
CN105095967B (zh) * 2015-07-16 2018-02-16 清华大学 一种多模态神经形态网络核
WO2017131632A1 (en) 2016-01-26 2017-08-03 Hewlett Packard Enterprise Development Lp Memristive arrays with offset elements
US9966137B2 (en) 2016-08-17 2018-05-08 Samsung Electronics Co., Ltd. Low power analog or multi-level memory for neuromorphic computing
US10483981B2 (en) 2016-12-30 2019-11-19 Microsoft Technology Licensing, Llc Highspeed/low power symbol compare
US11270194B2 (en) 2017-07-26 2022-03-08 International Business Machines Corporation System and method for constructing synaptic weights for artificial neural networks from signed analog conductance-pairs of varying significance
US11074499B2 (en) 2017-11-20 2021-07-27 International Business Machines Corporation Synaptic weight transfer between conductance pairs with polarity inversion for reducing fixed device asymmetries
US11321608B2 (en) 2018-01-19 2022-05-03 International Business Machines Corporation Synapse memory cell driver
US10217512B1 (en) * 2018-05-15 2019-02-26 International Business Machines Corporation Unit cell with floating gate MOSFET for analog memory
US10489483B1 (en) * 2018-09-21 2019-11-26 National Technology & Engineering Solutions Of Sandia, Llc Circuit arrangement and technique for setting matrix values in three-terminal memory cells
EP3654250B1 (en) * 2018-11-13 2023-04-12 IMEC vzw Machine learning accelerator

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5155802A (en) * 1987-12-03 1992-10-13 Trustees Of The Univ. Of Penna. General purpose neural computer
JP2595051B2 (ja) * 1988-07-01 1997-03-26 株式会社日立製作所 半導体集積回路
JP2823229B2 (ja) * 1989-04-05 1998-11-11 株式会社東芝 電子回路、差動増幅回路、及びアナログ乗算回路
JPH02287670A (ja) * 1989-04-27 1990-11-27 Mitsubishi Electric Corp 半導体神経回路網
US5305250A (en) * 1989-05-05 1994-04-19 Board Of Trustees Operating Michigan State University Analog continuous-time MOS vector multiplier circuit and a programmable MOS realization for feedback neural networks
US4988891A (en) * 1989-05-09 1991-01-29 Mitsubishi Denki Kabushiki Kaisha Semiconductor neural network including photosensitive coupling elements
JPH02310666A (ja) * 1989-05-25 1990-12-26 Mitsubishi Electric Corp 半導体神経回路装置
JP2662559B2 (ja) * 1989-06-02 1997-10-15 直 柴田 半導体装置
US5187680A (en) * 1989-06-15 1993-02-16 General Electric Company Neural net using capacitive structures connecting input lines and differentially sensed output line pairs
US4961002A (en) * 1989-07-13 1990-10-02 Intel Corporation Synapse cell employing dual gate transistor structure
US4956564A (en) * 1989-07-13 1990-09-11 Intel Corporation Adaptive synapse cell providing both excitatory and inhibitory connections in an associative network
US5101361A (en) * 1989-09-29 1992-03-31 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Analog hardware for delta-backpropagation neural networks
JPH0634248B2 (ja) * 1989-12-16 1994-05-02 三菱電機株式会社 半導体神経回路網
JPH0782481B2 (ja) * 1989-12-26 1995-09-06 三菱電機株式会社 半導体神経回路網
US5056037A (en) * 1989-12-28 1991-10-08 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Analog hardware for learning neural networks
US5150450A (en) * 1990-10-01 1992-09-22 The United States Of America As Represented By The Secretary Of The Navy Method and circuits for neuron perturbation in artificial neural network memory modification
US5615305A (en) * 1990-11-08 1997-03-25 Hughes Missile Systems Company Neural processor element
US5146602A (en) * 1990-12-26 1992-09-08 Intel Corporation Method of increasing the accuracy of an analog neural network and the like
US5268320A (en) * 1990-12-26 1993-12-07 Intel Corporation Method of increasing the accuracy of an analog circuit employing floating gate memory devices
IT1244911B (it) * 1991-01-31 1994-09-13 Texas Instruments Italia Spa Architettura per rete neuronica fisicamente inseribile nel processo di apprendimento.
IT1244910B (it) * 1991-01-31 1994-09-13 Texas Instruments Italia Spa Cella convertitrice tensione-corrente, regolabile, realizzata mediante uno stadio differenziale, a transistori mos. in particolare per formare sinapsi di reti neuroniche e combinazione di tali celle per formare il corredo di sinapsi di un nucleo neuronico.
US5248956A (en) * 1991-04-05 1993-09-28 Center For Innovative Technology Electronically controllable resistor
US5422982A (en) * 1991-05-02 1995-06-06 Dow Corning Corporation Neural networks containing variable resistors as synapses
US5155377A (en) * 1991-08-20 1992-10-13 Intel Corporation Charge domain differential conductance synapse cell for neural networks
US5302838A (en) * 1992-06-09 1994-04-12 University Of Cincinnati Multi-quantum well injection mode device
US5256911A (en) * 1992-06-10 1993-10-26 Intel Corporation Neural network with multiplexed snyaptic processing
US5343555A (en) * 1992-07-06 1994-08-30 The Regents Of The University Of California Artificial neuron with switched-capacitor synapses using analog storage of synaptic weights
US5298796A (en) * 1992-07-08 1994-03-29 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Nonvolatile programmable neural network synaptic array
US5336937A (en) * 1992-08-28 1994-08-09 State University Of New York Programmable analog synapse and neural networks incorporating same
US5444821A (en) * 1993-11-10 1995-08-22 United Microelectronics Corp. Artificial neuron element with electrically programmable synaptic weight for neural networks
DE69518326T2 (de) * 1995-10-13 2001-01-18 St Microelectronics Srl Niederspannungsneuronalnetzwerk mit sehr niedrigem Leistungsverbrauch

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999021105A1 (en) * 1997-10-20 1999-04-29 Microsoft Corporation Automatically recognizing the discourse structure of a body of text
US6112168A (en) * 1997-10-20 2000-08-29 Microsoft Corporation Automatically recognizing the discourse structure of a body of text
WO2013111973A1 (ko) * 2012-01-27 2013-08-01 한국과학기술원 시각신경 회로장치, 시각신경 회로장치를 이용한 시각신경 모방시스템 및 객체탐색 시스템
US9286566B2 (en) 2012-01-27 2016-03-15 Korea Advanced Institute Of Science And Technology Visual cortical circuit apparatus, visual cortical imitation system and object search system using visual cortical circuit apparatus
US9798971B2 (en) 2012-01-27 2017-10-24 Korea Advanced Institute Of Science And Technology Visual cortical circuit apparatus, visual cortical imitation system and object search system using visual cortical circuit apparatus
JP2019053563A (ja) * 2017-09-15 2019-04-04 株式会社東芝 演算装置

Also Published As

Publication number Publication date
EP0768610B1 (en) 2000-08-09
DE69518326D1 (de) 2000-09-14
USRE41658E1 (en) 2010-09-07
US6032140A (en) 2000-02-29
EP0768610A1 (en) 1997-04-16
US6269352B1 (en) 2001-07-31
DE69518326T2 (de) 2001-01-18

Similar Documents

Publication Publication Date Title
JPH09198366A (ja) 低電圧、超低電力コンダクタンスモード・ニューロン
JP2732826B2 (ja) 不揮発性半導体メモリ装置とそのワードライン駆動方法
Liu et al. A scalable time-based integrate-and-fire neuromorphic core with brain-inspired leak and local lateral inhibition capabilities
KR102542532B1 (ko) 혼합-신호 연산 시스템 및 방법
US11880226B2 (en) Digital backed flash refresh
US8918353B2 (en) Methods and systems for feature extraction
Boahen et al. A heteroassociative memory using current-mode MOS analog VLSI circuits
US11861483B2 (en) Spike neural network circuit including comparator operated by conditional bias current
WO1996030855A1 (fr) Circuit arithmetique a semiconducteurs
US11138500B1 (en) General purpose neural processor
EP3654250B1 (en) Machine learning accelerator
Shah et al. SoC FPAA hardware implementation of a VMM+ WTA embedded learning classifier
US6041321A (en) Electronic device for performing convolution operations
EP0758467B1 (en) Electronic circuits and methods for determination of distances between reference and data points
Zhao et al. Neural network acceleration and voice recognition with a flash-based in-memory computing SoC
Chen et al. A programmable calculation unit employing memcapacitor-based neuromorphic circuit
US6160729A (en) Associative memory and method for the operation thereof
TWI847837B (zh) 處理系統
Fabbrizio et al. Low power, low voltage conductance-mode CMOS analog neuron
US7007255B2 (en) Integrated circuit design using charge pump modeling
Shoemaker et al. A hierarchical clustering network based on a model of olfactory processing
Varshavsky et al. Beta-CMOS artificial neuron and implementability limits
US20240037381A1 (en) Ternary neural network accelerator device and method of operating the same
KR102594829B1 (ko) 안정적인 스파이크 신호를 제공하는 스파이크 레귤레이터를 포함하는 뉴로모픽 회로
US20230147403A1 (en) Hardware-based artificial neural network device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050927

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060228