JPH0620076A - 相関学習アルゴリズムに関わる並列シナプス重み調整に適応する神経回路網 - Google Patents

相関学習アルゴリズムに関わる並列シナプス重み調整に適応する神経回路網

Info

Publication number
JPH0620076A
JPH0620076A JP5075077A JP7507793A JPH0620076A JP H0620076 A JPH0620076 A JP H0620076A JP 5075077 A JP5075077 A JP 5075077A JP 7507793 A JP7507793 A JP 7507793A JP H0620076 A JPH0620076 A JP H0620076A
Authority
JP
Japan
Prior art keywords
floating gate
synapse
learning
input
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5075077A
Other languages
English (en)
Inventor
Hernan A Castro
ハーナン・エイ・カストロ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JPH0620076A publication Critical patent/JPH0620076A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Semiconductor Memories (AREA)

Abstract

(57)【要約】 【目的】 広範囲にわたる学習アルゴリズムにおいて重
み調整を並列して実現する回路に結合するシナプスセル
で相関学習を実行する神経回路網を提供する。 【構成】 その回路はシナプス動作の学習部分を実行
し、セルの接続重みを記憶する共通フローティングゲー
ト部材を共有する一対のフローティングゲートデバイス
を含んでいる。並列重み調整は、新規なデバイアス技法
を利用して、所定数のサイクルの中で実行される。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は人工神経回路網の分野に
関し、特に、複数の異なる神経学習アルゴリズムを実現
する回路及び方法に関する。
【0002】
【従来の技術】人工神経回路網は、音声認識及び画像認
識の分野で単純な計算素子の密な相互接続を介して人間
に類似する性能を実行することを試みる1種の電子回路
である。神経回路網構造と電子回路は回路網中の計算素
子から構成され、それぞれ、現在の我々の生物神経系に
関する理解に基づいている。神経回路網の有望さは、命
令のプログラムを順次実行する従来のノイマン型コンピ
ュータの性能をはるかに越えて、情報を速い計算速度で
並列処理する能力にある。
【0003】一般に、神経回路網は1組の水平線路から
構成されるマトリクスの形態をとり、それらの水平線路
は1組の垂直線路と交差し、垂直線路に結合している。
水平線路の脳の皮質の軸索突起の機能をシミュレート
し、回路網に入力を供給する。垂直線路は樹状突起の機
能をシミュレートする。垂直の樹状突起線の末端は、神
経細胞体として知られている体細胞の機能を模す合計装
置に至る。そのような回路網の例は米国特許第4,95
0,917号、第4,906,865号及び第4,90
1,881号で見られる。
【0004】神経回路網内部においては、生物シナプス
の機能をモデル化するために電子回路を採用する。総じ
て、それらの回路は回路網の水平線路と垂直線路とを抵
抗を伴なって相互接続する。個々のシナプスセルは入力
端子と、合計素子(すなわち、神経細胞体)とを重みを
付けて電気的に接続する。接続の相対的強さは、多くの
場合、訓練又は学習のプロセスの間に変化する。相互接
続の強さをメモリの重みと呼ぶことが多い。
【0005】電子シナプスセルは、接続重みを電荷の形
態で記憶するために開発されたものである。これまでに
研究された様々な電気シナプス回路構成方法の中で、最
も有望であるデザインはフローティングゲートデバイス
を採用している。フローティングゲートデバイスでは、
蓄積されている電荷の値に従って電流の流れを変調す
る。重みを記憶するためにフローティングゲートデバイ
スを採用する半導体シナプスセルの例は米国特許第4,
956,564号及び第4,961,002号に記載さ
れている。
【0006】神経回路網回路の最も興味を引く点の1つ
は、その学習能力である。学習プロセスの間、回路網に
は1組の訓練データ入力が提示される。各組の入力ごと
に回路網の出力を計算し、所望の出力と比較する。次
に、シナプス接続の重みを重み調整アルゴリズムに従っ
て調整する。これまでに多様な学習アルゴリズムが開発
されており、その中で最も一般的なのは「ローカルルー
ル」、すなわち、「外積」重み更新規則を採用するアル
ゴリズムである。その場合、ある特定のシナプスに関わ
る重みの変化(すなわち、符号)は入力の符号と、出力
に関連する何らかの量とに比例する。出力に関連する量
は接続している神経細胞と関連しており、本出願におい
ては、この量を量Ωと呼ぶ。量Ωをどのように解釈する
かは、採用した特定の学習アルゴリズムによって異な
る。ローカルルール級のアルゴリズムには、たとえば、
ヘビアンアルゴリズム,ボルツマンアルゴリズム,ミー
ンフィールドアルゴリズム,デルタルールアルゴリズ
ム,バックプロパゲーションアルゴリズムなどがある。
【0007】従来の神経回路の欠点の1つは、学習能力
をチップに直接に組込むことができないという点であ
る。すなわち、現在の神経回路網回路は学習手続きを回
路網自体と同一のシリコンチップに統合していないので
ある。このような回路では、ホストコンピュータにおけ
るシミュレーションによって重みを確定し、その後、重
みを回路網にダウンロードするのが普通である。学習を
チップ上で直接に実行できるようにした神経回路網を実
現することが好まれない理由の少なくとも1つは、関連
するアルゴリズムが相対的に複雑であり且つ1つの特定
の種類のアルゴリズムに任せないという慎重な方式であ
るということであった。たとえば、従来の研究によっ
て、今日のいくつかのアルゴリズムは最適の学習を実行
させないことが明らかになるかもしれない。
【0008】
【発明が解決しようとする課題】以下の説明からわかる
通り、本発明はいくつかの学習回路と、1クラスの学習
アルゴリズムをアナログ方式で並列して実現するいくつ
かの方法とを開示する。アナログ方式は大半のデジタル
実現形態と比べて、元来、高密度であり、計算速度につ
いてもすぐれている。従って、本発明は、学習モードの
間に高速動作が可能である非常に密な回路網を提供す
る。さらに、学習をチップ自体に組込むことにより、神
経回路網アーキテクチャに本来備わっている並列性のた
めに重み調整プロセスは向上する。そこで、本発明の回
路網は重みをリアルタイムで調整できるという点で真に
適応性に富む回路網なのである。
【0009】
【課題を解決するための手段】本発明は、シナプスセル
において相関学習を実行する神経回路網を対象とする。
本発明の回路網では、複数のシナプスセルは広範囲にわ
たる学習アルゴリズムで重み調整を並列して実現する対
応する複数の半導体回路に結合するか、あるいは、その
ような半導体回路を内部に組込んでいる。それぞれの回
路は関連する1つのシナプスセルに結合している。半導
体回路はシナプス動作のプログラミング部分、すなわ
ち、学習部分を構成し、シナプスセルのその他の部分は
計算素子を形成する。様々な実施例において、それら2
つの部分はセル自体と一体である。
【0010】一実施例では、それぞれの半導体回路は1
つの共通フローティングゲート部材を共有する第1及び
第2のフローティングゲートデバイスを含む。フローテ
ィングゲート部材はシナプスセルの接続重みを電荷の形
で記憶する。フローティングゲートデバイスをプログラ
ム及び消去する手段は、第1及び第2のフローティング
ゲートデバイスの制御ゲートにそれぞれ結合する第1及
び第2の入力線から構成される。学習中、フローティン
グゲート部材は、第1及び第2の入力線がほぼ同じ電位
であるときに限ってプログラム及び消去される。本発明
によれば、重み調節を並列して実現する方法は、所定数
のサイクルの中で並列して重み更新を実行させるデバイ
アス技法を利用することから成る。電荷は、高電圧パル
スの流れを印加することにより、学習回路のフローティ
ングゲート部材に量を定めて供給される。それらのパル
スは、位相に応じて、デバイアスするか又はフローティ
ングゲートデバイスに電界を誘導するように作用する。
別の実施例では、学習回路は学習のために要求されるサ
イクルの数を減らすように設計された追加の制御素子を
含む。
【0011】
【実施例】神経回路網の並列学習をシリコンで実現した
形態を説明する。以下の説明中、本発明を完全に理解さ
せるために、特定の電圧,導電型,構成などの特定の詳
細な事項を数多く挙げるが、本発明を実施するに際して
それらの特定の詳細な事項が不可欠ではないことは当業
者には自明であろう。また、場合によっては、本発明を
無用にわかりにくくするのを避けるために、周知の構造
や回路を詳細に示さない又は説明しないことがある。
【0012】〔4サイクルの神経重み更新〕図1を参照
すると、フローティングゲートデバイス20及び21を
具備する半導体学習回路12の概略図が示されている。
図示する通り、2つのフローティングゲートデバイスは
プログラミングビット線14及び15の間に接続されて
いる。デバイス20の制御ゲートは正プログラミング入
力線17に結合し、デバイス21の制御ゲートは負プロ
グラミング入力線18に結合している。双方のデバイス
20及び21のフローティングゲート部材は一体に(す
なわち、共通して)結合している。図1に示す素子は、
全て、従来の金属酸化物半導体(MOS)プロセスの流
れを使用して製造されれば良い。(尚、図1の概略回路
図は、重み適応の間のフローティングゲートデバイスの
機能を明白にすることを目的として抽象的に描かれたも
のである。)
【0013】共通フローティングゲートにプログラムさ
れる電荷はシナプスの重みを表す。この重みは、図1に
は、個々のシナプスセル10の計算部分に結合するとし
て示されている。以下に短く、さらに詳細に説明する
が、半導体回路12は神経細胞間の相互接続強さを適応
変化させることにより神経回路網における学習機能を実
行する。この相互接続強さはシナプス重みにより表さ
れ、回路12においては、フローティングゲート20及
び21のプログラミングと消去によりシナプス重みを変
化させる。
【0014】通常、フローティングゲートデバイス20
及び21は、ゲートと、ドレイン又は別個の拡散端子の
いずれかとの間に製造された薄い(100オングストロ
ーム程度)酸化物を通した電荷注入を経てプログラムさ
れる。フローティングゲートへのプログラミングを実行
するためには相対的に高い電圧(たとえば、10〜20
ボルト)が要求される。消去中にもそれと同じ高い電圧
が必要である。消去は、通常、フローティングゲートか
ら基板への電荷のファウラー‐ノルトハイムトンネリン
グを経て起こる。通常の条件の下では、デバイス20及
び21を通るときのコンダクタンスは、共通フローティ
ングゲート部材に蓄積されている電荷の量に正比例す
る。フローティングゲート部材は通常は絶縁誘電体層に
よりカプセル封じされているので、この電荷は無期限に
(たとえば、何年も)保持される。
【0015】図1は学習回路12をシナプスセル10の
計算部分とは別の別個の素子として示しているが、数多
くの用途について、回路12は神経回路網の各シナプス
セルの中に組込まれていることは認められる。言いかえ
れば、シナプス機能のプログラミング/学習部分及び計
算部分を、図1に示す基本素子を含む単一のセルの中に
統合するのが好ましい。例を挙げると、神経回路網にお
ける1つの合計線から別の合計線へ電荷を転送すること
によって動作する電子シナプス回路の1種は、本発明の
譲受人に譲渡されている1992年1月6日出願、名称
「Charge Domain Differenti
al Conductance Synapse Ce
ll for Neural Networks」の同
時係属特許出願、第07/812,684号に記載され
ている。上記出願におけるシナプスセルを、それぞれ、
本発明の学習回路と方法を組込むように適応させるのは
容易である。
【0016】図2は、図1の学習回路12の等価の概略
図である。図2の回路12は、2つの制御ゲート17及
び18と、フローティングゲート部材22とを有する単
一の電界効果デバイスとして簡略化した形態で示されて
いることに注意すべきである。図1のプログラミングビ
ット線14及び15は単一のソース/ドレイン線19に
併合して示されている。これは、プログラミング中及び
消去中には、フローティングゲートデバイスのソース線
とドレイン線の双方が共通して同一の電位に結合するた
めである。図1及び図2の回路では、プログラミングに
要求される相対的に高い電圧は正プログラミング入力線
17及び負プログラミング入力線18に沿ってそれぞれ
対応する制御ゲートに結合する。
【0017】セルの計算部分のレイアウトを考慮して又
は試験を目的としてソース線とドレイン線を区別するこ
とが好都合である場合を除いて、ソース線とドレイン線
を図1に示すように別個に維持しておく必要はないこと
がわかる。事実、図2の簡略化した図を2つの制御ゲー
トを有する単一のMOSフローティングゲートデバイス
として製造することができ、その場合、フローティング
ゲート部材をシナプスセルの計算部分へルーティングで
きる。
【0018】回路網の動作の中で学習段階の間には、回
路網に1組の訓練例が提示されるのが普通である。例ご
とに、回路網の出力を所望の出力と比較する。比較後、
回路網の相互接続強さを適正な学習アルゴリズムに従っ
て調整する。本発明に関しては、その調整は神経回路網
アレイの中の各シナプスセルの相互接続強さを変化させ
ることから成る。これを実行するのはプログラミング及
び消去用フローティングゲート部材22である。
【0019】たとえば、図2のソース/ドレイン線19
を接地し且つ入力線17及び18を高い正電位(たとえ
ば、20ボルト)に引上げることにより、図2のデバイ
ス12に電荷をプログラムしても良い。このような条件
の下では、フローティングゲート部材22に電荷を蓄積
し、その蓄積の大きさは高電圧を印加する持続時間と、
その振幅とに比例する。図2の回路と関連するキャパシ
タンスは、入力線17及び18の一方又は双方が相対的
に低い電圧(たとえば、〜10ボルト以下)に引下げら
れた場合に、フローティングゲートデバイス12のプロ
グラミングを実行するのに十分な電界が存在しなくなる
ようなものである。
【0020】消去中にも同じことがいえる。消去中、ソ
ース/ドレイン線19を相対的に高い電圧(たとえば、
20ボルト)に結合し、入力線17及び18を低電圧、
好ましくは接地電位に設定する。その結果、フローティ
ングゲート部材22に存在する電子は基板の中へトンネ
リングする。ところが、入力線のいずれか一方17又は
18の電位が、ソース/ドレイン線19の電位に近いレ
ベルまで上がると、消去は起こらない。すなわち、フロ
ーティングゲート部材22のプログラミング状態に変化
は起こらないのである。そのような条件の下では、デバ
イス12は有効にバイアスを除去されるので、フローテ
ィングゲート部材22に記憶された重みは影響を受けな
い。繰返していえば、入力線17及び18の一方が低電
位であり且つ他方が相対的に高い電位にあるときには、
必ず、デバイス12のプログラミング状態に変化は起こ
らない。本発明による神経回路網は、動作の学習段階の
間、以下にさらに説明する通り、この事実に依存して動
作するのである。
【0021】そこで図3を参照すると、行と列を成すよ
うに配列した複数のシナプスセル25を具備する神経回
路網の一部が示されている。シナプスセル25が入力線
23及び24を介して供給される入力電圧と、セル内部
に記憶されている重みとを乗算することは明白なはずで
ある。この計算の結果を、同じ列の他の全てのシナプス
セル、すなわち、同じ一対の列合計線S1及びS2に沿っ
て結合している他の全てのシナプスセルの結果と合計す
る。尚、図3に示す特定のシナプスセルは、入力線23
及び24におけるパルス電圧遷移に応答して電荷を一方
の合計線から他方の合計線へ移送する種類のものである
ことに注意すべきである。回路網中の列合計線は、アレ
イのその列について入力電圧パターンと、記憶されてい
る重みとの一致が起こる時点を確定する神経合計装置に
結合している。神経合計装置は、通常の演算増幅器から
構成される。例を挙げれば、図3の合計線S1及びS2
その列の一致状態、すなわち、+Ωを指示し、一方、合
計線S1′及びS2′は不一致、すなわち、−Ωを指示し
ている。
【0022】図からわかるように、それぞれのシナプス
セルは、学習アルゴリズムの並列実現のための学習回路
として機能する一対のフローティングゲートデバイス2
0及び21を含む。たとえば、シナプスセル25aはフ
ローティングゲートデバイス20a及び21aを含む。
それらのフローティングゲートは合計線S1 と合計線S
2 との間に結合している。それらは共に1つの共通フロ
ーティングゲート部材を共有する。フローティングゲー
トデバイス20aの制御ゲートはプログラミング入力語
線17に結合し、フローティングゲートデバイス21a
の制御ゲートはプログラミング入力語線18に結合して
いる。神経回路網アレイを通してこのシナプス構造は繰
返し現れる。
【0023】図3に示す電荷結合シナプスセルは、入力
線23及び24のいずれかに沿ってそれぞれのエネルギ
ーパルスを受信しながら少量の電荷を合計線を経て転送
してゆくことにより動作する。言うまでもなく、転送さ
れる電荷パケットの大きさは学習デバイス20及び21
のプログラムされた電圧閾値によって決まる。本発明に
従って特定の入力/出力一致の並列学習をいかにして実
現するかをさらに良く理解するために、次の例を考え
る。
【0024】図3に示す一致条件が存在すると仮定す
る。すなわち、列合計線S1及びS2は一致条件を指示す
るが、列合計線S1′及びS2′は不一致を指示してい
る。学習プロセスの間、各列の合計線は、特定のシナプ
スセルをプログラムすべきか、消去すべきか又はそのシ
ナプスセルに記憶されている重みに対して変化が起こる
べきではないかに従って、非常に高い電圧、低い電圧又
は中間電位のいずれかに設定される。図3の状況の場
合、特定の列の合計線を等しい電位に設定するというこ
とは、ダイオードデバイスが有効に短絡されることを意
味する。すなわち、デバイス20及び21のソース領域
とドレイン領域の電位はほぼ等しい。
【0025】上記の例の説明をさらに続けると、図4
は、図3の神経回路網の第1の学習サイクルを示す。図
4の簡略化した線図の場合、デバイス12a(図3のシ
ナプスセル25aに対応する)は重み増加を目標として
おり、残るデバイス12b〜12dはそのプログラミン
グ閾値を変化させないことになる。デバイス12aをプ
ログラムするときには、共通合計線S1およびS2(図4
の線路19により表されている)を相対的に高い電圧、
たとえば、〜20ボルトに結合する。プログラミング入
力語線17を接地し、プログラミング入力語線18は0
ボルトと、20ボルトとの間で交互に遷移する高電圧パ
ルスの流れを受信する。入力プログラミング線18がロ
ー(たとえば、0ボルト)になるたびに、消去が起こ
る。すなわち、デバイス12aの制御ゲートと基板との
間に高い電界が存在するために、電子はフローティング
ゲートから基板の中へトンネリングする。フローティン
グゲート部材に存在する電荷が減少するので、デバイス
12aのコンダクタンスは増加し、それによって、回路
網の相互接続強さは増す。尚、消去はプログラミング入
力線18が低電位に保持されている間に限って起こる。
【0026】入力線18が高電位へ遷移するたびに、デ
バイス12aは有効にデバイアスされる。すなわち、入
力線18とソース/ドレイン線19が高電圧にあり且つ
入力線17が接地されているときには、フローティング
ゲートが受ける電界は十分に弱められるので、消去(又
はプログラミング)は起こりえなくなる。この条件につ
いては、デバイス12aのプログラミング閾値に変化は
起こらない。このようにして、プログラミング入力の形
態をとる高電圧パルスを印加することにより、電荷を量
を定めてフローティングゲートに供給する。入力線18
に現われている高電圧パルスは神経出力(すなわち、
Ω)とは無関係にすることができる周波数と振幅を有し
ており、そのため、アレイ全体に対して大域信号となり
うる。周波数は、符号とは関係なく、所望の入力信号の
大きさにより変調されるのが好ましい。この場合、プロ
グラミング入力線18は入力線と並列して走っていても
良い。入力信号の符号は入力線17の直流電位を制御す
る。あるいは、プログラミング入力線は入力線に対して
垂直に(たとえば、合計線と並列して)走っていても良
く、その場合には、同じように符号とは無関係に、神経
細胞出力(すなわち、Ω)の大きさにより周波数を変調
するのが好ましい。
【0027】最初の学習サイクルの間には、図示した実
施例の4つのセルの中の唯一のセルの重みを変化させる
ということを認識するのは大切である。このサイクルの
間、列合計線と入力プログラミング線の電位を適切に制
御することによって、残る3つのセルの電圧閾値の変化
を阻止する。
【0028】デバイス12aと同じプログラミング入力
語線を共用しているデバイス12bについて考える。線
路19′により表わされる合計線に中間電位(たとえ
ば、10ボルト)を印加することにより、デバイス12
bのプログラム又は消去を抑止する。中間電圧を印加す
るということは、プログラミング入力線18が低電圧へ
遷移したときでも、フローティングゲートが受ける電界
の強さは基板への電子のトンネリングを発生させるには
不十分であることを意味している。従って、第1の学習
サイクルの間には、デバイス12bのプログラミング状
態には変化は起こらない。
【0029】ここで、第1のサイクルの間にアレイ中の
次の行にあるシナプスデバイスに何が起こるかを考え
る。図4のデバイス12cも同様にプログラミング入力
線18′に対するパルス流れ入力を受信する。列合計線
19は高電位に結合しているが、プログラミング入力語
線17′に同様に高い電位(たとえば、20ボルト)を
結合しているので、サイクル1の間にはデバイス12c
の接続重みは変化しない。入力線17′を高電圧に結合
した結果、この学習サイクルの間にデバイス12cもデ
バイアスされることになる。同じように、デバイス12
dはデバイス12bと列合計線19′を共有しているた
めに、記憶している重み条件の変化を受けない。並列学
習方法の第1のサイクルの間、列合計線19′は中間電
位に維持されることを忘れてはならない。
【0030】図5は、学習プロセスの第2のサイクルの
間の図3のアレイの印加電圧を示す。この場合にも、入
力プログラミング語線18及び18′は、低いプログラ
ミング電位と高いプログラミング電位との間で交互に遷
移する、たとえば、0ボルトから20ボルトへ遷移する
高電圧パルスの流れを受信する。列合計線19は接地点
に結合し、一方、列合計線19′は約10ボルトの中間
電圧に保持されている。入力プログラミング語線17は
接地しており、シナプスセル12a及び12bをデバイ
アスする。デバイス12cの入力プログラミング語線1
7′は高い正電位に引上げられているので、入力語線1
8′が高電位へ遷移するたびに、デバイス12cのフロ
ーティングゲートはプログラミングされる。これによ
り、そのシナプスセルと関連する接続の重みは減少す
る。
【0031】サイクル2の間には、合計線19′に中間
電圧を印加することによりデバイス12bもデバイアス
されることに注意する。先に説明した通り、入力プログ
ラミング語線18′に印加されるパルスの流れの周波数
を印加される入力又は神経細胞出力(すなわち、Ω)の
大きさに対応させることができる。
【0032】図6は、サイクル3の間に印加されるプロ
グラミング電圧のパターンを示す。この時点で、デバイ
ス12dの重みは増加することになっている(すなわ
ち、消去)。これは、語線17′を接地し且つ列合計線
19′を約20ボルトの高電位に引上げることにより実
行される。サイクル1の間と同じように、プログラミン
グ語線18′に高電圧パルスの流れを印加すると、その
結果、語線18′が接地するたびに、デバイス12dの
フローティングゲート部材の電荷は消去される。デバイ
ス12dと同じ行にあるデバイス12cの重みの変化
は、合計線19に中間電圧を印加することによって抑止
される。同様に、デバイス12a及び12bのプログラ
ミング状態は変化を受けない。すなわち、デバイス12
aは列合計線19に沿って中間電圧を受取り、デバイス
12bの語線17は高い正電位に結合している。
【0033】図7には、最後の学習サイクルであるサイ
クル4を示す。このサイクルではデバイス12bをプロ
グラミングするので、それに対応するシナプスセルの接
続重みは減少する結果となる。先の場合と同様に、この
サイクルの間に、列合計線19に結合する中間電圧を印
加することにより、隣接する列に位置する学習デバイス
(すなわち、デバイス12a及び12b)をデバイアス
する。同じように、入力プログラミング語線17′は接
地しているので、デバイス12dの重みの増減は抑止さ
れる。このようにして、本発明により4サイクルで並列
学習を完了するのである。4サイクルで並列学習を実現
するに際しての条件を以下の表1に要約する。
【0034】
【0035】4サイクルの後のアレイ中のいずれかのシ
ナプスに対する正味の効果は、そのシナプスへの入力と
Ω(この場合には、神経細胞出力の一致条件を表わす)
が共に同じ極性である場合は、そのシナプスの重みは増
分されるが、同じ極性ではない場合には重みは減分され
るというものである。さらに、重みの増減の強さを入力
の強さ又はΩの強さに従って定めることができる。
【0036】当業者には理解されるであろうが、本発明
はより大型の回路網へ拡張可能であるばかりでなく、別
の態様で編成されている回路網へも拡張可能である。た
とえば、本発明は複数の隠れ層を採用する回路網には理
想的な形で適合する。別の代替方法は、回路網の出力の
強さに応じて、学習電界効果デバイスにソース/ドレイ
ン電圧を印加するというものである。たとえば、消去
中、双方の入力語線を接地したままにしておく一方で、
出力の強さに応じて、列合計線の電圧を18ボルトと2
0ボルトの間で変化させても良い。これらの代替実施例
がいずれも本発明の趣旨の中に十分に包含されることは
明らかである。
【0037】〔2サイクルの重み更新〕神経回路網にお
いて、並列学習を4サイクルではなく2サイクルで実現
することも可能である。学習サイクルの数を減らした代
わりに、必要な装置の数は多くなってしまうのである
が、基本概念は変わらずに循環デバイアスに基づいてい
る。
【0038】図8は、4サイクルではなく2サイクルで
並列学習を実行する学習回路を示す。図8の実施例も、
同様に、共通フローティングゲート部材を共有するフロ
ーティングゲートデバイス31及び32を含む。デバイ
ス31の制御ゲートは入力プログラミング語線43に結
合し、デバイス32の制御ゲートは入力プログラミング
語線44に結合している。それらの語線は図1〜図7の
実施例における語線17及び18と同じように機能す
る。加えて、それぞれのフローティングゲートデバイス
に関連して、通常のnチャネル電界効果デバイス33及
び34があり、図示する通り、それぞれの電界効果デバ
イスはデバイス31と、関連するビット線(すなわち、
列合計線)の一方との間に直列に結合している。たとえ
ば、デバイス34はビット線42とデバイス31との間
に結合しており、デバイス33はビット線41とデバイ
ス31との間に結合している。同様に、デバイス32は
nチャネル電界効果デバイス35及び36と直列に結合
している。図8の構成では、デバイス33及び35はそ
れぞれ語線46に接続し、デバイス34及び36は語線
47に接続している。制御電圧信号Vcは語線46及び
47を駆動するのであるが、語線47はインバータ49
によって46の逆になっている。
【0039】図8の学習回路の動作は、電界効果デバイ
ス33〜36がビット線41及び42をフローティング
ゲートデバイス31及び32から分割するように機能す
るという点を除いて、先の実施例の動作に類似してい
る。この分割は、関連する列合計線に関する一致条件
(すなわち、Ω)に従って、短絡電流を発生させるおそ
れなくプログラミングビット線41及び42に様々に異
なる電圧を印加できるように行われるのである。図8は
考えうる構成の1つを示しており、この場合、ビット線
41は接地し、ビット線42は20ボルトという高い正
電位に引上げられて、一致条件を成立させている。不一
致条件については、この状況は逆転する。
【0040】第1の動作サイクルの間に、入力Vcは論
理ハイレベルにある。すなわち、語線46はロー、語線
47はハイになっているのである。この条件では、デバ
イス33及び35はオフ状態であるので、デバイス31
及び32はビット線41から遮断されている。同時に、
デバイス34及び36はオン状態であり、ビット線42
をフローティングゲートデバイスに結合する。一致が指
示されているアレイのそれらの列について、ビット線4
2を利用して高電圧をフローティングゲートデバイス3
1及び32に結合し、シナプス重みを選択的に増加させ
る。尚、入力プログラミング語線43及び44の動作は
先の実施例について説明した動作と同じであることに注
意すべきである。言うまでもなく、双方のプログラミン
グ語線の動作は入力の極性によって決まる。入力信号V
cは入力又は一致(Ω)条件とは無関係である。
【0041】第2のサイクルの間には、入力制御信号V
cは逆の状態になる。すなわち、Vcは論理的にローで
ある。この状況においては、語線46はハイ、語線47
はローになるので、デバイス33及び35はオン状態、
デバイス34及び36はオフ状態である。すなわち、ビ
ット線41はフローティングゲートデバイス31及び3
2に結合することになり、ビット線42は有効に遮断さ
れる。同様に、入力プログラミング語線43及び44は
先の場合と同じように動作し、それらの語線の一方は、
好ましくは0ボルトと20ボルトとの間で遷移する高電
圧パルスの流れを受取る。
【0042】2回の重み変化サイクルの後に神経回路網
に及ぶ効果は、全体としては、入力とΩが同じ極性を有
するシナプスの重みを増加し、極性の異なるシナプスの
重みを減少させるというものである。制御信号Vcは、
時間の上で消去事象をプログラミング事象から分離する
機能を有する。尚、用途によっては、プログラミング/
消去事象が異なる条件を要求することもあり、そのた
め、それらを2回の別個のサイクルで実行すると、より
適切に制御することができるのである。
【0043】図2と同様に、図8の回路を機能をそこな
うことなく図9の構成に簡略化できる。図9では、フロ
ーティングゲートデバイス31及び32(図8を参照)
を二重制御ゲートデバイス50に併合している。制御ゲ
ートの一方は語線43に結合し、他方は語線44に結合
している。デバイス50のフローティングゲート部材は
シナプスセルの計算セクションに接続している。計算セ
クションは学習セクションとは別であっても良い。さら
に、図9の場合、電界効果デバイス33及び35を単一
のMOSデバイス51に併合でき、また、デバイス34
及び36はMOSデバイス52に併合されている。従っ
て、図9の実施例はデバイスの数が少ないという利点を
与えるのである。
【0044】本発明をいくつかの実施例に関連して説明
したが、他の多様な方式により本発明を実現しうること
は明らかである。従って、図示し且つ例示によって説明
した特定の実施例を限定的な意味をもつと決して考えて
はならないことを理解すべきである。これらの実施例の
詳細に参照しても、それは特許請求の範囲を限定しよう
とするものではない。特許請求の範囲自体は本発明に不
可欠であると考えられる特徴のみを列挙している。
【図面の簡単な説明】
【図1】本発明の基本学習回路の概略図。
【図2】図1の回路の等価デバイス表示。
【図3】神経回路網アレイの一部に組込まれた図1の学
習回路を示す図。
【図4】本発明に従って学習アルゴリズムを並列して実
現する方法を示す図。
【図5】本発明に従って学習アルゴリズムを並列して実
現する方法を示す図。
【図6】本発明に従って学習アルゴリズムを並列して実
現する方法を示す図。
【図7】本発明に従って学習アルゴリズムを並列して実
現する方法を示す図。
【図8】相関学習を2サイクルで実行する別の学習回路
を示す概略図。
【図9】最小限の数のデバイスを使用して相関学習を2
サイクルで実行する図8の回路を簡略化した構成を示す
図。
【符号の説明】
10 シナプスセル 12 半導体学習回路 12a〜12d 学習デバイス 14,15 プログラミングビット線 17,17′,18,18′ 入力プログラミング語線 19 ソース/ドレイン線(列合計線) 20,20a〜20d,21,21a〜21d フロー
ティングゲートデバイス 22 フローティングゲート部材 23,23′,24,24′ 入力線 25a〜25d シナプスセル 31,32 フローティングゲートデバイス 33,34,35,36 nチャネル電界効果デバイス 41,42 ビット線 43,44 入力プログラミング語線 46,47 語線 50 二重制御ゲートデバイス 51,52 MOSデバイス

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 それぞれが入力電圧と、接続重みとの積
    を計算する複数のシナプスセルと、それぞれが前記シナ
    プスセルの中の1つの関連するシナプスセルに結合して
    おり、学習アルゴリズムに従って重み更新を並行して実
    現する対応する複数の半導体回路とを含む神経回路網に
    おいて、前記半導体回路のそれぞれは、 前記関連するシナプスセルの接続重みを電荷の形態で記
    憶する共通フローティングゲート部材を有する第1及び
    第2のフローティングゲートデバイスと;前記第1及び
    第2のフローティングゲートデバイスの制御ゲートにそ
    れぞれ結合する第1及び第2の入力線を含み、前記フロ
    ーティングゲートデバイスをプログラム及び消去する手
    段であって、学習中、前記第1及び第2の入力線がほぼ
    同じ電位であるとき、前記フローティングゲート部材は
    プログラム及び消去されるような手段とを具備する神経
    回路網。
  2. 【請求項2】 それぞれが入力電圧と、接続重みとの点
    乗積を計算する複数のシナプスセルのアレイを具備し、
    前記アレイは、前記シナプスセルに対する入力が語線の
    行を介して印加され、前記セルの計算結果は複数対の列
    線に沿って合計されてゆくように編成されており、前記
    シナプスセルのそれぞれは、前記接続重みを電荷の形態
    で記憶するための手段を含み、所定数のサイクルの中で
    並列学習を実行するためのデバイス手段と、重み調整手
    段とを具備し、前記重み調整手段は一対の制御線から成
    り、前記制御線の少なくとも一方は、アレイ中の前記シ
    ナプスセルの他のものに対して実行される調整とは無関
    係に、前記接続重みを増減させるか又は前記接続重みの
    変化を起こさせないために前記デバイス手段に高電圧パ
    ルスの流れを結合する神経回路網。
JP5075077A 1992-03-12 1993-03-10 相関学習アルゴリズムに関わる並列シナプス重み調整に適応する神経回路網 Pending JPH0620076A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US07/851,289 US5237210A (en) 1992-03-12 1992-03-12 Neural network accomodating parallel synaptic weight adjustments for correlation learning algorithms
US851,289 1992-03-12

Publications (1)

Publication Number Publication Date
JPH0620076A true JPH0620076A (ja) 1994-01-28

Family

ID=25310422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5075077A Pending JPH0620076A (ja) 1992-03-12 1993-03-10 相関学習アルゴリズムに関わる並列シナプス重み調整に適応する神経回路網

Country Status (2)

Country Link
US (1) US5237210A (ja)
JP (1) JPH0620076A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995015580A1 (fr) * 1993-11-30 1995-06-08 Tadahiro Ohmi Dispositif a semi-conducteurs

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5355435A (en) * 1992-05-18 1994-10-11 New Mexico State University Technology Transfer Corp. Asynchronous temporal neural processing element
JP2695102B2 (ja) * 1992-09-30 1997-12-24 川崎製鉄株式会社 内容アドレス式メモリ
JP3278080B2 (ja) * 1993-02-22 2002-04-30 直 柴田 半導体集積回路
US5479574A (en) * 1993-04-01 1995-12-26 Nestor, Inc. Method and apparatus for adaptive classification
US5438293A (en) * 1993-10-04 1995-08-01 Regents Of The University Of California Low power analog absolute differencing circuit and architecture
US7469237B2 (en) * 1996-05-02 2008-12-23 Cooper David L Method and apparatus for fractal computation
JP2009080892A (ja) * 2007-09-26 2009-04-16 Toshiba Corp 半導体記憶装置
US10748064B2 (en) 2015-08-27 2020-08-18 International Business Machines Corporation Deep neural network training with native devices
WO2019049686A1 (ja) * 2017-09-07 2019-03-14 パナソニック株式会社 半導体記憶素子を用いたニューラルネットワーク演算回路及び動作方法
US11361215B2 (en) * 2017-11-29 2022-06-14 Anaflash Inc. Neural network circuits having non-volatile synapse arrays
US11354562B2 (en) * 2018-01-03 2022-06-07 Silicon Storage Technology, Inc. Programmable neuron for analog non-volatile memory in deep learning artificial neural network
US11144824B2 (en) * 2019-01-29 2021-10-12 Silicon Storage Technology, Inc. Algorithms and circuitry for verifying a value stored during a programming operation of a non-volatile memory cell in an analog neural memory in deep learning artificial neural network
CN109901878B (zh) * 2019-02-25 2021-07-23 北京灵汐科技有限公司 一种类脑计算芯片及计算设备

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5055897A (en) * 1988-07-27 1991-10-08 Intel Corporation Semiconductor cell for neural network and the like
US4906865A (en) * 1988-12-09 1990-03-06 Intel Corporation Sample and hold circuit for temporal associations in a neural network
US4904881A (en) * 1989-02-10 1990-02-27 Intel Corporation EXCLUSIVE-OR cell for neural network and the like
JP2823229B2 (ja) * 1989-04-05 1998-11-11 株式会社東芝 電子回路、差動増幅回路、及びアナログ乗算回路
JPH02310666A (ja) * 1989-05-25 1990-12-26 Mitsubishi Electric Corp 半導体神経回路装置
US5040134A (en) * 1989-05-26 1991-08-13 Intel Corporation Neural network employing leveled summing scheme with blocked array
US5146542A (en) * 1989-06-15 1992-09-08 General Electric Company Neural net using capacitive structures connecting output lines and differentially driven input line pairs
US4961002A (en) * 1989-07-13 1990-10-02 Intel Corporation Synapse cell employing dual gate transistor structure
US4956564A (en) * 1989-07-13 1990-09-11 Intel Corporation Adaptive synapse cell providing both excitatory and inhibitory connections in an associative network
US5101361A (en) * 1989-09-29 1992-03-31 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Analog hardware for delta-backpropagation neural networks

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995015580A1 (fr) * 1993-11-30 1995-06-08 Tadahiro Ohmi Dispositif a semi-conducteurs
US5818081A (en) * 1993-11-30 1998-10-06 Tadahiro Ohmi Semiconductor device

Also Published As

Publication number Publication date
US5237210A (en) 1993-08-17

Similar Documents

Publication Publication Date Title
US4961002A (en) Synapse cell employing dual gate transistor structure
US5028810A (en) Four quadrant synapse cell employing single column summing line
US4956564A (en) Adaptive synapse cell providing both excitatory and inhibitory connections in an associative network
US11875249B2 (en) Counter based resistive processing unit for programmable and reconfigurable artificial-neural-networks
JPH0620076A (ja) 相関学習アルゴリズムに関わる並列シナプス重み調整に適応する神経回路網
US20200202206A1 (en) Artificial neuron for neuromorphic chip with resistive synapses
CN109447250A (zh) 一种基于忆阻器中电池效应的人工神经元
JPH06290162A (ja) 情報処理装置
US5010512A (en) Neural network having an associative memory that learns by example
JPH06131487A (ja) ニューラル・ネットワーク
JPH0628331A (ja) マルチプレクスされる出力ニューロンを採用する多層ニューロンネットワーク
KR102473579B1 (ko) 가중치 소자 및 이의 작동 방법
US5247206A (en) Neural network accommodating parallel synaptic weight adjustments in a single cycle
Strukov et al. Memory technologies for neural networks
US5155377A (en) Charge domain differential conductance synapse cell for neural networks
US5136176A (en) Charge domain synapse cell
JPH06274661A (ja) シナプス回路およびそれを用いたニューラルネットワークシステム
CN108777153B (zh) 一种多端输入突触器件及其可塑性调制方法
US5136177A (en) Multi-quadrant charge domain synapse cell
JPH03174679A (ja) シナプスセル
US5895460A (en) Apparatus for simulating a biological neuron
US5136178A (en) Resistive charge domain synapse cell
JPH03236275A (ja) メモリ素子およびメモリ装置
US20210034953A1 (en) Reconfigurable finfet-based artificial neuron and synapse devices
Oh et al. Grayscale image recognition using spike-rate-based online learning and threshold adjustment of neurons in a thin-film transistor-type NOR flash memory array