JPH02226492A - ニユーラル・ネツトワーク - Google Patents

ニユーラル・ネツトワーク

Info

Publication number
JPH02226492A
JPH02226492A JP1328611A JP32861189A JPH02226492A JP H02226492 A JPH02226492 A JP H02226492A JP 1328611 A JP1328611 A JP 1328611A JP 32861189 A JP32861189 A JP 32861189A JP H02226492 A JPH02226492 A JP H02226492A
Authority
JP
Japan
Prior art keywords
output
network
learning
input
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1328611A
Other languages
English (en)
Other versions
JPH0551946B2 (ja
Inventor
Allan M Hartstein
アレン・マーク・ハートステイン
Roger H Koch
ロジヤー・ヒルセン・コーク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JPH02226492A publication Critical patent/JPH02226492A/ja
Publication of JPH0551946B2 publication Critical patent/JPH0551946B2/ja
Granted legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L29/00Semiconductor devices specially adapted for rectifying, amplifying, oscillating or switching and having potential barriers; Capacitors or resistors having potential barriers, e.g. a PN-junction depletion layer or carrier concentration layer; Details of semiconductor bodies or of electrodes thereof ; Multistep manufacturing processes therefor
    • H01L29/66Types of semiconductor device ; Multistep manufacturing processes therefor
    • H01L29/68Types of semiconductor device ; Multistep manufacturing processes therefor controllable by only the electric current supplied, or only the electric potential applied, to an electrode which does not carry the current to be rectified, amplified or switched
    • H01L29/76Unipolar devices, e.g. field effect transistors
    • H01L29/772Field effect transistors
    • H01L29/78Field effect transistors with field effect produced by an insulated gate
    • H01L29/7831Field effect transistors with field effect produced by an insulated gate with multiple gate structure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Data Mining & Analysis (AREA)
  • Power Engineering (AREA)
  • Ceramic Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Non-Volatile Memory (AREA)
  • Testing Of Individual Semiconductor Devices (AREA)
  • For Increasing The Reliability Of Semiconductor Memories (AREA)
  • Tests Of Electronic Circuits (AREA)
  • Semiconductor Memories (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 A、産業上の利用分野 本発明は情報処理のネットワーク、特に半導体装置技術
で実現されるニューラル・ネットワークに関する。
B、従来の技術 情報処理のニューラル・ネットワークの分野に最近大き
な関心が集まっている。ニューラル・ネットワークは生
きている生物に備わったニューロンの構造及び機能によ
く似ているある形態の電子ネットワークである。究極の
目標は生物的システムの効果的な機能の全部又は一部を
表示することができる人ニジステムを構築することであ
る。
ニューラル・ネットワークの領域で行なわれている研究
の範囲はかなり広い、ひとつの従来の技術では、有機体
のニューロンのシステムの重要な特性が、これらと同じ
生物学的特性のより深い理解を得るように電子ネットワ
ークを設計する際に用いられている[Hof゛d−”− Δ   oc ed’   at’onal  cad
 m  Sc’ence9498    ]が、別のシ
ステムはニューロンの複雑な細部の機能の模倣を試みて
いるOn  e  enCONeura    n  
twork        987         
  ]。
ネットワークの中にはスピーチ生成[3烏」IはFEC
5−86096コ、又は映像[h■Et邊−Ntu  
 306    983     ]のような極めて特
定の問題を解決するためにモデル化され(又は)構築さ
れているものがある。他のネットワークは領域がより一
般的であることを要求し、全ての種類の問題の解決方法
を明確にすることを期待している。
米国特許第4660166号に詳細に記述されているt
lopfieldネットワークは、スピングラスの作用
を模倣する非線形スイッチの相互接続の複合ネットワー
クである。 I(o p f i e l dネットワ
ークは出力導体及び入力導体のマトリックスである(出
力導体は複数の”ニューロン”を形成する)、ネットワ
ークの各ニューロンは、学習によって又はプログラムに
よってネットワークに入れられるパラメータを掛けられ
る一連の入力と単一のしきいスイッチとから成る。そし
て入力の積は合計され、もし合計が一定のしきい値を越
えれば、ニューロンの出力は”オン”状態にセットされ
、さもなければ”オフ”状態になる。各ニューロンの出
力はネットワーク内のあらゆるニューロンの入力に結合
され、それによってすべて相互接続されたネットワーク
を形成する。ネットワークに組込まれる欠くことのでき
ない”メモリ”はニューロンの入力に印加される乗法パ
ラメータに含まれる1乗法パラメータは各しきいスイッ
チに結合された抵抗器によって供給される。
11opfieldタイプのネットワークは、少なくと
も生物学的なニューラル・ネットワークの機能を思い出
させるかなり多数の望ましい特性を発揮することが明ら
かにされている0例えば、ネットワークはパターン認識
の問題を並列モードで解決することができる。更に、ネ
ットワークはメモリの中の、入カバターンに最も近い突
合せパターンをたとえ人力ビットの多くに誤りや欠落が
あっても見つけることができる。該ネットワークは内容
アドレス可能メモリとみなされる。このメモリはネット
ワーク全体に分布されており、ネットワークのどこか1
つの物理部分に含まれているのではない。
よって、ネットワークはその一部分が消されたり変更さ
れたりしてもうまく動作することができる。
このタイプのネットワークには幾つかの制約がある。即
ち、ネットワークは常に指定された入力に応答して、所
望のパターンではないかも知れないパターンを戻す、更
に、それは突合せが入力から離れ過ぎている(従って、
その結果は戻すべきではない)かどうかを判定する能力
を内蔵していない。
C0発明が解決しようとする課題 Hopfieldタイプのネットワークはコンピュータ
・シミュレーションで作動するように示されているが、
ハードウェア装置でネットワークを実現するのは困難で
ある。特に、メモリ素子を抵抗器によって組込み且つ能
動素子に複合トランジスタ回路を用いる非常に規模の大
きいネットワークを構築することは実際的ではない、米
国特許第4760437号はメモリゾ゛子として光導電
体を利用し、その入射光のレベルの制御により所望のイ
ンピーダンスを設定する1lopfieldニユーラル
・ネットワークの1つの実施例を開示している。もう1
つの従来技術の実際のネットワークの製作の例はNet
works  461 987    コによって示さ
れている。この例ではトランジスタ増幅器のアレイを相
互接続する抵抗結合素子のHopfieldマトリック
スを実現するCMOSアソシアティブ・メモリ・チップ
が開示されている。  I(opfieldネットワー
クと対照的に、ネットワークによって記憶されたデータ
はマトリックス内に局所的に示され、それによって所要
の相互接続の数が減らされる。
02課題を解決するための手段 本発明は、ネットワークの欠くことのできないパラメー
タとして、従来技術のシステムによって用いられた抵抗
性素子とは対照的にMOSFETのような半導体装置の
しきい値を利用するl+opfieldタイプのニュー
ラル・ネットワークに関する。ネットワークは相互接続
され、個々のMOSFETのしきい値を調整することに
より入力データの局所的な学習を可能にする。  MO
SFETは本質的にしきいタイプの装置であり、その出
力応答はそのしきい電圧−装置の電流が流れ始める電圧
−を変えることにより変更することができる。特定のM
OSFETのしきい電圧はトランジスタの絶縁体に蓄積
される電荷量を変えることにより簡単に変更することが
できる。更に、MOSFETによって運ばれる電流は装
置のしきい電圧よりも高いバイアス電圧の線形関数であ
る。各ネットワークの交差部分での学習パラメータとし
てMOSFETのしきい値を用いることにより、該ネッ
トワークは乗法的ではなくなり、その結果、ずっと容易
にハードウェアで実現される。
本発明のニューラル・ネットワークは複数のニューロン
−その各々は本来多くの人力を有するしきい値スイッチ
である−を含む、このスイッチは入力関数を合計し次に
それがオン状態であるかどうかを判定する。各ニューロ
ンの出力を、選択された数の隣接したニューロンの入力
に結合させることにより、ネットワークは”局所の”学
習を可能にする。入力機能は従来技術のシステムにおけ
るように乗法的ではなく、むしろ各入力での入力信号と
個々の学習されたしきい値との差を表わす0本発明の実
施例では、ニューロンの各入力はnチャネルMO3FE
T及びpチャネルMO5FETを含む対のMOS )−
ランジスタから成る。各々のMOSFET対はニューロ
ンの”シナプス”を表わす、相補形MO5FETの対は
、該)40SFETのしきい値のまわりで単調に増加し
ている対称性の出力応答を供給するために必要である。
出力応答の対称性の重要性は後で詳細に説明する。多数
のこれらの対は出力導体に並列に結合され、電流が総計
されることを保証する。その結果得られる出力はニュー
ロンのしきいスイッチに供給される。出力導体はニュー
ロンの樹状突起を表わす、 MOSFETの各相補対は
ネットワークの個々の学習素子を含み、学習された情報
は該MO5FETの個々のしきい値としてネットワーク
に記憶される。
本発明の良好な実施例では、ソース及びドレーンが並列
に結合される多重ゲートnチャネルMO5FET及び多
重ゲートPチャネルMO3FETによってニューロンが
提供される。相補形多重ゲートの対応するゲートの対が
互いに結合され、種々の入力をニューロンに供給する。
出力しきい装置は単一のMOSFETによって提供され
る。
局所学習は多重ゲートのゲート絶縁体における電荷捕捉
によって行なわれる0個々の各入力トランジスタの絶縁
体における電荷捕捉は、各トランジスタがネットワーク
の現在の状態を補強するのに役立つように、入力端子及
び出力電圧の双方に対応して各トランジスタのしきい値
を自動的に調整する。各トランジスタは学習するにつれ
てその出力を拡張又は抑止するように局所的に学習し、
もし入カバターンが一定時間を越えて連続してネットワ
ークに提示されれば、各トランジスタはそれが出会う条
件に関して単純な平均値を学習する。
従って、ネットワークは前例によって学習する。
本発明のネットワークは2つのモード−学習モード及び
アソシアティブ・メモリ・モードで動作することができ
る。学習モードでは、入カバターンがネットワークに印
加され、該入カバターンが学習されるまで入力トランジ
スタのしきい値が絶えず調整される。パターンを順次に
ネットワークに提示することにより、該ネットワークは
複数のパターンを学習することができる。アソシアティ
ブ・メモリ・モードでは、しきい値は一定に保持され、
検査入力がネットワークに印加される。そして学習素子
の出力電圧が安定した状態に達し、それによって検査パ
ターンに最も類似した学習されたパターンが出力として
供給される。
E、実施例 第1図は本発明によるニューラル・ネットワークの一部
分の概要図である。第1図に示すネットワーク 10は
複数の出力電極12及び複数の入力電極14を含む、ネ
ットワーク 10は出力電極12及び入力電極14を相
互に結合する複数の電子学習素子16も含む、該ネット
ワーク内の出力電極及び入力電極の数は設計アプリケー
ションによって異なるが、例示のため、第1図では3X
3のマトリックスを示す0表示記号として、出力電極1
2は1(i=1〜M)で表わされ、入力電極14はj 
(j=1〜N)で表わされる1M及びNは0よりも大き
い任意の整数である0Mは出力電極の合計数に等しく、
Nは入力電極の合計数に等しい。
第1図では1M及びNはどちらも3に等しい、各出力電
極12はV、と呼ばれる出力電圧を有する出力増幅器1
8を含む、各出力電極12にある学習素子16の各々は
しきい電圧T、、を有し、且つJ それぞれが入力電圧V、を有する。学習電極17は各出
力増幅器18に結合され、ネットワーク10によって学
習される状態、電圧■、Lを入力する。
第1図の3x3のマトリックスで、出力電極12はi 
=1.2.3と指定され、入力電極14はJ=1゜2.
3と指定される。学習素子16の各々は交差する出力及
び入力電極に対応してしきい値T1.をJ 有する。出力電極i=1では、学習素子16はしきい値
T1,1、1,2、T1,3を有し、該素子の各々の入
力はvl、vl、v3である。残りの学習素子も同様に
図示のように指定される。
第2図は学習素子16の1つの詳細を示す、素子16の
各々は並列に接続されたnチャネルMO5FET20及
びPチャネルMO5FET22を含む、 MO5FET
20及び22は1図示のように、双方のドレーン、ソー
ス及びゲートをそれぞれ互いに結合することにより並列
に接続される。ソースはロード抵抗器RLIを介してア
ースのような一定の電位並びに出力増幅器18(たぶん
MOSFETである)のゲートに接続される。ドレーン
は出力MO3FET18のソース及び電源電圧v8に結
合される。ゲートは互いに結合され且つ適切なj電極に
接続される。出力MO5FET1.8のドレーンは出力
電圧V、を供給するとともに抵抗器RL2を介してアー
スに結合される。
第1図で、各出力■、は1つのj入力電極14にフィー
ドバックされる。■、は1番目の電極12で1つの学習
素子16に、そして2つの隣接した電極12でそれぞれ
の学習素子に接続される。第1図のネットワークは単に
説明のためのものであり、出力が接続される隣接の電極
12の数はネットワークの出力及び入力電極の合計数に
よって決まる0図示のように、■はノード24でJlに
接続され、■はノード26でJに接続され、そして■3
はノノード28でJに接続される。よって、■1の出力
型圧はノードv1,1、■1,2、■1,3で3つのi
電極に入力される。 V2の電圧はノードv2,1、■
2,2、vl、3で3つのi電極に入力される。同様に
、V3の出力電圧は図示のように入力される。
各学習素子16は、良好な線形近似によって、その入力
での入力ゲート電圧としきい電圧の間の差の絶対値に比
例する電流を運ぶ、よって、各ニューロンの出力電圧は
各学習素子の出力の和に比例し、下式によって与えられ
る: 上式で、aは学習素子16の利得によって決定されるO
よりも大きい定数である。
式(1)は各出力列の電極における各学習素子16の出
力の合計である。これは各トランジスタが適切に結合さ
れたしきい値を有し且つ線形区間で動作されるとき入力
MO3FETの対を良好に表示する。
このように動作するとき5どの1つの時点をとっても電
流はトランジスタの1つを通ってだけ流れている。不可
欠な出力応答の対称性が絶対値関数で捕らえられる。こ
の関数の正確な形式は重要ではなく、下式も同様にうま
く適合する:L−a Σj:N(V−T、−)2(2)
1J:I    J    IJ ag。
式(2)も必要な対称性を与える0式(1)の例のvL
= ar:、i:171 vj−T、 +    (1
)”l■l−”1,11 ” al V2− Vx、2
1 ” a  V3− Tb3ag。
の合計に等しい。
第3図はネットワークの各入力MO5FETの関数表現
形式を示す、第3図は対称的なV″の形を示す学習素子
16の出力関数対入力関数を表わす。
異なるしきい値の関数の位置を図示する3つのカーブが
示されている。カーブI、■及び■はそれぞれ0.5ボ
ルト、0.8ボルト及び約0.2ボルトのしきい値T6
.を持つFETに関するものである0式(2)のカーブ
は図示されていないが、同様な関数の結果を与えるU″
の形を表わす。
局所学習アルゴリズムを組込む動的学習ネットワークを
設けるためには、極めて特殊な方法でデータを表示しな
ければならない、学習パラメータは与えられた入力に基
づいて特定の出力を局所的に拡張するか又は抑止しなけ
ればならない、2進表示では、拡張は、もしノードへの
入力が1ならば出力は1になり、ノードへの入力がOな
らば出力はOになることを意味する。同様に、抑止は、
1の入力がOの出力を生じ、0の入力が1の出力を生じ
ることを意味する。これは、ノードは1の入力が1の出
力を生じることを習得すると、0の入力がOの出力を生
じることも習得していることを意味する。他のどんなメ
モリの内部表示も所望の結果は生じない、従って、構造
及び該構造の関数を表わす式における対称性が要求され
る。
前述のように、相補形MO5FETの対は所望の対称性
を生じる出力対入力関数を生じる0局所学習アルゴリズ
ムも、MOSFETのしきい値が出力を拡張するか抑止
するかを同様の方法で調整するように一定の対称性を所
有しなければならない、学習モードでは、しきいT1.
はV、及び■、が同じときIJ      I    
     Jは必ず低い方の値に押し下げ(拡張し)な
ければならない、同様に、T1.はV、と■、が異なる
とIJ       I       Jきは必ず大き
い方の値に押し上げ(抑止し)なければならない、1つ
の適切な学習方式は下式で4えられる: T=、 = T1.+a  (l V−V−l−β)(
3)IJ      IJ            J
     1上式で、■、、は新しいしきい値、T1.
は前のしIJ                   
      IJきい値であり、α及びβは定数である
。αは一般に小さな数であり、学習率即ちしきいが調整
する相対的な量を規定する。βはVの関連を仮定して名
目上のしきい位置を規定し、相対的に同じ大きさだけT
1.を押し上げ又は押し下げることによりIJ 対称性を保証する。第3図のようにV及びTが0から+
1の範囲にわたる本発明の実施例では1名目上のしきい
値は0.5に設定される。−例として、■、が■、に等
しい場合に、0.5に設定されたβにIJ よって、しきいは0.5αの量だけ下方に押し下げられ
、■、が1、V、がOとなる極端な場合には、しきいは
0.5αだけ上方に押し上げられる。
学習はMOSFETのゲート絶縁体に捕捉されている電
荷によって行なわれる。電圧差が絶縁体を横切って印加
されると小さな電流が流れるように個々のトランジスタ
が設計されなければならない。
この電流のあるパーセントが絶縁体に捕捉され、その結
果、しきいのシフトが生じる。もし負の電圧が印加され
れば、電子は捕捉され、しきいをより正の電圧レベルに
すると仮定する。同様に、もし正の電圧が印加されても
、電子は捕捉され、しきいをもっと正のレベルにする。
更に、トランジスタ設計パラメータは、絶縁体を横切っ
て電圧差が存在しないとき、捕捉された電荷が絶縁体か
ら漏れるように選択されなければならない、捕捉率と漏
れ率を等しくするように調整することは有利である0式
(3)の項で、捕捉率は定数α(l−β)により与えら
れ、漏れ率はαβによって与えられる。この場合、ゲー
ト印加電圧V6= (Vj−Vρは1に等しい、この方
式を用いて5個々のゲート領域のしきいは、時間を超過
した各ゲートで見つかった平均状態を局所学習アルゴリ
ズムに反映させるようにそれ自身を調整する。その結果
、ネットワークの全体の関数はニューラル・ネットワー
クの関数となる。
式(3)によるしきいの調整はネットワークの現在の状
態を強化する傾向がある。もし特定のトランジスタのゲ
ートが高い状態であって該トランジスタが導電している
ならば、しきいは該トランジスタがもっと導電するよう
に調整される。従って。
第3図に示すように、カーブ!及びHのしきい値は0.
0に向かって低い方の値にシフト′する。もしゲートが
高い状態であってトランジスタが他の並列トランジスタ
のために導電していないならば。
しきいは該トランジスタが導電する見込みが少なくなる
ように調整する。この場合、第3図で、しきい値は1.
0に向かってシフトする。これは本質的に簡単なヘビア
ン学習規則(Hebbian learningす、実
現するのにどん′な追加の回路も必要としない本ネット
ワークの特性である。この学習規則は、局所的に各トラ
ンジスタが学習するにつれて、その入力が拡張又は抑止
されるようになっている。
更に5もし時間を超過した複数の状態が見つかるならば
、各トランジスタはそれが出会う状態全体の単純平均を
学習する。
本発明のネットワークは事例により学習し学習した状態
を後で呼戻すことができる。それは時間を超過した古い
状態を忘れることができる特性も持っているにれらの概
念は2つのモードのどちらかで実現することができる。
学習モードでは、学習電極に印加された入力/出力のセ
ット、viはネットワークに提示され、ネットワークが
所望の出力状態を学習するまで、しきいは式(3)に従
って調整し続ける。検査モードでは、しきいが調整しな
くなるように学習パラメータαをOにセットすることに
より学習が抑止される。これは、電荷捕捉がそれ以上は
起きないように、学習電極を介して学習素子に印加され
た電圧を落とすことにより行なうことができる。温度低
下等のような電荷捕捉を阻止する他のどんな手段も用い
ることができる。そして入力V、のセットは自動的にネ
ットワークに提示され、各々の学習素子の出力は式(1
)又は(2)に従って変化し、学習された出力に最もよ
く一致するネットワーク出力を供給する。よって、メモ
リはアソシアティブ・メモリの全ての所望の特性を有す
るスタティック・アソシアティブ・メモリとして作用す
る。動的学習モードでは。
学習パラメータは決してOにはセットされない。
学習及びアソシアティブ・メモリ機能は作用し続ける。
これはシステムに提示された新しい状態が時間を超過し
て学習されることを意味する。同時に、アクセスされる
全ての学習された状態は絶えず強化される。廃止される
古いメモリはシステムによって徐々に忘れられてゆく。
本発明のニューラル・ネットワークの特定の実施例は多
重ゲートMO5FETを用いる第4図及び第5図に示す
0M05FETはシリコン並びに他の技術、例えばGa
Asで実現することができる。第4図はネットワーク・
アレイの一部分の概要レイアウトを示し、第5図は該ア
レイの学習素子を含む個々の多重ゲートMO5FET対
の詳細を示す、一般に。
第4図のネットワーク・アレイはソース及びドレーン領
域31によって形成されるニューロン30、並びにNチ
ャネル・ゲート・ライン32及びPチャネル・ゲート・
ライン34によって形成される入力電極を示す、第4図
に示す実施例では、相補形FET毎に5本のゲート・ラ
インが示されており。
それによって、各ニューロンに5個の学習素子を提供す
る。相補形FETの相互接続はニューロン毎に接続ノー
ド36によって示されている。
第5図は1つのセル30の多重ゲートFETの相互接続
をより詳細に示す、nチャネルFETはn領域44によ
り分離されたソースn+領域40及びドレーンn 領域
42を含む、5本のゲート・ライン32はnpn領域を
横切って配置され、対応する絶縁体(図示せず)はゲー
トと5個のnチャネルMO3FETを形成するP形半導
体との間に配置される。同様に、PチャネルFETはn
領域50によって分離されたp+導電型を有するソース
領域46及びドレーン領域48を含む、5本のライン3
4はpnp領域を横切って配置され、対応する絶縁体(
図示せず)は5個のpチャネルMO5FETを形成する
ようにゲートとn形半導体の間に配置される。
出力FET 52はn+領域54及び56並びにn領域
58によって形成され、ゲート領域60はゲ−ト絶縁体
(図示せず)上に配置されMOSFET 52を形成す
る。ゲート60はゲート・ライン61を介してソース領
域46に結合される。 FET 52の出力V、は電極
63に供給され、図示のように接続部62及び64によ
りそれぞれゲート・ライン32及び34の対応する対に
接続される相互接続部65によって1つの特定の相補形
MO3FETの対にフィードバックされる。学習される
状態V←は電極67を介して出力FET 52に入力さ
れる。ソース領域40及び46は相互接続部66によっ
て互いに直接結合され且つロード抵抗器68によってア
ースに接続される。同様に、ドレーン領域42及び48
は相互接続部70により互いに結合され、ドレーン領域
48及びソース領域54は相互接続部72により結合さ
れる。ドレーン56はロード抵抗器74を介してアース
に接続される。
出力FET 52は高利得しきい値スイッチとして使用
される。第5図に示す実施例で、FET 52は非反転
である。しかしながら、このステージは反転又は非反転
のどちらにもすることができる。これはデータの内部表
示にのみ影響を及ぼし、ニューロン30の機能に強い影
響は与えない8反転ケースでは、シナプス回路はそれに
応じて調整する必要がある。どんな大きな複合システム
でも、出力FETはネットワークの適切な機能を保証す
るとともに信号レベルを妥当なレベルに復元する非線形
入力対出力特性を持たなければならない、もし利得が十
分に高くはないならばシステムの学習機能は低下するか
ら、前記スイッチの一定の利得はシステムにとって重要
な実際的な条件である。
電荷捕捉を可能にする絶縁体構造を実現するために多く
の装置が用いられる。単純な酸化物、即Ed−4o  
  a  977に示すように利用することができる。
更に、二重電子注入構造を利用して絶縁体での電荷捕捉
を高めることができる。また、絶縁体で電荷を捕捉する
層として介在させるため伝導性のある小さな粒子の層が
用いられる。
これら及び他の装置は在来の半導体メモリ機構とともに
用いて学習素子を形成することができる。
印加される電圧の極性がどちらであっても電荷注入を同
じにすることは都合がよい。
本発明のネットワークは従来技術のtlopfield
ネットワークに幾つかの利点を提供する1本ネットワー
クはその動作で基礎となる半導体装置技術VLSIの製
作を容易にするとともにネットワークの全体の大きさを
小さくする−の動作特性を利用する。装置のしきいをメ
モリ素子として使用することにより1本発明のネットワ
ークは局所学習アルゴリズムを用いて事例による学習を
することができる。このアルゴリズムは線形であり且つ
ネットワーク・ノードを構成する装置の組込み特性であ
る。学習サイクル中のしきい値を調整することにより、
ネットワークは所与の入カバターンの所望の出力を学習
する。もしパターンの複合性が表示されれば、各ノード
は一定期間にわたって観察されるパターンの単純平均を
学習する。それにもかかわらず、ネットワークは全体と
してネットワークが観察する個々のパターンを学習する
機能が種々のパラメータの量的変化に対して感度が適度
に低いという点でこのネットワークは粗である。学習パ
ラメータの変化、しきいに許容される飽和の程度、しき
いスイッチの利得及びネットワークの機能的な形態はネ
ットワークの機能に不利な影響を与えない、ネットワー
クが入カバターンを学習した後は、検査入カバターンが
入力され、式(1)又は(2)の制御によってネットワ
ークは平衡状態になることができる。しきい値は一定に
保持され、ネットワークの出力は人カバターンによって
トリガーされたネットワークの最終的な安定状態のメモ
リを表わす。
F1発明の効果 本発明によれば、しきい値を利用して局所的学習を行な
うニューラル・ネットワークをハードウェアで簡単に実
現できる。
【図面の簡単な説明】
第1図は本発明の二′ユーラル・ネットワークの概要図
である。 第2図は第1図のニューラル・ネットワークの1つのノ
ードの概要図である。 第3図はネットワーク・ノードの入力電圧及び出力電圧
の間の関係を表わす図表である。 第4図は本発明のニューラル・ネットワークの多重ゲー
トFETのインプリメンテーションの概要図である。 第5図は第4図の多重ゲートFETの1つのニューロン
の概要図である。 10・・・・ネットワーク、12・・・・出力電極、1
4・・・・入力電極、16・・・・学習素子、17・・
・・学習電極、18・・・・出力増幅器、20・・・・
nチャネルMO5FET、22・・・・pチャネルMO
5FET、30・・・・ニューロン、31・・・・ソー
ス及びドレーン領域、32・・・・Nチャネル・ゲート
・ライン、34・・・・Pチャネル・ゲート・ライン、
36・・・・接続ノード、52・・・・出力FET。 FIG、3

Claims (1)

  1. 【特許請求の範囲】 交差領域で複数の入力電極と交差する複数の出力電極、
    及び前記交差領域で前記出力電極を前記入力電極に結合
    する複数の電子素子のマトリックスと、 入力信号が前記電子素子によって絶えず処理されるよう
    に前記電子素子を相互接続する手段とを含み、 前記電子素子の各々はその出力電圧がその入力電圧の関
    数としてしきい値電圧から正及び負の両方向にほぼ対称
    的に増加するしきい値装置を含むニューラル・ネットワ
    ーク。
JP1328611A 1989-01-12 1989-12-20 ニユーラル・ネツトワーク Granted JPH02226492A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US296111 1989-01-12
US07/296,111 US5010512A (en) 1989-01-12 1989-01-12 Neural network having an associative memory that learns by example

Publications (2)

Publication Number Publication Date
JPH02226492A true JPH02226492A (ja) 1990-09-10
JPH0551946B2 JPH0551946B2 (ja) 1993-08-04

Family

ID=23140658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1328611A Granted JPH02226492A (ja) 1989-01-12 1989-12-20 ニユーラル・ネツトワーク

Country Status (4)

Country Link
US (1) US5010512A (ja)
EP (1) EP0377908B1 (ja)
JP (1) JPH02226492A (ja)
DE (1) DE68927826D1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0652340A (ja) * 1992-05-30 1994-02-25 Gold Star Electron Co Ltd プログラムの可能な多層神経回路網

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5267347A (en) * 1989-06-28 1993-11-30 Mitsubishi Denki Kabushiki Kaisha Information processing element
IT1237269B (it) * 1989-11-15 1993-05-27 Rete neurale con capacita' di apprendimento per il trattamento di informazioni, e procedimento per il trattamento di informazioni con l'impiego di tale rete.
US5615305A (en) * 1990-11-08 1997-03-25 Hughes Missile Systems Company Neural processor element
JP2760170B2 (ja) * 1990-11-29 1998-05-28 松下電器産業株式会社 学習機械
US5097141A (en) * 1990-12-12 1992-03-17 Motorola, Inc. Simple distance neuron
US5172204A (en) * 1991-03-27 1992-12-15 International Business Machines Corp. Artificial ionic synapse
WO1993010500A1 (en) * 1991-11-13 1993-05-27 Iowa State University Research Foundation, Inc. Improved memory capacity neural network
KR950007353B1 (ko) * 1992-05-30 1995-07-10 정호선 시냅스 모스 트랜지스터
EP1199675B1 (en) * 1992-06-19 2004-10-13 United Parcel Service Of America, Inc. Method and apparatus for adjusting a neuron
US5438629A (en) * 1992-06-19 1995-08-01 United Parcel Service Of America, Inc. Method and apparatus for input classification using non-spherical neurons
US5479574A (en) * 1993-04-01 1995-12-26 Nestor, Inc. Method and apparatus for adaptive classification
FR2691838B1 (fr) * 1993-05-28 1994-11-10 Gold Star Electronics Transistor MOS de synapse.
US5579440A (en) * 1993-11-22 1996-11-26 Brown; Robert A. Machine that learns what it actually does
US5521840A (en) * 1994-04-07 1996-05-28 Westinghouse Electric Corporation Diagnostic system responsive to learned audio signatures
US5583771A (en) * 1994-08-04 1996-12-10 Delco Electronics Corp. Method and apparatus for distinguishing between deployment events and non-deployment events in an SIR system
US7577631B2 (en) * 2001-09-10 2009-08-18 Feldhake Michael J Cognitive image filtering
US8541665B2 (en) 2002-09-18 2013-09-24 Mendel Biotechnology, Inc. Polynucleotides and polypeptides in plants
US20060205489A1 (en) * 2004-12-30 2006-09-14 Jerome Carpenter Methods for game player identification
US20120084240A1 (en) * 2010-09-30 2012-04-05 International Business Machines Corporation Phase change memory synaptronic circuit for spiking computation, association and recall
US9269042B2 (en) 2010-09-30 2016-02-23 International Business Machines Corporation Producing spike-timing dependent plasticity in a neuromorphic network utilizing phase change synaptic devices
JP6866762B2 (ja) * 2017-05-18 2021-04-28 いすゞ自動車株式会社 車両用情報処理システム
US10381061B2 (en) * 2017-09-27 2019-08-13 International Business Machines Corporation One-transistor synapse cell with weight adjustment

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4774677A (en) * 1981-08-06 1988-09-27 Buckley Bruce S Self-organizing circuits
US4660166A (en) * 1985-01-22 1987-04-21 Bell Telephone Laboratories, Incorporated Electronic network for collective decision based on large number of connections between signals
US4760437A (en) * 1986-01-03 1988-07-26 American Telephone And Telegraph Company, At&T Bell Laboratories Neural networks
US4773024A (en) * 1986-06-03 1988-09-20 Synaptics, Inc. Brain emulation circuit with reduced confusion
US4866645A (en) * 1987-12-23 1989-09-12 North American Philips Corporation Neural network with dynamic refresh capability
US4918618A (en) * 1988-04-11 1990-04-17 Analog Intelligence Corporation Discrete weight neural network
US5055897A (en) * 1988-07-27 1991-10-08 Intel Corporation Semiconductor cell for neural network and the like
US4951239A (en) * 1988-10-27 1990-08-21 The United States Of America As Represented By The Secretary Of The Navy Artificial neural network implementation
US4906865A (en) * 1988-12-09 1990-03-06 Intel Corporation Sample and hold circuit for temporal associations in a neural network

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0652340A (ja) * 1992-05-30 1994-02-25 Gold Star Electron Co Ltd プログラムの可能な多層神経回路網

Also Published As

Publication number Publication date
EP0377908A2 (en) 1990-07-18
US5010512A (en) 1991-04-23
EP0377908A3 (en) 1991-03-20
EP0377908B1 (en) 1997-03-05
DE68927826D1 (de) 1997-04-10
JPH0551946B2 (ja) 1993-08-04

Similar Documents

Publication Publication Date Title
JPH02226492A (ja) ニユーラル・ネツトワーク
Khalid Review on various memristor models, characteristics, potential applications, and future works
US5028810A (en) Four quadrant synapse cell employing single column summing line
DE112018005726B4 (de) Resistive verarbeitungseinheit auf zählerbasis für programmierbare und rekonfigurierbare künstliche neuronale netzwerke
US11755897B2 (en) Artificial neural network circuit
US5706403A (en) Semiconductor neural circuit device
Morie et al. An all-analog expandable neural network LSI with on-chip backpropagation learning
US5537512A (en) Neural network elements
US4999525A (en) Exclusive-or cell for pattern matching employing floating gate devices
JPH0214389A (ja) 半導体集積回路
US6744299B2 (en) Electronic array having nodes and methods
US4961005A (en) Programmable neural circuit implementable in CMOS very large scale integration
JPH02210573A (ja) 多重帰還回路
US5237210A (en) Neural network accomodating parallel synaptic weight adjustments for correlation learning algorithms
Murray Silicon implementations of neural networks
Perez et al. Neuromorphic-based Boolean and reversible logic circuits from organic electrochemical transistors
EP0611464A1 (en) Silicon neuron
EP0433644B1 (en) A neural net for data-processing
US5220202A (en) Memory device and memory apparatus using the same suitable for neural network
Shibata et al. A self-learning neural-network LSI using neuron MOSFETs
Halawani et al. A re-configurable memristor array structure for in-memory computing applications
Ghosh et al. OTA-based neural network architectures with on-chip tuning of synapses
CN111384943B (zh) 一种柔性仿神经元电路及基于其的脉冲神经网络
CN115857871B (zh) 一种模糊逻辑全硬件计算电路及其设计方法
Zhao et al. Silicon neuron transistor based on CMOS negative differential resistance (NDR)