JPH0277871A - 神経回路網 - Google Patents

神経回路網

Info

Publication number
JPH0277871A
JPH0277871A JP63316922A JP31692288A JPH0277871A JP H0277871 A JPH0277871 A JP H0277871A JP 63316922 A JP63316922 A JP 63316922A JP 31692288 A JP31692288 A JP 31692288A JP H0277871 A JPH0277871 A JP H0277871A
Authority
JP
Japan
Prior art keywords
signal
output
circuit
input
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63316922A
Other languages
English (en)
Inventor
Kiyohiro Furuya
清広 古谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP63316922A priority Critical patent/JPH0277871A/ja
Priority to US07/365,461 priority patent/US5043913A/en
Publication of JPH0277871A publication Critical patent/JPH0277871A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、神経回路網に関し、より特定的には生物の
神経細胞を電気回路によって人工的に模擬した神経回路
網に関する。
[従来の技術] 最近、生物の神経細胞を人工的に模擬した神経回路網を
、パターン認識処理や人工知能の分野で応用する研究が
盛んに行なわれている。
この神経機能のシミュレーションの1つの手法として、
F−Rosenblattが提唱したパーセプトロンが
ある。第13図に、簡単化したパーセプトロンの概念図
を示す。この第13図の神経回路網は、神経細胞105
に、他の4つの神経細胞101〜104が、シナプスW
l 、 w2 、 w3、W4を介して結合した状態を
模擬している。
神経細胞101〜104が出力する刺激量をX。
〜X、と表わすと、神経細胞105に入力される刺激量
の総和は、fiwlxl となる。神経細胞1■=1 05は、第14図に示すように、入力される刺激量ΣW
iXlがしきい値りより大きい場合その出+sl 力yは“1″となり、入力される刺激量ΣWiX1+1 1がしきい値りより小さい場合、その出力yはMO″と
なる。
第13図の神経回路網を、神経細胞101〜104の出
力が(X + l  X2 +  X31  x4 )
のとき神経細胞105の出力yが期待値tとなるように
学習させるためには、シナプスの値Wi を、W、+ε
・Xi  (t−y) (i=1. 2. 3.4) に変化させる過程を繰返せばよいことが知られている。
なお、εは定数である。この学習過程は、出力yと期待
値tとの2乗誤差(y−t)2をいわゆる最急降下法に
よりて減少させること、すなわち、wlを−」L(y 
−t ) 2に比例した量、Wi すなわち 一±(y−t)2 Wi −主(f (Σw、 xO−t) 2 Wi oc −(y−t)  −X、  ・f′だけ変化させ
ることに相当している。
従来、このようなバーセプトロンの機能は、コンピュー
タのソフトウェア処理によって実現されていた。そのた
め、従来はパーセプトロンを利用する場合、コンピュー
タが必要となり、システムが複雑になるという問題点が
あった。そのため、パーセプトロンの手法を簡易なハー
ドウェア回路で実現することが要望されていた。
ところで、神経細胞の機能と学習動作のシミュレートを
パーセプトロンとは異なる手法を用いてハードウェア回
路で実現する技術が特開昭59−81755号公報に開
示されている。第15図は当該公報に開示されたシミュ
レート回路を示す図である。この第15図には、複数の
外部入力端子202を有する人工の神経単位が示されて
おり、これら外部入力端子202には、他の神経単位ま
たはセンサなどの外部の刺激源からの入力ラインI++
  I2+ ・・・INが接続されている。これらの外
部入力端子202は、それぞれシナプスS、。
S2.・・・、SNに接続されている。なお、各シナプ
スに付けられた符号(+)、  (−)は、対応のシナ
プスが刺激的(+)か抑制的(−)かを示している。
第15図の回路では、外部の刺激源から入カライン上の
1つに入力信号を受けると、それと対応するシナプスは
、そのシナプスのポテンシャル(以後、“シナプスの値
”という)を表わす4ビツトの数を、シナプスと出力発
生器205との間に接続されたデータバス204上に乗
せる。もしもシナプスが刺激的であれば、シナプスの値
は正であり、それは出力発生器205内に記憶された経
時変化する値に加算される。一方、もしもシナプスが抑
制的であれば、シナプスの値は、発生器内に記憶された
値から減算される。また、シナプスの値が正であるとと
もに、それによって発生器の値が予め定められたしきい
値を越えるならば、出力発生器は、1つあるいは複数の
神経単位の出力パルスを出力ライン206へ出力する。
これら神経単位の出力パルスは、(たとえば、ステップ
モータなどの)駆動器を制御するのに用いられるかもし
れない。あるいは、これらのパルスは、他の神経単位の
シナプスへ入力信号として供給され、さらに統合される
かもしれない。出力パルスはまたライン207を介して
もとの神経単位の各シナプスヘフィードバックされて、
出力パルスはシナプスの値の変化を制御する。第15図
のシミュレート回路は、正の固定器および負の固定器と
示された2つの入力端子208および209をさらに有
している。
今、外部の刺激源からたとえば刺激性のシナプスS2に
入力信号を受取った後、出力発生器205が出力信号を
導出した場合、シナプスの値が出力信号の生じた時点の
値から減少し始める。このとき、出力発生器205への
入力もシナプスの値に応じて変化するが、それに応じて
出力発生器205の出力が望ましい値となった時点で、
正の固定器信号が発生して入力端子208に入力され、
シナプスS2の値を固定する。
この学習動作すなわちシナプスの値の修正過程は、シナ
プスの値を初期値からカウントダウンしていき、出力発
生器205の出力が望ましい値になったときに、シナプ
スの値を固定するものなので、シナプスの値をしらみつ
ぶしにスキャンして最適化する方法になっている。その
ため、学習効率が悪いという問題点があった。これに対
し、前述したパーセプトロンの手法では、最急降下法に
よりシナプスの値を最適化するので、第15図に示すシ
ミュレーション回路よりも学習効率が良いと考えられる
。なぜならば、最急降下法では、2乗誤差の偏微分係数
の正負に基づいて出力が望ましい値よりも大きいか小さ
いかを決定し、出力が望ましい値よりも大きい場合には
シナプスの値を減少し、出力が望ましい値よりも小さい
場合にはシナプスの値を増加させるので、シナプスの値
が第15図の回路よりも早く最適値に収束するからであ
る。
[発明が解決しようとする課題] 以上説明したごとく、従来のパーセプトロンではその実
現のためにコンピュータが必要であり、システムが複雑
化するという問題点があった。また、第15図に示した
ハードウェアによる従来のシミュレート回路では、コン
ピュータは不要であるが、学習効率が悪いという問題点
があった。
この発明は上記のような問題点を解消するためになされ
たもので、生物の神経細胞の機能と学習動作をハードウ
ェア回路のみで実現でき、しかも学習効率の優れた神経
回路網を提供することを目的とする。
[課題を解決するための手段] この発明にかかる神経回路網は、与えられる制御信号に
応じて入出力端間の電気的結合度を変化し得る複数のシ
ナプス回路と、各シナプス回路の入力端にそれぞれ接続
されて各シナプス回路に論理信号を入力するための複数
の信号入力端子と、各シナプス回路の各出力端に共通接
続され、これらシナプス回路から出力されて統合された
アナログ信号を所定のしきい値電圧でレベル弁別して2
値の想起信号に変換するための信号変換手段と、各シナ
プス回路の学習のための教師信号を入力するための手段
と、想起信号と教師信号とに基づいてシナプス回路の電
気的結合度の増加と減少と停止とを制御するための制御
信号を発生する手段と、各シナプス回路と制御信号発生
手段の出力端との間に個別に設けられ、複数の信号入力
端子のうち対応のものから入力される論理信号に応答し
て開閉動作を行なう複数のゲート手段とを設けるように
したものである。
また、この発明にかかる他の神経回路網は、複数の論理
信号を入力するための複数の信号入力端子と、複数の信
号入力端子から複数の論理信号を受けて複数の中間段信
号を出力する第1の神経回路と、第1の神経回路から出
力される複数の中間段信号を入力信号として受けて少な
くとも1つの想起信号を出力する第2の神経回路と、第
1の神経回路の学習を行なうための第1の学習手段と、
第2の神経回路の学習を行なうための第2の学習手段と
を設けるようにしたものである。
[作用] この発明においては、制御信号発生手段によって発生さ
れる制御信号に基づいて、各シナプス回路の電気的結合
度の増加と減少と停止とを制御することにより、各シナ
プス回路の学習をいわゆる最急降下法によって行なうこ
とができ、したがって学習効率の良いパーセプトロンの
手法をハードウェアによって実現することができる。
また、この発明の他の神経回路網においては、2つの神
経回路を連結して2層構造の神経回路網を実現している
[実施例] 第1A図は、この発明の一実施例の構成を示す図である
。この第1A図の神経回路網は、入力信号x;  (j
=1. 2. 3.4)に対して想起信号y、  (i
=1. 2.3.4)を出力するパーセプトロンをハー
ドウェア化したものである。第1A図において、この実
施例は、複数の単位回路A1、〜A44がマトリクス状
に配置されたシナプスアレイSAIを備えている。なお
、第1A図のシナプスアレイSAIは、4行4列で構成
されているが、その行数および列数は、設計に応じて任
意の数に選べばよい。
各単位回路Aは、それぞれが第1B図に示すような構成
を有している。すなわち、単位回路AI」 (入力X、
と出力y+ に対応する単位回路)は、シナプス回路1
と、ANDゲート2および3とを備えている。シナプス
回路1は、カウンタ回路4と、可変結合素子5とから構
成される。
さらに、第1A図の神経回路網は、シナプスアレイSA
Iの各列に対応して、増幅器61〜64と、ANDゲー
ゲー1〜74と、ANDゲート8、〜84と、抵抗91
〜94とを備えている。増幅器6.〜64は、それぞれ
シナプスアレイSA1の対応の列からの信号j、〜j、
を受けて信号y、〜y4を出力する。この信号y1〜y
4は、それぞれが“1”もしくは“0”の2硫体号であ
る。ANDゲーゲー、〜7.のそれぞれの一方入力端に
は、外部から入力される教師信号t、〜t4が与えられ
る。この教師信号t1〜t4は、期待値を示す信号であ
り、それぞれが1”もしくは“0”の2硫体号である。
ANDゲーゲー1〜74のそれぞれの他方入力端には、
信号y1〜y4の反転信号が与えられる。ANDゲート
8、〜84のそれぞれの一方入力端には、教師信号t1
〜t4の反転信号が与えられる。ANDゲート8、〜8
4のそれぞれの他方入力端には、信号y1〜y4が与え
られる。ANDゲーゲー、〜74の出力および8.〜8
4の出力は、それぞれシナプスアレイSAIの対応の列
の単位回路に信号P1〜P、およびQ、〜Q、として与
えられる。
次に、第1A図および第1B図に示す実施例の動作を説
明する。まず、学習動作は、入力信号X、〜x4と、教
師信号t、〜t、とを入力することによって行なわれる
。なお、入力信号X1〜X4は、それぞれ、対応する行
の単位回路に与えられ、教師信号t、〜t4は、それぞ
れ、対応する列の単位回路に与えられる。今、入力信号
X、が与えられたとすると、出力信号y+は、V+ −
f  (ΣWijX、) ゲ4 となる。但し、fは増幅器61〜64の伝達関数であり
、第2図のような特性を持つ。また、W。
、は単位回路Aijにおける可変結合素子5の結合度を
示している。
ここで、ANDゲーゲー1の出力P、は、出力信号y1
の反転信号と教師信号1.との論理積であるので、yl
がL”、t、がH”のときのみ“H”となる。また、A
NDゲート8.の出力Q1は、出力信号y、と教師信号
t、の反転信号との論理積であるので、Y+が“H”、
t、が“L″のときのみ“H”となる。また、ANDゲ
ート2の出力INC,,は、入力信号X、と信号P、と
の論理積であるので、Xjが“H”+”iが“H”のと
きのみ“H”となる。また、ANDゲート3の出力DE
C,,は、入力信号X、と信号Q+との論理積であるの
で、X、が“H”、Q、が“H”のときのみ“H″とな
る。可変結合素子5の結合度WiJは、信号INC,,
が“H”のときに増加し、信号DEC,□が“H”のと
きに減少する。
まず、学習に先立って、リセット信号φ、によりカウン
タ回路4の値がクリアされる。次に、クロック信号φ、
が“H“となると、INC,J−“H”のとき、カウン
タ回路4の値が加算され、DEC,、=1H′のとき、
カウンタ回路4の値が減算される。このカウンタ回路4
の出力に応じて、可変結合素子5の結合度Wijが変更
される。
これで1回の学習が終了する。
上記の手順を繰返すことによって、学習が進行する。以
上の学習動作は、入力x、と出力y+ との間のシナプ
スの結合度Wijを、教師信号t。
を用いて、WijからWi ; +t: ・x;  (
t1=y1)に再急降下法により変化させるパーセプト
ロンの学習動作をシミュレートしている。したがって、
結合度Wijの収束速度が速く学習動作が効率的に行な
える。
次に、入力のパターンから成る一定のパターンを連想し
て出力する連想動作を説明する。入力信号Xjが与えら
れた場合、出力y、は前述のようにV+ =f (Σw
+ = X; )となる。そして、こJ+1 の出力信号y1が入力信号X、に対する連想出力、すな
わち想起信号となる。
第3図は、第1B図のシナプス回路1を構成する可変結
合素子WiJおよびカウンタ回路4の詳細な構成を示す
回路図である。図示のごとく、カウンタ回路4は、制御
回路41と、シフトレジスタ42とから構成される。シ
フトレジスタ42は、−15= 複数個の単位レジスタ42a〜42jを含む。これら単
位レジスタ42a〜42jは、半数ずつ2つのグループ
に分けられており、第1のグループ(単位レジスタ42
a〜42e)と第2のグループ(単位レジスタ42f〜
42j)との間は、2個のインバータ43および44で
接続されている。
インバータ43は、単位レジスタ42fがら42eに向
けてシフトされるデータを反転させる。インバータ44
は単位レジスタ42eから42fに向けてシフトされる
データを反転させる。最上位および最下位の単位レジス
タ42aおよび42jの入力端子は、いずれも接地され
ている。制御回路41は、シフトレジスタ42の動作を
制御する。
すなわち、制御回路41は、リセットパルスφ8に応答
して、すべての単位レジスタ42a〜42jの保持内容
をクリアする。また、制御回路41は、信号INC,,
およびDEC,、の値に応じて、シフトレジスタ42に
おけるデータのシフト方向を制御する。すなわち、制御
回路41は、INC,、=1であれば第3図の下がら上
へ向けてデータをシフトさせ、DEC,、=1であれば
第3図の上から下へ向けてデータをシフトさせる。
一方、可変結合素子5は、上記各単位レジスタ42a〜
42jと対応して設けられたトランジスタ51a〜51
jを備える。各トランジスタ51a〜51jのゲートは
、それぞれ、単位レジスタ42a〜42jの保持データ
出力を受ける。トランジスタ51a〜51eの各ドレイ
ンは共通接続され、Pチャネル型トランジスタ52を介
して電源線10aに接続される。この電源線10aには
、正の電圧+Vが印加されている。また、トランジスタ
51f〜51jの各ドレインは共通接続され、Nチャネ
ル型トランジスタ53を介して接地線10bに接続され
る。トランジスタ52のゲートには、入力信号X1の反
転信号がインバータ54によって与えられる。トランジ
スタ53のゲートには、入力信号Xjが与えられる。ト
ランジスタ51a〜51jの各ソースは、共通接続され
、対応の増幅器6.および負荷抵抗9.に接続される。
次に、第3図に示す回路動作を説明する。今、シフトレ
ジスタ42の各単位レジスタ42a、42b、−−−4
23の値が、たとえば(0000000000)のとき
に信号INC,,が“H”になると、単位レジスタ42
eにインバータ43の出力“1″が、単位レジスタ42
jに接地電位“0”がそれぞれシフトインされて、(0
000100000)となる。さらに、信号INC,,
が“H″になると、(0001100000)となる。
次に、信号DEC,,がH″になると、単位レジスタ4
2aに接地電位“0″が、単位レジスタ42fにインバ
ータ44の出力“0”がそれぞれシフトインされて(0
000100000)となる。
また、たとえば、シフトレジスタ42の値が(0000
000000)のとき、信号DEC,,が“H″になる
と、単位レジスタ42aに接地電位“0″が、単位レジ
スタ42fにインバータ44の出力“0”がそれぞれシ
フトインされて(0000100000)となる。また
、たとえば、シフトレジスタ42の値が(000000
0000)のとき、信号DEC,,が“H”になると、
単位レジスタ42fにインバータ44の出力“1”が、
単位レジスタ42aに接地電位“O”かそれぞれシフト
インされて(0000010000)となる。さらに、
信号DEC,,が”H”になると、(00000110
00)となる。次に、信号■NC,,が“H”になると
、単位レジスタ42eにインバータ43の出力″0″が
、単位レジスタ42jに接地電位がそれぞれシフトイン
されて(0000010000)となる。
以上のようにして、信号INC,,およびDEC+j 
によって制御されるシフトレジスタ42の状態が、たと
えば、(0001100000)の場合、正電圧+Vが
トランジスタ51dおよび51eを介して増幅器6.に
接続されるので、これは、結合度+2の刺激性のシナプ
ス結合となる。
また、シフトレジスタ42の状態が、たとえば、(00
00011000)のときは、接地電位OVがトランジ
スタ51fおよび51gを介して増幅器6.に接続され
るので、これは、結合度−2の抑制性のシナプス結合と
なる。
以上のように、第3図の構成によれば、刺激性と抑制性
の両方の結合のいずれにも変化し得るシナプス素子が実
現できる。
第1A図のシナプスアレイSAIを9行9列に拡張し、
第3図の+Vを5V、第3図のトランジスタ51a〜5
1jのオン抵抗を第3図の抵抗91の3倍とし、増幅器
6.のしきい値を0.8Vとし、各単位回路の初期値を
Oとして、入力X、〜X9 = (101000101
)に、y、〜ys = (010111010)を、入
力XI 〜Xs = (011011000)に、y1
〜Y9= (100100111)を、入力X、〜x9
=(00011011o)に、y、〜Vs = (11
1001001)を、入力X+ 〜Xs = (011
101110)に、y1〜Ys = (1000100
01)を、対応させる学習を行なうシミュレーションを
行なうと、各単位回路のカウンタの値が、第4図に示す
値に収束し、学習が完了した。
第5A図は、この発明の第2の実施例の構成を示すブロ
ック図である。この第2の実施例は、入力信号X;  
(J 〜1. 2+  3.4)に対して想起信号z、
(i=1.2.3.4)を出力する2層構造のパーセプ
トロンをハードウェア化したものである。なお、パーセ
プトロンを複数組合わせて想起出力を得る手法を、一般
にパックプロパゲーション法という。図において、入力
側のすなわち第1層目のパーセプトロンは、複数の単位
回路A、1〜A44がマトリクス状に配置された第1の
シナプスアレイSAIと、単位回路の各列ごとに設けら
れた複数の中間段回路C1〜C4とを備えている。この
第1層目のパーセプトロンは、入力信号X1〜X4に対
して、中間段の想起信号Y1〜Y4を出力する。各単位
回路Aの構成は、第5B図に示すように、第1B図に示
すものと同じである。一方、出力側のすなわち第2層目
のパーセプトロンは、複数の単位回路BIT〜B44が
マトリクス状に配置された第2のシナプスアレイSA2
と、単位回路の各行ごとに設けられた複数の出力段回路
り、〜D4とを備えている。この第2層目のパーセプト
ロンは、中間段の想起信号Y。
〜Y4を入力とし、最終段の想起信号2.〜2゜を出力
する。各単位回路Bの構成は、第5C図に示すように、
シナプス回路100の構成が単位回路Aにおけるシナプ
ス回路1の構成と若干具なっている。すなわち、シナプ
ス回路100は、3個の可変結合素子5α、5βおよび
5γを備えており、これら可変結合素子5α〜5γの結
合度は、カウンタ回路の出力によって変更される。なお
、可変結合素子5αは想起信号の形成のために用いられ
、可変結合素子5βおよび5γは、第1層目のパーセプ
トロンに入力すべき教師信号を作成するために用いられ
る。
第5D図は第5C図におけるシナプス回路100のさら
に詳細な構成を示す回路図である。図示のごとく、カウ
ンタ回路4の構成は第3図に示すそれと同じである。ま
た、可変結合素子5α、5βおよび5γの構成もそれぞ
れ第3図に示す可変結合素子5の構成と同じである。た
だし、可変結合素子5αの結合度は、信号Y、が“H”
のときに信号L1 として導出される。また、可変結合
素子5βの結合度は、信号R1が“H”のときに信号F
、として導出される。さらに、可変結合素子5γの結合
度は、信号S、がH”のときに信号E、として導出され
る。
第5E図は、第5A図における中間段回路の構成を示す
図である。なお、各中間段回路C4〜C4ともこの第5
E図に示す中間段回路Cと同じ構成を有している。この
中間段回路Cは、第1のシナプスアレイSAIの対応の
列から出力される信号J(L〜J4のいずれか)に基づ
いて、中間段の想起信号Y (Y、〜Y4のいずれか)
を作成し、第2のシナプスアレイSA2の対応の列に与
える機能と、第2のシナプスアレイSA2の対応の列か
ら出力されるイg号E (E、〜E4のいずれか)およ
びF(F、〜F4のいずれか)を教師信号として信号p
(p、〜P4のいずれか)およびQ (Q+〜Q4のい
ずれか)を作成し、第1のシナプスアレイSAIの対応
の列に与える機能とを有する。図において、第1のシナ
プスアレイSA1からの信号Jは、差動増幅器]、 1
 aおよび11bの各正側入力端に与えられるとともに
、差動増幅器11cの負側入力端に与えられる。また、
差動増幅器11aの負側入力端には基準電圧VrefM
が、差動増幅器11bの負側入力端には基準電圧Vre
fLが、差動増幅器11cの正側入力端には基準電圧V
refHがそれぞれ与えられる。
差動増幅器11aの出力は、中間段の想起信号Yとして
第2のシナプスアレイSA2の対応の列に与えられる。
差動増幅器11bおよび11Cの出力は、ANDゲート
12に与えられる。ANDゲート12の出力は、AND
ゲート13および14の各一方入力端に与えられる。一
方、第2のシナプスアレイSA2からの信号EおよびF
は、それぞれ差動増幅器15の正側入力端および負側入
力端に与えられる。差動増幅器15の出力は、ANDゲ
ート14の他方入力端に与えられるとともに、インバー
タ16によって反転されてANDゲート13の他方入力
端に与えられる。ANDゲート13および14の出力は
、それぞれ信号PおよびQとして第1のシナプスアレイ
SAIの対応の列に与えられる。
第5F図は、第5A図における出力段回路の構成を示す
図である。なお、各出力段回路り、〜D4ともこの第5
F図に示す出力段回路りと同じ構成を有している。この
出力段回路りは、第2のシナプスアレイSA2の対応の
行から出力される信号L(Ll〜L4のいずれか)に基
づいて、最終段の想起信号z(zl〜z4のいずれか)
を作成する機能と、この想起信号2および教師信号t(
1+〜t4のいずれか)を用いて信号R(R。
〜R4のいずれか)およびS(S、〜S4のいずれか)
を作成し、第2のシナプスアレイSA2の対応の行に与
える機能とを有する。図において、第2のシナプスアレ
イSA2からの信号しは、差動増幅器16aおよび16
bの各正側入力端に与えられるとともに、差動増幅器1
6cの負側入力端に与えられる。また、差動増幅器16
aの負側入力端には基準電圧VrefMが、差動増幅器
16bの負側入力端には基準電圧VrefLが、差動増
幅器16cの正側入力端には基準電圧VrefHがそれ
ぞれ与えられる。差動増幅器16aの出力は、最終段の
想起信号2として外部へ導出される。差動増幅器16b
および16cの出力はANDゲート17に与えられる。
ANDゲート17の出力は、ANDゲート18および1
9の各一方入力端に与えられる。教師信号tは、AND
ゲート20の一方入力端に与えられる。また、教師信号
tの反転信号がANDゲート21の一方入力端に与えら
れる。ANDゲート20の他方入力端には、想起信号2
の反転信号が与えられる。ANDゲート21の他方入力
端には想起信号2が与えられる。ANDゲート20およ
び21の出力は、それぞれ、ANDゲート18および1
9の各他方入力端に与えられる。ANDゲート18およ
び19の出力は、それぞれ信号RおよびSとして第2の
シナプスアレイSA2の対応の行に与えられる。
次に、第5A図〜第5F図に示す実施例における学習動
作の原理を説明する。この実施例における学習動作は、
第1A図に示す実施例と同様に、想起信号21〜z4と
教師信号t1〜t4との誤差が小さくなるように、最急
降下法によって各シナプスの結合度を変化させることに
よって行なわれる。なお、以下の説明においては、第5
B図に示される単位回路A1Jの可変結合素子5の結合
度をu1□で、第5C図で示される単位回路B。
、の可変結合素子5α、5β、5γの各結合度をWij
で表わすこととする。
第5A図〜第5F図の実施例において適用される最急降
下法では、誤差EがE=刊(z、−を叉)2のとき、結
合度U+jおよびWijを、それぞれ、 一一非・に比例したた量Δw1、 aWり だけ変化させて、結合度uijおよびWijを最適化す
ることになる。
今、入力がXjのときの中間段の出力Y、は、Yi =
 f  (写u + = X; )となる。但し、fは
差動増幅器11aの伝達関数である。この中間段の出力
Y1を入力Y、としたときの最終段の出力21は、z+
−g(ΣwlJY7)となる。但し、gは増幅器16a
の伝達関数である。
ここで、誤差Eを前述のごと<、E−−yΣ(Fll、
)2 としたときのΔWij およびΔuijは、それ
ぞれ、 =−モ昔製 −(Zt   ”+ )’ g’ +  ’Y+=−Σ
 (zl −t9.)・wll IIxJ交 °g′叉 ・f′。
1jXJ)である0 そこで、結合度Wijの学習は、Zi−“H“。
1、−“L”、Y、=“H” 、  g’ 、≠0のと
きに結合度Wijを減少させ、Zl =“L″+  1
゜=“H”、Y1=“H”1g′、≠0のときに結合度
Wijを増加させることによって行なう。なおg’+の
値は、gの特性を第6図のように仮定すると、Ll−Σ
Wi J Y4の値がVrefLより大きくVrefH
より小さい場合のみ0でない。
一方、結合度ulJの学習に際しては、Σ(zlス ”1) wg+  g’x  を求める必要があるが、
ICチップでは、負の値は使えない。そこで、g′2≠
0.zl  tl>oとなるtについてのΣWよ。
又 (これをEとする)と、g′又 ≠0.zl   を又
く0となる住についてのΣW□1 (これをFとす! る)とを求め、E>F、f’ 、≠0.  x、 =“
H”のときに結合度uiJを減少させ、ELF、f’i
≠O,Xj =“H″のときに結合度uijを増加させ
ることによって学習を行なう。なお、f′1の値は、f
の特性を第6図に示すgの特性と同じと仮定すると、L
=Σuij xJの値がVrefLより大き(Vref
Hより小さい場合のみOでない。
次に、第5A図〜第5F図に示す実施例のより具体的な
動作について説明する。まず、学習動作に先立って、リ
セット信号φ6により、第1のシナプスアレイSAIの
各単位回路Aおよび第2のシナプスアレイSA2の各単
位回路Bにおけるカウンタ回路4をリセットする。続い
て、入力信号XJに応じて、差動増幅器11aが、Y、
−f(Ji ) −f (写ut J X= )を出力
する。また、差動増幅器16aは、Zi −g (L+
 > −g (写Wゴ、Yj)を出力する。
ここで、中間段回路CのANDゲート12の出力は、J
 + =E ui j X=の値がVrefLより大き
く、VrefHより小さい場合のみ“H”となり、f/
、が0でないことを示す。一方、出力段回路りのAND
ゲート17の出力は、Ll−Σwl;YJの値がVre
fLより大きく、VrefHより小さい場合のみ“H″
となり、g Zが0でないことを示す。
ANDゲート18の出力R2は、Zi=“H″。
1、=“H″で、ANDゲート17の出力が“H″のと
きのみ“H”となる。ANDゲート19の出力S、は、
2.−“H”、t、−“L”で、ANDゲート17の出
力がH”のときのみ“H2となる。
単位回路B1.におけるANDゲート2の出力INC,
,は、Y、 −”H’ 、R,−“H”のときのみ“H
”となる。単位回路BtjにおけるANDゲートの出力
DEC,,は、Y、=“H″。
S、=“H“のときのみ“H“となる。シナプス回路1
00の各可変結合素子5α〜5γの各結合度Wij は
、INC,、=“H”のとき増加し、DEC,、−“H
”のときに減少する。すなわち、クロック信号φ1が′
H″のときに、カウンタ回路4を、INC,、=“H”
ならカウントアツプし、DEC,J=“H”ならカウン
トダウンし、可変結合素子5α〜5γの各結合度Wij
をカウンタ回路4の出力に応じて変化させるのである。
なお、各可変結合素子5α〜5γの結合度WiJは、同
じ値に設定される。以上で、結合度WiJの調整が、1
回行なわれた。
次に、uijの調整を行なう。前述のごとく、R1はZ
i=“H″、t、=“H” 、 g” 、≠0のとき“
H”となり、Slはz1=“H”+  t!=“L”1
g′、≠のとき“H”となる。そして、第5C図の可変
結合素子5γは、Slを取込んで、E、−Σwi J 
S+ giを生成する。また、可変結合素子5βは、R
1を取込んで、FJ −1w。
JR,g、を生成する。これらE□およびFJは、差動
増幅器15に入力される。この差動増幅器15は、E、
>F、のとき“H”を、E、<F、のとさ“L”を出力
する。したがって、ANDゲート13の出力P、は、E
、<F、でかつf/、≠0のときのみ′H″となる。ま
た、ANDゲート14の出力Q1は、E、>F、でかつ
f/、≠0のときのみ“H″となる。そして、単位回路
A1、におけるANDゲート2の出力INC,,は、X
、−“H” 、P、=“H”のときのみ“H”となる。
また、単位回路AijにおけるANDゲート3の出力D
EC,Jは、XJ =“H”、Q、=“H”のときのみ
“H”となる。シナプス回路1の可変結合素子5の結合
度uiJは、INC,。
−“H“のとき増加し、DEC,、−“Hのとき減少す
る。すなわち、クロック信号φ、が“H”のときにカウ
ンタ回路4を、INC,J=“H″ならカウントアツプ
し、DEC,、=“H”ならカウントダウンし、可変結
合素子5の結合度Lli1をカウンタ回路4の出力に応
じて変化させるのである。以上で、uiJの調整が1回
行なわれた。
上記のWij とuijの調整を繰返して行なうことに
より、学習が進行する。
次に、連想動作について説明する。学習後、入力信号X
jが与えられたとすると、差動増幅器11aが)’+ 
=f (ΣLli j Xj )を出力し、差動増幅器
16aがz+”’g(Σw+ ; YJ)を出力する。
このzlが、入力X、に対する連想出力、すなわち想起
信号となる。
次に、本発明の神経回路網を用いて、排他的論理和回路
を実現する場合を考えてみる。周知のごとく、排他的論
理和回路の入力X、〜X2と出力y、との論理関係は、
第7図に示されるようになる。このような排他的論理和
回路を、第8図に示すような1層のパーセプトロンで実
現しようとすると、神経細胞105のしきい値を0. 
5とすれば、(X+ 、X2 ) −〇のときy1=1
となるためには、シナプスW1の値は0.5以上である
必要があり、(X+ l X2 ) = (0,1)の
ときy1=1となるためには、シナプスW1の値は0゜
5以上である必要がある。したがって、(Xl。
X2 ) = (1,1)のときyl−1となってしま
う。このことから明らかなように、排他的論理和回路は
1層のパーセプトロンでは実現できない。
しかし、第9図に示すような2層のパーセプトロンでは
実現できる。この第9図の神経回路網の各部の構成は、
第5B図〜第5F図に示すものと同様である。但し、第
9図の神経回路網は、2人力(x++  X2)+  
1出力(zl)であるため、第5A図に示す神経回路網
に比べて回路規模が縮小されている。
第9図に示す神経回路網で排他的論理和回路の入力と出
力の関係を学習するシミュレーションを行なった。なお
、第5D図の+Vを5Vとし、第5D図のトランジスタ
51a〜51jのオン抵抗を第9図の抵抗9.および9
□の抵抗値の3倍とし、VrefH=1.3V、Vre
fM=0.8V、VrefL=0.3Vとし、第9図の
単位回路A11・A21・A12・A22・E3++・
B12のカウンタの初期値をそれぞれ3. 0. 0゜
3.0.0とした。そして、第10図の手順で学習を行
なった。第10図の手順は学習のループ回数が3の倍数
のときだけ中間層UiJの学習を行なっている。結合度
Uの学習とWの学習の方法は、第5A図の神経回路網と
同じである。
第10図の手順で学習したところ、ループ回数=10の
とき、単位回路All、AI□、A21゜A2□+  
BI I +  B+ 2の値は、3.−3.−3゜3
.2.2となって学習が完了した。このように、第9図
の2層のパーセプトロンは、1層のパーセプトロンで実
現できない機能を実現できる。
なお、以上説明した実施例では、可変結合素子にトラン
ジスタを用いたものを示したが、EEPROM素子を用
いてもよい。この場合、ICの製造プロセスは複雑化す
るが、素子数が減少するので、チップ面積を小さくする
ことができる。
第11A図は、EEPROM素子を用いて構成した単位
回路の一例を示す回路図である。図において、単位回路
Eijは、EEPROM素子として、フローティングゲ
ートを有するMOS型のトランジスタ21を含む。この
トランジスタ21のコントロールゲート22は、トラン
ジスタ25を介して信号線33.(信号Q+が与えられ
る信号線)に接続されるとともに、トランジスタ26を
介して信号線34.(信号P1が与えられる信号線)に
接続される。また、トランジスタ21のソース23は、
信号線34、に接続される。さらに、トランジスタ21
のドレイン24は、抵抗20の一端に接続されるととも
に、トランジスタ30および31の各ゲートに接続され
る。抵抗20の他端は、トランジスタ27を介して信号
線35+(信号P′1を導出する信号線)に接続される
とともに、トランジスタ28を介して信号線34゜に接
続される。トランジスタ30および31は直列接続され
、その共通接続点は信号線36+ (信号It を導出
する信号線)に接続される。トランジスタ30と電源(
+V)との間にはトランジスタ29が介挿される。トラ
ンジスタ31と接地との間にはトランジスタ32が介挿
される。トランジスタ25.27および29の各ゲート
には、入力信号Xjが与えられる。トランジスタ26,
28および32の各ゲートには、入力信号Xjの反転信
号マ、が与えられる。なお、トランジスタ25〜30は
、Nチャネル型MO8)ランジスタてあり、トランジス
タ31および32はPチャネル型MO3)ランジスタで
ある。
第11B図は、第11.A図に示す単位回路を用いて構
成された神経回路網の構成を示す図である。
なお、この神経回路網は、外部からの入力信号EXt−
x1〜EXt−x4に対して想起信号y1〜y4を出力
する1層のパーセプトロンをハードウェア化したもので
ある。図において、第11A図に示す単位回路が複数個
(E4.〜E44)配置されて、シナプスアレイSA3
が構成される。
このシナプスアレイSA3の各行に対応して、ANDゲ
ート01〜G4が設けられる。これらANDゲートG、
〜G4の各一方入力端には、それぞれ、外部からの入力
信号Ext−X、〜Ext・X4が与えられる。また、
ANDゲート01〜G4の各他方入力端には、制御信号
φ1oが与えられる。ANDゲーゲー、〜G4の出力は
、それぞれシナプスアレイSA3の対応の行に入力信号
X、〜X、として与えられる。また、ANDゲーゲー、
〜G4の出力は、それぞれインバータIV。
−〜Iv4を介してシナプスアレイSA3の対応の行に
反転入力信号マ、〜″¥4として与えられる。
シナプスアレイSA3の出力側には、各列に対応して出
力段回路F、〜F、が設けられる。なお、各出力段回路
F、〜F4は、それぞれが同一の回路構成を有している
が、第11B図では、図示を簡略化するため、出力段回
路F1の回路構成のみを示している。出力段回路F1に
おいて、信号線36、は増幅器371の入力端に接続さ
れる。増幅器371の出力はラッチ回路38.の入力端
に与えられる。このラッチ回路381は、制御信号φ、
2によってそのラッチ動作が制御される。ラッチ回路3
8.の出力は出力信号y、として外部に導出される。ま
た、ラッチ回路38.の出力はANDゲート391の一
方入力端に与えられるとともに、ANDゲート40.の
一方入力端に反転して与えられる。ANDゲート39.
の他方入力端には教師信号t、が反転して与えられ、A
NDゲート401の他方入力端には教師信号t、がその
まま与えられる。ANDゲート39.および40、の出
力は、それぞれ、信号線33.および34、に導出され
る。これら信号線331および341には、それぞれ、
トランジスタスイッチ41、および42.か介挿されて
いる。また、信号線34、と信号線351との間にもト
ランジスタスイッチ431が介挿されている。これらト
ランジスタスイッチ41.〜431は、それぞれがPチ
ャネル型のMOS)ランジスタとNチャネル型のMOS
トランジスタとを並列に接合して構成されている。これ
ら並列に接合されたPチャネル型MOSトランジスタと
Nチャネル型MO3)ランジスタは、そのオン・オフが
、互いに相補する制御信号φ、1およびφ4.によって
それぞれ制御される。
さらに、第11B図の神経回路網では、Nチャネル型の
MOS)ランジスタ44.を介して信号線331に電圧
V、が与えられ、Pチャネル型のMOSトランジスタ4
5.を介して信号線341に電圧V、が与えられ、Nチ
ャネル型のMOS)ランジスタ461を介して信号線3
5.が接地される。トランジスタ44.および46.の
導通−非導通は、制御信号φ4.によって制御され、ト
ランジスタ451の導通・非導通は、制御信号T、1に
よって制御される。なお、シナプスアレイSA3の他の
列も、上記と同様の構成を備えている。
第11C図は、第11B図に示す増幅器37゜の回路構
成の一例を示す図である。図において、入力端子44.
は、差動増幅器451の一側入力端に接続されるととも
に、抵抗461を介して差動増幅器45.の出力端に接
続される。差動増幅器45.の+側入力端には、電圧v
Rが印加される。また、差動増幅器45.の出力端は、
差動増幅器47.の−側入力端に接続される。差動増幅
器471の+側入力端には、電圧VrefMが印加され
る。差動増幅器471の出力端は出力端子48、に接続
される。ここで、差動増幅器451の入力電圧Viと出
力電圧Voの関係は、差動増幅器の利得を−Gとして、
Vo−V、 =−G (Vi−V、)とすると、差動増
幅器451の入力端子44.に流れ込む電流を1とすれ
ば、−Gの絶対値が大きいとき、Vo=Vg −I R
,V i =V、となる。入力端子44.に流れ込む電
流Iが大きくて、VoがVrefMよりも小さいとき、
差動増幅器471の出力は“H”となる。入力端子Vi
に流れ込む電流が小さくてVoがVrefMよりも大き
いとき、差動増幅器471の出力は“L”となる。した
がって、第11B図の増幅器37、は、第1A図の増幅
器61と同様の働きをする。
第11A図〜第11C図に示すような構成において、入
力信号Xjを“H”、信号QiをVS+信号P1をVQ
、p’ 、をOvとすると、トランジスタ21のしきい
値が低いときは信号線34゜から抵抗20に大きい電流
が流れて、ノードN1の電位が、Vll +VT HN
  (VT HNはNチャネル型MOSトランジスタの
しきい値電圧)以上になる。信号線36+の電位は、前
述のように増幅器37.の働きでV、に保たれているの
で、トランジスタ30が導通して電源+Vから信号線3
61に電流が流れ込む。一方、トランジスタ21のしき
い値が高いときは、信号線34.から抵抗20に流れ込
む電流が小さいので、ノードN1の電位が、Vg   
lVT+pl(VTHpはPチャネル型MO3)ランジ
スタのしきい値電圧)よりも小さくなる。ここで、信号
線36.の電位はV。
であるから、Pチャネル型トランジスタ31が導通する
。そのため、信号線36.からトランジスタ31および
32を介して接地に電流が流れ出す。
したがって、トランジスタ21のしきい値が低いときは
刺激性のシナプスとなり、トランジスタ21のしきい値
が高いときは抑制性のシナプスとなる。
第12図は、第11A図〜第11C図に示す実施例の動
作を説明するためのタイミングチャートである。以下、
この第12図を参照して、第11A図〜第11C図に示
す実施例の動作を説明する。
まず、連想動作について説明する。時刻T、で、制御信
号φ1.が“L″、<61 +が“L”になると、トラ
ンジスタ44..45.および46.が導通し、トラン
ジスタスイッチ4L、42.および431が非導通とな
る。そのため、信号線341に正電位VQが、信号線3
3.に基準電位V、が、信号線35.に接地電位OVが
印加される。
次に時刻T2で制御信号φ、。が“H”になると、外部
からの入力信号EXt−x1が“H”ならば、Xl−“
H”、マ、=“L”となり、逆に、Extaxlが“L
”ならば、Xi =“L”、7.−“H”となる。する
と、入力信号X、が“H”である単位回路EiJのトラ
ンジスタ21のしきい値が低いときは信号線36.に電
流が流れ込み、逆に、トランジスタ21のしきい値が高
いときは信号線36.から電流が流れ出す。各単位回路
E1jから信号線36.に流れ込む電流と流れ出す電流
の差し引きが一定量より大きいときは、増幅器37.の
出力が“H”、逆に少ないときは“L”となる。ラッチ
回路38;は、時刻T3のときに制御信号φ、2が“L
“となると、そのときの出力y、の値を記憶する。
次に、学習動作について説明する。学習動作においては
、外部からの入力信号Ext−x、〜Ext*x4が与
えられるとともに、教師信号t。
〜t4が与えられる。今、出力y+の値が教師信号1.
の値と異なる場合には、EEFROM素子すなわちトラ
ンジスタ21のしきい値を変化させて学習する必要があ
る。まず、教師信号1.−“L″のとき、出力y、が“
H”だった場合、ANDゲート39.および40.の出
力は、それぞれ、“H”および“L”となる。時刻T、
でφ11=“L”およびφ4.−“H”となると、トラ
ンジスタ44..45.および46.は非導通状態とな
り、トランジスタスイッチ41..42゜および431
は導通状態となる。したがって、信号Q、は“H”とな
り、信号P、およびP′iは“L”となる。次に、時刻
T5で制御信号φ1゜が“H”となると、外部からの入
力信号Ext・X、が“H”の場合だけXj =“H“
、Y4=“L”となり、第11A図のトランジスタ26
および28は非導通状態となり、トランジスタ25およ
び27は導通状態となる。そのため、トランジスタ21
のコントロールゲート22は“H”、ソース23および
ドレイン24は“L″となる。
そのため、トランジスタ21のフローティングゲートに
電子がトンネル現象により、ソース23およびドレイン
24から注入されるので、トランジスタ21のしきい値
が上昇し、シナプスの結合度が減少する。
一方、教師信号t、−“H”のとき、出力y1=“L″
だった場合、ANDゲート391および40□の出力は
、それぞれ、“L”および“H”となる。時刻T4でφ
4.=“L”、φ4.−“L″となると、トランジスタ
44..45.および46.は非導通状態となり、トラ
ンジスタスイッチ4L 、421および43.は導通状
態となる。そのため、信号Q+ は“L”、信号P、お
よびp/1は“H”となる。次に、時刻T5で制御信号
φ、。が“H”になると、外部からの入力信号Ext−
XJが”H”の場合だけ、x、=“H”、X、=“L”
となり、トランジスタ21のコントロールゲート22は
“L”、ソース23およびドレイン24は“H”となる
。そのため、トランジスタ21のフローティングゲート
から電子がトンネル現象により、ソース23およびドレ
イン24に放出されるので、トランジスタ24のしきい
値が低下し、シナプスの結合度が増加する。
なお、時刻T4からT7の1回の学習動作で、学習が完
了しない場合は、時刻T、からT3の連想動作と、T4
からT、の学習動作とを繰返して行なう。但し、1回の
学習によるトランジスタ21のしきい値の変化量は、コ
ントロールゲートとソース・ドレインとの間に印加する
電圧の大きさや電圧を印加する時間(T5〜T6)の長
さを変えることによって調節することかできる。
以上のようにして、第11A図〜第11C図の実施例は
、第1A図および第1B図の実施例と同様に連想動作や
学習動作ができる。
なお、第5A図に示すような2層のパーセプトロンにつ
いても、EEPROM素子を用いて各単位回路を構成で
きることはいうまでもない。
[発明の効果] 以上のように、この発明によれば、生物の神経細胞の機
能と学習動作を簡易なハードウェア回路で実現でき、し
かもパーセプトロンの動作を模擬しているので、学習効
率の優れた神経回路網を得ることができる。
【図面の簡単な説明】 第1A図は、この発明の第1の実施例の構成を示す図で
ある。 第1B図は、第1A図に示された単位回路の構成を示す
図である。 第2図は、第1A図に示す増幅器61〜64の伝達関数
を示すグラフである。 第3図は、第1B図に示すシナプス回路1を構成する可
変結合素子5およびカウンタ回路4の詳細な構成を示す
回路図である。 第4図は、第1A図の実施例を9行9列に拡張し、シミ
ュレーションを行なったときに、各可変結合素子の結合
度の収束値の一例を示す図である。 第5A図は、この発明の第2の実施例の構成を示すブロ
ック図である。 第5B図は、第5A図に示す単位回路Aの構成を示す図
である。 第5C図は、第5A図に示す単位回路Bの構成を示す図
である。 第5D図は、第5C図におけるシナプス回路100のさ
らに詳細な説明を示す回路図である。 第5E図は、第5A図に示す中間段回路Cの構成を示す
図である。 第5F図は、第5A図に示す出力段回路りの構成を示す
図である。 第6図は、第5F図に示す増幅器16aの伝達関数を示
すグラフである。 第7図は、いわゆる排他的論理和回路の入力と出力の論
理関係を示す図である。 第8図は、1層のバーセプトロンの一例を示す模式図で
ある。 第9図は、この発明の実施例の2層の神経回路網によっ
て構成された排他的論理和回路を示す図である。 第10図は、第11図に示す神経回路網の学習のための
シミュレーションの手順を示すフローチャートである。 第11A図は、EEPROM素子を用いて構成した単位
回路の一例を示す回路図である。 第11B図は、第11A図に示す単位回路を用いて構成
されたこの発明の第3の実施例の神経回路網の構成を示
す図である。 第11C図は、第11B図に示す増幅器37゜の構成の
一例を示す回路図である。 第12図は、第11B図の実施例の動作を説明するたの
タイミングチャートである。 第13図は、従来のパーセプトロンの概念を模= 49
− 成約に示した図である。 第14図は、第13図に示される神経細胞1゜5の出力
特性を示すグラフである。 第15図は、神経細胞の機能と学習動作のシミュレーシ
ョンをパーセプトロンとは異なる手法を用いて実現した
従来のハードウェア回路を示すブロック図である。 図において、SA1はシナプスアレイ、Aは単位回路、
1はシナプス回路、4はカウンタ回路、5は可変結合素
子、6.〜64は増幅器、SA2はシナプスアレイ、B
叫単位回路、Cは中間段回路、Dは出力段回路、5α〜
5γは可変結合素子、SA3はシナプスアレイ、Eは単
位回路を示す。

Claims (2)

    【特許請求の範囲】
  1. (1)与えられる制御信号に応じて、入出力端間の電気
    的結合度を変化し得る複数のシナプス回路、 前記各シナプス回路の入力端にそれぞれ接続されて各シ
    ナプス回路に論理信号を入力するための複数の信号入力
    端子、 前記各シナプス回路の各出力端に共通接続され、これら
    シナプス回路から出力されて統合されたアナログ信号を
    所定のしきい値電圧でレベル弁別して2値の想起信号に
    変換するための信号変換手段、前記各シナプス回路の学
    習のための教師信号を入力するための手段、 前記想起信号と、前記教師信号とに基づいて、前記シナ
    プス回路の電気的結合度の増加と減少と停止とを制御す
    るための前記制御信号を発生する手段、および 前記各シナプス回路と前記制御信号発生手段の出力端と
    の間に個別に設けられ、前記複数の信号入力端子のうち
    対応のものから入力される論理信号に応答して開閉動作
    を行なう複数のゲート手段を備える、神経回路網。
  2. (2)複数の論理信号を入力するための複数の信号入力
    端子、 前記複数の信号入力端子から複数の論理信号を受けて複
    数の中間段信号を出力する第1の神経回路、 前記第1の神経回路から出力される前記複数の中間段信
    号を入力信号として受けて少なくとも1つの想起信号を
    出力する第2の神経回路、 前記第1の神経回路の学習を行なうための第1の学習手
    段、および 前記第2の神経回路の学習を行なうための第2の学習手
    段を備える、神経回路網。
JP63316922A 1988-06-14 1988-12-14 神経回路網 Pending JPH0277871A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP63316922A JPH0277871A (ja) 1988-06-14 1988-12-14 神経回路網
US07/365,461 US5043913A (en) 1988-06-14 1989-06-13 Neural network

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP14770688 1988-06-14
JP63-147706 1988-06-14
JP63316922A JPH0277871A (ja) 1988-06-14 1988-12-14 神経回路網

Publications (1)

Publication Number Publication Date
JPH0277871A true JPH0277871A (ja) 1990-03-16

Family

ID=26478165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63316922A Pending JPH0277871A (ja) 1988-06-14 1988-12-14 神経回路網

Country Status (2)

Country Link
US (1) US5043913A (ja)
JP (1) JPH0277871A (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5588091A (en) * 1989-05-17 1996-12-24 Environmental Research Institute Of Michigan Dynamically stable associative learning neural network system
US6041398A (en) * 1992-06-26 2000-03-21 International Business Machines Corporation Massively parallel multiple-folded clustered processor mesh array
US5581662A (en) * 1989-12-29 1996-12-03 Ricoh Company, Ltd. Signal processing apparatus including plural aggregates
US5167006A (en) * 1989-12-29 1992-11-24 Ricoh Company, Ltd. Neuron unit, neural network and signal processing method
US5148515A (en) * 1990-05-22 1992-09-15 International Business Machines Corp. Scalable neural array processor and method
US5251287A (en) * 1990-05-22 1993-10-05 International Business Machines Corporation Apparatus and method for neural processing
US5214747A (en) * 1990-12-24 1993-05-25 Eastman Kodak Company Segmented neural network with daisy chain control
JPH04266153A (ja) * 1991-02-20 1992-09-22 Honda Motor Co Ltd ニューラルネットワーク
US5249954A (en) * 1992-07-07 1993-10-05 Electric Power Research Institute, Inc. Integrated imaging sensor/neural network controller for combustion systems
US5355436A (en) * 1992-10-05 1994-10-11 The Research Foundation, State University Of New York At Buffalo Single layer neural network circuit for performing linearly separable and non-linearly separable logical operations
KR970007006B1 (ko) * 1993-08-31 1997-05-01 한국전자통신연구원 인공 신경 회로와 패턴 분리 및 인식용 발진 신경 망의 구조
JP2002259939A (ja) * 2001-03-05 2002-09-13 Kitakiyuushiyuu Techno Center:Kk 連想メモリーベースコンピュータ
US11611352B2 (en) * 2017-07-11 2023-03-21 Technion Research & Development Foundation Limited Reconfigurable DAC implemented by memristor based neural network
WO2019147522A2 (en) * 2018-01-23 2019-08-01 Anaflash Inc. Neural network circuits having non-volatile synapse arrays

Also Published As

Publication number Publication date
US5043913A (en) 1991-08-27

Similar Documents

Publication Publication Date Title
EP0349007B1 (en) Semiconductor integrated circuit for neural network
Satyanarayana et al. A reconfigurable VLSI neural network
Azghadi et al. Spike-based synaptic plasticity in silicon: design, implementation, application, and challenges
Eberhardt et al. Design of parallel hardware neural network systems from custom analog VLSI'building block'chips
Hollis et al. Artificial neural networks using MOS analog multipliers
Murray et al. Asynchronous VLSI neural networks using pulse-stream arithmetic
US5537512A (en) Neural network elements
US5706403A (en) Semiconductor neural circuit device
JPH0277871A (ja) 神経回路網
US5021988A (en) Semiconductor neural network and method of driving the same
US5010512A (en) Neural network having an associative memory that learns by example
WO1990004836A1 (en) Artificial neural network implementation
US10839898B2 (en) Differential memristive circuit
US5101361A (en) Analog hardware for delta-backpropagation neural networks
US11055611B2 (en) Circuit for CMOS based resistive processing unit
Foo et al. Analog components for the VLSI of neural networks
US5353382A (en) Programmable synapse for neural network applications
CN114429199A (zh) 可扩展的仿神经电路
KR20200110582A (ko) 신경망을 위한 시냅스 스트링 및 시냅스 스트링 어레이
Wu et al. CMOS current-mode neural associative memory design with on-chip learning
Kier et al. Design and implementation of multipattern generators in analog VLSI
US5704014A (en) Voltage-current conversion circuit employing MOS transistor cells as synapses of neural network
Mathews et al. Physical computing for hopfield networks on a reconfigurable analog IC
Amaral et al. Towards evolvable analog artificial neural networks controllers
Kim et al. A programmable analog CMOS synapse for neural networks