JP2976835B2 - ニューラルネットワーク装置 - Google Patents

ニューラルネットワーク装置

Info

Publication number
JP2976835B2
JP2976835B2 JP7038254A JP3825495A JP2976835B2 JP 2976835 B2 JP2976835 B2 JP 2976835B2 JP 7038254 A JP7038254 A JP 7038254A JP 3825495 A JP3825495 A JP 3825495A JP 2976835 B2 JP2976835 B2 JP 2976835B2
Authority
JP
Japan
Prior art keywords
output
synapse
value
load value
synapse load
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP7038254A
Other languages
English (en)
Other versions
JPH08235144A (ja
Inventor
冬樹 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP7038254A priority Critical patent/JP2976835B2/ja
Publication of JPH08235144A publication Critical patent/JPH08235144A/ja
Application granted granted Critical
Publication of JP2976835B2 publication Critical patent/JP2976835B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はニューラルネットワーク
装置に関し、特にシナプスセルを含むニューラルネット
ワーク装置に関する。
【0002】
【従来の技術】ニューラルネットワーク装置ではニュー
ロン同志はシナプス結合で結ばれている。あるニューロ
ン(これをニューロンAとする)に信号を入れると、ニ
ューロンAの出力信号は、別のニューロンBへ、シナプ
ス結合を介して、入力される。そしてニューロンBの出
力信号は、また別のニューロンCの入力となり…という
ように、信号がシナプス結合を介しながら、ニューロン
からニューロンへと伝わっていく。このようにして信号
が伝播していき、最後のニューロンから最終的な出力が
得られる。
【0003】通常各ニューロンとシナプスとは併せて次
の計算をしている。すなわち、入力信号Ij(j=1〜
N)を受けて、シナプス荷重値Wijを使用して
【0004】
【0005】を計算する。さらにニューロンの出力Oj
が計算され、
【0006】
【0007】となる。ここでhi は閾値である。またθ
(x)はステップ関数であって、 θ(x)=1(x≧1) θ(x)=0(x<0) である。
【0008】数式表現をきれいにするために、通常hi
を、I0=-1という仮想入力に対する重みWi0とみな
し、
【0009】
【0010】とする。なお、便宜上今後は
【0011】
【0012】をneti と記すことにする。すなわち、
第i番目のニューロンの出力は、Oi=θ(neti
である。
【0013】信号がニューロンからニューロンへと伝播
していき最後に得られる最終出力と、望ましい出力(期
待値)とを比べ、その差が減少するようにシナプス荷重
を変化させることを、「学習」と呼ぶ。実際にどのよ
うな規則にしたがってシナプス荷重値を変えていくかの
学習則は様々なものが提案されている。最も基本の学習
則がデルタ則である。そこで、以下ではデルタ則につい
て説明する。なお、デルタ則の一般的解説は、例えば文
献「PDPモデル」(D.E.ラメルハート他著、甘利
監訳、産業図書)に詳しく解説されている。
【0014】デルタ則ではシナプス荷重値Wijを教師信
号Ti,ニューロンの出力Oiおよびニューロンの入力信
号Iiを用いて次式にしたがって修正する。ΔWij=ε
(Ti−Oi)Ij(εは正の定数)(1)なおデルタ則
という名前は、上式の(Ti−Oi)を、通常デルタ信号
(δi)と呼ぶからである。Δiを使って式(1)を次の
ように書き直すことができる。
【0015】ΔWij=εδiIj(εは正の定数)(2) 式(2)にしたがってシナプス荷重値Wijを漸時修正す
れば教師信号Tiとニューロンの信号Oiとの差が小さく
なっていく。
【0016】最も単純な構成として、(N+1)個のニ
ューロンがあって、それぞれが(N+1)個の入力信号
j (j=0〜N)を受け、出力Oi (i=0〜N)を
出しているとする。さらに教師信号Tj 、各ニューロン
の出力信号Oj および入力信号Ii のそれぞれはともに
0かまたは1をとる離散信号とする。
【0017】このようなニューラルネットワーク装置の
構成の一例を図6に示す。図6はデルタ則を具現するニ
ューラルネットワーク装置の構成図である。
【0018】図6を参照すると従来のニューラルネット
ワーク装置は、マトリック状に並んだシナプスセル(S
00〜SNN)を有している。各シナプスセルSij(63
0)は、それぞれシナプス荷重値Wijを保持している。
縦の一列毎に入力信号Ijが与えられると、各シナプス
セルSijは、乗算(Wij×Ij)を実行する。この乗算
値は、電流値の形で出力される。そして横一行の各シナ
プスセルの出力(Wij・Ij)が電流加算されて、ne
ti(620)となる。また、このneti を受けるス
テップ関数生成器640を有する。
【0019】すなわち、各neti (620)を入力し
て、出力Oi をOi =θ(neti )(650)として
出力する。
【0020】また、各行にデルタ信号δi=(610)
が入力される。学習時には、各シナプスセルは(Ti−
Oi)と入力Ijとの乗算を行い、それをΔWijとして、
式(2)にしたがってシナプス荷重値Wijを修正する。
【0021】次に従来のシナプスセルの構成を説明す
る。
【0022】図7は従来のシナプスセルの構成図であ
る。図6を参照するとこのシナプスセルのシナプス荷重
Wijはデジタル値でシナプス荷重値メモリ702の中
に格納されている。この値はDA変換器703によって
アナログ値に変換され、セレクタ704を経由して、ギ
ルバート乗算器705に入力される。
【0023】ギルバート乗算器705のもう一つの入力
は、入力信号Ij 710である。こうして、WijIjが
計算されてnetiの出力信号712が出力される。学
習時には、セレクタ704はデルタ信号711を選択的
に出力し、ギルバート乗算器705はΔWij=εδi・
Ijを計算する。なお、ここで定数εは、ギルバート乗
算器の出力口にカレントミラー回路を付加することで容
易に実現できる(すなわち、電流値の定数倍は、カレン
トミラーによって電流をコピーする際にトランジスタの
サイズを調節することで実現できる)。ギルバート乗算
器は乗算結果をアナログ値で出力するものであり、ギル
バート乗算器705の出力はAD変換器706によっ
て、デジタル値に変換される。シナプス荷重値メモリ7
02から読みだされたシナプス荷重値WijとAD変換器
706の出力ΔWijとが加算器701によって加算さ
れ、更新されたシナプス荷重値Wijの値がシナプス荷重
値メモリ702に書き込まれる。このようにして学習が
進行する。
【0024】典型的なギルバート乗算器の回路図を図4
に示す。図4に示すギルバート乗算器では、入力端子4
01と402との間に加わる電圧X0と、入力端子40
3と404との間に加わる電圧X1の積の値が、電流値
として、出力端子405から流れ出す。ギルバート乗算
器の動作の詳細な説明は、例えば、「アナログVLSI
と神経システム」(C.ミード著、臼井他訳、トッパ
ン)に詳しい。
【0025】シナプスセルの構成要素であるシナプス荷
重値メモリ540の中のメモリセル511〜メモリセル
514は、シナプス荷重値を4ビットのデジタル値で格
納している。この4個のセルの記憶内容によって、DA
変換器550の中のトランジスタ(521〜524)の
オン・オフが制御される。電流源(501〜504)
は、それぞれ、20:21:22:23の大きさの電流を流
す電流源である。こうして、メモリ(511〜514)
に格納されたデジタル値が電流値に変換されて、抵抗5
31と抵抗532とを流れることになる。メモリセル内
の値が全て0のときは、抵抗531と抵抗532の比で
決まる電圧が、VOUTに現れる。この電圧を基準値とし
て、VOUTにはシナプス荷重値に比例した電圧が現れ
る。
【0026】次に、簡単な入力パタン分類(I0
1 ,I2 ,I3 )を有し、デルタ則によって動作する
ニューラルネットワーク装置の動作を説明する。
【0027】入力は、I0 =(1,0,0,0)、I1
=(1,0,1,0)、I2 =(1,1,0,0)、I
3 =(1,1,1,0)ここで各IP =(IP 0 ,IP
1 ,IP 2 ,IP 3 )の第0要素IP 0 は、閾値用に
“1”にしてある。この4個のIP を、2つのグループ
{I0 }と{I1 ,I2 ,I3 }とに分類することを試
みる。
【0028】入力は4つで、出力は1ビットであるの
で、1層で、4個のシナプスセルを持ち、1個のニュー
ロンセルを持つパーセプトロンを考える。
【0029】入力I0 が入力された時のみ、出力Oは、
O=0、それ以外でO=1を出力するようにデルタ則を
用いてWj =(W0 ,W1 ,W2 ,W3 )を変化させて
いく。入力が4ビット長出力が1ビット長であるから、
j は1行4列のベクトルである。また本例では簡単の
ため、ε=1とする。
【0030】初期値Wj =(1,1,1,1)から出発
してみる(初期値Wj は任意で良い)と最後にWj
(−1,1,1,1)という値に収束する。そして計算
すれば判るとおり、実際にこのWj によって目的の分類
ができる。
【0031】入力ベクトルは全てその第3要素IP3が出
力である。一方シナプス荷重値Wの第3要素W3は1で
ある。よって
【0032】
【0033】の計算において、シナプス荷重値W3はそ
れにかかるI3が常に0であるにもかかわらず、W3=1
という有限の重みを持っていることになる(何故なら
ば、アルゴリズム上は、積和演算ΣWmnInにおいて、
Ijが常に0ならWijは、どんな値でも構わないからで
ある)。
【0034】
【発明が解決しようとする課題】しかしながらシナプス
荷重値W3=0でも、分類できることを考えれば、これ
は極めて無駄であり、図5から判るように、W≠0のと
き、シナプスセルはその電流源が電流を流し、電力を消
費する(W=0ならばトランジスタはOFFするから電
流源は電流を流さずにすむ)。この例の場合、W3=0
でも分類できるにもかかわらず、電流が流れてしまって
余分な電力消費になっている。
【0035】すなわち、従来のシナプスセルは、不必要
な電流を流す可能性があり、電力を大量に消費するとい
う欠点があった。
【0036】
【課題を解決するための手段】本発明のニューラルネッ
トワーク装置は、ニューロン同士の結合の度合いがシナ
プス荷重値によって表現されており、かつこのシナプス
荷重値がデルタ側に従って更新されるニューラルネット
ワーク装置において、シナプス荷重値をデジタル値で記
憶するシナプス荷重値メモリと、前記シナプス荷重値メ
モリの出力値をアナログ値に変換するDA変換器と、こ
のDA変換器の出力とデルタ信号とを入力するセレクタ
と、前記セレクタの出力と装置の外部からもしくはニュ
ーロンから供給される入力信号とを入力とする第1の乗
算器と、前記入力信号の反転を出力するインバータと、
前記インバータの出力と前記DA変換器の出力とを入力
とする第2の乗算器と、前記第1の乗算器の出力と前記
第2の乗算器の出力とを減算する電流モード減算器と、
前記電流モード減算器の出力を入力として前記シナプス
荷重値メモリに記憶したシナプス荷重値を更新するシナ
プス荷重値更新器とから構成されるシナプスセルを有す
ることを特徴とする構成である。また、本発明のニュー
ラルネットワーク装置の前記シナプス荷重値更新器は、
前記電流モード減算器の出力を入力とするAD変換器
と、前記AD変換器の出力とシナプス荷重値メモリの出
力とを入力とする加算器とから構成することもできる。
また、本発明の前記シナプス荷重値更新器は、前記電流
モード減算器の出力とDA変換器の出力とを入力とする
電流モード加算器と、前記電流モード加算器の出力を入
力とするAD変換器とから構成することもできる。
【0037】
【作用】まず、本発明では、上述のデルタ則の欠点を改
良した新しい学習則を使用する。新しい学習則は、ΔW
ij=ε(Ti −Oi )Ij −(1/τ)・Wij(1−I
j )(3)(ε,τ>0)となる。
【0038】式(3)の右辺第1項はデルタ則と同じで
ある。第2項が新たに付加した項であり次の意味を持
つ。
【0039】入力Ijが1の場合は、デルタ則と同じ修
正量を与える。入力Ijが0の場合には、シナプス荷重
Wijの値を0の方向へ向かって少しだけ小さくする。
シナプス荷重値Wijの値が大きかったら、修正量は大き
いほうが良く、Wijの値が0に近かったら修正量は小さ
いほうが良い。よって、修正量をWijに比例させた。さ
らに、修正速度を調整するパラメータとして、正の数τ
を導入した。このτはWijが0に向かって減衰するとき
の時定数である。
【0040】第2項を導入したことにより、従来のデル
タ則で、意味の無いシナプス結合が生き残るという欠点
を改良することができる。なぜなら、第2項は入力Ij
=0の入力を受けるシナプス結合を減衰させる効果を有
するからである。
【0041】1/τはεに比較して、ある程度小さくな
ければならない。というのは第2項は、第1項のデルタ
則によるシナプス値の収束を遅くする要因になるからで
ある。
【0042】本発明は、この学習則式(3)を実際のハ
ードウェアで実現したものである。
【0043】
【実施例】図面を参照しながら本発明の実施例を説明す
る。
【0044】図1は本発明の第1の実施例のニューラル
ネットワーク装置のシナプスセルの構成を示す。このシ
ナプスセルが組合わさって、ニューラルネットワーク装
置を構成することは、従来例と同じである。すなわち、
図3に示すように本発明のシナプスセル(S00〜SNN)
がマトリックス状に配置されている。各シナプスセル3
30は、それぞれシナプス荷重値Wijを保持している。
縦の一列に同一の入力信号300が与えられると、各シ
ナプスセルは、乗算(Wij×Ij)を実行する。(Wij
Ij)の値は、電流値で出力される。そして横一行の各
シナプスセルSijの出力WijIjが電流加算されて、n
eti(320)となる。また、netiを受けるステッ
プ関数生成器340を有する。すなわち、各neti3
20を入力して、出力OiをOi=θ(neti)として
出力する。
【0045】また、各行にデルタ信号δi=(Ti−O
i)(310)が入力される。学習時には、各シナプス
セルが(Ti−Oi)と入力信号Ij との乗算を行い、
それをΔWijとして、式(3)にしたがってシナプス荷
重値Wijを修正する。
【0046】次に、本発明の第1の実施例のシナプスセ
ルの構成を説明する。
【0047】図1は本発明のシナプスセルの構成の一実
施例である。
【0048】図1において、シナプス荷重値Wijはデジ
タル値でシナプス荷重値メモリ102の中に格納されて
いる。この値はDA変換器103によってアナログ値に
変換される。セレクタ104を経由して、第1のギルバ
ート乗算器105の入力になる。第1のギルバート乗算
器105のもう一つの入力は、入力信号Ijである。こ
うして、WijIjが計算されて出力信号netiが出力さ
れる。
【0049】次に本発明の第1の実施例の学習時の動作
について説明する。図1を再び参照すると、この実施例
の学習時には、セレクタ104がデルタ信号111を選
択的に出力し、第1のギルバート乗算器105がΔWij
=εδi j を計算する。定数εは、第1のギルバート
乗算器105を構成するトランジスタのサイズ等で調節
する。また第2のギルバート乗算器106は、(1/
τ)Wij(1−Ij )を計算する。定数(1/τ)は、
第2のギルバート乗算器106を構成するトランジスタ
のサイズ等で調節する。(3)式の(1−Ij )は、イ
ンバータ109によって出力される。第1のギルバート
乗算器105の出力値と第2のギルバート乗算器106
の出力値の差は、電流モード減算器107によって出力
される。電流モード減算器は、例えば図8に示すよう
に、カレントミラー回路を組み合わせることで構成でき
る。電流モード減算器107の第1のトランジスタ80
1と第2のトランジスタ802とはどちらも飽和領域で
動作している。ゲート・ソース間電流が等しいので両ト
ランジスタに流れる電流は等しい。したがって、出力は
入力電流I0 と入力電流I1 の差電流になる。
【0050】電流モード減算器107の出力はAD変換
器108によって、デジタル値に変換される。シナプス
荷重値メモリ102から読み出されたシナプス荷重値
ijとAD変換器108の出力ΔWijとが加算器101に
よって加算され、更新されたシナプス荷重値Wijの値が
シナプス荷重値メモリ102に書き込まれる。このよう
にして学習が進行する。なお、ギルバート乗算器の回路
構成105,106や、シナプス荷重値メモリ102と
DA変換器103の基本構成は、従来と同じ構成でよ
い。
【0051】次に、本発明の第2の実施例のニューラル
ネットワーク装置について図2を参照して説明する。
【0052】図2を参照すると、第2の実施例のシナプ
スセルは、第1の実施例とは異なり式(3)の計算は、
電流モードでなされる。
【0053】すなわち、第1のギルバートの乗算器20
5の出力と第2のギルバート乗算器206の出力の出力
値の差は、電流モード減算器207によって出力され、
さらにDA変換器203の出力に、電流モードで加算さ
れる。シナプス荷重値メモリ202とDA変換器203
の基本構成は、従来と同じ構成であるから、電流値でシ
ナプス荷重値を出力するのは容易である。
【0054】電流モード加算器201の出力はAD変換
器208によって、デジタル値に変換され、更新された
シナプス荷重値Wijの値となる。この新しいシナプス荷
重値Wijの値が、シナプス荷重値メモリ102に書き込
まれる。第2の実施例においては、上述したようにして
学習が進行する。
【0055】
【発明の効果】本発明のニューラルネットワーク装置
は、入力Ij =0の入力を受けるシナプス結合を減衰さ
せる回路を有するので従来のデルタ則での欠点である意
味の無いシナプス結合によって電流が不必要に消費され
るという欠点が除かれる効果がある。
【図面の簡単な説明】
【図1】本発明の第1の実施例のニューラルネットワー
ク装置のシナプスセルの構成図である。
【図2】本発明の第2の実施例のニューラルネットワー
ク装置のシナプスセルの構成図である。
【図3】シナプスセルをマトリック状に配置した構成図
である。
【図4】ギルバート乗算器の回路構成例である。
【図5】D/A変換器の構成例とシナプス荷重値の接続
を示すブロック図である。
【図6】シナプスセルをマトリック状に配置した従来の
ニューラルネットワーク装置である。
【図7】従来のシナプスセルの構成図である。
【図8】電流モード減算器の構成図である。
【符号の説明】
101 加算器 102 シナプス荷重値メモリ 103 DA変換器 104 セレクタ 105 第1のギルバート乗算器 106 第2のギルバート乗算器 107 電流モード減算器 108 AD変換器 109 インバータ 110 入力信号I 111 デルタ信号 112 出力信号neti 201 加算器 202 シナプス荷重値メモリ 203 DA変換器 204 セレクタ 205 第1のギルバート乗算器 206 第2のギルバート乗算器 207 電流モード減算器 208 AD変換器 209 インバータ 210 入力信号I 211 デルタ信号 212 出力信号neti 300 入力信号I0 〜IN 310 デルタ信号δ0 〜δ1 320 net0 〜netN 330 本発明のシナプスセルS00〜SNN 340 ステップ関数生成器N0 〜NN 350 O0 〜ON 401,402,403,404 入力端子 405 出力端子 501,502,503,504 電流比が20 :2
1 :22 :23 の電流源 511,512,513,514 メモリセル 521,522,523,524 トランジスタ 531,532 抵抗 540 シナプス荷重値メモリ 550 DA変換器 600 入力信号I0 〜IN 610 デルタ信号δ0 〜δN 620 net0 〜netN 630 従来のシナプスセルS00〜SNN 640 ステップ関数生成器N0 〜NN 650 O0 〜ON 701 加算器 702 シナプス荷重値メモリ 703 DA変換器 704 セレクタ 705 ギルバート乗算器 706 AD変換器 710 入力信号I 711 デルタ信号 712 出力信号neti 801,802 飽和領域で動作する第1,第2のト
ランジスタ

Claims (1)

    (57)【特許請求の範囲】
  1. 【請求項1】 ニューロン同士の結合の度合いがシナプ
    ス荷重値によって表現されており、かつこのシナプス荷
    重値がデルタ則に従って更新されるニューラルネットワ
    ーク装置において、シナプス荷重値をデジタル値で記憶
    するシナプス荷重値メモリと、前記シナプス荷重値メモ
    リの出力値をアナログ値に変換するDA変換器と、この
    DA変換器の出力とデルタ信号とを入力するセレクタ
    と、前記セレクタの出力と装置の外部からもしくはニュ
    ーロンから供給される入力信号とを入力とする第1の乗
    算器と、前記入力信号の反転を出力するインバータと、
    前記インバータの出力と前記DA変換器の出力とを入力
    とする第2の乗算器と、前記第1の乗算器の出力と前記
    第2の乗算器の出力とを減算する電流モード減算器と、
    前記電流モード減算器の出力を入力として前記シナプス
    荷重値メモリに記憶したシナプス荷重値を更新するシナ
    プス荷重値更新器とから構成されるシナプスセルを有す
    ることを特徴とするニューラルネットワーク装置。
JP7038254A 1995-02-27 1995-02-27 ニューラルネットワーク装置 Expired - Lifetime JP2976835B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7038254A JP2976835B2 (ja) 1995-02-27 1995-02-27 ニューラルネットワーク装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7038254A JP2976835B2 (ja) 1995-02-27 1995-02-27 ニューラルネットワーク装置

Publications (2)

Publication Number Publication Date
JPH08235144A JPH08235144A (ja) 1996-09-13
JP2976835B2 true JP2976835B2 (ja) 1999-11-10

Family

ID=12520185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7038254A Expired - Lifetime JP2976835B2 (ja) 1995-02-27 1995-02-27 ニューラルネットワーク装置

Country Status (1)

Country Link
JP (1) JP2976835B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007212700A (ja) * 2006-02-09 2007-08-23 Nagoya Institute Of Technology アクティブノイズキャンセリングシステム用アナログ電子回路
CN111667064B (zh) * 2020-04-22 2023-10-13 南京惟心光电系统有限公司 基于光电计算单元的混合型神经网络及其运算方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
石川真澄,「忘却を用いたコネクショニストモデルの構造学習アルゴリズム」,人工知能学会誌,Vol.5,No.5,1990年9月,p.595−603

Also Published As

Publication number Publication date
JPH08235144A (ja) 1996-09-13

Similar Documents

Publication Publication Date Title
JP4620943B2 (ja) 積和演算回路及びその方法
EP0357016A2 (en) Neuron architecture
Sun et al. Global exponential stability and periodic solutions of Cohen–Grossberg neural networks with continuously distributed delays
US5630023A (en) Signal processor
EP0382518A2 (en) Multi-feedback circuit apparatus
Yam et al. Extended least squares based algorithm for training feedforward networks
US6876989B2 (en) Back-propagation neural network with enhanced neuron characteristics
EP0384709A2 (en) Learning Machine
JP2976835B2 (ja) ニューラルネットワーク装置
US5857178A (en) Neural network apparatus and learning method thereof
JPH0264787A (ja) 階層構造ニューラルネット
Kumaresan et al. Optimal control for stochastic nonlinear singular system using neural networks
Mann et al. A self-organizing neural net chip
JPH07210534A (ja) ニューラルネットワーク
US5075869A (en) Neural network exhibiting improved tolerance to temperature and power supply variations
Mandic et al. On the choice of parameters of the cost function in nested modular RNN's
JPH04216160A (ja) ニュ−ラルネットワ−ク回路
GB2236608A (en) Digital neural networks
Mirhassani et al. Robust low-sensitivity adaline neuron based on continuous valued number system
JP3508783B2 (ja) パルス密度型信号処理回路網における結合係数更新方法並びに結合係数更新装置
Korner et al. A VLSI friendly neural network with localised transfer functions
JP2612640B2 (ja) 信号処理回路、信号処理回路網、信号処理装置及び信号処理方法
JPH07113942B2 (ja) ニューロチップによる結合器
Tang et al. Backpropagation learning in analog T-model neural network hardware
Wang A modular analog CMOS LSI for feedforward neural networks with on-chip BEP learning

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990810