JPH04118741A - ニューラルネットワーク装置 - Google Patents

ニューラルネットワーク装置

Info

Publication number
JPH04118741A
JPH04118741A JP2237224A JP23722490A JPH04118741A JP H04118741 A JPH04118741 A JP H04118741A JP 2237224 A JP2237224 A JP 2237224A JP 23722490 A JP23722490 A JP 23722490A JP H04118741 A JPH04118741 A JP H04118741A
Authority
JP
Japan
Prior art keywords
layer
input
sample
neural network
neurons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2237224A
Other languages
English (en)
Inventor
Takeshi Shima
健 島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2237224A priority Critical patent/JPH04118741A/ja
Publication of JPH04118741A publication Critical patent/JPH04118741A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [発明の目的コ (産業上の利用分野) 本発明は、音声認識等の識別問題、ロボット等の運動制
御問題、一般のプロセス制御問題。
ニューロコンピュータ等に広く利用されるニューラルネ
ットワーク装置に関する。
(従来の技術) ニューラルネットワークの一般的論文としては、以下の
文献(著者7euvo Kohonen、題名Repr
esentation of 5ensory 1nf
or@aHon inSelr−OrganiZing
featurelapS、andrelatjOnof
 these maps to distribute
d memorynetworks、出典5PIE V
ol、6340ptical andHybrid C
oIeputing、 198B)があり、それに基づ
いて従来の技術を説明する。
この文献によれば、ニューラルネットワークと呼ばれる
系を有するものは、次の3つの常微分方程式によって律
則されている。
dy/dt−f (x、y、M、N)・・・(1)dM
/d t−g (x、Y、M)   −(2)dN/d
  t−h  (y、  N)        ・・・
(3)ここで、Xは入力を表わすベクトル、yは出力を
表わすベクトル、M及びNは系のパラメータ行列であり
、f、g、hは非線形関数である。
従来、いわゆる信号処理に用いる電子回路においては、
抵抗、容量等によって表わされる系のパラメータ行列は
定数である場合がほとんどであり、式(2)及び式(3
)の右辺は零となる。
ニューラルネットワークと呼ばれる系においては、前記
M及びNなる系のパラメータ行列を律則する、式(2)
及び式(3)が存在し、通常記憶とかそれに基づく学習
の働きを記述している。
さらに、記憶、学習は長時間かけて達成されるのに対し
、入力に対して出力は極めて短時間に応答する。即ち、
上記3つの式において、X。
yに比較して、M、Nは極めて緩やかに変化する。
また、別のニューラルネットワークにおいては、次の2
つの常微分方程式によって律則されている。
d y/ d t −f (x、  y、 M)  −
(4)dM/dt−g (3/、t、M)  ・・・ 
(5)ここで、Xは入力を表わすベクトル、yは出力を
表わすベクトル、tは教師信号を表わすベクトル、Mは
系のパラメータ行列であり、f、gは非線形関数である
。この系においては、入力に対して所望の出力を得るた
めの、教師信号が新たに付加されている。
このように、ニューラルネットワークには様々な変形が
考えられるが、記憶とかそれに基づく学習という機能を
有することが大きな特徴となっている。
次に、前記後者の系について、より具体的な構成法の従
来例について考える。
この系は、パーセプトロンと呼ばれており、1940年
代にローゼンブラットらにより提案された層構造を持つ
ニューラルネットワークである。
一般に、この層を多数持つパーセプトロンを多層バーセ
プトロンと呼び、第4図に示すような構成になっている
。このような構成は、小脳とか大脳皮質にある神経細胞
の結線によく似ていることや、その情報処理能力に関す
る数学的解析が広く行われていることなどは良く知られ
ている。例えば、コルモゴルフのrn (2n+1)ニ
ューロンを持つパーセプトロンは任意のn変数の連続関
数を表わすことができる」という定理などがある。この
多層バーセプトロンのパラメータはニューロン間のサイ
ナッブス接続の結合荷重であり、このパラメータを学習
方程式と呼ばれる偏微分方程式に従って更新していくこ
とて自己組織又は適応形のネットワークを構成すること
ができる。
最近、ルンメルハートらによって誤差逆伝搬学習アルゴ
リズムが開発され、上記パラメータが最急工法により求
められることが発見された。
このような歴史的背景を持つ多層パーセプトロンを、第
4図に従って詳細に説明する。第4図は3層バーセプト
ロンの場合を示している。第1層は入力層と呼ばれS、
(i−1,2,・・・)! なるニューロンからなる。第2層は中間層と呼ばれ、A
、(i−1,2,・・・)なるニューロンからなる。ま
た、第3層は出力層と呼ばれRi<i−1,2,・・・
)なる二ニーロンからなる。
サイナップス接続の結合荷重はRS、、、RA、。
JI        Jl (i、j−1,2,・・・)で表わされている。
第4図において、信号は左から右に伝搬するものとする
。さらに、第4図の全てのニューロンでの、入力信号と
出力信号との関係は、単調な非線形関数による写像であ
るとする。また、入力層二ニーロンへの入力は外部より
それぞれのニューロンへ与えられるものとし、また入力
層以外のニューロンへの入力はそれぞれにューロンA、
への入力) −Σ R8、、* (S 、の出力) ・・・(6)j
、 IJ I     J にニーロンR9への入力) −Σ RA、、* (A 、の出力) ・・・ (7)
、IJI     J て表されるような荷重和演算が施されるものとする。
次に、上記の誤差逆伝搬学習アルゴリズムを説明する。
これは、最終層にのみ教師信号が与えられる場合の学習
アルゴリズムである。二ニーロンの入力信号x、(t)
から出力信号への写像をF(*)としたとき、 w、、(t+Δt) −w、、(t)+η*ε、 * F (x 、 (t)
)  −(g)JI            J   
       4ここで、ηは上記更新式の緩和係数、
Wは結合荷重であり、ε、はニューロンが最終層にある
ときは、 ε 、  −(d  、  −F  (xJ     
    J *  F’   (x ここで、*は乗算を表し、 の微分形を表わす。また、 にないときには1 、(1))) 、(1))   ・・・ (9) F”(・)はF(・) ニューロンが最終層 ε 、  −F ’(x  、(t))’1’  ΣJ
       J      k k*Wkj・・・(lO) で与えられるものである。
さて、ニューラルネットワークを上記多層パーセプトロ
ンを例にとって考えたが、時系列信号を入力して信号処
理を行うニューラルネットワークにおいては、従来第5
図で示すような構成が考えられていた(電子情報通信学
会、信学技報、Vol、90、No、48 、NC−9
0−9、川崎能)。
第5図で1は感覚層(入力層)、2は連合層(中間層)
、3は出力層、4はシフトバッファである。この構成は
、時系列信号を取り扱うため、多層パーセプトロンの入
力層ニューロン数と同数の複数個のシフトバッファによ
り1回のデータサンプリング毎にシフトさせながら転送
・保持するものである。
しかしながら、この種の構成にあっては次のような問題
があった。即ち、入力信号がアナログ信号であった時に
、第5図のシフトバッファを具体的にどのように構成す
るかという知見に欠けており、ディジタル方式では容易
に実現できるが、アナログ方式ではシフトバッファの後
段にD/A変換器等が必要となり回路規模が大きくなる
と言う問題があった。シフトバッファの代わりにCCD
を用いることも考えられるが、CCDでは一旦データを
読出すと次の転送が難しく、この種の用途に適用するこ
とはできない。
また、多層バーセプトロンは一般に感覚層ニューロン数
をns、連合層ニューロン数をna。
出力層ニューロン数をnoとすると、シナプスの数は、
感覚層と連合層間でn5Xna個、連合層と出力層間で
naXno個必要となるが、時系列信号においてはシフ
トバッファの数が増えるに伴って感覚層ニューロン数n
sもまた増加し、感覚層と連合層間でのシナプスの数n
5xna個が飛躍的に増加すると言う極めて実用上不都
合なこととなっていた。
(発明が解決しようとする課題) このように従来、多〜層パーセプトロンの入力層の前段
にシフトバッファを用いた場合、入力信号がアナログ信
号では回路規模が大きくなると言う問題があった。また
、時系列信号においてはシフトバッファの数が増え、こ
れに伴い入力層及び出力層と中間層との間でのシナプス
の数か飛躍的に増加するという問題があった。
本発明は、上記事情を考慮してなされたもので、その目
的とするところは、入力信号かアナログ信号であっても
時系列信号を取り扱うことができ、且つ回路規模の増大
を抑えて構成の小型化をはかり得るニューラルネットワ
ーク装置を提供することにある。
また、本発明の他の目的は、入力層及び出力層と中間層
との間でのシナプスの数を減らすことができ、構成の小
型化をはかり得るニューラルネットワーク装置を提供す
ることにある。
[発明の構成] (課題を解決するための手段) 本発明の骨子は、入力信号がアナログ信号であっても時
系列信号を取り扱えるようにするため、入力層ニューロ
ン数に合わせてサンプル・ホールドする手段を設けるこ
とにあり、さらに時系列信号において入力層及び出力層
と中間層との間でのシナプスの数が増加するという問題
を解決するために、シナプス結線に偏りを持たせること
にある。
即ち本発明(請求項1)は、多層パーセプトロンの入力
層に時系列信号を入力して所定の信号処理を行うニュー
ラルネットワーク装置において、前記多層パーセプトロ
ンの入力層ニューロンにそれぞれ接続され、入力信号を
サンプル・ホールドして対応する入力層ニューロンに供
給するサンプル中ホール1手段と、これらのサンプル・
ホールド手段をデータサンプリング毎に順に駆動する手
段とを具備してなることを特徴としている。
また、本発明(請求項2)は、多層パーセプトロンの入
力層に時系列信号又は信号を系列化した時に近傍に相関
がある信号を入力して所定の信号処理を行うニューラル
ネットワーク装置において、前記多層パーセプトロンの
入力層ニューロン又は出力層ニューロンの少なくとも一
方が、これに対応する中間層ニューロン及びその近傍の
ニューロンに接続されるように、入力層又は出力層の少
なくとも一方と中間層のシナプス結線に偏りを持たせた
ことを特徴としている。
(作用) 本発明(請求項1)によれば、入力層ニューロン数に合
わせてサンプル・ホールド手段を設け、データサンプリ
ング毎に順に各サンプル・ホールド手段に値を保持し、
対応する入力層ニューロンに供給することにより、入力
信号がアナログ信号であっても時系列信号を取り扱うこ
とができる。そしてこの場合、シフトバッファを用いた
場合と異なり、D/A変換器等は不要であり、サンプル
・ホールド手段でホールドした値を直接入力層ニューロ
ンに供給できるので、回路規模の増大を招くことなく構
成の小型化をはかることが可能となる。
また、本発明(請求項2)によれば、入力層及び出力層
のニューロンがこれに対応する中間層ニューロン及びそ
の近傍のニューロンに接続されるように、シナプス結線
に偏りを持たせることにより、シナプス数を大幅に減ら
すことができる。さらに、上記のシナプス結線の偏りに
より、ある時刻とその近傍時刻の入力信号によってニュ
ーラルネットによる信号処理が実現され、離れた時刻の
入力信号による干渉を回避できるほか、入力信号の持つ
性質である近傍に相関がある特徴を考慮した信号処理が
可能となる。
なお、相関のある入力信号としては、例えば音声信号を
文字に変換すると言った認忠問題において音素間に調音
結合と呼ばれる返戻音素間に相関があることが知られて
おり、このような認識問題の信号処理に適用することが
できる。
(実施例) 以下、本発明の詳細を図示の実施例によって説明する。
第1図は、本発明の第1の実施例に係わるニューラルネ
ットワーク装置を示す概略構成図である。図中10は入
力層、20は中間層、30は出力層であり、それぞれ複
数個のニューロン(図中O印で示す)からなる。入力層
10のニューロンと中間層20のニューロンとは、それ
ぞれシナプスにより接続されており、同様に中間層20
のニューロンと出力層30のニューロンとは、シナプス
によりそれぞれ接続されている。
入力層10の前段には、入力信号をサンプル・ホールド
して入力層10に供給するサンプル・ホールド回路40
が各ニューロンに対応してそれぞれ設けら・れている。
サンプル・ホールド回路40は、スイッチ41とキャパ
シタ42からなり、スイッチ41は駆動回路としてのシ
フトレジスタ50により開閉制御される。キャパシタ4
2は入力信号を記憶するものであり、この値は入力層1
0のニューロンに伝達される。
シフトレジスタ50は、入力層10のニューロン数に対
応する段数であり、外部或いは内部で生成したクロック
信号により動作する。
このような構成であれば、シフトレジスタ50にクロッ
クを入力することにより、サンプルeホールド回路40
が順次入力信号をサンプル・ホールドし、ホールドされ
た値が入力層10の対応するニューロンに伝達される。
そして、中間層20及び出力層30と伝達されて所定の
信号処理が施されたのち、出力層30から出力されるこ
とになる。
ここで、サンプル・ホールド回路40はシフトレジスタ
50の制御により、初め全てサンプル状態とし次に順に
ホールド状態とすることも、或いは各サンプル・ホール
ド回路40の各々をサンプル状態とホールド状態に順に
繰り返すことも可能である。前者では時系列信号をある
時間区間について同時にニューラルネットに信号を入力
するため、時間区間毎の信号処理ができる。また、後者
では時々刻々変化する時系列信号をたゆみなくニューラ
ルネットに信号を入力するため、パイプライン処理の信
号処理が実現できる。
第2図はサンプル・ホールド回路40の別の構成例であ
る。第2図(a)では、スイッチS1、。
S12及びキャパシタC1からなる第1のサンプル・ホ
ールド回路と、スイッチS21.S2□及びキャパシタ
C2からなる第2のサンプル・ホールド回路とを並列接
続している。スイッチSllと82゜、スイッチS+2
と521はそれぞれ同時に開き、スイッチSllとS2
+は同時に開くことはない。スイッチS12と82□も
同時に開くことはない。この場合、キャパシタC1でホ
ールドした値を入力層10に伝達しながら、キャパシタ
C2でデータサンプリング行うことができる。
これにより、サンプル壷ホールド回路が持つ、サンプル
時間に出力が変動する問題を回避することができ、過度
的変動を最小化することができる。
第2図(b)では、スイッチS1及びキャパシタC1か
らなる第1のサンプル・ホールド回路と、スイッチS2
及びキャパシタC2(C2<01)からなる第2のサン
プル弗ホールド回路とを直接接続している。スイッチS
0と82は同時に開くことはない。この場合、スイッチ
S1の開閉によりデータサンプリングを順次行い、これ
をキャパシタC1にホールドし、さらにキャパシタC1
の値をキャパシタC2に伝達しておけば、入力層10へ
のホールド値の伝達を同時に行うことかできる。
第3図は本発明の第2の実施例を示す概略構成図である
。この実施例は、入力信号が時系列信号又は信号を系列
化した時に返戻に相関がある場合を想定し、入力層と中
間層のシナプス結線に偏りを持たせ、また中間層と出力
層のシナプス結線に偏りを持たせたものである。
即ち、入力層60のニューロンは、該ニューロンに対応
する中間層70のニューロン及びその近傍のニューロン
のみにシナプスを介して接続されている。同様に、出力
層80のニューロンは、該ニューロンに対応する中間層
70のニューロン及びその近傍のニューロンのみにシナ
プスを介して接続されている。より具体的には、入力層
60及び出力層80のニューロンCは中間層70のニュ
ーロンa −eにそれぞれ接続され、入力層60及び出
力層80のニューロンdは中間層70のニューロンb−
fにそれぞれ接続され、同様に入力層60及び出力層8
0のニューロンgは中間層70のニューロンe〜lにそ
れぞれ接続されている。
なお、第3図の構成は模式的に示すものであり、実際に
は各層60.70.80のニューロン数は膨大な量にな
る。これに伴って、一つのニューロンに接続するシナプ
スの数も第3図の例よりも多いものとなる。ここで、例
えば入力層60のニューロン数をn個、中間層70のニ
ューロン数をm個とすれば、従来例では入力層60と中
間層70のシナプス結線にnXm個のシナプスが必要で
ある。これに対し本実施例では、入力層60の個々のニ
ューロンに中間層70の対応するニューロン及びその近
傍のみのニューロンの10個を接続するものとすれば、
シナプス数はnX10で済むことになる。n −100
m −20(]とすれば、従来では2万個のシナプスか
必要であったのが、本実施例では1000個のシナプス
数で済むことになり、シナプス数をl/20に低減する
ことか可能となる。
このように本実施例では、入力層6oと中間層70のシ
ナプス結線に偏りを持たせ、さらに中間層70と出力層
80のシナプス結線に偏りを持たせることにより、ある
時刻とその返戻時刻の入力信号によってニューラルネッ
トによる信号処理が実現し、離れた時刻の入力信号によ
る干渉を回避することができる。さらに、入力信号のも
つ性質である返戻に相関がある特徴を考慮した信号処理
もてきることになる。また、入力層60と中間層70間
、及び中間層7oと出力層80間で全てのニューロンを
シナプスで接続するのに比べ、シナプスの数を格段に少
なくすることができる。
[発明の効果] 以上詳述したように本発明(請求項1)によれば、入力
層ニューロン数に合わせてサンプル・ホールドする手段
を設けることに入力信号がアナログ信号であっても時系
列信号を取り扱うことができ、且つ回路規模の増大を抑
えて構成の小型化をはかることができる。
また、本発明(請求項2)によれば、シナプス結線に偏
りを持たせることにより、入力層及び出力層と中間層と
の間でのシナプスの数を格段に減らすことができ、これ
によっても構成の小型化を゛はかることができる。
【図面の簡単な説明】
第1図は本発明の第1の実施例に係わる二二−ラルネソ
トワーク装置を示す概略構成図、第2図は上記実施例の
変形例を示す回路構成図、第3図は本発明の第2の実施
例を示す概略構成図、第4図は一般的に知られている多
層パーセプトロンを説明するための模式図である。第5
図は、従来の時系列信号を取り扱うニューラルネットワ
ークを示す概略構成図である。 10.60・・・入力層、20.70・・・中間層、3
0.80・・・出力層、50・・・シフトレジスタ、4
0・・・サンプル・ホールド回路、 41・・・スイッチ、42・・・キャパシタ。 出願人代理人 弁理士 鈴 江 武 彦第2 図 第 図 イき 5 図

Claims (5)

    【特許請求の範囲】
  1. (1)多層パーセプトロンの入力層に時系列信号を入力
    して所定の信号処理を行うニューラルネットワーク装置
    において、 前記多層パーセプトロンの入力層ニューロンにそれぞれ
    接続され、入力信号をサンプル・ホールドして対応する
    入力層ニューロンに供給するサンプル・ホールド手段と
    、これらのサンプル・ホールド手段をデータサンプリン
    グ毎に順に駆動する手段とを具備してなることを特徴と
    するニューラルネットワーク装置。
  2. (2)多層パーセプトロンの入力層に時系列信号又は信
    号を系列化した時に近傍に相関がある信号を入力して所
    定の信号処理を行うニューラルネットワーク装置におい
    て、 前記多層パーセプトロンの入力層ニューロン又は出力層
    ニューロンの少なくとも一方が、それに対応する中間層
    ニューロン及びその近傍のニューロンに接続されるよう
    に、入力層又は出力層の少なくとも一方と中間層のシナ
    プス結線に偏りを持たせたことを特徴とするニューラル
    ネットワーク装置。
  3. (3)多層パーセプトロンの入力層に時系列信号又は信
    号を系列化した時に近傍に相関がある信号を入力して所
    定の信号処理を行うニューラルネットワーク装置におい
    て、 前記多層パーセプトロンの入力層ニューロンにそれぞれ
    接続され、入力信号をサンプル・ホールドして対応する
    入力層ニューロンに供給するサンプル・ホールド手段と
    、これらのサンプル・ホールド手段をデータサンプリン
    グ毎に順に駆動する手段と、前記多層パーセプトロンの
    入力層ニューロン又は出力層ニューロンの少なくとも一
    方が、これに対応する中間層ニューロン及びその近傍の
    ニューロンに接続されるように、入力層又は出力層の少
    なくとも一方と中間層のシナプス結線に偏りを持たせる
    手段とを具備してなることを特徴とするニューラルネツ
    トワーク装置。
  4. (4)前記駆動手段は、前記サンプル・ホールド手段を
    初め全てサンプル状態とし次に順にホールド状態とする
    か、又は前記サンプル・ホールド手段の各々をサンプル
    状態とホールド状態に順に繰り返すことを特徴とする請
    求項1又は3記載のニューラルネットワーク装置。
  5. (5)前記サンプル・ホールド手段は、それぞれ並列又
    は直列接続された2段のサンプル・ホールド回路からな
    ることを特徴とする請求項4記載のニューラルネットワ
    ーク装置。(6)前記多層パーセプトロンの入力層のそ
    れぞれに供給する入力信号は、前記入力層のニューロン
    数に対応して設けられたシフトバッファを、データサン
    プリング毎にシフトすることにより得ることを特徴とす
    る請求項2又は3記載のニューラルネットワーク装置。
JP2237224A 1990-09-10 1990-09-10 ニューラルネットワーク装置 Pending JPH04118741A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2237224A JPH04118741A (ja) 1990-09-10 1990-09-10 ニューラルネットワーク装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2237224A JPH04118741A (ja) 1990-09-10 1990-09-10 ニューラルネットワーク装置

Publications (1)

Publication Number Publication Date
JPH04118741A true JPH04118741A (ja) 1992-04-20

Family

ID=17012221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2237224A Pending JPH04118741A (ja) 1990-09-10 1990-09-10 ニューラルネットワーク装置

Country Status (1)

Country Link
JP (1) JPH04118741A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0652139A (ja) * 1992-07-31 1994-02-25 Mikuni Corp ニューラルネットワークのデータ構造
JPH07225747A (ja) * 1994-02-15 1995-08-22 Sony Corp 写像決定方法
JP2011054200A (ja) * 2010-11-11 2011-03-17 Fuji Electric Systems Co Ltd ニューラルネットワークの学習方法
CN108694442A (zh) * 2017-04-05 2018-10-23 株式会社日立制作所 计算机系统以及使用了递归神经网络的运算方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0652139A (ja) * 1992-07-31 1994-02-25 Mikuni Corp ニューラルネットワークのデータ構造
JPH07225747A (ja) * 1994-02-15 1995-08-22 Sony Corp 写像決定方法
JP2011054200A (ja) * 2010-11-11 2011-03-17 Fuji Electric Systems Co Ltd ニューラルネットワークの学習方法
CN108694442A (zh) * 2017-04-05 2018-10-23 株式会社日立制作所 计算机系统以及使用了递归神经网络的运算方法
JP2018180701A (ja) * 2017-04-05 2018-11-15 株式会社日立製作所 計算機システム及び再帰型ニューラルネットワークを用いた演算方法
CN108694442B (zh) * 2017-04-05 2021-08-17 株式会社日立制作所 计算机系统以及使用了递归神经网络的运算方法

Similar Documents

Publication Publication Date Title
US8204927B1 (en) System and method for cognitive processing for data fusion
US7043466B2 (en) Neural network processing system using semiconductor memories
Miljanovic Comparative analysis of recurrent and finite impulse response neural networks in time series prediction
JPH0628331A (ja) マルチプレクスされる出力ニューロンを採用する多層ニューロンネットワーク
Mizutani et al. On derivation of MLP backpropagation from the Kelley-Bryson optimal-control gradient formula and its application
Wan et al. Diagrammatic derivation of gradient algorithms for neural networks
US5140531A (en) Analog neural nets supplied digital synapse signals on a bit-slice basis
JPH04118741A (ja) ニューラルネットワーク装置
Hines A logarithmic neural network architecture for unbounded non-linear function approximation
Patan Approximation of state-space trajectories by locally recurrent globally feed-forward neural networks
Xue et al. Analyses of the hidden units of the multi-layer perceptron and its application in acoustic-to-articulatory mapping
Lam et al. Design and training for combinational neural-logic systems
Cannas et al. Performance analysis of locally recurrent neural networks
JPH01114899A (ja) ダイナミックなニューラルネットワーク
US5426721A (en) Neural networks and methods for training neural networks
US5566102A (en) Arithmetic element coupling network
Cancelliere et al. Efficient training of Time Delay Neural Networks for sequential patterns
Nouri et al. Identification of a nonlinear dynamic systems using recurrent multilayer neural networks
Krusienski et al. Comparative analysis of neural network filters and adaptive Volterra filters
Goryn et al. Conjugate gradient learning algorithms for multilayer perceptrons
Omlin et al. Representation of fuzzy finite state automata in continuous recurrent, neural networks
Pican et al. An on-line learning algorithm for the orthogonal weight estimation of MLP
Lehmann A hardware efficient cascadable chip set for ANN's with on-chip backpropagation
JP3082530B2 (ja) ニューラルネットワーク回路
JP3224831B2 (ja) ニューラルネットワーク装置