JP2615422B2 - 時系列学習神経回路素子およびそれを用いた時系列学習神経回路 - Google Patents

時系列学習神経回路素子およびそれを用いた時系列学習神経回路

Info

Publication number
JP2615422B2
JP2615422B2 JP6078003A JP7800394A JP2615422B2 JP 2615422 B2 JP2615422 B2 JP 2615422B2 JP 6078003 A JP6078003 A JP 6078003A JP 7800394 A JP7800394 A JP 7800394A JP 2615422 B2 JP2615422 B2 JP 2615422B2
Authority
JP
Japan
Prior art keywords
learning
input
value
output
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP6078003A
Other languages
English (en)
Other versions
JPH07262158A (ja
Inventor
征史 重松
元 松本
Original Assignee
工業技術院長
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 工業技術院長 filed Critical 工業技術院長
Priority to JP6078003A priority Critical patent/JP2615422B2/ja
Priority to US08/405,963 priority patent/US5704016A/en
Priority to GB9505846A priority patent/GB2287820B/en
Publication of JPH07262158A publication Critical patent/JPH07262158A/ja
Application granted granted Critical
Publication of JP2615422B2 publication Critical patent/JP2615422B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、時系列の学習・記憶に
基づく情報処理や制御技術、また神経回路(ニューラル
ネットワーク)を集積回路としてハードウェア化するこ
とを可能とした時系列学習神経回路素子およびそれを用
いた時系列学習神経回路に関するものである。
【0002】
【従来の技術】従来の神経回路を集積化するためには、
アナログ方式とデジタル方式があった。アナログ方式で
は、素子数が多くなると結線が増加することと、入力結
合係数を自由に変化させたり長期に保持することが困難
である等の障害があった。また、デジタル方式では、入
力信号と結合係数の計算のために精度の良い乗算回路を
必要とし、その積和計算等にも時間がかかること、非線
形関数の計算も煩雑であり障害となっていた。従来の神
経回路素子は、基本的にアナログ信号を素子間で受渡し
て作動するため、結線と計算の複雑さは集積回路のため
の避け難い障害となっていた。
【0003】そこで、新しい神経回路素子の集積化の方
法としてパルス入出力による神経回路素子(特願平4−
254189号)が提案され、結合係数や結線の問題も
解決され、計算処理も簡単なデジタル回路で実現できる
手段が示された。ただし、その素子の学習の方法につい
ては、まだ提案されてなかった。
【0004】神経回路の学習法としては、従来からバッ
クプロパゲーション(BP)やヘブの学習則などの学習
方法が用いられていた。これらの学習法では、時間的に
は固定化された条件での学習であるため、時間の前後関
係、すなわち時系列の連想を学習することは考慮されて
いない。BPの学習方法を載せたニューラルネットワー
クの集積回路も一部には試作されているが、学習の演算
には回路全体の情報を必要とし、その学習のための回路
も複雑となり大規模集積化は出来ていない。
【0005】そこで、パルス入出力による神経回路を時
系列入力で学習させる方法が、神経回路の時系列学習方
法(特願平5−345321号)により示された。この
学習は、入力と出力の局所情報のみで学習するヘブの学
習則に近く、BPと比べて学習のための計算量は改善さ
れている。この学習法は出力に応答出力があるとき、各
入力の時間履歴値と、学習しきい値との比較により時間
の相関関係を求め、結合係数の強化または減衰を学習す
る方法である。
【0006】パルス入出力による神経回路素子にこの学
習法を回路として組み込み集積化する方法はまだ示され
ていない。その理由としては、入出力の応答演算は今ま
で通りデジタル入出力結線の方法で可能であるが、学習
演算のためには各入力の時間履歴値が必要でそれがアナ
ログ値であるので、その信号を各入力部に伝達し学習を
実行するには、結線が非常に複雑になりさらに大量のメ
モリも必要となる。このことは、デジタル回路で多数個
素子を集積化する障害となって、それを備えた時系列の
学習可能な集積回路を実現する方法はなかった。
【0007】また時系列学習法で、層構造の神経回路を
構成して、パターン認識の学習をするとき、入力のパタ
ーンに対して望みの出力素子に出力するように教え込む
ために、どのように教師信号を用いるかという手段は示
されていなかった。
【0008】
【発明が解決しようとする課題】以上のように、時系列
学習可能なニューラルネットワークの回路は、学習方法
も含め、大規模集積化にはいくつかの障害があった。そ
こで本発明は、 (a)正しく時系列学習ができる機能をもち、各素子の
学習のための演算が単純で高速である、 (b)神経回路素子間の学習のための結線を単純化で
き、デジタル回路で多数の素子を持つ集積回路が実現で
きる、 (c)素子間の信号伝達のための結線が単純で信頼性が
あり、多数個のグループを集めてグループ間の結線によ
り大規模システム化することができる、 (d) 多層構造の神経回路を構築した時、出力素子と
して出力層の任意の素子が選択できるように、誘導信号
を用いた学習が容易にできる、ことの可能な時系列学習
神経回路素子およびそれを用いた時系列学習神経回路を
提供することを目的とする。
【0009】
【課題を解決するための手段】このような目的を達成す
るためには、本発明は、パルス入出力による神経回路素
子(特願平4−254189号)を用いて動作回路をつ
くり、これに時系列学習法(特願平5−345321
号)を基本とした時系列学習の回路を、工夫して付加す
ることで回路を実現したものである。
【0010】すなわち、本発明にかかる時系列学習神経
回路素子は、多数入力を持つ神経回路素子で、入力メモ
リ部の入力値とそれに対応した入力端の結合係数の積を
総和した結果と該神経回路素子内の前の時点の残留値か
ら減衰した値との和をとり、その演算結果を集積値とし
て、当該集積値と予め定めた閾値とを比較し、前記集積
値が前記閾値を越える場合は、比較結果として出力ビッ
ト1の出力信号を出し、前記集積値から定数値を差し引
いた値を前記残留値として取り扱うと共に、前記集積値
が前記閾値以下の場合は、比較結果として出力ビット0
の出力信号を出し、当該集積値を前記残留値として取り
扱う応答演算回路による演算手段と、当該神経回路素子
の学習には、各入力の時間経過を示す入力履歴値を求
め、出力応答があった場合に於いて、当該履歴値が大き
いときには結合係数を強化し中間レベルでは減衰とし極
小か零では不変とする履歴判定により、新しい結合係数
を求める操作を学習演算回路により行い、入力と出力の
時間の前後関係を結合係数の内に銘記しまた読み出せる
機能を持ち、この学習に際し前段入力素子から当該素子
への入力の履歴値を送信側の前段入力素子の出力の履歴
値で代わりに求め、その履歴値と学習のしきい値と比較
する事により結合係数の強化か減衰または不変の履歴判
定値を前段入力素子内の履歴判定回路でつくり、この判
定信号を受信側の各素子の入力端に送ることにより当該
神経回路素子の入力履歴判定値として当該素子の前記の
学習演算を行うことで時系列の連想記憶を可能とする学
習手 段とを備えたものである。
【0011】また、本発明にかかる時系列学習神経回路
は、請求項1の時系列学習神経回路素子を多数個1つの
基板上に配置して集積化することにより、1つの機能グ
ループを形成し、それらグループを複数個集めたグルー
プ間で時系列の連想学習を行い、時間の流れを連想記憶
するシステムを構築し、同時に教師又は誘導信号により
出力素子を選定した学習ができる選定手段を備えたもの
である。
【0012】
【作用】本発明に係る時系列学習神経回路素子では、パ
ルス入出力により各種素子間の信号のための結線は、複
数のアドレス線と単一のデータ線のみで良い。また、学
習のためには、時系列学習法から各入力の履歴値を求め
る必要があるが、各出力側でその値を求めそれを各素子
に転送して入力の履歴とすることで、効率よい計算が出
来る。また、この学習法は、入力履歴値と出力が発火し
たときのみ学習するという局所的関係により行われるた
め、BP法のように複雑な計算を必要としないし、素子
間の結線回路がどんなに複雑になっても学習できる。さ
らに、学習のための結線数の増加を極力少なくするため
には、結合係数の増減の数式を新たに検討して、学習の
しきい値と比較した増強か減衰かの結果のみを転送する
方式を取り入れることにより、2本のデータ線で学習を
行うことができる。
【0013】本発明にかかる時系列学習神経回路は、上
の方式により各素子間の信号は、動作モードでは(ON
/OFF)の信号,学習モードでは(増強/減衰/不
変)の信号のデジタル信号のみである。そのため、各素
子間や基板間の結線もアドレス線と2本のデータ線で接
続できる自由さがあり、大規模システムも構築できる。
また、ある入力パターンに対し特定の出力素子が応答す
るように教え込むには、出力素子に入力に対応した信号
を誘導信号として用い、直接出力素子に入力することで
発火確率を高め可能となる。
【0014】本発明によると、時系列学習のための入力
履歴値の計算をパルス出力側で求め、学習のしきい値と
比較した結果(強化/減衰/不変)のみを入力側に送る
ことで、素子間の結線数を極力少なく出来る。そのため
集積化や大規模システムが可能になる。また、出力端子
に誘導信号を与えることにより、出力パターンを教え込
むことも可能となる。
【0015】
【実施例】以下、図面を用いて本発明の実施例を詳細に
説明する。図1が本発明による時系列学習神経回路素子
の一実施例を示す要素関係を示すブロック図であり、入
力メモリ部1,応答演算回路2,履歴判定回路3,学習
演算回路4の要素部分から構成されている。
【0016】ここで扱う時系列学習神経回路素子(以
下、単に素子という)の入力メモリ部1と応答演算回路
2の入出力応答の部分は、「神経回路素子」として、特
平4−254189号で明らかにされている入出力が
パルス信号で応答する素子を用いる。その神経回路素子
の動作を図6〜図8に参照しながら説明する。
【0017】図6に示すように、いまi番目の素子があ
り、多数のj入力を受けて動作することを考える。多数
の入力の内のjからの入力Xjのパルスはjからiへの
結合係数Wjiを経て素子内部に集積される。一方、素
子内部の残留ポテンシャルViは、減衰定数aにより次
の時間区分ではaViとして、集積値Uiに加わる。こ
こでの動作はある時間幅の離散時間による処理を行うこ
ととして、以上のことを示すと次式になる。
【0018】
【数1】 この集積値Uiはパルス発生のしきい値Tと比較され
て、しきい値より大きいときパルスを発生し(Xi=
1)、Uiから定数pを減じた値が内部ポテンシャルV
iとして次に残留する。集積値Uiがしきい値より小さ
いとパルスは発生せず(Xi=0)、Uiがそのまま残
留ポテンシャルViとなる。これをまとめると次式とな
る。
【0019】
【数2】 以上の動作を各素子毎に並列的に繰り返し計算し応答出
力を求める。
【0020】この応答の演算部分をデジタル回路で構成
したのが図7であり、20は結合係数記憶部、30は演
算処理部であり、〔数1〕の集積計算は、入力はパルス
でXjは1か0であるためXj=1であるWjiのみを
加算することとなり、aViの計算は定数aとの乗算で
あるため複雑な回路とならない。〔数2〕では、数値比
較と減算のみであり簡単なデジタル回路でつくれる。入
出力のデータは0,1であるため時間分割のシリアル転
送にすれば、図8のように結線はアドレス結線と1本の
データ結線で可能となる。さらに、結合係数Wjiは各
素子毎にデジタルメモリを用いれば自由に変更でき保持
できる。この神経回路素子が上記のように、デジタル回
路で集積化するのに適した方式であることは、前記の特
願平4−254189号で示されているとおりである。
このような神経回路素子を多数組み合わせて神経回路網
を構成して情報処理をする。
【0021】次に、この神経回路素子に付加する学習機
能について説明する。パルスによる学習則として、図5
に示す「神経回路の時系列学習法」(特願平5−345
321号)を基本的には適応することとする。その学習
法を説明すると、上記の神経回路素子の各入力部に、入
力の減衰しながら履歴値Hjiを保持する部分を備え
る。履歴値の計算は、各離散時間毎に素子としての応答
動作を繰り返しながら、パルス入力(Xj=1)がある
毎に入力のあった結合部の履歴値に定数qを加えるもの
とする。履歴値の減衰定数をdとしてこのことを表すと
次式となる。
【0022】
【数3】 一方、学習により結合係数Wjiを変えるのは、素子に
大きな入力がありパルス出力があった時に生じるとす
る。発火(Xi(t)=1)があると、各入力部の履歴
値Hji(t)が参照され、それが学習のしきい値と比
較され結合係数Wjiの増強/減衰/不変が決められ
る。学習のしきい値には、増強しきい値G1と減衰しき
い値G2の二つのレベル(G1>G2>0)があり、
〔数3〕から分かるように入力から短時間内でHji
(t)≧G1ならば増強となり、入力からしばらく経っ
G1>Hji(t)≧G2ならば減衰となり、それ以
外のしばらく入力が無かったG2>Hji(t)また
は、出力発火がない素子では学習は行われず結合係数は
不変となる。
【0023】入力結合には興奮性と制御性があるが、結
合係数Wjiを正にとれば興奮性の結合として計算で
き、負に取れば制御性の結合として計算できる。そこ
で、結合係数Wjiには上限Wmaxと下限Wminを
設け、学習速度定数として増強定数k1、減衰定数k2
とすると、結合係数Wjiの変化分ΔWjiは出力発火
があった素子で、
【0024】
【数4】 Hji(t)≧G1ならば、増強となり、ΔWji =k1(Wmax−Wji)
【0025】
【数5】 G1>Hji(t)≧G2ならば、減衰となり、ΔWji =k2(Wmin −Wji) で計算される。
【0026】〔数4〕,〔数5〕は、Wmax,Wmi
nをWmとし、k1,k2をkとすると、次式にまとま
る。
【0027】
【数6】 ここで計算を簡単にするためにいくつかの省略をしてい
る。実際の積分された入力の履歴値Hjiには、結合係
数Wjiも関係して、Wji・Hji(t)が学習閾値
G1,G2と比較されるべきであるが、Wjiの初期値
はランダムにしたり時系列を重視することから、履歴値
に対するWjiの値の影響は無視してHji(t)と学
習レベルと比較することとした。また、変化分ΔWは履
歴値Hjiと学習閾値G1,G2とも関係するはずであ
るが、ここでは増強/減衰がそれぞれ一定の学習速度
k1,k2となるとして無視した。
【0028】このような簡略化により、学習の計算が簡
略になる。例えば、素子の各入力毎の履歴値Hjiを求
めるには、各素子毎に全ての入力の履歴値を求めなくて
も、代わりに各素子の出力側の履歴値Hjを求め、それ
を各素子に伝達して学習の結合係数の計算に用いること
ができる。以上のことが、前記の特願平5−34531
号中に示されている。
【0029】しかし、上記の学習法により学習機能を持
つ回路を付加するためには、次のような障害があった。
学習のために、出力側で履歴を求め、各素子の入力部に
転送する方法をとると、履歴値Hjがアナログ量である
ため各素子に転送するための結線数のことや、各素子で
保持するためのメモリ量の問題もあり、そのまま回路化
することができない。このことは、パルス入出力の素子
にして折角1ビットの応答データで素子間の結線を簡略
化できたことにも矛盾する。
【0030】そこで、本発明では、この問題を解決し、
時系列学習機能を持つデジタル集積化された神経回路
を、図1の入力メモリ部1,応答演算回路2,履歴判定
回路3,学習演算回路4により実現したことを次に説明
する。図において、入力メモリ部1は、入力状態メモリ
11,結合係数メモリ12,学習判定メモリ13からな
る。なお、S1は応答入力、S2は判定入力、S3は応
答出力、S4は判定出力、S5〜S8は入力メモリ部1
の出力、S9は学習による結合係数の置き換え出力、S
10は応答演算回路2の出力、S11,S12は学習演
算回路4,履歴判定回路3への入力、S13は履歴判定
回路3の出力を示す。
【0031】まず、図1で示された入力メモリ部1の入
力状態メモリ11,結合係数メモリ12と応答演算回路
2のデジタル回路で構成された神経回路素子(その処理
手順は図2(a)に示す)に、出力の履歴値を演算し判
定するデジタル回路の履歴判定回路3を付加する。処理
手段は図2(b)で示すように、残留履歴値Hjの減衰
値dHjを求める回路を定数乗算器でつくり、その値に
出力Xjがある度にqを加える〔数3〕の計算をする加
算回路をつくる。ここで得られた出力側履歴値を、各素
子の出力部にそのまま転送する前に、学習しきい値
1,G2との比較を行い、〔数4〕,〔数5〕に基づき
結合係数の学習が増強/減衰/不変かの判定値にまで処
理する。この判定値を、各素子の入力部の判定値記憶メ
モリに転送する。この判定値は2ビット以下であるの
で、記憶メモリも節約でき、データも2本の結線でシリ
アル転送可能となる。
【0032】結合係数の学習は、転送された判定結果に
基づき、〔数4〕,〔数5〕の計算をする図1の学習演
算回路を付加して行う。その回路の処理内容は、図2
(c)に示す。まず、素子が出力パルスがあったことを
確認することと、判定が増強/減衰/不変か判別する回
路4を作る。〔数6〕により、増強にはWm=Wma
x,k=k1と、減衰にはWm=Wmin,k=k2と
代入して、減算回路で(Wm−Wji)をもとめ、定数
乗算回路でその値に定数kを乗算してΔWjiを得る。
さらに加減算回路で(Wji+ΔWji)から新しい結
合係数Wjiを得て、結合係数を書き換える。以上が、
付加する学習演算回路4である。
【0033】結合係数学習のために付加された回路は、
学習判定メモリ13と図2(a),(b)の処理手段を
持つ履歴判定回路3と学習演算回路4のみであり、判別
・定数乗算・加減算など簡単なデジタル回路でつくれ、
集積化も容易である。
【0034】また判定値は、増強ならば第1のビットが
1、減衰ならば第2ビットが1、不変ならば第1,第2
ビット共に0とすれば、2ビット以下の信号で2本の結
線を追加するのみで結線数、メモリ共に少なく出来る。
アドレス線は、各素子に応答データや判定データを時間
的シリアルに転送するとき、入力状態メモリと学習判定
メモリの位置を素子毎に指定する為の線で、素子数が1
024個ならば10本、2048個ならば11本あれば
十分である。
【0035】この神経回路素子の動作は、同期した動作
をしてその一周期を見ると、図1に示すように先ず入力
データを設定し、応答モードで素子の出力応答を演算処
理し、学習モードに切り替わり、学習演算により先の判
定値と出力応答から結合係数の増減分を計算し結合係数
を調整し、次の段階の為に履歴値計算と判定を行うとい
う、応答・学習の2つの動作モードを繰り返して行う。
高速な応答演算処理を必要とするときは、必ずしも応
答演算毎に学習演算処理をする必要はないので、何回か
の応答演算と履歴判定処理のあと1回の学習演算処理を
行う手順をくり返し行う方法をとる。
【0036】なお、神経回路システムを構築するために
は、請求項1の神経回路素子100を図3に示すように
1つの基板上に1000個程度配置して集積回路を作
る。図3の入出力制御部は、応答と判定の入力データが
これを通じて各素子の入力メモリ部に送られ、応答と
判定の出力を各素子から受け取る役割をし、また基盤外
の回路との信号入出力のインタフェースの役割も果た
す。この1つの基板上の回路を機能グループとして、多
数のグループを組み合わせることにより、システムをつ
くりあげる。本発明の神経回路では、素子間の入出力信
号はデジタル信号であるので信頼性があり、グループの
基板間の結線数も、3本のデータ線,アドレス線と、他
にクロックやモードに使う制御線等で容易に結線でき、
大規模なシステムも構築できる。応答・学習のモードを
用いた信号の時間制御をすると、入力と出力のデータ線
は共通に使える。
【0037】学習判定には、〔数4〕,〔数5〕のよう
に2つの学習閾値G1,G2により増強・減衰・不変の
判別をしたが、学習閾値をG1のみとして、出力発火が
あるとき、Hj≧G1で増強、G1>Hjで減衰の判定
をする簡略化を図ると、学習判定データは1本のデータ
線で送ることができ、さらに少ない結線となる。このと
きの学習の意味は先の場合と少し異なる。すなわち、入
出力に時間相関があると増強することは同じであるが、
それ以外は、発火があると必ず結合係数が減衰すること
となる。特定な入力パターンに対してのみ応答する出力
素子として学習するときは、この方が効率よく学習でき
る。このように学習の判定の区分を何段階にするかで、
学習判定データ線の本数は決まるので、詳細な多値判定
をするために判定データ線を多くするか、単純な判定で
判定データ線を少なくするかを、必要に応じて適切に選
ぶことができる。
【0038】一般の神経回路網には、内部で相互の結合
をした相互結合回路と、層状構造の図4のように結合を
した層状結合回路が用いられる。図3のような集積回路
をそれぞれの神経回路網で使う場合には、相互結合回路
では入出力制御部で出力値と入力値を一対一に対応させ
て、同じアドレスに転送する処理を繰り返せばよい。そ
のほかの結合回路の構成には、入出力制御部により入力
メモリ部1の使い方を工夫することにより対処できる。
図4の層状結合回路では、入力と出力が全く異なる素子
からのものであるので、入力層からの外部入力データを
入出力制御部で受け、各素子の入力メモリ部の入力状
態メモリと学習判定メモリに書き込み、各素子の出力の
応答と判定出力データを入出力制御部で受け、出力層の
入力部に転送する方法をとればよい。
【0039】相互結合がありさらに直接入力または外部
との結合もある混在した結合回路の場合には、入力メモ
リ部の一部を相互結合用として使い、残りを直接入力
用や外部結合用のために用いるなどメモリ部の使い方を
区分けして対処する。具体的は、素子がN個として相
互結合し、外部入力がM個ある場合、入力メモリ部はN
+M個準備して、メモリ部の1〜Nを相互結合用に残り
のM個を外部結合用に用いることで対処できる。このよ
うに本発明による神経回路は、複雑な帰還ループを持つ
回路などいろいろな結合の回路にも柔軟に対応でき、学
習則も入出力に関する局所的なものであるので問題はな
い。
【0040】いま、図4のような層状結合回路で、入力
発火パターンをある出力パターンに変換する場合、入力
に対する望ましい選定出力が得られるように、出力に選
定手段の持つ学習をする方法を示す。層状結合回路にお
いて、出力層の素子に教師または誘導信号として入力層
の信号を、発火してほしい出力層の素子に先に示した方
法で直接入力する結合をつくる。そうすることにより、
出力層の誘導信号を受けた素子が入力と時間相関をもっ
て発火するため、入力層と中間層素子と選定された出力
層素子との結合計数が強化される学習を行うことがで
き、入力に対して望みの選定された出力が得られる連想
記憶回路ができる。
【0041】また、図4のような層状結合回路で、多層
構造を取ることにより時系列連想記憶がより緻密になる
ことを示す。入力A,B,Cに対して、中間層,出力
層の発火応答がそれぞれA’,B’,C’およびA”,
B”,C”であったとする。そこで事象がA→B→C
順序で起こったとすると、その影響が中間層,出力層の
発火応答となり、時系列の学習もA→B’,B→C’の
結合の強化が進む。同時にA’→B”,B’→C”の強
化も進むので、多層構造によりA→B→Cの時系列連想
記憶回路はより緻密にすることができる。もし、AとC
との時間間隔が増強よりも減衰の関係にあると、AとC
を分離するような結合ができる。
【0042】以上のように、本発明によれば時系列学習
神経回路素子を集積化し、グループ化して、グループ間
の結合も学習させることができるので、大規模な神経情
報処理ネットワークを構築することができる。
【0043】
【発明の効果】以上説明したように、本発明にかかる時
系列学習神経回路素子は、多数入力を持つ神経回路素子
で、入力メモリ部の入力値とそれに対応した入力端の結
合係数の積を総和した結果と該神経回路素子内の前の時
点の残留値から減衰した値との和をとり、その演算結果
を集積値として、当該集積値と予め定めた閾値とを比較
し、前記集積値が前記閾値を越える場合は、比較結果と
して出力ビット1の出力信号を出し、前記集積値から定
数値を差し引いた値を前記残留値として取り扱うと共
に、前記集積値が前記閾値以下の場合は、比較結果とし
て出力ビット0の出力信号を出し、当該集積値を前記残
留値として取り扱う応答演算回路による演算手段と、
該神経回路素子の学習には、各入力の時間経過を示す入
力履歴値を求め、出力応答があった場合に於いて、当該
履歴値が大きいときには結合係数を強化し中間レベルで
は減衰とし極小か零では不変とする履歴判定により、新
しい結合係数を求める操作を学習演算回路により行い、
入力と出力の時間の前後関係を結合係数の内に銘記しま
た読み出せる機能を持ち、この学習に際し前段入力素子
から当該素子への入力の履歴値を送信側の前段入力素子
の出力の履歴値で代わりに求め、その履歴値と学習のし
きい値と比較する事により結合係数の強化か減衰または
不変の履歴判定値を前段入力素子内の履歴判定回路でつ
くり、この判定信号を受信側の各素子の入力端に送るこ
とにより当該神経回路素子の入力履歴判定値として当該
素子の前記の学習演算を行うことで時系列の連想記憶を
可能とする学習手段とを備えた構成であるので、非常に
単純な計算による時系列学習法となるため、簡単なデジ
タル回路により構成され、神経回路の大規模集積化がで
きる利点がある。とくに、応答の入出力信号と学習機能
のために判定信号を含めても、入出力がデジタル信号で
あるため素子または集積回路の基板間を信頼性をもった
デジタル結線ができ、さらにその結線数も少数ででき
る。そのため、多数のグループを組み合わせた大きなシ
ステムを組み立てることも可能になる。
【0044】また、本発明にかかる時系列学習神経回路
は、請求項1の時系列学習神経回路素子を多数個1つの
基板上に配置して集積化することにより、1つの機能グ
ループを形成し、それらグループを複数個集めたグルー
プ間で時系列の連想学習を行い、時間の流れを連想記憶
するシステムを構築し、同時に教師又は誘導信号により
出力素子を選定した学習ができる選定手段を備えたの
で、入力は他のグループの出力から、出力は他のグルー
プへの出力のように、入力メモリ部の柔軟な使い分けが
可能なことにより、各種の結合様式を持った神経回路を
構成することが自由にできる。そのため相互結合回路や
層状結合回路を組み合わせた回路網で、時系列の学習を
行い緻密な時系列連想記憶回路を作ることが可能であ
る。
【0045】ここで用いた時系列学習法は、素子の入出
力だけできまる局所性をもつことから、相互結合や帰還
回路等どのような結合をした回路にも適応できる。ま
た、出力側の素子に教師信号として誘導信号を入力する
ことにより、回路の出力制御も自由にでき、任意の出
力パターンをもつ連想記憶回路を作ることができる。
【0046】本発明は、生理学的機能に近い自然な学習
法を神経回路として実現するので、脳の機能と同じよう
に、時系列の事象の流れを神経回路の結合係数の中に正
確に学習し、読み出す方法が実現できる。そして、時間
的ダイナミックな現象を取り扱うことのできる高度な神
経回路網を実現する効果をもたらす。すなわち、神経回
路の中に、時間的な因果関係を導入した論理回路も構築
することができ、よりヒトの脳神経系に近い高度な情報
処理が可能となる。
【図面の簡単な説明】
【図1】時系列学習回路の内容を示す構成図である。
【図2】各構成要件の処理内容を示す説明図である。
【図3】時系列学習を集積回路とするための構成図であ
る。
【図4】層状結合回路としての動作を示す説明図であ
る。
【図5】神経回路の時系列学習法の内容を示す構成図で
ある。
【図6】先に提案した神経回路素子の入力と出力との関
係を示す図である。
【図7】先に提案した神経回路素子をデジタル回路で実
現した例を示すブロック図である。
【図8】図7の神経回路素子を複数の接続した神経回路
を示すブロック図である。
【符号の説明】
1 入力メモリ部 11 入力状態メモリ 12 結合係数メモリ 13 学習判定メモリ 2 応答演算回路 3 履歴判定回路 4 学習演算回路 100 神経回路素子 Xj(t−1) 時間t−1のj素子の出力(時間tで
は他の素子へのj素子からの入力) Xi(t) 時間tのときのi素子の出力 Wji j素子からi素子への結合係数 Vi(t) 時間tのときのi素子の内部残留値 Hj(t) 時間tのときのj素子からの入力の履歴値 G1 結合係数の学習が、増強または減衰するためのし
きい値 G2 結合係数の学習が、増強または減衰するためのし
きい値 K1 結合係数の学習が、増強または減衰するときの学
習速度定数 K2 結合係数の学習が、増強または減衰するときの学
習速度定数
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 International Sym posium on Neural I nformation Process ing(ISKIT’92)(1992)、 Y.Shigematsu、G.Mat sumoto、S.Akiyama、 “A Dynamic Neural Cell Model Drivenb y Pulse Train.”、P. 130−P.134

Claims (2)

    (57)【特許請求の範囲】
  1. 【請求項1】 多数入力を持つ神経回路素子で、入力メ
    モリ部の入力値とそれに対応した入力端の結合係数の積
    を総和した結果と該神経回路素子内の前の時点の残留値
    から減衰した値との和をとり、その演算結果を集積値と
    して、当該集積値と予め定めた閾値とを比較し、前記集
    積値が前記閾値を越える場合は、比較結果として出力ビ
    ット1の出力信号を出し、前記集積値から定数値を差し
    引いた値を前記残留値として取り扱うと共に、前記集積
    値が前記閾値以下の場合は、比較結果として出力ビット
    0の出力信号を出し、当該集積値を前記残留値として取
    り扱う応答演算回路による演算手段と、当該神経回路素子の学習には、各入力の時間経過を示す
    入力履歴値を求め、出力応答があった場合に於いて、当
    該履歴値が大きいときには結合係数を強化し中間レベル
    では減衰とし極小か零では不変とする履歴判定により、
    新しい結合係数を求める操作を学習演算回路により行
    い、入力と出力の時間の前後関係を結合係数の内に銘記
    しまた読み出せる機能を持ち、この学習に際し前段入力
    素子から当該素子への入力の履歴値を送信側の前段入力
    素子の出力の履歴値で代わりに求め、その履歴値と学習
    のしきい値と比較する事により結合係数の強化か減衰ま
    たは不変の履歴判定値を前段入力素子内の履歴判定回路
    でつくり、この判定信号を受信側の各素子の入力端に送
    ることにより当該神経回路素子の入力履歴判定値として
    当該素子の前記の学習演算を行うことで時系列の連想記
    憶を可能とする学習手段と を備えたことを特徴とする時
    系列学習神経回路素子。
  2. 【請求項2】 請求項1の時系列学習神経回路素子を多
    数個1つの基板上に配置して集積化することにより、1
    つの機能グループを形成し、それらグループを複数個集
    めたグループ間で時系列の連想学習を行い、時間の流れ
    を連想記憶するシステムを構築し、同時に教師又は誘導
    信号により出力素子を選定した学習ができる選定手段を
    備えたことを特徴とする時系列学習神経回路。
JP6078003A 1994-03-23 1994-03-23 時系列学習神経回路素子およびそれを用いた時系列学習神経回路 Expired - Lifetime JP2615422B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP6078003A JP2615422B2 (ja) 1994-03-23 1994-03-23 時系列学習神経回路素子およびそれを用いた時系列学習神経回路
US08/405,963 US5704016A (en) 1994-03-23 1995-03-17 Temporal learning neural network
GB9505846A GB2287820B (en) 1994-03-23 1995-03-22 Temporal associative learning neural processing element and temporal learning neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6078003A JP2615422B2 (ja) 1994-03-23 1994-03-23 時系列学習神経回路素子およびそれを用いた時系列学習神経回路

Publications (2)

Publication Number Publication Date
JPH07262158A JPH07262158A (ja) 1995-10-13
JP2615422B2 true JP2615422B2 (ja) 1997-05-28

Family

ID=13649626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6078003A Expired - Lifetime JP2615422B2 (ja) 1994-03-23 1994-03-23 時系列学習神経回路素子およびそれを用いた時系列学習神経回路

Country Status (3)

Country Link
US (1) US5704016A (ja)
JP (1) JP2615422B2 (ja)
GB (1) GB2287820B (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09231189A (ja) * 1996-02-26 1997-09-05 Fuji Xerox Co Ltd 連想記憶装置および連想記憶方法
JP3146257B2 (ja) * 1997-04-25 2001-03-12 大幸薬品株式会社 連想素子、これを用いた連想装置及びその方法
US6397201B1 (en) * 1997-12-02 2002-05-28 David W. Arathorn E-cell (equivalent cell) and the basic circuit modules of e-circuits: e-cell pair totem, the basic memory circuit and association extension
US6269354B1 (en) 1998-11-30 2001-07-31 David W. Arathorn General purpose recognition e-circuits capable of translation-tolerant recognition, scene segmentation and attention shift, and their application to machine vision
US6801878B1 (en) * 1999-04-08 2004-10-05 George Mason University System and method for managing sensors of a system
US6424961B1 (en) 1999-12-06 2002-07-23 AYALA FRANCISCO JOSé Adaptive neural learning system
EP1584004A4 (en) * 2003-01-17 2007-10-24 Francisco J Ayala SYSTEM AND METHOD FOR DEVELOPING ARTIFICIAL INTELLIGENCE
US7493295B2 (en) * 2003-01-17 2009-02-17 Francisco J. Ayala Method, system and computer program for developing cortical algorithms
JP4780921B2 (ja) * 2004-03-17 2011-09-28 キヤノン株式会社 並列パルス信号処理装置、及びその制御方法
US7664714B2 (en) * 2004-10-21 2010-02-16 Honda Motor Co., Ltd. Neural network element with reinforcement/attenuation learning
US7478192B2 (en) * 2004-11-03 2009-01-13 Saffron Technology, Inc. Network of networks of associative memory networks
US7904398B1 (en) 2005-10-26 2011-03-08 Dominic John Repici Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times
GB2453263A (en) * 2006-05-16 2009-04-01 Douglas S Greer System and method for modeling the neocortex and uses therefor
US7814038B1 (en) 2007-12-06 2010-10-12 Dominic John Repici Feedback-tolerant method and device producing weight-adjustment factors for pre-synaptic neurons in artificial neural networks
KR101838560B1 (ko) 2011-07-27 2018-03-15 삼성전자주식회사 뉴로모픽 칩에서 스파이크 이벤트를 송수신하는 송수신 장치 및 방법
JP5740761B2 (ja) * 2014-10-29 2015-07-01 洋彰 宮崎 自動論理構築機
CN106951962B (zh) * 2017-03-22 2020-09-01 南京地平线机器人技术有限公司 用于神经网络的复合运算单元、方法和电子设备
US11544545B2 (en) 2017-04-04 2023-01-03 Hailo Technologies Ltd. Structured activation based sparsity in an artificial neural network
US11551028B2 (en) 2017-04-04 2023-01-10 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network
US10387298B2 (en) 2017-04-04 2019-08-20 Hailo Technologies Ltd Artificial neural network incorporating emphasis and focus techniques
US11615297B2 (en) 2017-04-04 2023-03-28 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network compiler
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11966835B2 (en) 2018-06-05 2024-04-23 Nvidia Corp. Deep neural network accelerator with fine-grained parallelism discovery
US11769040B2 (en) 2018-09-10 2023-09-26 Nvidia Corp. Scalable multi-die deep learning system
US11270197B2 (en) 2019-03-12 2022-03-08 Nvidia Corp. Efficient neural network accelerator dataflows
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6083994A (ja) * 1983-10-14 1985-05-13 三菱電機株式会社 表示装置
FR2625347B1 (fr) * 1987-12-23 1990-05-04 Labo Electronique Physique Structure de reseau de neurones et circuit et arrangement de reseaux de neurones
US5222195A (en) * 1989-05-17 1993-06-22 United States Of America Dynamically stable associative learning neural system with one fixed weight
JPH0693249B2 (ja) * 1992-08-28 1994-11-16 工業技術院長 神経回路素子
JP2737583B2 (ja) * 1992-11-26 1998-04-08 松下電器産業株式会社 ニューラルネットワーク回路

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
International Symposium on Neural Information Processing(ISKIT’92)(1992)、Y.Shigematsu、G.Matsumoto、S.Akiyama、"A Dynamic Neural Cell Model Drivenby Pulse Train."、P.130−P.134

Also Published As

Publication number Publication date
GB2287820A (en) 1995-09-27
GB2287820B (en) 1998-01-07
JPH07262158A (ja) 1995-10-13
GB9505846D0 (en) 1995-05-10
US5704016A (en) 1997-12-30

Similar Documents

Publication Publication Date Title
JP2615422B2 (ja) 時系列学習神経回路素子およびそれを用いた時系列学習神経回路
EP0471857B1 (en) Neuro-fuzzy integrated data processing system; network structure conversion system ; fuzzy model extracting system
CN106845633B (zh) 神经网络信息转换方法和系统
Beerhold et al. Pulse-processing neural net hardware with selectable topology and adaptive weights and delays
Inoue et al. Efficient hybrid neural network for chaotic time series prediction
WO1988007234A1 (en) Back propagation system
CN109615069B (zh) 一种具有异步传输特性的神经网络的电路结构
JP3256553B2 (ja) 信号処理装置の学習方法
Venayagamoorthy Teaching neural networks concepts and their learning techniques
CN113011572B (zh) 一种轴突变化量确定方法和装置、权重处理方法和装置
JPH05128082A (ja) 階層ネツトワーク構成データ処理装置とその学習処理方法
JP2765903B2 (ja) 情報処理装置
JP3255425B2 (ja) 信号処理方法
JP3130913B2 (ja) 信号処理装置
JP2517662B2 (ja) 連鎖制御装置
JP2559878B2 (ja) ファジィ制御器
WO1992017855A1 (en) A neural network
JP2544489B2 (ja) ニュ―ラルネットワ―クモデルの学習方法
JPH0682354B2 (ja) ニューラルネットにおける学習方式
JPH05217010A (ja) 信号処理装置
JPH07175771A (ja) ニューラルネットワーク及びこれを用いた信号処理装置、自律システム、自律型ロボット並びに移動システム
JPH0512239A (ja) 相互結合ネツトワーク構成データ処理装置とその学習処理方法
CN114819115A (zh) 一种神经元计算方法
JPH05120254A (ja) 信号処理装置
Sotirov et al. Interval identification of nonlinear systems using neural networks

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term