JPH05165987A - 信号処理装置 - Google Patents

信号処理装置

Info

Publication number
JPH05165987A
JPH05165987A JP3351410A JP35141091A JPH05165987A JP H05165987 A JPH05165987 A JP H05165987A JP 3351410 A JP3351410 A JP 3351410A JP 35141091 A JP35141091 A JP 35141091A JP H05165987 A JPH05165987 A JP H05165987A
Authority
JP
Japan
Prior art keywords
nerve cell
coupling coefficient
weight value
signal
storage means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3351410A
Other languages
English (en)
Inventor
Tokuo Hashimoto
篤男 橋本
Sugitaka Otegi
杉高 樗木
Toshihiro Tsukagoshi
敏弘 塚越
Satoshi Otsuki
聡 大槻
Hideki Aono
英樹 青野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP3351410A priority Critical patent/JPH05165987A/ja
Priority to US07/989,605 priority patent/US5324991A/en
Priority to US07/989,781 priority patent/US5327522A/en
Publication of JPH05165987A publication Critical patent/JPH05165987A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

(57)【要約】 【目的】 ニューラルコンピュータ等の信号処理装置に
係り、特にハードウェアを小型で安価にでき、しかも、
高速処理が可能な信号処理装置を提供することを目的と
する。 【構成】 神経細胞模倣素子により構成された神経細胞
回路網を備える信号処理装置において、上記神経細胞回
路網を構成する各神経細胞模倣素子に、結合の重み値を
保持する結合係数記憶手段303・304と、前記重み
に相当するパルス密度のランダムパルス列を発生するパ
ルス生成手段301・302と、教師信号に対する誤差
信号に基づき生成される重み値の更新値、または重み値
の修正情報に応答して前記結合係数記憶手段303・3
04の内容を更新、または修正する手段とが設けられて
なる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、文字や図形認識、ロ
ボットなどの運動制御、連想記憶などに応用される神経
細胞回路網を模倣したニューラルコンピュータ等の信号
処理装置に係り、特にハードウェアを小型で、安価にで
き、しかも、高速処理が可能な信号処理装置に関する。
【0002】
【従来の技術】生体の情報処理の基本的な単位である神
経細胞(ニューロン)の機能を模倣した神経細胞模倣素
子をネットワークに構成し、情報の並列処理を目指した
のが、いわゆる神経細胞回路ネットワーク(ニューラル
ネットワーク)である。文字認識や連想記憶、運動制御
等は生体おいてはいとも簡単に行われていても、従来の
ノイマン型コンピュータではなかなか達成できないもの
が多い。そこで、生体の神経系、特に生体特有の機能、
すなわち並列処理や自己学習等を模倣して、これらの問
題を解決しよとする試みが、計算機シミュレーションを
中心として、盛んに行われている。
【0003】図1は、ニューラルネットワークの模式図
であり、図中のA1 、A2 、A3 は、それぞれ神経細胞
模倣素子(神経細胞ユニット)を表している。各神経細
胞ユニットA1 、A2 、A3 は、図2の模式図に示す神
経細胞ユニットAと同様に多数の神経細胞ユニットと結
合され、それらから受けた信号を処理して出力する。図
1に示されたニューラルネットワークは階層型であり、
神経細胞ユニットA2は1つ前の層(入力層)の各神経
細胞ユニットA1 より信号を受け、1つ後の層(出力
層)の各神経細胞ユニットA3 へ信号を出力する。
【0004】図2に示す神経細胞ユニットAを例にとっ
て各神経細胞ユニットA1 、A2 、A3 の動作について
より詳しく説明すると、以下の通りである。すなわち、
他の神経細胞ユニットと当該神経細胞ユニットAとの結
合の度合いは結合係数Tと呼ばれる係数で表され、一般
に、i番目の神経細胞ユニットとj番目の神経細胞ユニ
ットとの結合係数はTijで表される。結合には、相手の
神経細胞ユニット(自分に信号を送ってくるニューロ
ン)からの信号が大きいほど自分の出力が大きくなる興
奮性結合と、逆に相手のニューロンからの信号が大きい
ほど自分の出力が小さくなる抑制性結合とがあり、Tij
>0が興奮性結合、Tij<0が抑制性結合である。
【0005】いま、j番目の神経細胞ユニットAj を例
にとれば、相手の神経細胞ユニットであるi番目の神経
細胞ユニットAi の出力をyi とすると、これにi番目
の神経細胞ユニットAi のうちの1つとj番目の神経細
胞ユニットAj のうちの1つとの結合係数Tijを掛けた
Tijyi がi番目の神経細胞ユニットAi のうちの1つ
からj番目の神経細胞ユニットAj のうちの1つへの入
力となる。
【0006】各神経細胞ユニットAj は多数のi番目の
神経細胞ユニットAi と結合しているので、j番目の当
該神経細胞ユニットAj への入力は、j番目の当該神経
細胞ユニットAj のi番目のすべての神経細胞ユニット
Ai に対するTijyi を足し合わせたもの、すなわち、
ΣTijyi がj番目の当該神経細胞ユニットAj への入
力となる。これを内部電位といい、次の数式1のuj で
表される。
【0007】
【数1】uj =ΣTiji
【0008】次に、この入力に対して非線形処理をし
て、その神経細胞ユニットAj の出力とする。ここで用
いる非線形関数を神経細胞応答関数と呼び、例えば次の
数式2に示すようなシグモイド関数(x) を用いる。
【0009】
【数2】f(x) =1/(1+e-x
【0010】図3は、このシグモイド関数を示すグラフ
である。
【0011】前記神経細胞ユニットA1 、A2 、A3 を
図1に示すようなニューラルネットワークに構成し、各
結合係数Tijを与え、前記数式1、2を次々と計算する
ことにより、最終的な出力b1 〜b4 が得られる。
【0012】上記ニューラルネットワークは例えば図4
の回路図に示す電気回路で実現され(特開昭62−29
5188号公報参照)、基本的には、S字形の伝達関数
を有する複数の増幅器53と、各増幅器53の出力を他
の層の増幅器の入力に接続する抵抗性フィードバック回
路網51とが設けられる。各増幅器53の入力側には接
地されたコンデンサCと接地された抵抗RとからなるC
R時定数回路52が個別に接続される。そして、入力電
流I1 〜IN が各増幅器53の入力に供給され、出力は
これらの増幅器53の出力電圧の集合から得られる。
【0013】この回路において、入力や出力の信号の強
度を電圧で表せば、神経細胞の結合の強さは、各細胞間
の入出力ラインを結ぶ抵抗50(抵抗性フィードバック
回路網51中の格子点)の抵抗値で表され、神経細胞応
答係数は各増幅器53の伝達関数で表される。また、神
経細胞間の結合には前述のように興奮性と抑制性とがあ
り、数学的には結合係数の正負符号により表される。し
かし、回路上の定数で正負を実現するのは困難であるの
で、ここでは、増幅器53の出力を2つに分け、一方の
出力を反転させることにより、正負の2つの信号53
a、53bを生成し、これを適当に選択することにより
実現するようにしている。また、図3に示したシグモイ
ド関数に相当するものとしては増幅器53の伝達関数が
用いられている。
【0014】次に、上記ニューラルネットワークの学習
機能について説明する。数値計算で用いられている学習
法則としては、バックプロパゲーションと呼ばれる次の
ようなものがある。
【0015】まず、各神経細胞ユニット間の結合係数は
最初はランダムな値に設定される。この状態でニューラ
ルネットワークに入力を与えると、その出力結果は必ず
しも望ましいものではない。例えば、文字認識の場合、
手書きの「1」の文字を与えると、出力結果として「こ
の文字は『1』である」と出るのが望ましい結果である
が、結合係数がランダムであると必ずしも望ましい結果
とはならない。
【0016】そこで、このニューラルネットワークに正
解(教師信号)を与えて、再び同じ入力があった時出力
結果が正解となる(望ましい出力結果が得られる)よう
に、各結合係数を変化させる。この時、結合係数を変化
させる量を求めるアルゴリズムが、バックプロパゲーシ
ョンと呼ばれているものである。例えば、図1に示した
ような階層型のネットワークにおいて、最終層(図の右
の層A3 )のj番目の神経細胞ユニットAj の出力をy
j とし、その神経細胞ユニットAj に対する教師信号を
dj とすると、次の数式3で表されるEが最小となるよ
うに、次の数式4を用いて結合係数Tijを変化させる。
【0017】
【数3】E=Σ(dj −yj )2
【0018】
【数4】ΔTij=∂E/∂Tij
【0019】具体的には、まず、出力層と、その1つ前
の層における誤差信号δj を、次の数式5により求め
る。
【0020】
【数5】δj =(dj −yj )×f’(uj
【0021】次に、それよりさらに前の層(中間層)に
おける誤差信号δj を数式6により求める。
【0022】
【数6】δj =Σδjij×f’(uj
【0023】但し、f’はfの一階微分である。これを
用いて、δ(誤差信号)を求め、次の数式7により、T
ijを求めて、Tijを変化させる。
【0024】
【数7】ΔTij=η(δjj )+αΔTij’ Tij=Tij’+ΔTij
【0025】但し、ΔTij’、Tij’はそれぞれ前回の
学習時でのΔTij、Tijの値である。また、ηは学習定
数、αは安定化定数と呼ばれているものであり、各々、
理論的には求められないので経験的に求める。一般的に
は、これらの数値が小さいほど収束が遅く、また、大き
いと振動してしまう傾向にある。オーダ的には1程度の
ものである。
【0026】このようにして学習をし、その後、再び入
力を与えて出力を計算し、学習をする。この操作を何回
も繰り返すうちに、やがて、与えられた入力に対して望
ましい結果が得られるような結合係数Tijが決定され
る。
【0027】さて、このような学習方法を何らかの方法
でハードウエア化しようとした場合、学習には、多量の
四則演算が必要であり、実現が困難である。また学習方
法そのものもハードウェア化に対しては不向きである。
【0028】このようなニューラルネットワークを実現
するデジタル回路は例えば図5ないし図7の各ブロック
図に示すように構成され、その単一神経細胞の回路は、
例えば図5に示すように、シナプス回路60、樹状突起
回路61及び細胞体回路62を備える。
【0029】上記シナプス回路60は、例えば図6に示
すように、係数回路60aを介して入力パルスfに倍率
a(フィードバック信号に掛ける倍率で1または2)を
掛けた値が入力されるレートマルチプライヤ60bを備
え、また、このレートマルチプライヤ60b接続される
重み付けの値wを記憶したシナプス荷重レジスタ60c
を備え、レートマルチプライヤ60bより入力パルスf
に倍率aと重み付けの値wとを掛けた値の出力パルスを
出力するようにしてある。
【0030】また、上記細胞体回路62は例えば図7に
示すように、順に接続される制御回路63、アップ/ダ
ウンカウンタ64、レートマルチプライヤ65及びゲー
ト66と、アップ/ダウンメモリ67とを備える。
【0031】このデジタル回路で実現されるニューラル
ネットワークでは、神経細胞ユニットの入出力をパルス
列で表現され、そのパルス密度で信号の量が表される。
結合係数は2進数で取り扱い、シナプス荷重レジスタ6
0cに保存している。また、このニューラルネットワー
クでの信号演算処理は次のように行われる。
【0032】まず、入力信号をレートマルチプライヤ6
0bへ入力し、結合係数をレート値へ入力することによ
って、入力信号のパルス密度をレート値に応じて減らし
ている。これは、前述のバックプロパゲーションモデル
の数式1のTijyi の部分に相当する。またΣTijyi
のΣの部分は、樹状突起回路61によって示されるOR
回路で実現している。結合には興奮性、抑制性があるの
で、あらかじめグループ分けしておき、それぞれのグル
ープ別に論理和をとる。図5において、F1 は興奮性、
F2 は抑制性出力を示す。
【0033】この2つの出力F1 、F2 を、図7に示し
たアップ/ダウンカウンタ64のアップ側、ダウン側に
それぞれ入力してカウントすることで出力が得られる。
この出力は2進数であるので、再びレートマルチプライ
ヤ65を用いてパルス密度に変換する。この神経細胞ユ
ニットを複数個用いてネットワークを構成することによ
って、ニューラルネットワークが実現できる。
【0034】学習機能は、ネットワークの最終出力を外
部のコンピュータに入力して、コンピュータ内部で数値
計算を行い、その結果を結合係数を保存するシナプス荷
重レジスタ60cに書き込むことによって実現してい
る。
【0035】本出願人は、神経細胞模倣素子より構成さ
れた神経細胞回路網による信号処理装置をすでに特許出
願している(特願平1−34891号)。本発明では、
この先願に係る信号処理装置を一実施例の例題として取
り扱うので、以下、この先願に係る信号処理装置につい
て述べる。
【0036】この先願に係る信号処理装置においては、
神経回路網の一例として、ディジタル論理回路を用いた
神経細胞ユニットとこれを用いて構成したネットワーク
回路による信号処理について提案している。
【0037】この先願発明における基本的な考え方は、 1 神経細胞ユニットに関する入出力信号、中間信号、
結合係数、教師信号などは、すべて、「0」、「1」の
2値で表されたパルス列で表現する。 2 ネットワーク内部での信号の値は、パルス密度で表
す(ある一定時間内の「1」の数)。 3 神経細胞ユニット内での計算は、パルス列同士の論
理演算で行う。 4 結合係数のパルス列は、神経細胞ユニット内のメモ
リに格納する。 5 学習は、このパルス列を書き換えることで実現す
る。 6 学習については、与えられた教師信号パルス列を元
に誤差を計算し、これに基づいて、結合係数を変化され
る。この時、誤差の計算、結合係数の変化分の計算もす
べて、「0」、「1」のパルス列の論理演算で行う。 というものであり、以下詳細に説明する。
【0038】上記先願発明の信号演算部分、すなわち、
1つの神経細胞ユニットに相当する部分は図8の回路図
に示すように構成され、ニューラルネットワークは図1
に示すような従来と同じ階層型に用構成される。神経細
胞ユニットの入出力は、すべて、「0」、「1」に2値
化され、さらに、同期化されたものを用いる。
【0039】入力yi の信号の値(=強度)は、パルス
密度で表現し、例えば次の数式8に示すパルス列のよう
に、ある一定時間内にある、「1」の状態の数で表す。
【0040】
【数8】
【0041】この数式8の場合は4/6を表す信号を示
しており、同期パルス6個中に入力信号は「1」が4
個、「0」が2個であることを表している。この時、
「1」と「0」の並び方は、後に理由を示すようにラン
ダムであることが望ましい。
【0042】一方、結合係数Tijも、次の数式9で示す
ように、同様にパルス密度で表現し、「0」と「1」と
のパルス列としてあらかじめメモリに用意しておく。
【0043】
【数9】
【0044】数式9は、結合係数の値が「10101
0」=3/6であることを表し、この時も、前記と同
様、「0」と「1」の並び方はランダムであることが望
ましい。そして、この結合係数のビット列を同期クロッ
クに応じてメモリより順次読み出し、図8の論理回路図
に示すように各々AND回路18により入力パルス列と
の論理積をとる(yi ∩Tij)。これを、神経細胞ユニ
ットへの入力とする。上記の例を用いて説明すると、信
号「101101」が入力された場合、これと同期して
メモリ上より結合係数のビット列を呼び出し、順次論理
積(AND)をとることにより、次の数式10で示すよ
うなパルス列(ビット列)「101000」が得られ
る。
【0045】
【数10】
【0046】数式10は、入力信号のパルス列yi が、
結合係数のパルス列Tijにより変換され、その結果、神
経細胞ユニットへの入力パルス密度が2/6となること
を示している。
【0047】上記AND回路18の出力のパルス密度
は、近似的には「入力信号のパルス密度」と「結合係数
のパルス密度」の積となり、アナログ方式における場合
の結合係数と同様の機能を有し、信号の列(パルス列)
が長いほど、また、「1」と「0」との並び方がランダ
ムであるほど、数値の積に近い機能を持つことになる。
それ故に上述したように、神経細胞ユニットの入力yi
の「1」と「0」との並び方がランダムであるほど好ま
しいのである。なお、ランダムでないとは、1(または
0)が密集(密接)していたり、1と0の並びに規則性
があったりすることを意味する。
【0048】なお、入力パルス列と比較して結合係数の
パルス列の長さが短く、読み出すべきデータがなくなっ
てしまった場合には、再びデータの先頭に戻って、読み
出しを繰り返すことで対処できる。
【0049】1つの神経細胞ユニットは多くの入力をも
つので、先に説明した「入力信号と結合係数との論理
積」も多数ある。次に、これらのOR操作によりこれら
の論理和をとる。入力は同期化されているので、1番目
のデータが「101000」、2番目のデータが「01
0000」の場合、両者の論理和は、「111000」
となる。これを多入力同時に計算し出力とすると次の数
式11のようになる。
【0050】
【数11】
【0051】この部分はアナログ計算における場合の、
信号の和を求める計算及び非線形関数(例えばシグモイ
ド関数)の部分に対応している。
【0052】一般的なパルス演算において、その論理和
(OR)のパルス密度は、パルス密度が低い場合には各
々のパルス密度の和に近似的に一致する。パルス密度が
高くなるにつれて、OR回路の出力は徐々に飽和してく
るので、パルス密度の和とは結果が一致せず、非線形性
が出てくる。論理和の場合、パルス密度は1よりも大き
くなることはなく、かつ、0より小さくなることもな
く、さらには、単調増加関数であるので、シグモイド関
数と近似的に同様となる。
【0053】さて、結合には興奮性と抑制性があり、数
値計算の場合には、結合係数の符号で表し、アナログ回
路の場合には、前述したように結合係数Tijが負となる
場合(抑制性結合)には増幅器を用いて出力を反転さ
せ、Tijに相当する抵抗値で他の神経細胞ユニットへ結
合させている。この点、ディジタル方式の場合において
は、まず、Tijの正負により各結合を興奮性結合と抑制
性結合との2つのグループに分け、次いで、「入力信号
と結合係数のパルス列の論理積」同士の論理和をこのグ
ループ別に演算する。その結果、興奮性グループの出力
が「1」で、かつ、抑制性グループの出力が「0」の時
のみ「1」を出力する。この機能を実現するためには、
次の数式12で示すように、抑制性グループの出力の反
転信号と興奮性グループの出力との論の積をとればよ
い。
【0054】
【数12】
【0055】論理式で表現すると、次の数式13ないし
数式15で表される。
【0056】
【数13】a=∪(yi ∩Tij)(T=興奮性)
【0057】
【数14】b=∪(yi ∩Tij)(T=抑制性)
【0058】
【数15】yi =a∩*b
【0059】この神経細胞ユニットを用いたネットワー
クの構成は、図2に示したような、階層型とする。ネッ
トワーク全体を同期させておけば、各層とも上述の通り
の機能で並列的に演算することが可能である。
【0060】次に、学習時の処理について説明する。以
下の(1)または(2)により誤差信号を求め、ついで
(3)で述べる方法により結合係数の値を変化させるこ
とにより、学習を行う。
【0061】(1)出力層における誤差信号 最初に、出力層(図2の右側の層A3 )で各神経細胞ユ
ニットにおける誤差信号を計算し、それを元にその神経
細胞ユニットに関わる結合係数を変化させる。そのため
の誤差信号の計算法について、次の数式16ないし数式
19を用いて説明する。ここで、「誤差信号」を以下の
ように定義する。すなわち、誤差を数値で表すと、一般
には正負両方の値をとり得るが、パルス密度ではそのよ
うな表現はできないので、+成分を表す信号と−成分を
表す信号の2つを使って誤差信号を表現する。
【0062】
【数16】
【0063】
【数17】
【0064】
【数18】 δ+ ≡*y AND d
【0065】
【数19】 δ- ≡ y AND *d
【0066】つまり、誤差信号の+成分は、出力結果
が”0”で、教師信号が”1”の時”1”となり、それ
以外は”0”となる。
【0067】他方、誤差信号の−成分は、出力結果が”
1”で、教師信号が”0”のとき”1”となり、それ以
外は”0”となる。このような誤差信号パルスを元に、
結合係数を後述するように変化させることになる。
【0068】(2)中間層における誤差信号 前述の(1)で求めた出力層における誤差信号を逆伝播
させ、出力層とその1つ前の層との結合係数だけでな
く、さらにその前の層の結合係数も変化する。そのた
め、中間層(図2の中央層A2)における各神経細胞ユ
ニットでの誤差信号を計算する必要がある。中間層にあ
る神経細胞ユニットから、さらに1つの先の層の各神経
細胞ユニットへ信号を伝播させたのとは、丁度逆の要領
で1つの先の層の各神経細胞ユニットにおける誤差信号
を集めてきて、自己の誤差信号とする。このことは、神
経細胞ユニット内での上記数式8〜11と同じような要
領で行うことができる。すなわち、まず、結合を興奮性
か抑制性かにより2つのグループに分け、乗算の部分は
論理積、Σの部分は論理和で表現する。
【0069】但し、神経細胞ユニット内での上記数式8
ないし数式11と異なるのは、yは1つの信号であるの
に対し、δは正、負を表す信号として2つの信号δ+
δ-を持ち、その両方の信号δ+ ・δ- を考慮する必要
がある。従って、T(結合係数)の正負、δ(誤差信
号)の正負の4つの場合に場合分けする必要がある。
【0070】まず、興奮性結合の場合には、中間層のあ
る神経細胞ユニットA2 について、1つ後の層(図1の
出力層)の神経細胞ユニットA3 のうちの1つの誤差信
号δ+ j と、その神経細胞ユニットA3 と自分(図2に
おける中間層のある神経細胞ユニットA2 )との結合係
数Tijの論理積をとったもの(δ+ i ∩Tij)を1つ後
の層の各神経細胞ユニットA3 について求め、さらにこ
れらの同士の論理和をとる{=∪(δ+ i ∩Tij)}。
その結果をこの層の誤差信号+ とする。すなわち次の数
式20のように表される。
【0071】
【数20】
【0072】同様に、次の数式21で示すように、1つ
先の層の神経細胞ユニットでの誤差信号δ- と結合係数
とのANDをとり、さらにこれら同士のORをとること
により、この層の誤差信号δ-を求めることができる。
【0073】
【数21】
【0074】次に、抑制性結合の場合を説明する。次の
数式22で示すように、1つ先の層の神経細胞ユニット
での誤差信号−と、その神経細胞ユニットと自分との結
合係数のANDをとり、さらにこれらの同士のORをと
った結果を、この層の誤差信号+とする。
【0075】
【数22】
【0076】同様に、次の数式23で示すように、1つ
後の層の神経細胞ユニットでの誤差信号+と結合係数と
の論理積(AND)をとり、さらにこれらの同士の論理
和(OR)をとることにより、この層の誤差信号−を求
めることができる。
【0077】
【数23】
【0078】1つの神経細胞ユニットから別の神経細胞
ユニットへの結合は、興奮性の場合と抑制性の場合の2
つがあるので、上記数式20で求めた誤差信号δ+ i と
上記数式22で求めた誤差信号δ+ i との論理和をと
り、それを自分の神経細胞ユニット(ニューロン)の誤
差信号δ+ i とする。同様に、上記数式21で求めた誤
差信号δ- i と上記数式23で求めた誤差信号δ- i の
論理和をとり、それを自分の神経細胞ユニットの誤差信
号δ- i とする。以上をまとめると、次の数式24のよ
うになる。
【0079】
【数24】 δ+ j ={∪(δ+ i ∩Tij)}∪{∪(δ ̄ i ∩Tij)} i∈興奮性 i∈抑制性 δ- j ={∪(δ ̄ i ∩Tij)}∪{∪(δ+ i ∩Tij)} i∈興奮性 i∈抑制性
【0080】(3)誤差信号より各結合係数を変化 学習のレートに相当する機能の実現方法について説明す
る。数値計算においてレートは1以下の時、さらに学習
能力が高まる。これは、パルス列の演算ではパルス列を
間引くことで実現できる。これはカウンタ的な考え方を
し、次の数式25で示すような例1、例2のようなもの
とした。例えば、η=0.5では元の信号のパルス列を
1つ置きに間引く。元の信号のパルスが等間隔でなくて
も、もとのパルス列に対して1つ置きに間引く方式(<
例2>の方式)とした。
【0081】
【数25】(例1)
【0082】(例2)
【0083】このように誤差信号を間引くことにより学
習レートの機能を持たせる。
【0084】さて、上記(1)または(2)より求めた
誤差信号を用いて、各結合係数を変化させる方法につい
て説明する。
【0085】次の数式26、27で示すように、変化さ
せたい結合係数が属している線(図1参照)を伝播する
信号(=神経細胞ユニットに対する入力信号)と誤差信
号の論理積をとる(δ∩y)。但し、ここでは誤差信号
は+と−の2つの信号があるので、それぞれを演算して
求める。
【0086】
【数26】
【0087】
【数27】 このようにして得られた2つの信号をΔT(ΔT+ 、Δ
- )とする。
【0088】これらを元にして新しい結合係数Tを求め
るのであるが、ここでTの値は、絶対値成分なので、元
のTが興奮性か抑制性かにより場合分けをする。
【0089】まず、興奮性の場合には、次の数式28で
示すように、元のTに対してΔT+の成分を増やし、Δ
- の成分を減らす。
【0090】
【数28】
【0091】次に抑制性の場合には、次の数式29で示
すように、元のTに対して、ΔT+の成分を減らし、Δ
- の成分を増やす。
【0092】
【数29】
【0093】以上の学習則に基づいてネットワーク全体
の計算を行う。
【0094】次に、図9ないし図11を参照して、以上
のアルゴリズムに基づく実際の回路構成を説明する。ニ
ューラルネットワークの構成は図1と同様である。図9
は図1の線(結線)に相当する部分の論理回路図であ
り、図10は図1の丸(神経細胞ユニットA)に相当す
る部分の論理回路図である。また、図11は出力層の出
力と教師信号から出力層における誤差信号を求める部分
の論理回路図である。これらの3つの論理回路を図2の
ようにネットワークにすることによって、自己学習が可
能なディジタル式のニューラルネットワーク回路が実現
できる。
【0095】まず、図9について説明する。20は神経
細胞ユニットへの入力信号で上記数式8に相当する。上
記数式9の結合係数はシフトレジスタ27に保存してお
く。端子27Aがデータの取り出し口で、端子27Bが
データの入り口である。このシフトレジスタ27は同様
の機能をもつものであれば、その他のもの、例えば、R
AMとアドレスコントローラとで構成してもよい。
【0096】回路28は上記数式10の演算を行うため
の回路で、入力信号と結合係数との論理積をとってい
る。この出力は結合が興奮性か抑制性かによってグルー
プ分けしなければならないが、あらかじめ各々のグルー
プへの出力23、24を用意し、どちらのグループに出
すのかを切り換えるようにした方が汎用性が高い。この
ため、結合が興奮性か抑制性かを表すビットをメモリ3
3に保存しておき、その情報を用いて切り換えゲート回
路32により信号を切り換える。
【0097】また、上記神経細胞ユニットには、図10
に示すように、各入力を処理する上記数式11の演算を
行うための複数のORゲート構成のゲート回路34と、
上記数式12で示した、興奮性グループが「1」で、か
つ、抑制性グループが「0」の時のみ出力を出すAND
ゲートとインバータとによるゲート回路35とが設けら
れている。
【0098】次に、誤差信号について説明する。図11
は、出力層での誤差信号を生成する回路を示す図で、A
NDゲート、インバータの組み合わせによる論理回路で
あり、上記数式16ないし数式19の演算を行う。すな
わち、最終層からの出力38及び教師信号39より誤差
信号40、41を生成する。また、中間層における誤差
信号を求める上記数式20〜23の演算は、図9中に示
すANDゲート構成のゲート回路29より行われ、+、
−に応じた出力21、22が得られる。
【0099】このように結合が興奮性か抑制性かで用い
る誤差信号が異なるので、その場合分けを行う必要があ
るが、この場合分けはメモリ33に記憶された興奮性か
抑制性かの情報と、誤差信号+、−信号25、26とに
応じて、AND、ORゲート構成のゲート回路31によ
り行われる。また、誤差信号を集める上記数式24の演
算は図10に示すORゲート構成のゲート回路36で行
われ、学習レートに相当する上記数式25の演算は、図
9に示す分周回路37により行われる。
【0100】最後に、誤差信号より新たな結合係数を計
算する部分について説明する。これは上記数式26ない
し数式29で表され、これらの演算は図8に示すAND
ゲート、インバータ、ORゲート構成のゲート回路30
により行われる。このゲート回路30も結合の興奮性・
抑制性によって場合分けしなければならないが、これは
図8に示すゲート回路31により行われる。
【0101】
【発明が解決しようとする課題】ところで、従来のデジ
タル論理回路を用いた自己学習可能な神経細胞模倣素子
からなる神経回路網においては、特にパルス列の論理演
算を基本とする場合には、自己学習により結合の重み値
を更新させるために、結合の重み値をパルス列で表現し
て記憶することが必須であり、図8の27に示されるよ
うに必要なパルス長分のレジスタないしメモリが必要で
ある。
【0102】高い精度で演算を行う場合、パルス長は長
く取らなければならず、例えば信号の精度として7ビッ
ト程度を考えると、およそ128(=27 )ビット長の
ランダムパルス列が必要である。従って、結合の重み値
をそのまま記憶しておくためには、1つの結合に対して
128ビット、入力がn個の神経細胞模倣素子では、1
28ビット長のレジスタないしメモリ手段を必要とす
る。
【0103】したがって、多数の入力信号をもつ神経細
胞模倣素子をデジタル論理回路によるハードウェアで実
現するには、更にこれらの神経細胞模倣素子を数百から
数千の単位で網状に結合して神経回路網を構成する必要
があり、膨大なレジスタないしメモリ手段が必要になる
ので、ハードウェア規模が大きくなり、製造コストの面
で大きな障害となる。
【0104】また、神経回路網の初期重み値を設定する
ときのデータ転送量が莫大となるので、データ転送に非
常に時間がかかってしまい大きな障害となり得る。
【0105】更に、上記神経細胞模倣素子を複数個含む
ような半導体装置を製造する場合、限られたチップ面積
内に回路を構成してければならないために結合の重み値
の記憶手段にビット長の大きなレジスタないしメモリを
用いると、チップ内に構成可能な神経細胞模倣素子の数
に大幅な制限を課すことになり好ましくない。
【0106】本発明は、上記の事情を鑑みてなされたも
のであり、自己学習可能な神経細胞模倣素子からなる神
経回路網をハード化する上で、ハードウェアを小型に、
かつ、安価に構成でき、しかも、高速処理が可能な信号
処理装置を提供することを目的とするものである。
【0107】
【課題を解決するための手段】本発明の第1の信号処理
装置は、神経細胞模倣素子により構成された神経細胞回
路網を備える信号処理装置において、上記神経細胞回路
網を構成する各神経細胞模倣素子に、結合の重み値を保
持する結合係数記憶手段と、前記重みに相当するパルス
密度のランダムパルス列を発生するパルス生成手段と、
教師信号に対する誤差信号に基づき生成される重み値の
更新値、または重み値の修正情報に応答して前記結合係
数記憶手段の内容を更新、または修正する手段とが設け
られることを特徴とする。
【0108】本発明の第2の信号処理装置は、本発明の
第1の信号処理装置において、結合係数記憶手段に、更
新、又は修正前の重み値を保持する第一の記憶手段と、
更新、又は修正後の重み値を保持する第二の記憶手段と
が設けられ、学習の完了時に第二の記憶手段から第一の
記憶手段に重み値を転送する手段が設けられることを特
徴とする。
【0109】本発明の第3の信号処理装置は、神経細胞
模倣素子により構成された神経細胞回路網による信号処
理装置において、上記神経細胞回路網を構成する各神経
細胞模倣素子に、結合の重み値を保持する結合係数記憶
手段と、前記重み値に相当するパルス密度のランダムパ
ルス列を発生するパルス生成手段とが設けられ、前記結
合係数記憶手段に、上記ランダムパルス列のパルス数を
カウントするとともに、教師信号に対する誤差信号に基
づき生成される重み値の修正パルス列をカウントするカ
ウンタ手段を設けることを特徴とする。
【0110】本発明の第4の信号処理装置は、神経細胞
模倣素子により構成された神経細胞回路網による信号処
理装置において、当該神経細胞回路網を構成する各神経
細胞模倣素子は、結合の重み値を保持する結合係数記憶
手段と、前記重み値に相当するパルス密度のランダムパ
ルス列を発生するパルス生成回路手段とを含み、前記結
合係数記憶手段は、教師信号に対する誤差信号に基づき
生成される重み値のパルス列のパルス密度を計数するカ
ウンタ手段と、該カウンタ手段の係数結果を格納する記
憶手段とを備えることを特徴とする。
【0111】
【作用】本発明の第1の信号処理装置は、前記重み値に
相当するパルス密度のランダムパルス列を発生するパル
ス生成手段を備えているので、結合係数記憶手段には結
合の重み値をパルス列として記憶する必要がなくなり、
例えばlogNビットのデータとして結合の重み値を保
持させることができる。また、教師信号に対する誤差信
号に基づき生成される重み値の更新値、または重み値の
修正情報に応答して前記結合係数記憶手段の内容を更
新、または修正する手段を備えているので、自己学習が
可能となる。
【0112】本発明の第2の信号処理装置は、結合の重
み値をパルス列で記憶することなく自己学習が可能とな
り、さらに前記記憶手段は、学習前の結合の重み値を第
1の記憶手段に学習プロセスの期間、保持できる。
【0113】本発明の第3の信号処理装置は、教師信号
に対する誤差信号に基づき生成される重み値の更新値、
または重み値の修正情報に応答して前記結合係数記憶手
段の内容を更新、または修正する手段を備えているの
で、自己学習が可能となる。また、教師信号に対する誤
差信号に基づき生成される重み値の修正パルス列をカウ
ントするカウンタ手段を備えているので、学習時に結合
の重み値をパルス列で記憶することなくパルス数で学習
することになる。
【0114】本発明の第4の信号処理装置は、結合係数
記憶手段は、教師信号に対する誤差信号に基づき生成さ
れる重み値のパルス列のパルス密度を計数するカウンタ
手段と、該カウンタ手段の係数結果を格納する記憶手段
とを備えるので、学習時に結合の重み値をパルス列で記
憶することなくパルス数で学習して記憶手段に格納する
ことになる。
【0115】
【実施例】以下、本発明の実施例を図面に基づき具体的
に説明する。図3は本発明の一実施例に係る信号処理装
置の要部の論理回路図であり、この論理回路は図1の神
経細胞における線(結線=結合係数の荷重ならびに誤差
逆伝播の計算)の部分に対応するデジタル論理回路であ
る。
【0116】神経細胞の他の部分すなわち図1の丸の部
分、ならびに出力層の出力と教師信号から出力層におけ
る誤差信号を求める部分は、図10、図11に示される
従来例と共通である。
【0117】図3の論理回路が図9の従来例と異なる点
は、図9のNビットシフトレジスタ27のかわりにラン
ダムパルス列発生のための乱数発生回路301とコンパ
レータ302、及びlogNビットのバイナリレジスタ
303、バイナリカウンタ304から構成さていること
である。
【0118】フォワード処理時は、結合の重み値はレジ
スタ303にパルス数のデータとして保持され、このデ
ータに基づいてコンパレータ302と乱数発生回路30
1とで、重み値に応じたパルス密度のランダムパルス列
を生成する。
【0119】上記乱数発生回路301は、例えば図13
のブロック回路図に示すように、1つの排他論理和ゲー
ト301aと7ビットのシフトレジスタ301b〜30
1gとからなるリニアフィードバックシフトレジスタ
(LFSR)で構成される。この回路では、初期値をシ
フトレジスタに設定した後、シフト動作を繰り返すこと
により周期127の間に0を除く1から127までの数
がランダムに1回出現した疑似乱数が発生される。した
がって、レジスタ303に格納された結合係数とこの乱
数をコンパレータ302で大小比較し、その結果をパル
ス列とすれば結合係数に応じたパルス密度のランダムパ
ルス列が得られる。
【0120】例えばレジスタ303に結合係数として
「30」が保持されているとすると乱数発生器301の
出力が「30」以下ならば「1」を出力するようにコン
パレータ302を構成すれば乱数発生周期127のうち
に「30」以下の数はランダムに30個出現するのでパ
ルス密度「30/127」即ち127ビットの中でラン
ダム「1」が30回出現するランダムパルス列が得られ
る。
【0121】更に、この重みパルス列と入力パルス列が
AND回路327で論理積処理され結合荷重計算が行わ
れる。荷重処理された入力信号は符号フラグ333に従
って興奮側323、抑制側324にふりわけて出力さ
れ、図10の論理和回路34、35で総和処理並びにし
きい値処理され、出力パルス列yが生成される。
【0122】バックワード処理、すなわち、学習時に
は、レジスタ303には学習前の結合係数が保持され、
カウンタ304は一旦ゼロクリアされる。前段の神経細
胞ユニットから集められ図10に示される論理和回路3
6、37で総和処理された誤差信号パルス列(誤+、誤
−)が325、326から入力され、これと入力信号パ
ルス列(y)320ならびに学習前の結合係数からラン
ダムパルス化さたパルス列(コンパレータ302の出
力)とで論理演算が施され新しい結合係数に相当するパ
ルス列が発生され、ゲート回路330からカウンタ30
4に入力される。カウンタ304はこのパルス列のパル
ス数を計数し、学習が終了するとその内容がカウンタ3
04よりレジスタ303に転送され、レジスタ303の
内容が更新、または修正される。
【0123】したがって、レジスタ303には学習中は
学習前の結合係数が保持されることになる。また、レジ
スタ303には結合係数のパルス数のデータが格納され
るのであり、結合係数パルス列をそのままの形でシフト
レジスタ27に記憶させる場合に比べると大幅にレジス
タ303及びこれに対応するカウンタ304のビット数
を少なくできる。
【0124】例えば、信号精度として7ビットを考える
と、従来例では、128ビットのシフトレジスタ27が
必要であるが、この信号処理装置においては7ビットの
レジスタ303と7ビットのカウンタ304だけで構成
できるので大幅にハード量を削減できる。更に、これ
は、1本の結合に関してであり数百〜数千の結合を持つ
神経回路網においてはその効果は著しく顕著になり、絶
大である。
【0125】もっとも、乱数発生回路301とコンパレ
ータ302からなるランダムパルス発生回路は、従来例
に比してハード量の増加となるが、この乱数発生回路3
01は、例えば図13に示されるように簡単な回路で構
成され、複数の結合でランダムパルス発生回路を共有す
るなどすれば、ハード量の増加はそれほど問題にはなら
ない。
【0126】図14は本発明の他の実施例に係る信号処
理装置の要部の論理回路図であり、基本的な考え方は、
上記の一実施例とおなじであるが、結合係数回路が乱数
発生回路501、コンパレータ502、バイナリレジス
タ503、アップダウンカウンタ504から構成される
ことが上記の一実施例と異なる。したがって、図14の
各部分には図12中でそれら部分に対応する名称と第1
桁の3を5に書き換えた符号とを付している。
【0127】結合の重み値はバイナリレジスタ503に
保持され、フォワード処理時には、上記の一実施例に係
る信号処理装置と同じ動作をする。バックワード処理、
すなわち、学習時には、バイナリレジスタ503には学
習前の結合係数が保持され、アップダウンカウンタ50
4にも同一の学習前の結合係数が保持される。前段の各
神経細胞ユニットから集められ、図10に示される論理
和回路36で総和処理された誤差信号パルス列(誤+、
誤−)が525、526から入力され、これと入力信号
パルス列(y)520ならびに学習前の結合係数からラ
ンダムパルス化されたパルス列とで論理演算が施され結
合係数を+側に修正するためのパルス列540、−側に
修正するためのパルス列541が発生される。これがア
ップダウンカウンタ504に入力されて結合係数の値が
逐次増減され、この後、学習が終了するとその内容がア
ップダウンカウンタ504よりレジスタ503に転送さ
れる。
【0128】このように上記数式26、27に示される
結合係数の修正パルス列でアップダウンカウンタ504
に格納された重み値を直接増減するので回路量を一層減
少させることができる。
【0129】
【発明の効果】以上のように、本発明の第1の信号処理
装置によれば、結合の重み値に相当するパルス密度のパ
ルス列を発生する手段を備えているので、結合の重み値
を記憶する手段には結合の重み値に相当するパルス列そ
のものを記憶させる必要はなく、そのパルス密度を記憶
させればよい。したがって、結合の重み値を記憶する手
段のハードウェアを大幅に削減して、信号処理装置の回
路規模を小型にできるとともに安価にできる。
【0130】また、本発明の第1の信号処理装置によれ
ば、学習により前記の記憶手段の内容を更新もしくは修
正する手段をそなえるので、自己学習が可能となり、し
かも、書き換えるデータのビット数が少ないので、結合
の重み値の外部からの設定が高速化される。
【0131】本発明の第2の信号処理装置によれば、本
発明の第1の信号処理装置により得られる上記の効果に
加えて、更新、又は修正前の重み値を保持する第一の記
憶手段と、更新、又は修正後の重み値を保持する第二の
記憶手段とが設けられ、学習の完了時に第二の記憶手段
から第一の記憶手段に重み値を転送する手段が設けられ
ているので、学習前の結合の重み値を学習プロセスの間
中保持できる。
【0132】本発明の第3の信号処理装置によれば、結
合の重み値に相当するパルス密度のパルス列を発生する
手段を備えているので、結合の重み値を記憶する手段に
は結合の重み値に相当するパルス列そのものを記憶させ
る必要はなく、そのパルス密度を記憶させればよい。し
たがって、結合の重み値を記憶する手段のハードウェア
を大幅に削減して、信号処理装置の回路規模を小型にで
きるとともに安価にできる。
【0133】また、本発明の第3の信号処理装置によれ
ば、学習により前記の記憶手段の内容を更新もしくは修
正する手段をそなえるので、自己学習が可能となり、し
かも、書き換えるデータのビット数が少ないので、結合
の重み値の外部からの設定が高速化される。
【0134】更に、本発明の第3の信号処理装置によれ
ば、学習回路からのパルス列を計数することにより結合
の重み値を修正できる。
【0135】本発明の第4の信号処理装置によれば、結
合の重み値を記憶する手段にカウンタ手段をふくめ、学
習回路からのパルス列を計数することで記憶手段に格納
された重み値を直接増減するので、回路量を一層少なく
して、ハードウェアを一層小型で、安価にすることかで
きる。
【図面の簡単な説明】
【図1】神経細胞回路網の模式図である。
【図2】神経細胞ユニットの模式図である。
【図3】シグモイド関数を示すグラフである。
【図4】ニューラルネットワークに相当する電気回路図
である。
【図5】単一細胞に対応する回路のブロック図である。
【図6】シナプス回路のブロック回路図である。
【図7】細胞体回路のブロック図である。
【図8】神経細胞ユニットの論理回路図である。
【図9】図1の線(結線)に相当する部分の論理回路図
である。
【図10】図1の丸(神経細胞ユニット)に相当する部
分の論理回路図である。
【図11】出力層での誤差信号を生成する回路の論理回
路図である。
【図12】図1の線(結線)に相当する部分の論理回路
図である。
【図13】乱数発生回路のブロック図である。
【図14】図1の線(結線)に相当する部分の論理回路
図である。
【符号の説明】
301 乱数発生回路 302 コンパレータ 303 バイナリレジスタ 304 バイナリカウンタ 501 乱数発生回路 502 コンパレータ 503 バイナリレジスタ 504 アップダウンカウンタ
フロントページの続き (72)発明者 大槻 聡 東京都大田区中馬込1丁目3番6号 株式 会社リコー内 (72)発明者 青野 英樹 東京都大田区中馬込1丁目3番6号 株式 会社リコー内

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 神経細胞模倣素子により構成された神経
    細胞回路網を備える信号処理装置において、前記神経細
    胞回路網を構成する各神経細胞模倣素子に、結合の重み
    値を保持する結合係数記憶手段と、前記重みに相当する
    パルス密度のランダムパルス列を発生するパルス生成手
    段と、教師信号に対する誤差信号に基づき生成される重
    み値の更新値、または重み値の修正情報に応答して前記
    結合係数記憶手段の内容を更新、または修正する手段と
    が設けられることを特徴とする信号処理装置。
  2. 【請求項2】 結合係数記憶手段に、更新、又は修正前
    の重み値を保持する第一の記憶手段と、更新、又は修正
    後の重み値を保持する第二の記憶手段とが設けられ、学
    習の完了時に第二の記憶手段から第一の記憶手段に重み
    値を転送する手段が設けられることを特徴とする請求項
    1に記載の信号処理装置。
  3. 【請求項3】 神経細胞模倣素子により構成された神経
    細胞回路網による信号処理装置において、前記神経細胞
    回路網を構成する各神経細胞模倣素子に、結合の重み値
    を保持する結合係数記憶手段と、前記重み値に相当する
    パルス密度のランダムパルス列を発生するパルス生成手
    段とが設けられ、前記結合係数記憶手段に、前記ランダ
    ムパルス列のパルス数をカウントするとともに、教師信
    号に対する誤差信号に基づき生成される重み値の修正パ
    ルス列をカウントするカウンタ手段を設けることを特徴
    とする信号処理装置。
  4. 【請求項4】 神経細胞模倣素子により構成された神経
    細胞回路網による信号処理装置において、当該神経細胞
    回路網を構成する各神経細胞模倣素子は、結合の重み値
    を保持する結合係数記憶手段と、前記重み値に相当する
    パルス密度のランダムパルス列を発生するパルス生成回
    路手段とを含み、前記結合係数記憶手段は、教師信号に
    対する誤差信号に基づき生成される重み値のパルス列の
    パルス密度を計数するカウンタ手段と、該カウンタ手段
    の係数結果を格納する記憶手段とを備えることを特徴と
    する信号処理装置。
JP3351410A 1989-07-12 1991-12-11 信号処理装置 Pending JPH05165987A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP3351410A JPH05165987A (ja) 1991-12-11 1991-12-11 信号処理装置
US07/989,605 US5324991A (en) 1989-07-12 1992-12-11 Neuron unit and neuron unit network
US07/989,781 US5327522A (en) 1989-12-29 1992-12-11 Neuron unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3351410A JPH05165987A (ja) 1991-12-11 1991-12-11 信号処理装置

Publications (1)

Publication Number Publication Date
JPH05165987A true JPH05165987A (ja) 1993-07-02

Family

ID=18417095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3351410A Pending JPH05165987A (ja) 1989-07-12 1991-12-11 信号処理装置

Country Status (1)

Country Link
JP (1) JPH05165987A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11238331B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method for augmenting an existing artificial neural network
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11263512B2 (en) 2017-04-04 2022-03-01 Hailo Technologies Ltd. Neural network processor incorporating separate control and data fabric
US11461614B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. Data driven quantization optimization of weights and input data in an artificial neural network
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor

Similar Documents

Publication Publication Date Title
WO1993000653A1 (en) Neural network architecture
JPH07111090A (ja) 信号処理装置
JPH05165987A (ja) 信号処理装置
US5485548A (en) Signal processing apparatus using a hierarchical neural network
JP3256553B2 (ja) 信号処理装置の学習方法
JPH05165989A (ja) 信号処理装置
JP2549454B2 (ja) 神経細胞模倣回路網及び神経細胞模倣ユニット
JPH05108594A (ja) 信号処理装置
JPH05216859A (ja) 信号処理装置
JP2612640B2 (ja) 信号処理回路、信号処理回路網、信号処理装置及び信号処理方法
JP3276367B2 (ja) 神経細胞回路網
JPH056356A (ja) 信号処理方法及びその装置
JP3255425B2 (ja) 信号処理方法
JPH0573704A (ja) 信号処理回路装置
JPH05217010A (ja) 信号処理装置
JP3338713B2 (ja) 信号処理装置
JPH05135001A (ja) 信号処理装置
JPH05307624A (ja) 信号処理装置
JP3130913B2 (ja) 信号処理装置
JPH05108598A (ja) 信号処理装置
JPH056351A (ja) 信号処理装置
JPH05165988A (ja) 信号処理装置
JPH05290014A (ja) 信号処理装置
JPH0581229A (ja) 信号処理回路網
JPH05108597A (ja) 信号処理装置