JPH02207369A - ニューラルネットワーク計算機 - Google Patents
ニューラルネットワーク計算機Info
- Publication number
- JPH02207369A JPH02207369A JP2741389A JP2741389A JPH02207369A JP H02207369 A JPH02207369 A JP H02207369A JP 2741389 A JP2741389 A JP 2741389A JP 2741389 A JP2741389 A JP 2741389A JP H02207369 A JPH02207369 A JP H02207369A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- neuroprocessor
- neuroprocessors
- output
- network computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 23
- 238000004891 communication Methods 0.000 claims abstract description 10
- 238000004364 calculation method Methods 0.000 claims description 14
- 210000002569 neuron Anatomy 0.000 abstract description 8
- 238000004904 shortening Methods 0.000 abstract 1
- 230000001186 cumulative effect Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000000034 method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Landscapes
- Feedback Control In General (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明はニューラルネットワークを高速にシミュレーシ
ョンできるニューラルネットワーク計算機に関する。
ョンできるニューラルネットワーク計算機に関する。
ニューラルネットワークを実現するハードウェアとして
、差動アンプを相互接続する方法やディジタル回路によ
って実現する方法などが考案されている。
、差動アンプを相互接続する方法やディジタル回路によ
って実現する方法などが考案されている。
これら従来技術はいずれも数百程度のニューラルネット
ワークを実現しているに過ぎない。汎用計算機において
プログラムによってシミュレーションする方法もあるが
、大規模なニューラルネットワークにおいては膨大な計
算時間を必要とする。
ワークを実現しているに過ぎない。汎用計算機において
プログラムによってシミュレーションする方法もあるが
、大規模なニューラルネットワークにおいては膨大な計
算時間を必要とする。
本発明は、大規模なニューラルネットワークを高速に計
算することができる新規な構成を有するニューラルネッ
トワーク計算機を提供することを目的としてなされたも
のである。
算することができる新規な構成を有するニューラルネッ
トワーク計算機を提供することを目的としてなされたも
のである。
本発明のニューラルネットワーク計算機は.ニユーロモ
デルを計算する複数のニューロプロセッサとそれら複数
のニューロプロセッサ間を相互通信可能とする通信手段
を有し、上記複数の各ニューロプロセッサは過去の状態
を保持する手段と他のニューロプロセッサからの出力を
受け取ると上記ニューロモデルを計算する手段と、該計
算結果と上記過去の状態との差分を出力させる手段とを
有してなる構成としたものである。また、上記各ニュー
ロプロセッサを、上記差分がゼロでないときにのみ差分
値を出力するように構成する。
デルを計算する複数のニューロプロセッサとそれら複数
のニューロプロセッサ間を相互通信可能とする通信手段
を有し、上記複数の各ニューロプロセッサは過去の状態
を保持する手段と他のニューロプロセッサからの出力を
受け取ると上記ニューロモデルを計算する手段と、該計
算結果と上記過去の状態との差分を出力させる手段とを
有してなる構成としたものである。また、上記各ニュー
ロプロセッサを、上記差分がゼロでないときにのみ差分
値を出力するように構成する。
ニューラルネットワークが安定状態へ移行するとき、各
ニューロンによって安定状態に速く到達するニューロン
と安定状態に遅く到達する二ニーロンがある6本発明に
よれば、速く安定状態に到達したニューロンの計算及び
その通信を省くことにより、計算時間を短縮することが
できる。従って1本発明を用いれば、大規模なニューラ
ルネットワークを高速にシミュレーションすることがで
きる。
ニューロンによって安定状態に速く到達するニューロン
と安定状態に遅く到達する二ニーロンがある6本発明に
よれば、速く安定状態に到達したニューロンの計算及び
その通信を省くことにより、計算時間を短縮することが
できる。従って1本発明を用いれば、大規模なニューラ
ルネットワークを高速にシミュレーションすることがで
きる。
ニューロモデルの一例を以下に説明する。
ニューロモデルは自分以外のニューロンがらの出力値X
Og 11 @ ”’ I N−1を入力し、各ニュ
ーロモデルは、 J#i を計算する。ここで、W t aはニューロモデルjか
らニューロモデルiへ接続するときの重み値である。関
数fはSigmoid関数で、 f(S)=1/(1+Exp((s−8)/T))・・
・(2) の関数である。Sはしきい値、Tは定数である。
Og 11 @ ”’ I N−1を入力し、各ニュ
ーロモデルは、 J#i を計算する。ここで、W t aはニューロモデルjか
らニューロモデルiへ接続するときの重み値である。関
数fはSigmoid関数で、 f(S)=1/(1+Exp((s−8)/T))・・
・(2) の関数である。Sはしきい値、Tは定数である。
本発明は、以上に示すようなニューロモデルを相互接続
して構成するニューラルネットワークに関するものであ
る。
して構成するニューラルネットワークに関するものであ
る。
第1図は本発明を実現した計算機の一実施例の構成を示
すブロック図である。以下、第1図を用いて本発明を説
明する。
すブロック図である。以下、第1図を用いて本発明を説
明する。
第1図では、ニューロプロセッサiが出力し。
ニューロプロセッサjがその出力値を入力する動作を示
している。ニューロプロセッサiは最後に出力したとき
の(])式の計算結果x 、 t−1と最新のニューロ
モデルの計算結果X 1tの差分。
している。ニューロプロセッサiは最後に出力したとき
の(])式の計算結果x 、 t−1と最新のニューロ
モデルの計算結果X 1tの差分。
Δ Xi = X+’−X+’ −工
・ (3)を出力する。
・ (3)を出力する。
このとき、バスコントローラ11はニューロプロセッサ
主のトライステートバッファ12を出力状態とし、それ
以外のニューロプロセッサのトライステートバッファ1
2を人力状態として、データバス9及びアドレスバス1
0を介して、データ値(差分値出力)及びデータ発信元
のニューロプロセッサのアドレスiを他の全ニューロプ
ロセッサに通信する。
主のトライステートバッファ12を出力状態とし、それ
以外のニューロプロセッサのトライステートバッファ1
2を人力状態として、データバス9及びアドレスバス1
0を介して、データ値(差分値出力)及びデータ発信元
のニューロプロセッサのアドレスiを他の全ニューロプ
ロセッサに通信する。
その後の各ニューロプロセッサの動作について説明する
6例えば、ニューロプロセッサjはアドレスバス10か
ら発信元アドレスiを人力すると、ニューロプロセッサ
j内に保持している重み値メモリ値8に格納されている
ニューロモデルiに対する重み値W i aを読みだす
、また、データバス9からニューロモデルiの差分値出
力ΔXi を人力する。そして1乗算器3によって、積
ΔX、・W I Jを計算する。その乗算結果ΔXi・
W I Jは累積加算器4に送られ、累積加算される。
6例えば、ニューロプロセッサjはアドレスバス10か
ら発信元アドレスiを人力すると、ニューロプロセッサ
j内に保持している重み値メモリ値8に格納されている
ニューロモデルiに対する重み値W i aを読みだす
、また、データバス9からニューロモデルiの差分値出
力ΔXi を人力する。そして1乗算器3によって、積
ΔX、・W I Jを計算する。その乗算結果ΔXi・
W I Jは累積加算器4に送られ、累積加算される。
累積加算器4は、上記乗算結果が出力されるごとに累積
加算を行う、累積加算結果は、Sigmoid変換器2
に送られ、Sigmoid変換される。
加算を行う、累積加算結果は、Sigmoid変換器2
に送られ、Sigmoid変換される。
以下に差分値を出力することで(1)式を計算できるこ
とを示す、l!在の累積加算結果をSt、最後に差分値
を出力したときの累積加算結果を5t−1とする。
とを示す、l!在の累積加算結果をSt、最後に差分値
を出力したときの累積加算結果を5t−1とする。
j#i
(3)式から
j#i
j#i
j#i
となり、各ニューロプロセッサは最後の(1)式の計算
結果SL”’1を保持し、各ニューロプロセッサから差
分値を入力すれば、最新の(1)式と同じ計算結果を得
ることができる6また。1度計算が実行されると、累積
加算器4は過去の累積結果をリセットせず、累積加算器
4は1乗算器3が出力するたびに。
結果SL”’1を保持し、各ニューロプロセッサから差
分値を入力すれば、最新の(1)式と同じ計算結果を得
ることができる6また。1度計算が実行されると、累積
加算器4は過去の累積結果をリセットせず、累積加算器
4は1乗算器3が出力するたびに。
s”=s”″1+Δ xJ −Wi−・・・(6)を実
行するだけでよ<、(6)式は(5)式を計算している
ことになる。
行するだけでよ<、(6)式は(5)式を計算している
ことになる。
以下、ニューロプロセッサが出力するときの動作につい
て、ニューロプロセッサiにおいて説明する。
て、ニューロプロセッサiにおいて説明する。
ニューロプロセッサiの(4)式の累積加算結果をxt
’とし、ニューロプロセッサiのラッチ回路7に最後に
出力したときの結果X−″″lを保持している。ニュー
ロプロセッサiは減算器5によって、(3)式の差分値
を計算する。
’とし、ニューロプロセッサiのラッチ回路7に最後に
出力したときの結果X−″″lを保持している。ニュー
ロプロセッサiは減算器5によって、(3)式の差分値
を計算する。
データバス9が1本と仮定すると、バスコントローラ1
1は全ニューロプロセッサの内1つのニューロプロセッ
サを選択し、出力許可をする。例えば、ニューロプロセ
ッサiが出力許可を受けたとき、データバス9にその差
分値出力Δxiを出力し、アドレスバス10にアドレス
iを出力する。
1は全ニューロプロセッサの内1つのニューロプロセッ
サを選択し、出力許可をする。例えば、ニューロプロセ
ッサiが出力許可を受けたとき、データバス9にその差
分値出力Δxiを出力し、アドレスバス10にアドレス
iを出力する。
また、差分値Δx1はO検出器6にも送られ、O検出さ
れる。その結果はバスコントローラ11に送られ、もし
差分値がOならば、ニューロプロセッサiの出力は他の
ニューロプロセッサへ通信されない、ニューロンiの状
態が変わらないとき、それに関するデータ通信及び計算
をスキップしている。差分値結果が0でない場合はデー
タバス9及びアドレスバス10を介して、他のニューロ
プロセッサに通信され、ニューロプロセッサiではラッ
チ回路7にそのときのxt を新たに保持する。
れる。その結果はバスコントローラ11に送られ、もし
差分値がOならば、ニューロプロセッサiの出力は他の
ニューロプロセッサへ通信されない、ニューロンiの状
態が変わらないとき、それに関するデータ通信及び計算
をスキップしている。差分値結果が0でない場合はデー
タバス9及びアドレスバス10を介して、他のニューロ
プロセッサに通信され、ニューロプロセッサiではラッ
チ回路7にそのときのxt を新たに保持する。
以上の動作をニューロプロセッサ0〜N−1を順番に繰
返し行えば、(1)式を計算することができる。全ニュ
ーロプロセッサにおける0検出器6のすべてがOを検出
すれば、ニューラルネットワークが安定状態となったこ
とになり、計算を終了する。
返し行えば、(1)式を計算することができる。全ニュ
ーロプロセッサにおける0検出器6のすべてがOを検出
すれば、ニューラルネットワークが安定状態となったこ
とになり、計算を終了する。
本発明はニューロプロセッサ1を複数個用意し、並列に
ニューロモデルを計算することで、大規模なニューラル
ネットワークを高速にシミュレーションできる。また、
1個のニューロプロセッサ1で複数のニューロモデルを
計算することもできる。
ニューロモデルを計算することで、大規模なニューラル
ネットワークを高速にシミュレーションできる。また、
1個のニューロプロセッサ1で複数のニューロモデルを
計算することもできる。
第2図に本発明の効果を示す1本図は横軸に繰返し回数
を縦軸に、そのときの(1)式を1回計算するための1
サイクルあたりの差分値結果のデータ転送回数を示して
いる。繰返し回数が増えていくと、徐々に差分値がOと
なる安定状態のニューロンが増加してゆくため、1サイ
クルあたりのデータ転送回数が減少していく、そのため
1本図に示した斜線部の計算を省くことができる。
を縦軸に、そのときの(1)式を1回計算するための1
サイクルあたりの差分値結果のデータ転送回数を示して
いる。繰返し回数が増えていくと、徐々に差分値がOと
なる安定状態のニューロンが増加してゆくため、1サイ
クルあたりのデータ転送回数が減少していく、そのため
1本図に示した斜線部の計算を省くことができる。
本発明によれば、大規模なニューラルネットワークのシ
ミュレーションを高速に実現できる。また、非同期に各
ニューロンを動作させるシミュレーションを行うことも
できる。
ミュレーションを高速に実現できる。また、非同期に各
ニューロンを動作させるシミュレーションを行うことも
できる。
第1図は本発明の実施例のニューラルネットワーク計算
機の構成を示すプロ角り図、第2図は本発明の効果を示
すデータ転送回数の繰り返し回数に対する変化率を示す
グラフである。 1・・・ニューロプロセッサ、2・・・Sigmoid
変換器、3・・・乗算器、4・・・累積加算器、5・・
・減算器、6・・・0検出器、7・・・ラッチ回路、8
・・・重み値メモリ、9・・・データバス、10・・・
アドレスバス、11・・・バスコントローラ、12・・
・トライステートバッファ、13・・・アドレス出力回
路。 第1図 繰り返し回数 1.3・−・7トレス山刃1!!l蹟
機の構成を示すプロ角り図、第2図は本発明の効果を示
すデータ転送回数の繰り返し回数に対する変化率を示す
グラフである。 1・・・ニューロプロセッサ、2・・・Sigmoid
変換器、3・・・乗算器、4・・・累積加算器、5・・
・減算器、6・・・0検出器、7・・・ラッチ回路、8
・・・重み値メモリ、9・・・データバス、10・・・
アドレスバス、11・・・バスコントローラ、12・・
・トライステートバッファ、13・・・アドレス出力回
路。 第1図 繰り返し回数 1.3・−・7トレス山刃1!!l蹟
Claims (2)
- 1.ニユーロモデルを計算する複数のニユーロプロセツ
サを相互通信可能とする通信手段を介して接続されるニ
ユーラルネツトワーク計算機において、上記ニユーロプ
ロセツサは過去の状態を保持する手段を有し、他の上記
ニユーロプロセツサの出力を受け取ると上記ニユーロモ
デルを計算し、該計算の計算結果と上記過去の状態との
差分を出力することを特徴とするニユーラルネツトワー
ク計算機。 - 2.ニユーロモデルを計算する複数のニユーロプロセツ
サを相互通信可能とする通信手段を介して接続されるニ
ユーラルネツトワーク計算機において、上記ニユーロプ
ロセツサは過去の状態保持する手段を有し、他の上記ニ
ユーロプロセツサの出力を受け取ると上記ニユーロモデ
ルを計算し、該計算の計算結果と上記過去の状態との差
分値を計算し、該差分値が零でない場合に他の上記ニユ
ーロプロセツサに上記差分値を出力することを特徴とす
るニユーラルネツトワーク計算機。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2741389A JPH02207369A (ja) | 1989-02-08 | 1989-02-08 | ニューラルネットワーク計算機 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2741389A JPH02207369A (ja) | 1989-02-08 | 1989-02-08 | ニューラルネットワーク計算機 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH02207369A true JPH02207369A (ja) | 1990-08-17 |
Family
ID=12220403
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2741389A Pending JPH02207369A (ja) | 1989-02-08 | 1989-02-08 | ニューラルネットワーク計算機 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH02207369A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08272759A (ja) * | 1995-03-22 | 1996-10-18 | Cselt Spa (Cent Stud E Lab Telecomun) | 相関信号処理用ニューラルネットワークの実行スピードアップの方法 |
US10387298B2 (en) | 2017-04-04 | 2019-08-20 | Hailo Technologies Ltd | Artificial neural network incorporating emphasis and focus techniques |
US11221929B1 (en) | 2020-09-29 | 2022-01-11 | Hailo Technologies Ltd. | Data stream fault detection mechanism in an artificial neural network processor |
US11237894B1 (en) | 2020-09-29 | 2022-02-01 | Hailo Technologies Ltd. | Layer control unit instruction addressing safety mechanism in an artificial neural network processor |
US11238334B2 (en) | 2017-04-04 | 2022-02-01 | Hailo Technologies Ltd. | System and method of input alignment for efficient vector operations in an artificial neural network |
US11263077B1 (en) | 2020-09-29 | 2022-03-01 | Hailo Technologies Ltd. | Neural network intermediate results safety mechanism in an artificial neural network processor |
US11544545B2 (en) | 2017-04-04 | 2023-01-03 | Hailo Technologies Ltd. | Structured activation based sparsity in an artificial neural network |
US11551028B2 (en) | 2017-04-04 | 2023-01-10 | Hailo Technologies Ltd. | Structured weight based sparsity in an artificial neural network |
US11615297B2 (en) | 2017-04-04 | 2023-03-28 | Hailo Technologies Ltd. | Structured weight based sparsity in an artificial neural network compiler |
US11811421B2 (en) | 2020-09-29 | 2023-11-07 | Hailo Technologies Ltd. | Weights safety mechanism in an artificial neural network processor |
-
1989
- 1989-02-08 JP JP2741389A patent/JPH02207369A/ja active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08272759A (ja) * | 1995-03-22 | 1996-10-18 | Cselt Spa (Cent Stud E Lab Telecomun) | 相関信号処理用ニューラルネットワークの実行スピードアップの方法 |
US11238331B2 (en) | 2017-04-04 | 2022-02-01 | Hailo Technologies Ltd. | System and method for augmenting an existing artificial neural network |
US11216717B2 (en) | 2017-04-04 | 2022-01-04 | Hailo Technologies Ltd. | Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements |
US11675693B2 (en) | 2017-04-04 | 2023-06-13 | Hailo Technologies Ltd. | Neural network processor incorporating inter-device connectivity |
US10387298B2 (en) | 2017-04-04 | 2019-08-20 | Hailo Technologies Ltd | Artificial neural network incorporating emphasis and focus techniques |
US11238334B2 (en) | 2017-04-04 | 2022-02-01 | Hailo Technologies Ltd. | System and method of input alignment for efficient vector operations in an artificial neural network |
US11551028B2 (en) | 2017-04-04 | 2023-01-10 | Hailo Technologies Ltd. | Structured weight based sparsity in an artificial neural network |
US11263512B2 (en) | 2017-04-04 | 2022-03-01 | Hailo Technologies Ltd. | Neural network processor incorporating separate control and data fabric |
US11615297B2 (en) | 2017-04-04 | 2023-03-28 | Hailo Technologies Ltd. | Structured weight based sparsity in an artificial neural network compiler |
US11461614B2 (en) | 2017-04-04 | 2022-10-04 | Hailo Technologies Ltd. | Data driven quantization optimization of weights and input data in an artificial neural network |
US11461615B2 (en) | 2017-04-04 | 2022-10-04 | Hailo Technologies Ltd. | System and method of memory access of multi-dimensional data |
US11514291B2 (en) | 2017-04-04 | 2022-11-29 | Hailo Technologies Ltd. | Neural network processing element incorporating compute and local memory elements |
US11544545B2 (en) | 2017-04-04 | 2023-01-03 | Hailo Technologies Ltd. | Structured activation based sparsity in an artificial neural network |
US11237894B1 (en) | 2020-09-29 | 2022-02-01 | Hailo Technologies Ltd. | Layer control unit instruction addressing safety mechanism in an artificial neural network processor |
US11263077B1 (en) | 2020-09-29 | 2022-03-01 | Hailo Technologies Ltd. | Neural network intermediate results safety mechanism in an artificial neural network processor |
US11221929B1 (en) | 2020-09-29 | 2022-01-11 | Hailo Technologies Ltd. | Data stream fault detection mechanism in an artificial neural network processor |
US11811421B2 (en) | 2020-09-29 | 2023-11-07 | Hailo Technologies Ltd. | Weights safety mechanism in an artificial neural network processor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4972363A (en) | Neural network using stochastic processing | |
JPH02207369A (ja) | ニューラルネットワーク計算機 | |
JPH0623986B2 (ja) | 電子回路シミユレーシヨンシステム | |
CN111062610B (zh) | 一种基于信息矩阵稀疏求解的电力系统状态估计方法和系统 | |
CN110929862B (zh) | 定点化的神经网络模型量化装置和方法 | |
CN111859835A (zh) | 一种电路互连网络模型的降阶方法、降阶装置及降阶设备 | |
JPH03209561A (ja) | 連立一次方程式の解を求める計算装置及び方法 | |
CN109033021B (zh) | 一种基于变参收敛神经网络的线性方程求解器设计方法 | |
Bellen et al. | On the contractivity and asymptotic stability of systems of delay differential equations of neutral type | |
Larkin et al. | Model of digital control system by complex multi-loop objects | |
Shah et al. | Hyers-Ulam stability of non-linear Volterra integro-delay dynamic system with fractional integrable impulses on time scales | |
CN112686375A (zh) | 一种神经网络模型的生成方法及装置 | |
Lantsov | A new algorithm for solving of harmonic balance equations by using the model order reduction method | |
CN115130415A (zh) | 供电网络瞬态仿真方法、装置、设备和介质 | |
CN111614078B (zh) | 电力系统小干扰稳定性分析方法、装置、设备及存储介质 | |
Gál et al. | Modified bacterial memetic algorithm used for fuzzy rule base extraction | |
Polat et al. | Efficient simulation of time-derivative cellular neural networks | |
JP2737933B2 (ja) | 除算装置 | |
JP2765903B2 (ja) | 情報処理装置 | |
CN116450636B (zh) | 基于低秩张量分解的物联网数据补全方法、设备及介质 | |
RU2773870C1 (ru) | Устройство для стохастического и нечёткого моделирования процесса функционирования перспективных телекоммуникационных сетей | |
Biolek et al. | Semi-Symbolic Transient Analysis of Analog Fractional-Order Systems | |
JPH07210542A (ja) | ニューロン回路 | |
JPH04112355A (ja) | 自己学習型アナログ方式ニューロン回路 | |
US20220398457A1 (en) | Distributed Deep Learning System and Distributed Deep Learning Method |