JPH02207369A - ニューラルネットワーク計算機 - Google Patents

ニューラルネットワーク計算機

Info

Publication number
JPH02207369A
JPH02207369A JP2741389A JP2741389A JPH02207369A JP H02207369 A JPH02207369 A JP H02207369A JP 2741389 A JP2741389 A JP 2741389A JP 2741389 A JP2741389 A JP 2741389A JP H02207369 A JPH02207369 A JP H02207369A
Authority
JP
Japan
Prior art keywords
neural network
neuroprocessor
neuroprocessors
output
network computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2741389A
Other languages
English (en)
Inventor
Mitsuo Asai
浅井 光男
Minoru Yamada
稔 山田
Takehisa Hayashi
剛久 林
Toshio Doi
俊雄 土井
Noboru Masuda
昇 益田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2741389A priority Critical patent/JPH02207369A/ja
Publication of JPH02207369A publication Critical patent/JPH02207369A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はニューラルネットワークを高速にシミュレーシ
ョンできるニューラルネットワーク計算機に関する。
〔従来の技術〕
ニューラルネットワークを実現するハードウェアとして
、差動アンプを相互接続する方法やディジタル回路によ
って実現する方法などが考案されている。
〔発明が解決しようとする課題〕
これら従来技術はいずれも数百程度のニューラルネット
ワークを実現しているに過ぎない。汎用計算機において
プログラムによってシミュレーションする方法もあるが
、大規模なニューラルネットワークにおいては膨大な計
算時間を必要とする。
本発明は、大規模なニューラルネットワークを高速に計
算することができる新規な構成を有するニューラルネッ
トワーク計算機を提供することを目的としてなされたも
のである。
〔課題を解決するための手段〕
本発明のニューラルネットワーク計算機は.ニユーロモ
デルを計算する複数のニューロプロセッサとそれら複数
のニューロプロセッサ間を相互通信可能とする通信手段
を有し、上記複数の各ニューロプロセッサは過去の状態
を保持する手段と他のニューロプロセッサからの出力を
受け取ると上記ニューロモデルを計算する手段と、該計
算結果と上記過去の状態との差分を出力させる手段とを
有してなる構成としたものである。また、上記各ニュー
ロプロセッサを、上記差分がゼロでないときにのみ差分
値を出力するように構成する。
〔作用〕
ニューラルネットワークが安定状態へ移行するとき、各
ニューロンによって安定状態に速く到達するニューロン
と安定状態に遅く到達する二ニーロンがある6本発明に
よれば、速く安定状態に到達したニューロンの計算及び
その通信を省くことにより、計算時間を短縮することが
できる。従って1本発明を用いれば、大規模なニューラ
ルネットワークを高速にシミュレーションすることがで
きる。
〔実施例〕
ニューロモデルの一例を以下に説明する。
ニューロモデルは自分以外のニューロンがらの出力値X
 Og 11 @ ”’ I N−1を入力し、各ニュ
ーロモデルは、 J#i を計算する。ここで、W t aはニューロモデルjか
らニューロモデルiへ接続するときの重み値である。関
数fはSigmoid関数で、 f(S)=1/(1+Exp((s−8)/T))・・
・(2) の関数である。Sはしきい値、Tは定数である。
本発明は、以上に示すようなニューロモデルを相互接続
して構成するニューラルネットワークに関するものであ
る。
第1図は本発明を実現した計算機の一実施例の構成を示
すブロック図である。以下、第1図を用いて本発明を説
明する。
第1図では、ニューロプロセッサiが出力し。
ニューロプロセッサjがその出力値を入力する動作を示
している。ニューロプロセッサiは最後に出力したとき
の(])式の計算結果x 、 t−1と最新のニューロ
モデルの計算結果X 1tの差分。
Δ Xi  = X+’−X+’ −工       
             ・  (3)を出力する。
このとき、バスコントローラ11はニューロプロセッサ
主のトライステートバッファ12を出力状態とし、それ
以外のニューロプロセッサのトライステートバッファ1
2を人力状態として、データバス9及びアドレスバス1
0を介して、データ値(差分値出力)及びデータ発信元
のニューロプロセッサのアドレスiを他の全ニューロプ
ロセッサに通信する。
その後の各ニューロプロセッサの動作について説明する
6例えば、ニューロプロセッサjはアドレスバス10か
ら発信元アドレスiを人力すると、ニューロプロセッサ
j内に保持している重み値メモリ値8に格納されている
ニューロモデルiに対する重み値W i aを読みだす
、また、データバス9からニューロモデルiの差分値出
力ΔXi を人力する。そして1乗算器3によって、積
ΔX、・W I Jを計算する。その乗算結果ΔXi・
W I Jは累積加算器4に送られ、累積加算される。
累積加算器4は、上記乗算結果が出力されるごとに累積
加算を行う、累積加算結果は、Sigmoid変換器2
に送られ、Sigmoid変換される。
以下に差分値を出力することで(1)式を計算できるこ
とを示す、l!在の累積加算結果をSt、最後に差分値
を出力したときの累積加算結果を5t−1とする。
j#i (3)式から j#i j#i j#i となり、各ニューロプロセッサは最後の(1)式の計算
結果SL”’1を保持し、各ニューロプロセッサから差
分値を入力すれば、最新の(1)式と同じ計算結果を得
ることができる6また。1度計算が実行されると、累積
加算器4は過去の累積結果をリセットせず、累積加算器
4は1乗算器3が出力するたびに。
s”=s”″1+Δ xJ −Wi−・・・(6)を実
行するだけでよ<、(6)式は(5)式を計算している
ことになる。
以下、ニューロプロセッサが出力するときの動作につい
て、ニューロプロセッサiにおいて説明する。
ニューロプロセッサiの(4)式の累積加算結果をxt
’とし、ニューロプロセッサiのラッチ回路7に最後に
出力したときの結果X−″″lを保持している。ニュー
ロプロセッサiは減算器5によって、(3)式の差分値
を計算する。
データバス9が1本と仮定すると、バスコントローラ1
1は全ニューロプロセッサの内1つのニューロプロセッ
サを選択し、出力許可をする。例えば、ニューロプロセ
ッサiが出力許可を受けたとき、データバス9にその差
分値出力Δxiを出力し、アドレスバス10にアドレス
iを出力する。
また、差分値Δx1はO検出器6にも送られ、O検出さ
れる。その結果はバスコントローラ11に送られ、もし
差分値がOならば、ニューロプロセッサiの出力は他の
ニューロプロセッサへ通信されない、ニューロンiの状
態が変わらないとき、それに関するデータ通信及び計算
をスキップしている。差分値結果が0でない場合はデー
タバス9及びアドレスバス10を介して、他のニューロ
プロセッサに通信され、ニューロプロセッサiではラッ
チ回路7にそのときのxt を新たに保持する。
以上の動作をニューロプロセッサ0〜N−1を順番に繰
返し行えば、(1)式を計算することができる。全ニュ
ーロプロセッサにおける0検出器6のすべてがOを検出
すれば、ニューラルネットワークが安定状態となったこ
とになり、計算を終了する。
本発明はニューロプロセッサ1を複数個用意し、並列に
ニューロモデルを計算することで、大規模なニューラル
ネットワークを高速にシミュレーションできる。また、
1個のニューロプロセッサ1で複数のニューロモデルを
計算することもできる。
第2図に本発明の効果を示す1本図は横軸に繰返し回数
を縦軸に、そのときの(1)式を1回計算するための1
サイクルあたりの差分値結果のデータ転送回数を示して
いる。繰返し回数が増えていくと、徐々に差分値がOと
なる安定状態のニューロンが増加してゆくため、1サイ
クルあたりのデータ転送回数が減少していく、そのため
1本図に示した斜線部の計算を省くことができる。
〔発明の効果〕
本発明によれば、大規模なニューラルネットワークのシ
ミュレーションを高速に実現できる。また、非同期に各
ニューロンを動作させるシミュレーションを行うことも
できる。
【図面の簡単な説明】
第1図は本発明の実施例のニューラルネットワーク計算
機の構成を示すプロ角り図、第2図は本発明の効果を示
すデータ転送回数の繰り返し回数に対する変化率を示す
グラフである。 1・・・ニューロプロセッサ、2・・・Sigmoid
変換器、3・・・乗算器、4・・・累積加算器、5・・
・減算器、6・・・0検出器、7・・・ラッチ回路、8
・・・重み値メモリ、9・・・データバス、10・・・
アドレスバス、11・・・バスコントローラ、12・・
・トライステートバッファ、13・・・アドレス出力回
路。 第1図 繰り返し回数 1.3・−・7トレス山刃1!!l蹟

Claims (2)

    【特許請求の範囲】
  1. 1.ニユーロモデルを計算する複数のニユーロプロセツ
    サを相互通信可能とする通信手段を介して接続されるニ
    ユーラルネツトワーク計算機において、上記ニユーロプ
    ロセツサは過去の状態を保持する手段を有し、他の上記
    ニユーロプロセツサの出力を受け取ると上記ニユーロモ
    デルを計算し、該計算の計算結果と上記過去の状態との
    差分を出力することを特徴とするニユーラルネツトワー
    ク計算機。
  2. 2.ニユーロモデルを計算する複数のニユーロプロセツ
    サを相互通信可能とする通信手段を介して接続されるニ
    ユーラルネツトワーク計算機において、上記ニユーロプ
    ロセツサは過去の状態保持する手段を有し、他の上記ニ
    ユーロプロセツサの出力を受け取ると上記ニユーロモデ
    ルを計算し、該計算の計算結果と上記過去の状態との差
    分値を計算し、該差分値が零でない場合に他の上記ニユ
    ーロプロセツサに上記差分値を出力することを特徴とす
    るニユーラルネツトワーク計算機。
JP2741389A 1989-02-08 1989-02-08 ニューラルネットワーク計算機 Pending JPH02207369A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2741389A JPH02207369A (ja) 1989-02-08 1989-02-08 ニューラルネットワーク計算機

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2741389A JPH02207369A (ja) 1989-02-08 1989-02-08 ニューラルネットワーク計算機

Publications (1)

Publication Number Publication Date
JPH02207369A true JPH02207369A (ja) 1990-08-17

Family

ID=12220403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2741389A Pending JPH02207369A (ja) 1989-02-08 1989-02-08 ニューラルネットワーク計算機

Country Status (1)

Country Link
JP (1) JPH02207369A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08272759A (ja) * 1995-03-22 1996-10-18 Cselt Spa (Cent Stud E Lab Telecomun) 相関信号処理用ニューラルネットワークの実行スピードアップの方法
US10387298B2 (en) 2017-04-04 2019-08-20 Hailo Technologies Ltd Artificial neural network incorporating emphasis and focus techniques
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11544545B2 (en) 2017-04-04 2023-01-03 Hailo Technologies Ltd. Structured activation based sparsity in an artificial neural network
US11551028B2 (en) 2017-04-04 2023-01-10 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network
US11615297B2 (en) 2017-04-04 2023-03-28 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network compiler
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08272759A (ja) * 1995-03-22 1996-10-18 Cselt Spa (Cent Stud E Lab Telecomun) 相関信号処理用ニューラルネットワークの実行スピードアップの方法
US11238331B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method for augmenting an existing artificial neural network
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11675693B2 (en) 2017-04-04 2023-06-13 Hailo Technologies Ltd. Neural network processor incorporating inter-device connectivity
US10387298B2 (en) 2017-04-04 2019-08-20 Hailo Technologies Ltd Artificial neural network incorporating emphasis and focus techniques
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11551028B2 (en) 2017-04-04 2023-01-10 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network
US11263512B2 (en) 2017-04-04 2022-03-01 Hailo Technologies Ltd. Neural network processor incorporating separate control and data fabric
US11615297B2 (en) 2017-04-04 2023-03-28 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network compiler
US11461614B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. Data driven quantization optimization of weights and input data in an artificial neural network
US11461615B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. System and method of memory access of multi-dimensional data
US11514291B2 (en) 2017-04-04 2022-11-29 Hailo Technologies Ltd. Neural network processing element incorporating compute and local memory elements
US11544545B2 (en) 2017-04-04 2023-01-03 Hailo Technologies Ltd. Structured activation based sparsity in an artificial neural network
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor

Similar Documents

Publication Publication Date Title
US4972363A (en) Neural network using stochastic processing
JPH02207369A (ja) ニューラルネットワーク計算機
JPH0623986B2 (ja) 電子回路シミユレーシヨンシステム
CN111062610B (zh) 一种基于信息矩阵稀疏求解的电力系统状态估计方法和系统
CN110929862B (zh) 定点化的神经网络模型量化装置和方法
CN111859835A (zh) 一种电路互连网络模型的降阶方法、降阶装置及降阶设备
JPH03209561A (ja) 連立一次方程式の解を求める計算装置及び方法
CN109033021B (zh) 一种基于变参收敛神经网络的线性方程求解器设计方法
Bellen et al. On the contractivity and asymptotic stability of systems of delay differential equations of neutral type
Larkin et al. Model of digital control system by complex multi-loop objects
Shah et al. Hyers-Ulam stability of non-linear Volterra integro-delay dynamic system with fractional integrable impulses on time scales
CN112686375A (zh) 一种神经网络模型的生成方法及装置
Lantsov A new algorithm for solving of harmonic balance equations by using the model order reduction method
CN115130415A (zh) 供电网络瞬态仿真方法、装置、设备和介质
CN111614078B (zh) 电力系统小干扰稳定性分析方法、装置、设备及存储介质
Gál et al. Modified bacterial memetic algorithm used for fuzzy rule base extraction
Polat et al. Efficient simulation of time-derivative cellular neural networks
JP2737933B2 (ja) 除算装置
JP2765903B2 (ja) 情報処理装置
CN116450636B (zh) 基于低秩张量分解的物联网数据补全方法、设备及介质
RU2773870C1 (ru) Устройство для стохастического и нечёткого моделирования процесса функционирования перспективных телекоммуникационных сетей
Biolek et al. Semi-Symbolic Transient Analysis of Analog Fractional-Order Systems
JPH07210542A (ja) ニューロン回路
JPH04112355A (ja) 自己学習型アナログ方式ニューロン回路
US20220398457A1 (en) Distributed Deep Learning System and Distributed Deep Learning Method