JPH0264880A - パイプライン処理を用いたニューラルアーキテクチュア - Google Patents

パイプライン処理を用いたニューラルアーキテクチュア

Info

Publication number
JPH0264880A
JPH0264880A JP63215105A JP21510588A JPH0264880A JP H0264880 A JPH0264880 A JP H0264880A JP 63215105 A JP63215105 A JP 63215105A JP 21510588 A JP21510588 A JP 21510588A JP H0264880 A JPH0264880 A JP H0264880A
Authority
JP
Japan
Prior art keywords
input
output
layer
neural network
storage means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63215105A
Other languages
English (en)
Other versions
JP2679731B2 (ja
Inventor
Shuichi Endo
秀一 遠藤
Hiroyuki Tsuzuki
都築 裕之
Takashi Kawasaki
川崎 貴
Toshiharu Matsuda
松田 俊春
Kazuo Asakawa
浅川 和雄
Hideki Kato
英樹 加藤
Hideki Yoshizawa
英樹 吉沢
Hiromoto Ichiki
宏基 市來
Hiroshi Iwamoto
岩本 弘
Chikara Tsuchiya
主税 土屋
Katsuya Ishikawa
勝哉 石川
Yoshihide Sugiura
義英 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP63215105A priority Critical patent/JP2679731B2/ja
Priority to FI894021A priority patent/FI894021A/fi
Priority to US07/400,826 priority patent/US5220559A/en
Priority to EP89115978A priority patent/EP0357016B1/en
Priority to DE68928978T priority patent/DE68928978T2/de
Priority to AU40999/89A priority patent/AU626912B2/en
Priority to KR1019890012588A priority patent/KR930002792B1/ko
Publication of JPH0264880A publication Critical patent/JPH0264880A/ja
Application granted granted Critical
Publication of JP2679731B2 publication Critical patent/JP2679731B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔1既     要〕 ニューラルネットワークの構成要素であるニューロンの
動作をモデル化したアナログニューロンLSIによる情
報処理の高速化のためにパイプライン処理を用いたニュ
ーラルネットワークに関し、ニューロンのモデルとして
のアナログLSIの中に中間結果を格納する2個のバッ
ファを設け、次層への出力を行いながら、同時にパイプ
ライン方式で次の入力パターンに対するアナログ計算を
行うことによりニューラルネットワークの高速化を実現
することを目的とし、 ニューロンをモデル化したアナログLSIをユニットと
して用いた層構造ニューラルネットワークにおいて、前
記アナログLSIが該LSIへの入力値と該入力に対す
る重みとの積を計算する乗算手段と、前記アナログLS
tへの複数の入力について、該乗算手段の出力の総和を
とる加算手段と、該加算手段の出力に対する非線型関数
値を計算する関数値計算手段と、入力側から前段回路を
介して得られる中間値および後段回路を介して伝送する
ための中間値をそれぞれ記憶する第1と第2の記憶手段
とを備え、前記層構造ニューラルネットワークの入力層
以外の複数の層のそれぞれについて、該各層内の複数ユ
ニットへの人カバターンに対する該複数各ユニットの出
力値の計算を並行して行い、該計算結果を次層に出力し
ながら次の入力パターンに対する中間値の計算を行うよ
うに構成する。
〔産業上の利用分野〕
本発明はニューラルネットワークにおける情報処理に係
り、更に詳しくはニューラルネットワークの構成要素で
あるニューロンの動作をモデル化したアナログニューロ
ンLSIによる情報処理の高速化のためにパイプライン
処理を用いたニューラルネットワークに関する。
人間の脳の持つ高度並列分散処理型情報処理方式に学ん
だニューラルネットワークやニューラルコンピュータの
研究が盛んに行われつつあるが、特にニューラルネット
ワークにおける処理の高速化が強く望まれている。
〔従来の技術〕
ニューラルネットワークにはその2つの極として相互結
合ネットワークとN構造ネットワークとが存在するが、
本発明では学習する神経回路網のモデルとしてパーセプ
トロン型ネットワークである層構造ネットワークをその
対象とし、その例を第5図に示す。
層構造ニューラルネットワークは、いわゆるグラフの形
式で表現される。その入力部、出力部はそれぞれ入力層
、出力層と呼ばれる。入力層(1層)、出力層(0層)
にはそれぞれ複数の節点(ノード、ユニット)があり、
神経回路網ではそれぞれがニューロン(神経細胞)に対
応する。入力層のm個の各ユニットからネッl−ワーク
の内部へ技(ブランチ、アーク)がのび、ネットワーク
内部の中間層(H層)にあるユニットに達する。
同様に中間層のn個の各ユニットと出力層の2個の各ユ
ニットとはアークで結ばれている。そして、これらの各
アークには情報や伝播するときの重み付けの定数が与え
られ、情報はこの重みとの積として伝播する。
一般に節点集合■と枝集合Eとから成るグラフG= (
V、E)において、点集合■を部分集合V+ 、V2 
’(=V  V+ ) に分割し、「Eに属するどの技
も一方の端点をV、の中にもち、他方の端点を■2の中
にもっ」という性質があるとき、Gを2部グラフという
。。第5図で入力層と中間層との部分だけを見れば2部
グラフになっており、また中間層と出力層の部分だけを
とっても2部グラフになついる。
第5図において、入力層(1層)の各ユニットには、入
力データパターンに従ってそれぞれ入力データが与えら
れる。これらの入力データに経由するアークの重みが乗
じられて中間層の各ユニットに与えられる。これらの入
力と重みとの積により後述のように中間層の各ユニット
の出力が決定され、そのデータに経由するアークの重み
が乗じられて出力層の各ユニットへ情報が伝播し、出力
層各ユニットの出力値が決定される。
ニューラルネットワークの各ユニット(第5図では中間
層と出力層の各ユニット)の出力値yj(1)は例えば
次式により与えられる。
(シグモイド関数) ・・・・・(1) ここでyIはユニットjの入力側にアークで結合された
ユニットiの出力、WJlはこのアークの重みを、XJ
はユニッl−jへの入力と重みの積の総和を、またθj
はユニットjのバイアス値(闇値)をあられす。さらに
Lはニューラルネットワークの学習の回数、すなわち各
ユニット間アークの重み更新の回数である。
このような出力値の計算方式をモデル的に第6図に示す
。同図において、ニューロンのモデルの入力側にアーク
で結合された複数個の各ユニットの出力yiに各アーク
の重みWJlが乗じられ、それらの総和としてXJが求
められる。そしてこのXJと閾値θ、との非線型関数、
例えば前述のシグモイド関数としてニューロンの出力y
、が決定される。
〔発明が解決しようとする課題〕
上述のようなニューロンの出力決定処理、すなわちニュ
ーラルネットワークにおける情報処理方式の従来例を第
7図に、またその処理タイムチャートの従来例を第8図
に示す。
第7図は3層構造ニューラルネットワークの中間層内の
ユニットの出力計算処理方式を示す。同図において入力
層のm個のユニットからの入力はライトレジスタ1を経
由してメモリ2の入力領域内に格納される。人力層のユ
ニットから中間層の各ユニッ)H+〜Hnへのアーク(
入力層ユニットがm個あるのでmXn本)の重みはメモ
リ2内の重み領域に格納されている。
中間層のユニットH1の出力の計算時には入力層の各ユ
ニットの出力とそれに対応する重みとがリードレジスタ
3を経由して作業レジスタであるAレジスタ4とBレジ
スタ5とにそれぞれ格納され、第8図に示したように各
入力に対する重みとの積、その総和、シグモイド関数の
値がALU6により計算され、作業用のCレジスタ7及
びライトレジスタ1を経由してメモリ2内の出力領域に
格納される。
以上のHlに対する計算が第8図のタイムチャートにお
ける破線の前の処理である。すなわち’lrからy。ま
での中間層への各入力に対して重みとの積と、その累積
和の計算が行われ、総和に対するシグモイド関数の値が
メモリにストアされる。
破線部は中間層のニューロンH2からHn −1に対す
る計算を示し、最後にHlに対する計算が行われて、処
理が終了する。
このように、従来はニューロンをあられすユニットの出
力計算時において、まず入力値をメモリに格納し、その
値と重みとをメモリから順次リードしてALUによる計
算を行うために、処理に非常に時間がかかるという問題
があった。
本発明は、ニューロンのモデルとしてのアナログLSI
の中に中間結果を格納する2個のバッファを設け、次層
への出力をjテいながら、同時にパイプライン方式で次
の入力パターンに対するアナログ計算を行うことにより
ニューラルネットワークの高速化を実現することを目的
とする。
〔課題を解決するための手段〕
本発明におけるニューロンモデルの原理ブロック図を第
1図に示す。同図において乗算手段8はニューロンモデ
ルとしてのアナログLSIの入力側にそれぞれアークで
結合された複数のユニットからの入力について、各入力
値とそれが入力するアークの重みとの積を計算する。こ
こで、アークの重みは例えば図示しないメモリからリー
ドされる。
加算手段9は乗算手段8によって求められたアナログL
SIへの個々の入力値とそれが入力するアークの重みと
の積をすべての人力について累積加算する。
関数値計算手段10は加算手段9の出力と、各ニューロ
ンに対する闇値とを用いて、非線型関数、例えば前述の
シグモイド関数の値を計算する。
第1と第2の記憶手段11は入力側から前段回路を介し
て得られる中間値及び後段回路を介して伝送するための
中間値をそれぞれ記憶し、ニューロンの出力値として自
ユニットが所属する層の次層を構成する各ユニットに対
して、それを出力する。
また、ニューロンをモデル化したアナログLSIをユニ
ットとして用いた層構造ニューラルネットワークにおい
て、アナログLSIが8亥LSIへの入力値と該入力に
対する重みとの積を乗算しく8)、アナログLSIへの
複数の入力について、乗算手段8の出力の総和を加算し
く9)、その結果を格納する第1の電圧格納手段と、第
1の電圧格納手段の出力に対する非線型関数の入力また
は出力を格納する第2の電圧格納手段と、前段の入力信
号と外部から与えられる重みデータとの積の和を第1の
電圧格納手段に格納する動作と、第2の電圧格納手段の
結果による出力アナログ信号を後段のユニットに伝送す
る動作を同時に行う制御手段とを有することを特徴とす
る。
〔作   用〕
第1図のニューロンモデルは例えば第5図に示したニュ
ーラルネットワークを構成するために用いられる。この
ようなニューラルネットワークでは、前述のように中間
層、出力層内の各ユニットの出力値の計算に弐(1)、
 (2)が用いられる。
ある入力パターンが与えられると、まず乗算手段8と加
算手段9とにより、中間層のニューロンモデルとしての
アナログLSIのそれぞれに対して、入力値と重みとの
積、およびその総和、すなわち(2)弐の計算が行われ
る9次に加算手段9の出力に基づき、関数値計算手段1
0により(1)式を用いて出力値の計算が行われ、その
入出力の結果はそれぞれ第1と第2の記憶手段11に格
納される。
以上の計算は、本発明においては、第8図の従来例のよ
うに中間層の各ユニットに対してシリアルに行われるの
ではなく、各ユニットに対して並行して同時に行われる
。この計算が終了すると、直ちに次の入力パターンに対
する出力値の計算が各ユニットに対して並行に開始され
る。
前の入力パターンに対する中間層の出力は、出力層への
入力として与えられ、中間層と同様に出力層内各ユニッ
トの出力値の計算に用いられるが、中間層の値は記憶手
段11に記憶されているので、必要な時点でその出力が
行われる。
以上のように、本発明では、2つの記憶手段にそれぞれ
異なる中間結果を格納することでニューラルネットワー
クの処理にパイプライン方式を適用することができる。
〔実  施  例〕
本発明におけるニューラルネットワークの中間層の実施
例のブロック図を第2図に示す。中間層はHlからHn
までのn個のニューロンモデルとしてのアナログLS1
12a〜12nから構成され、各LSIは第1図の乗算
手段8に相当する積算器13a〜13n、加算手段9に
相当する和算器14a−14n、関数値計算手段10に
相当するシグモイド計算器15a〜15n、及び第1と
第2の記憶手段11に相当するバッファ16a〜16n
から成る。
さらにニューラルネットワークに対して、ネットワーク
内の2つのユニットを結ぶアークの重みを格納するため
のメモリ領域が用意されている。
第2図には中間層用のみのメモリ領域が示されているが
、出力層に対しても同様のメモリ領域が存在する。
このメモリ領域は中間層のn個のユニットH+からHn
に対して、入力層のm個の各ユニットからのアークに対
応して、それぞれm個、合計量×n個の領域17a〜1
7nである。これらの領域には、例えば各ユニット用の
ライトレジスタ1日a〜18nを経由して、あらかじめ
重みの値が格納されている。
第2図の中間層の各ユニッt−12a〜12nに対する
処理を第3図のタイムチャートを参照しながら説明する
。まず、中間層への第1回の入力パターン、すなわち入
力層の各ユニットからの入力データに対する処理が開始
される。
中間層の各ユニッ) (H+〜Hn)12a〜12nに
対して、入力層のユニット■1からの入力ylが同時に
与えられ、各ユニットに対する計算が同時に開始される
。ユニッ)I+ と中間層の各ユニットとを結ぶアーク
の重みがメモリ領域17a−17nからリードレジスタ
19a〜19nを経由して各ユニット内の積算器13a
−13nに与えられ、入力yIとの積が求めれらる。そ
の積は和算器14a−14nに与えられる0次に入力層
のユニットI2からの人力y2に対しても同様な計算が
成され、重みとylとの積が和算器143〜14nに与
えられ、累積加算される。
同様にして、入力層の各ユニットからの全入力に対して
計算が成され、最後のユニッl−1゜からの人力y、に
対する積和が求められ、その結果が第1のバッファ16
aに格納される。その第1のバッファ内容は第2のバッ
ファ16a’に移されれ、その結果をシグモイド関数値
を介して伝送される。このとき、第1のバッファの内容
は使用済みとなるので、中間層の各ユニット(H1〜H
,、)12a〜12nに対してはその後直ちに2回目の
人カバターンが与えられ、1回目と同様に処理が行われ
、その結果が第1のバッファ16aに格納される。同時
に第1のバッファ16aの内容がシグモイド計算器を介
して、あるいは直接的に、中間層により伝送され、出力
層内の各ユニット0+〜02に対する処理が開始され、
まず中間層の二二ッ) (H+ )12aから出力層内
の各ユニットに対して人力ylが与えられる。ここで、
図示しないメモリ領域に格納されている中間層と出力層
とを結ぶアークの重みとylとの積和が計算される。次
に中間層のユニッ)(Hz)12bからの入力y2に対
して同様の処理が行われる。入力y2は、この時点で、
ユニッ)Hz内の第2のバッファ16b’から与えれら
るので、この時点まで、出力値が保持されることになる
同様にして、中間層のユニットHnの第2のバッファ1
2n′からの入力に対して積和計算が行われ、出力層の
ユニット内の第1のバッファに移結され、第2のバッフ
ァに移されたのち、その結果に対してシグモイド関数値
が求められると1回目の入力パターンに対する出力層で
の処理が終了し、その後、2回目の人カバターンに対す
る処理が続行される。
第4図はアナログニエーロンLSIを用いたニューラル
ネットワークの実施例の構成図である。
図示しない入力層は10個のユニットがら成り、4個の
ユニット20a〜20dからなる中間層、2個のユニッ
ト21a、21bから成る出力層とともにニューラルネ
ットワーク7を構成する。同図において、入力データ1
0個は入力層の10個のニューロンからの入力であり、
中間層及び出力層内の各ニューロンLSI内のCIは第
1のバッファに相当し、各LSI内での積和結果を記憶
しておくためのコンデンサ、C2は第1のバッファの結
果をバッファリングする第2のバッファに相当し、各L
SIの出力は、第2のコンデンサC2をシグモイド関数
を介すか、またはそのままの値となる。
すなわち、コンデンサC2はサンプルホールド用のコン
デンサである。
第4図において、中間層の4個のニューロン20a〜2
0dが10個の人力データに対しての積和演算を終了し
、その結果がコンデンサC1に端子電圧として記憶され
ているとする。そして、その結果がコンデンサC2に移
され、コンデンサC1の前段にある回路とコンデンサC
2の後段の回路がアナログ的に分離される。コンデンサ
C2の出力すなわち、その積和結果はシグモイド関数値
に与えられ、伝送されるが、シグモイド関数を介さない
場合もあり、その選択が可能である。この時点から出力
層のLSI21a、21bでの処理が開始されるが、こ
のとき中間層のLSI20a〜20dの出力動作は時分
割的にシーケンシャルに行われる。すなわち、まず20
aからの出力により出力層のLSI21a、21b内で
積和演算が行われ、その後20b、20c、20dの順
での出力に対しての積和演算が繰り返し行われ、その積
和の結果が出力層のコンデンサC1に格納される。
以上のように、本発明では、中間層のLSIの中間値を
コンデンサC2に記憶させておくことにヨリ、各LSI
内のコンデンサC2は積和演算結果を記憶しておく必要
がなくなり、出力層での処理開始と同時に、次の入力デ
ータに対する中間層での積和演算を開始することが可能
となる。
〔発明の効果〕
以上説明したように本発明によれば、ニューラルネット
ワークの中間層、出力層での処理をアナログ的にパイプ
ライン方式で行うことによりネ・ントワークの高速化を
実現できる。さらに入力値、出力値を外部メモリに格納
する必要がなく、メモリの使用効率が向上する。
【図面の簡単な説明】
第1図は本発明におけるニューロンモデルの原理ブロッ
ク図、 第2図はニューラルネットワークの中間層実施例ブロッ
ク図、 第3図は本発明における処理のタイムチャート、第4図
はアナログニューロンLSIを用いたニューラルネット
ワークの実施例構成図、第5図は層構造ニューラルネッ
トワークの例を示す図、 第6図はニューロンにおける出力の計算モデルを示す図
、 第7図はニューラルネットワークにおけるデータ処理方
式の従来例を示す図、 第8図は従来のデータ処理方式のタイムチャートである
。 12a 〜12n、20a 〜20d ・・・中間層のアナログニューロンLSI、13a〜1
3n・・・積算器、 14a−14n=・和算器、 15a〜15n・・・シグモイド計算器、16a−16
n・・・第1のバッファ、16a′〜16n′・・・第
2のバッファ、21a、21b・・・出力層のアナログ
ニューロンLSI。 アjOグニューOンLS す叫でj箋巳イダリ構ガ5、′CC1 0用い氏ニューウルキットヮー7f) ニューロン+:h゛I”fろ出力/l @f$ E 7
−”ル第 図 層木犀侶1ニューラルネットワークの4ダリ第 図

Claims (1)

  1. 【特許請求の範囲】 1)ニューロンをモデル化したアナログLSIをユニッ
    トとして用いた層構造ニューラルネットワークにおいて
    、 前記アナログLSIが該LSIへの入力値と該入力に対
    する重みとの積を計算する乗算手段(8)と、 前記アナログLSIへの複数の入力について、該乗算手
    段(8)の出力の総和をとる加算手段(9)と、 該加算手段(9)の出力に対する非線型関数値を計算す
    る関数値計算手段(10)と、 入力側から前段回路を介して得られる中間値および後段
    回路を介して伝送するための中間値をそれぞれ記憶する
    第1と第2の記憶手段(11)とを備え、 前記層構造ニューラルネットワークの入力層以外の複数
    の層のそれぞれについて、該各層内の複数ユニットへの
    入力パターンに対する該複数各ユニットの出力値の計算
    を並行して行い、該計算結果を次層に出力しながら次の
    入力パターンに対する中間値の計算を行うことを特徴と
    するアナログパイプライン処理を用いたニューラルアー
    キテクチュア。 2)ニューロンをモデル化したアナログLSIをユニッ
    トとして用いた層構造ニューラルネットワークにおいて
    、 前記アナログLSIが該LSIへの入力値と該入力に対
    する重みとの積を乗算し(8)、前記アナログLSIへ
    の複数の入力について、前記乗算(8)の出力の総和を
    加算し(9)、その結果を格納する第1の電圧格納手段
    と、 前記第1の電圧格納手段の出力に対する非線型関数の入
    力を格納する第2の電圧格納手段と、前段の入力信号と
    外部から与えられる重みデータとの積の和を前記第1の
    電圧格納手段に格納する動作と前記第2の電圧格納手段
    の結果による出力アナログ信号を後段のユニットに伝送
    する動作を同時に行う制御手段とを有することを特徴と
    するパイプライン処理を用いたニューラルアーキテクチ
    ュア。 3)前記第1の電圧格納手段は積分手段のキャパシタで
    あることを特徴とする請求項2記載のパイプライン処理
    を用いたニューラルアーキテクチュア。 4)前記第2の電圧格納手段は前記積分手段に接続され
    るサンプル/ホールド回路内のキャパシタであることを
    特徴とする請求項2の記載パイプライン処理を用いたニ
    ューラルアーキテクチュア。
JP63215105A 1988-08-31 1988-08-31 パイプライン処理を用いたニューラルアーキテクチュア Expired - Fee Related JP2679731B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP63215105A JP2679731B2 (ja) 1988-08-31 1988-08-31 パイプライン処理を用いたニューラルアーキテクチュア
FI894021A FI894021A (fi) 1988-08-31 1989-08-28 Neuronstruktur.
EP89115978A EP0357016B1 (en) 1988-08-31 1989-08-30 Neuron architecture
DE68928978T DE68928978T2 (de) 1988-08-31 1989-08-30 Neuronarchitektur
US07/400,826 US5220559A (en) 1988-08-31 1989-08-30 Neuron architecture
AU40999/89A AU626912B2 (en) 1988-08-31 1989-08-31 Neuron architecture
KR1019890012588A KR930002792B1 (ko) 1988-08-31 1989-08-31 뉴우런 아키텍쳐(neuron architecture)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63215105A JP2679731B2 (ja) 1988-08-31 1988-08-31 パイプライン処理を用いたニューラルアーキテクチュア

Publications (2)

Publication Number Publication Date
JPH0264880A true JPH0264880A (ja) 1990-03-05
JP2679731B2 JP2679731B2 (ja) 1997-11-19

Family

ID=16666836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63215105A Expired - Fee Related JP2679731B2 (ja) 1988-08-31 1988-08-31 パイプライン処理を用いたニューラルアーキテクチュア

Country Status (1)

Country Link
JP (1) JP2679731B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04507025A (ja) * 1990-05-22 1992-12-03 インターナショナル・ビジネス・マシーンズ・コーポレーション Spin:順次パイプライン式ニューロコンピュータ
JP2741793B2 (ja) * 1991-10-17 1998-04-22 川崎製鉄株式会社 ニューラルネットワークプロセッサ
JP2019531535A (ja) * 2016-08-05 2019-10-31 ザイリンクス インコーポレイテッドXilinx Incorporated プログラマブル集積回路上のバイナリニューラルネットワーク

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04507025A (ja) * 1990-05-22 1992-12-03 インターナショナル・ビジネス・マシーンズ・コーポレーション Spin:順次パイプライン式ニューロコンピュータ
JP2741793B2 (ja) * 1991-10-17 1998-04-22 川崎製鉄株式会社 ニューラルネットワークプロセッサ
JP2019531535A (ja) * 2016-08-05 2019-10-31 ザイリンクス インコーポレイテッドXilinx Incorporated プログラマブル集積回路上のバイナリニューラルネットワーク

Also Published As

Publication number Publication date
JP2679731B2 (ja) 1997-11-19

Similar Documents

Publication Publication Date Title
EP0504932A2 (en) A parallel data processing system
CN107341542A (zh) 用于执行循环神经网络和lstm运算的装置和方法
US20120005141A1 (en) Neural network system
EP0421639A2 (en) Parallel data processing system
JPH0258157A (ja) 人工ニユーロン回路網アーキテクチユア
JPH02193251A (ja) エラー後方伝ぱん法と神経網システム
KR20200020117A (ko) 파이프라인 구조를 가지는 인공신경망용 연산 가속 장치
JPH0264880A (ja) パイプライン処理を用いたニューラルアーキテクチュア
JP2001117900A (ja) ニューラルネットワーク演算装置
US5485548A (en) Signal processing apparatus using a hierarchical neural network
JPH04237388A (ja) ニューロプロセッサ
JP2549454B2 (ja) 神経細胞模倣回路網及び神経細胞模倣ユニット
JP2877413B2 (ja) 余剰ニューロン決定処理方式
JPH03105584A (ja) 並列データ処理方式
JPH07334478A (ja) パルス密度型信号処理回路網における結合係数更新方法 並びに結合係数更新装置
JPH056356A (ja) 信号処理方法及びその装置
JPH05108594A (ja) 信号処理装置
Jutten et al. Simulation machine and integrated implementation of neural networks: A review of methods, problems and realizations
JPH04293152A (ja) 神経回路網シミュレータ
CN117370269A (zh) 面向模糊系统优化的fpga动态参数重配置系统及方法
JPH0567066A (ja) ニユーラルネツトワークの学習方法及び信号処理装置
JPH05108598A (ja) 信号処理装置
JPH06131482A (ja) アナログニューラルネットワーク回路
JPH05135001A (ja) 信号処理装置
JPH05298275A (ja) 信号処理装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees