JPH04307654A - Neural network simulation system - Google Patents

Neural network simulation system

Info

Publication number
JPH04307654A
JPH04307654A JP7265191A JP7265191A JPH04307654A JP H04307654 A JPH04307654 A JP H04307654A JP 7265191 A JP7265191 A JP 7265191A JP 7265191 A JP7265191 A JP 7265191A JP H04307654 A JPH04307654 A JP H04307654A
Authority
JP
Japan
Prior art keywords
link
node
processor
processors
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7265191A
Other languages
Japanese (ja)
Inventor
Nobuki Kajiwara
信樹 梶原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP7265191A priority Critical patent/JPH04307654A/en
Publication of JPH04307654A publication Critical patent/JPH04307654A/en
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PURPOSE:To attain the bidirectional transfer of messages via a link processor and at the same time to carry out the simulation with high efficiency in order to attain the bidirectional communication between nodes in a neural network of a large scale and an irregular structure. CONSTITUTION:When the messages are forward transferred to an input node from an output node, a node processor 1 refers to an output link table to send the node messages to plural link processors 2. The processors 2 apply the link processing to the received messages and sends them to an input node processor 1 by reference to an input node identifier. When the messages are backward transferred to the output node from the input node, the processor 1 sends the node messages to plural processors by reference to an input link table. Then the processors 2 apply the link processing to the received messages end sends them to an output node processor by reference to an output node identifier.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明はニューラルネットワーク
シミュレーションシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to neural network simulation systems.

【0002】0002

【従来の技術】従来、ニューラルネットワークのリンク
の重みを行列表現し、それを分割して複数のプロセッサ
に割り当て、複数のプロセッサで並列に処理する方式や
、各ノードのシミュレーションを行なうノードプロセッ
サがノードの複数の出力リンクをリンクの重みと送り先
のノードプロセッサ識別子の対を格納した出力リンク表
として持っており、リンク処理は出力側のノードプロセ
ッサが行なう方式が知られている。
[Prior Art] Conventionally, the weights of the links in a neural network are expressed in a matrix, divided and assigned to multiple processors, and processed in parallel by the multiple processors, and the node processor that simulates each node is There is a known method in which a plurality of output links are stored as an output link table storing pairs of link weights and destination node processor identifiers, and the link processing is performed by the output side node processor.

【0003】0003

【発明が解決しようとする課題】しかしながら、ニュー
ラルネットワークのリンクの重みを行列表現し、それを
分割する方式ではシミュレーションするニューラルネッ
トワークが完全結合や層構造等の規則的な構造の時は効
率良くシミュレーションできるが、大規模で不規則な構
造のニューラルネットワークでは行列のほとんどの要素
が零の疎な行列になり、無駄な計算,記憶容量が多くな
るという欠点があった。
[Problem to be Solved by the Invention] However, the method of expressing the weights of links in a neural network in a matrix and dividing the weights is not efficient when the neural network to be simulated has a regular structure such as a fully connected or layered structure. However, in large-scale, irregularly structured neural networks, most of the matrix elements are zero, resulting in sparse matrices, resulting in unnecessary calculations and increased storage capacity.

【0004】また、各ノードプロセッサリンクの重みと
送り先のノードプロセッサ識別子の対を出力リンク表の
形で持つ方式では、1つのリンクを介してノード間が双
方向でメッセージを転送することが困難であった。入力
リンクに対しても同様なリンクの重みとノードプロセッ
サ識別子の対を入力リンク表の形で持つ方式も考えられ
るが、この方式ではリンクの重みの実体が出力リンク,
入力リンクの2箇所に格納されるので、学習時のリンク
の更新処理が繁雑になるという欠点があった。
[0004] Furthermore, in a system in which a pair of the weight of each node processor link and the destination node processor identifier is stored in the form of an output link table, it is difficult to transfer messages bidirectionally between nodes via a single link. there were. It is also conceivable to have a similar pair of link weights and node processor identifiers for input links in the form of an input link table, but in this method, the entity of the link weight is the output link,
Since the input link is stored in two locations, there is a drawback that the link update process during learning becomes complicated.

【0005】本発明の目的は大規模で不規則な構造のニ
ューラルネットワークにおいて多くの学習アルゴリズム
で必要になるノード間の双方向の通信を伴うシミュレー
ションを効率良く行なうことにある。
An object of the present invention is to efficiently perform a simulation involving bidirectional communication between nodes, which is required in many learning algorithms, in a large-scale, irregularly structured neural network.

【0006】[0006]

【課題を解決するための手段】本発明は、各ノードが重
み付きリンクを介して互いにメッセージを授受し、メッ
セージの内容に応じて内部状態及び出力を変化させるニ
ューラルネットワークをシミュレーションするシステム
において;ノードの機能をシミュレーションする複数の
ノードプロセッサと、重み付きリンクの機能をシミュレ
ーションする複数のリンクプロセッサと、前記ノードプ
ロセッサと前記リンクプロセッサとが互いに通信するた
めの通信路とを備え;前記ノードプロセッサ及び前記リ
ンクプロセッサは各々異なるプロセッサ識別子を持ち、
かつノード及びリンクの状態を各々格納する記憶装置と
、ノード及びリンクの機能を各々シミュレーションする
シミュレーション処理装置と、他の前記ノードプロセッ
サ及び前記リンクプロセッサとの通信処理を各々行う通
信装置とから構成され;前記ノードプロセッサの記憶装
置はノードから出て行く複数の出力リンクをシミュレー
ションする前記リンクプロセッサの識別子を保持する出
力リンク表と、ノードへ入る複数の入力リンクをシミュ
レーションする前記リンクプロセッサの識別子を保持す
る入力リンク表と、ノードの内部状態とを格納し;前記
リンクプロセッサの記憶装置はリンクを介してメッセー
ジを送り出す出力ノードをシミュレーションする前記ノ
ードプロセッサの識別子と、リンクを介してメッセージ
を受けとる入力ノードをシミュレーションする前記ノー
ドプロセッサの識別子と、リンクの重みとを格納し;前
記リンクプロセッサを介した前記ノードプロセッサ間の
双方向のメッセージ転送機能を有する。
[Means for Solving the Problems] The present invention provides a system for simulating a neural network in which nodes exchange messages with each other via weighted links and change their internal states and outputs according to the content of the messages; a plurality of node processors simulating functions of a weighted link; a plurality of link processors simulating a function of weighted links; and a communication path for the node processors and the link processors to communicate with each other; Each link processor has a different processor identifier,
and a storage device that stores the states of the nodes and links, a simulation processing device that simulates the functions of the nodes and links, and a communication device that performs communication processing with the other node processor and the link processor, respectively. a storage device of the node processor maintains an output link table holding an identifier of the link processor simulating a plurality of output links going out of the node and an identifier of the link processor simulating a plurality of input links entering the node; the storage device of the link processor stores an input link table for simulating an output node that sends a message via a link, and an internal state of the node; It stores the identifier of the node processor that simulates the node processor and the weight of the link; and has a bidirectional message transfer function between the node processors via the link processor.

【0007】[0007]

【作用】本発明においては、出力ノードから入力ノード
への順方向へのメッセージ転送においては、ノードプロ
セッサは出力リンク表を参照してノードのメッセージを
複数のリンクプロセッサに送り、リンクプロセッサは送
られて来たメッセージに対してリンクの処理を施し、入
力ノード識別子を参照して入力ノードプロセッサに送り
、入力ノードから出力ノードへの逆方向のメッセージ転
送においては、ノードプロセッサは入力リンク表を参照
してノードのメッセージを複数のリンクプロセッサに送
り、リンクプロセッサは送られて来たメッセージに対し
てリンクの処理を施し、出力ノード識別子を参照して出
力ノードプロセッサに送ることにより、リンクプロセッ
サを介した双方向のメッセージ転送を実現できる。また
、大規模で不規則の構造のニューラルネットワークにお
いても必要なリンクのみ入力リンク表,出力リンク表を
持てばよく、無駄な計算や記憶容量を必要としない。
[Operation] In the present invention, in forward message transfer from an output node to an input node, a node processor refers to an output link table and sends a node message to a plurality of link processors. The node processor performs link processing on the received message and sends it to the input node processor by referring to the input node identifier, and when transferring the message in the reverse direction from the input node to the output node, the node processor refers to the input link table. The node message is sent to multiple link processors, and the link processor performs link processing on the message, refers to the output node identifier, and sends the message to the output node processor. Bidirectional message transfer can be achieved. Further, even in a large-scale, irregularly structured neural network, it is sufficient to have input link tables and output link tables for only the necessary links, and unnecessary calculations and storage capacity are not required.

【0008】以上により、大規模で不規則な構造のニュ
ーラルネットワークにおいてもノード間の双方向の通信
を伴うシミュレーションの効率良い実行を可能とする。
As described above, it is possible to efficiently execute a simulation involving bidirectional communication between nodes even in a large-scale, irregularly structured neural network.

【0009】[0009]

【実施例】次に、本発明の一実施例について図面を参照
して説明する。
[Embodiment] Next, an embodiment of the present invention will be described with reference to the drawings.

【0010】図1はシステムの全体構成図で、複数のノ
ードプロセッサ1と、複数のリンクプロセッサ2と、プ
ロセッサ間通信路3とから構成される。ノードプロセッ
サ1は記憶装置11と、シミュレーション処理装置12
と、通信装置13とから構成される。リンクプロセッサ
2は記憶装置21と、シミュレーション処理装置22と
、通信装置23とから構成される。各ノードプロセッサ
1,リンクプロセッサ2は各々異なるプロセッサ識別子
を持ち他のプロセッサと区別される。各プロセッサ1,
2はプロセッサ間通信路3を介して他のプロセッサ1,
2にメッセージを送ることができる。メッセージの送り
先は送り先プロセッサの識別子により指定する。
FIG. 1 is an overall configuration diagram of the system, which is composed of a plurality of node processors 1, a plurality of link processors 2, and an inter-processor communication path 3. The node processor 1 includes a storage device 11 and a simulation processing device 12.
and a communication device 13. The link processor 2 includes a storage device 21, a simulation processing device 22, and a communication device 23. Each node processor 1 and link processor 2 has a different processor identifier and is distinguished from other processors. Each processor 1,
2 communicates with other processors 1, 2 via the inter-processor communication path 3.
You can send a message to 2. The destination of the message is specified by the identifier of the destination processor.

【0011】図2はノードプロセッサ1の詳細図で、記
憶装置11にはこのノードプロセッサ1のシミュレーシ
ョンするノードから出て行く複数の出力リンクをシミュ
レーションする複数のリンクプロセッサ2の識別子を保
持する出力リンク表14と、ノードへ行る複数の入力リ
ンクをシミュレーションする複数のリンクプロセッサ2
の識別子を保持する入力リンク表16と、ノードの内部
状態15とを格納する。
FIG. 2 is a detailed diagram of the node processor 1, in which the storage device 11 stores output links that hold identifiers of a plurality of link processors 2 that simulate a plurality of output links going out from a node simulated by this node processor 1. Table 14 and multiple link processors 2 that simulate multiple input links going to nodes
The input link table 16 holding the identifier of the node and the internal state 15 of the node are stored.

【0012】図3はリンクプロセッサ2の詳細図で、記
憶装置21にはリンクを介してメッセージを送り出す出
力ノードをシミュレーションするノードプロセッサ1の
識別子24と、リンクを介してメッセージを受けとる入
力ノードをシミュレーションするノードプロセッサ1の
識別子26と、リンク状態25とを格納する。
FIG. 3 is a detailed diagram of the link processor 2, in which the storage device 21 contains an identifier 24 of the node processor 1 that simulates an output node that sends a message via a link, and an identifier 24 that simulates an input node that receives a message via the link. The identifier 26 of the node processor 1 and the link status 25 are stored.

【0013】上記構成において、出力ノードから入力ノ
ードへの順方向のメッセージ転送においては、ノードプ
ロセッサ1は出力リンク表16を参照してノードのメッ
セージを複数のリンクプロセッサ2に送り、リンクプロ
セッサ2は送られてきたメッセージに対してリンクの処
理を施し、入力ノード識別子26を参照して入力ノード
プロセッサ1に送る。入力ノードから出力ノードへの逆
方向のメッセージ転送においては、ノードプロセッサ1
は入力リンク表14を参照してノードのメッセージを複
数のリンクプロセッサ2に送り、リンクプロセッサ2は
送られて来たメッセージに対してリンクの処理を施し、
出力ノード識別子24を参照して出力ノードプロセッサ
1に送る。以上により、リンクプロセッサ2を介してノ
ードプロセッサ1間の双方向のメッセージ転送が可能に
なる。
In the above configuration, in forward message transfer from an output node to an input node, the node processor 1 refers to the output link table 16 and sends the node message to a plurality of link processors 2, and the link processors 2 The sent message is subjected to link processing and sent to the input node processor 1 with reference to the input node identifier 26. In the reverse message transfer from the input node to the output node, node processor 1
refers to the input link table 14 and sends node messages to a plurality of link processors 2, and the link processors 2 perform link processing on the sent messages,
It refers to the output node identifier 24 and sends it to the output node processor 1. As described above, bidirectional message transfer between the node processors 1 via the link processor 2 becomes possible.

【0014】誤差逆伝播アルゴリズムやヘビアンルール
のようなニューラルネットワークの学習アルゴリズムで
は、リンクの重みの修正は出力ノードと入力ノードの状
態の情報が必要であるが、各ノードプロセッサ1が出力
リンク表,入力リンク表を参照し、リンクプロセッサ2
にノード状態の情報を転送することにより、各リンクプ
ロセッサ2に重みの修正に必要な情報を転送することが
できる。また、大規模で不規則な構造のニューラルネッ
トワークにおいても必要なリンクのみ入力リンク表14
,出力リンク表16を持てばよく、無駄な計算や記憶容
量は必要としない。これにより、大規模で不規則な構造
のニューラルネットワークにおいてもノード間の双方向
の通信を伴うシミュレーションを効率良く実行できる。
[0014] In neural network learning algorithms such as error backpropagation algorithm and Heavian rule, correction of link weights requires information on the states of output nodes and input nodes. , refer to the input link table and link processor 2
By transferring node state information to each link processor 2, information necessary for weight correction can be transferred to each link processor 2. In addition, even in large-scale, irregularly structured neural networks, only the necessary links can be input (Link Table 14).
, output link table 16, and unnecessary calculations and storage capacity are not required. This makes it possible to efficiently perform simulations involving bidirectional communication between nodes even in large-scale, irregularly structured neural networks.

【0015】[0015]

【発明の効果】以上のように本発明によれば、出力ノー
ドから入力ノードへの順方向へのメッセージ転送におい
ては、ノードプロセッサは出力リンク表を参照して、ノ
ードのメッセージを複数リンクプロセッサに送り、リン
クプロセッサは送られて来たメッセージに対してリンク
の処理を施し、入力ノード識別子を参照して入力ノード
プロセッサに送り、入力ノードから出力ノードへの逆方
向のメッセージ転送においては、ノードプロセッサは入
力リンク表を参照してノードのメッセージを複数のリン
クプロセッサに送り、リンクプロセッサは送られて来た
メッセージに対してリンクの処理を施し、出力ノード識
別子を参照して出力ノードプロセッサに送ることにより
、リンクプロセッサを介した双方向のメッセージ転送を
実現できる。
As described above, according to the present invention, in forward message transfer from an output node to an input node, the node processor refers to the output link table and transfers the message of the node to the multiple link processors. The link processor performs link processing on the sent message, refers to the input node identifier, and sends it to the input node processor.For message transfer in the reverse direction from the input node to the output node, the link processor performs link processing on the message sent. refers to the input link table and sends the node message to multiple link processors, the link processor performs link processing on the sent message, refers to the output node identifier and sends it to the output node processor. This enables bidirectional message transfer via the link processor.

【0016】また、大規模で不規則な構造のニューラル
ネットワークにおいても必要なリンクのみ入力リンク表
,出力リンク表を持てばよく、無駄な計算や記憶容量を
必要としない。
Further, even in a large-scale, irregularly structured neural network, it is sufficient to have input link tables and output link tables for only necessary links, and unnecessary calculations and storage capacity are not required.

【0017】以上により、大規模で不規則な構造のニュ
ーラルネットワークにおいてもノード間の双方向の通信
を伴うシミュレーションの効率良い実行を可能とする。
As described above, even in a large-scale, irregularly structured neural network, it is possible to efficiently execute a simulation involving bidirectional communication between nodes.

【図面の簡単な説明】[Brief explanation of drawings]

【図1】システムの全体構成図。FIG. 1 is an overall configuration diagram of the system.

【図2】ノードプロセッサの詳細図。FIG. 2 is a detailed diagram of a node processor.

【図3】リンクプロセッサの詳細図。FIG. 3 is a detailed diagram of the link processor.

【符号の説明】[Explanation of symbols]

1    ノードプロセッサ 2    リンクプロセッサ 3    プロセッサ間通信路 11    記憶装置 12    シミュレーション処理装置13    通
信装置 14    入力リンク表 15    ノード内部状態 16    出力リンク表 21    記憶装置 22    シミュレーション処理装置23    通
信装置 24    出力ノード識別子 25    リンク状態 26    入力ノード識別子
1 Node processor 2 Link processor 3 Inter-processor communication path 11 Storage device 12 Simulation processing device 13 Communication device 14 Input link table 15 Node internal state 16 Output link table 21 Storage device 22 Simulation processing device 23 Communication device 24 Output node identifier 25 Link state 26 Input node identifier

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】  各ノードが重み付きリンクを介して互
いにメッセージを授受し、メッセージの内容に応じて内
部状態及び出力を変化させるニューラルネットワークを
シミュレーションするシステムにおいて;ノードの機能
をシミュレーションする複数のノードプロセッサと、重
み付きリンクの機能をシミュレーションする複数のリン
クプロセッサと、前記ノードプロセッサと前記リンクプ
ロセッサとが互いに通信するための通信路とを備え;前
記ノードプロセッサ及び前記リンクプロセッサは各々異
なるプロセッサ識別子を持ち、かつノード及びリンクの
状態を各々格納する記憶装置と、ノード及びリンクの機
能を各々シミュレーションするシミュレーション処理装
置と、他の前記ノードプロセッサ及び前記リンクプロセ
ッサとの通信処理を各々行う通信装置とから構成され;
前記ノードプロセッサの記憶装置はノードから出て行く
複数の出力リンクをシミュレーションする前記リンクプ
ロセッサの識別子を保持する出力リンク表と、ノードへ
入る複数の入力リンクをシミュレーションする前記リン
クプロセッサの識別子を保持する入力リンク表と、ノー
ドの内部状態とを格納し;前記リンクプロセッサの記憶
装置はリンクを介してメッセージを送り出す出力ノード
をシミュレーションする前記ノードプロセッサの識別子
と、リンクを介してメッセージを受けとる入力ノードを
シミュレーションする前記ノードプロセッサの識別子と
、リンクの重みとを格納し;前記リンクプロセッサを介
した前記ノードプロセッサ間の双方向のメッセージ転送
機能を有することを特徴とするニューラルネットワーク
シミュレーションシステム。
Claim 1: A system for simulating a neural network in which each node exchanges messages with each other via weighted links and changes its internal state and output according to the content of the messages; a plurality of nodes that simulate the functions of the nodes; a processor, a plurality of link processors for simulating functions of weighted links, and a communication path for the node processors and the link processors to communicate with each other; the node processors and the link processors each have a different processor identifier. a storage device that stores the states of the nodes and links, a simulation processing device that simulates the functions of the nodes and links, and a communication device that performs communication processing with the other node processors and the link processors. composed;
The storage device of the node processor maintains an output link table that maintains an identifier of the link processor that simulates a plurality of output links going out of the node, and an identifier of the link processor that simulates the plurality of input links that enter the node. storing an input link table and the internal state of nodes; the storage of the link processor stores an identifier of the node processor that simulates an output node that sends a message via a link, and an input node that receives a message via a link; A neural network simulation system characterized by storing an identifier of the node processor to be simulated and a link weight; and having a bidirectional message transfer function between the node processors via the link processor.
JP7265191A 1991-04-05 1991-04-05 Neural network simulation system Pending JPH04307654A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7265191A JPH04307654A (en) 1991-04-05 1991-04-05 Neural network simulation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7265191A JPH04307654A (en) 1991-04-05 1991-04-05 Neural network simulation system

Publications (1)

Publication Number Publication Date
JPH04307654A true JPH04307654A (en) 1992-10-29

Family

ID=13495501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7265191A Pending JPH04307654A (en) 1991-04-05 1991-04-05 Neural network simulation system

Country Status (1)

Country Link
JP (1) JPH04307654A (en)

Similar Documents

Publication Publication Date Title
Shin HARTS: A distributed real-time architecture
TW202022644A (en) Operation device and operation method
CN108416437A (en) The processing system and method for artificial neural network for multiply-add operation
WO2023040197A1 (en) Cross-node communication method and apparatus, device, and readable storage medium
JPS59103166A (en) Hierarchical parallel data processor
CN116523045B (en) Deep learning reasoning simulator oriented to multi-core chip
CN114979000B (en) Data transmission system, method and related equipment
JPH04307654A (en) Neural network simulation system
JPH04344970A (en) Neural network processor
JPH0769893B2 (en) Neural network simulator
CN109845199A (en) Merge the read requests in network device architecture
JP2003067354A (en) Parallel computer system and interprocessor communication processing method
Aiken et al. A parallel neural network simulator
Youssef et al. A new approach to fast control of r 2× r 2 3-stage benes networks of r× r crossbar switches
WO2023214608A1 (en) Quantum circuit simulation hardware
CN212364994U (en) Brain-like super-computing platform principle machine device
JP2522406B2 (en) Fully integrated network parallel processing method and device
Guo Research on Network Architecture Design Based on Artificial Intelligence Application Technology
JPH0594429A (en) Boltzmann machine simulation device
Faure et al. A cellular architecture dedicated to neural net emulation
JPS6248864B2 (en)
JPH05324584A (en) Allocating method for hypercube
JPH05303558A (en) Method and device for message packet routing of array processor
Rooks et al. A unifying Framework for Distributed Routing Algorithms.
JPH02259843A (en) Software logical simulation system