JPH07101414B2 - Parallel computer - Google Patents

Parallel computer

Info

Publication number
JPH07101414B2
JPH07101414B2 JP1314725A JP31472589A JPH07101414B2 JP H07101414 B2 JPH07101414 B2 JP H07101414B2 JP 1314725 A JP1314725 A JP 1314725A JP 31472589 A JP31472589 A JP 31472589A JP H07101414 B2 JPH07101414 B2 JP H07101414B2
Authority
JP
Japan
Prior art keywords
circuits
learning data
circuit
internal parameter
retinal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1314725A
Other languages
Japanese (ja)
Other versions
JPH03175565A (en
Inventor
武彦 志田
基孫 中
武久 田中
美恵 斉藤
邦夫 ▲吉▼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP1314725A priority Critical patent/JPH07101414B2/en
Publication of JPH03175565A publication Critical patent/JPH03175565A/en
Publication of JPH07101414B2 publication Critical patent/JPH07101414B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Multi Processors (AREA)

Description

【発明の詳細な説明】 産業上の利用分野 本発明は神経回路網膜式回路を構成する並列計算機に関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a parallel computer constituting a neural circuit retina type circuit.

従来の技術 最近、並列計算機は複数の計算等を行なう目的で盛んに
利用されるようになってきた。この並列計算機は、例え
ば第2図に示す構成が知られている。以下第2図を参照
して従来の並列計算機について説明する。第2図は従来
の並列計算機を可撓に適用した場合の構成を示すブロッ
ク図である。第2図において、1はn個の学習データを
蓄えるメモリ、10はメモリに蓄えられたn個の学習デー
タから任意の1つを選び出す選択機、11は1入力m出力
のスイッチ、12、13、14は外部から修正可能な内部パラ
メータを持ち、1個または複数の計算機により構成され
るm個の神経回路網膜式回路、15はm入力1出力のスイ
ッチ、9は入力されるデータを前記m個の神経回路網膜
式回路に分配する分配機である。
2. Description of the Related Art Recently, parallel computers have been actively used for the purpose of performing multiple calculations. This parallel computer is known, for example, as shown in FIG. A conventional parallel computer will be described below with reference to FIG. FIG. 2 is a block diagram showing a configuration when a conventional parallel computer is flexibly applied. In FIG. 2, 1 is a memory that stores n learning data, 10 is a selector that selects any one of the n learning data stored in the memory, 11 is a switch with 1 input and m output, 12, 13 , 14 has internal parameters that can be modified from the outside, m neural circuit retina type circuits composed of one or more computers, 15 is an m-input 1-output switch, 9 is the input data It is a distributor that distributes to individual neural circuits and retinal circuits.

以上のように構成された並列計算機について、以下にそ
の動作について説明する。ここで、m個の学習データを
順にX1、……、Xm、m個の神経回路網膜式回路を順にN
1、……、Nmとする。まず、m個の学習データを蓄える
メモリ1から選択機10により学習データX1が選択され、
スイッチ11によりm個の神経回路網膜式回路の内のN1に
出力される。学習データX1を基に神経回路網膜式回路N1
が学習を行い、内部パラメータ修正量を求め、前記内部
パラメータ修正量をスイッチ15へ出力する。スイッチ15
は前記内部パラメータ修正量を分配機9を通して各神経
回路網膜式回路12、13、14に出力する。神経回路網膜式
回路12、13、14は内部パラメータ修正量を基に内部パラ
メータの修正を行う。以上の処理を、学習データX2、…
…、Xmと、神経回路網膜式回路N2、……、Nmを順に対応
させて行う。このようにして、メモリ1に蓄えられたn
個のデータから選択器10によりm個のデータを選択、各
神経回路網膜式回路12、13、14の内部パラメータの修正
という動作を繰り返すことにより、学習が進行し、内部
パラメータか順次修正されていく。
The operation of the parallel computer configured as described above will be described below. Here, m learning data are sequentially input to X1, ..., Xm, m neural circuits and retinal circuit are sequentially input to N.
1, ..., Nm. First, the learning data X1 is selected by the selector 10 from the memory 1 that stores m learning data,
The signal is output to N1 of the m neural circuit retina circuits by the switch 11. Neural circuit Retinal circuit N1 based on learning data X1
Learns, finds the internal parameter correction amount, and outputs the internal parameter correction amount to the switch 15. Switch 15
Outputs the internal parameter correction amount to each neural circuit retina type circuit 12, 13, 14 through the distributor 9. The neural circuit retina type circuits 12, 13 and 14 modify internal parameters based on the internal parameter modification amount. The above processing is performed on the learning data X2, ...
, Xm and neural circuit retinal circuit N2, ..., Nm are made to correspond in order. In this way, n stored in the memory 1
By repeating the operation of selecting m data from the data by the selector 10 and modifying the internal parameters of each neural circuit retinal circuit 12, 13, 14, the learning progresses and the internal parameters are sequentially modified. Go.

発明が解決しようとする課題 しかし、以上の構成では、任意の1個の神経回路網膜式
回路が学習データについて処理を行っているとき、他の
(m−1)個の神経回路網膜式回路は休止状態であるた
め、複数個の神経回路網膜式回路、つまり、神経回路網
を構成する複数庫の計算機を有効に使用できていないと
いう課題を有していた。このように、従来の神経回路網
膜式回路においては、与えられた一つの学習データ毎に
内部パラメータを修正する遂次処理が基本であり、多数
のデータの学習にはそのデータ数だけ学習を繰り返す必
要があり、学習速度が遅いという課題も有していた。
However, in the above configuration, when any one neural circuit retinal circuit is processing the learning data, the other (m-1) neural circuit retinal circuits are Since it is in the rest state, there is a problem that a plurality of neural circuit retina type circuits, that is, a plurality of computers forming a neural network cannot be effectively used. As described above, in the conventional neural circuit retinal circuit, the sequential processing for correcting the internal parameters for each given learning data is basic, and the learning is repeated by the number of data for learning many data. There is also a problem that learning speed is slow because it is necessary.

本発明は上記課題に鑑み、複数の神経回路網膜式回路、
つまり、神経回路網を構成する複数個の計算機を有効に
使用できる構成を持つ並列計算機を提供するものであ
る。
In view of the above problems, the present invention provides a plurality of neural circuit retinal circuits,
That is, the present invention provides a parallel computer having a configuration capable of effectively using a plurality of computers constituting a neural network.

課題を解決するための手段 本発明は、n個(nは2以上の整数)の学習データから
m個(mは2以上n以下の正の整数)の学習データを選
択して残りの(n−m)個の学習データは放置する手段
と、外部からの内部パラメータ修正量により修正可能な
内部パラメータを持ち、1個または複数個の計算機によ
り構成されるm個の神経回路網模式回路と、前記m個の
学習データを前記m個の神経回路網膜式回路に分配する
手段と、前記m個の神経回路網膜式回路からの内部パラ
メータ修正量を集める手段と、集められた前記m個の内
部パラメータ修正量の平均を求めることにより平均内部
パラメータ修正量を求める手段と、平均内部パラメータ
修正量を内部パラメータ修正量として前記m個の神経回
路網膜式回路に分配する手段を設けたものである。
Means for Solving the Problem The present invention selects m (m is a positive integer of 2 or more and n or less) learning data from n (n is an integer of 2 or more) learning data, and the remaining (n -M) means for leaving the learning data, and m neural network schematic circuits having internal parameters that can be modified by an internal parameter modification amount from the outside and configured by one or more computers, Means for distributing the m learning data to the m neural circuit retina circuits, means for collecting internal parameter correction amounts from the m neural circuit retina circuits, and the collected m internal parts Means for obtaining the average internal parameter correction amount by obtaining the average of the parameter correction amounts and means for distributing the average internal parameter correction amount to the m neural circuit retina circuits as the internal parameter correction amount are provided. It

作 用 本発明は上記構成により、まず、n個の学習データから
m個の学習データが選択され、m個の学習データがm個
の神経回路網膜式回路に出力され、次に、各神経回路網
膜式回路では、学習データに基づき内部パラメータ修正
量が求められる。内部パラメータ修正量を求める処理が
m個の神経回路網膜式回路で同時に並列に行われるた
め、m個の内部パラメータ修正量を得ることができる。
各神経回路網膜式回路から出力される内部パラメータ修
正量は集められ、それらを平均することによって平均内
部パラメータ修正量が求められる。次に、平均内部パラ
メータ修正量は各神経回路網膜式回路に出力され、各神
経回路網膜式回路において平均内部パラメータ修正量を
基に内部パラメータの修正が行われる。以上のように複
数の内部パラメータ修正量を複数の神経回路網膜式回路
を用いて同時に得ることが出来るため、複数の神経回路
網膜式回路、つまり、複数の神経回路網膜式回路を構成
する複数の計算機を効率よく使用することができる。
Operation According to the present invention, according to the above configuration, first, m pieces of learning data are selected from n pieces of learning data, the m pieces of learning data are output to the m pieces of neural circuit retinal circuits, and then the respective neural circuits are output. In the retinal circuit, the internal parameter correction amount is obtained based on the learning data. Since the processing for obtaining the internal parameter correction amount is simultaneously performed in parallel in m neural circuit retina circuits, it is possible to obtain m internal parameter correction amounts.
The internal parameter correction amount output from each neural circuit retinal circuit is collected, and the average internal parameter correction amount is obtained by averaging them. Next, the average internal parameter correction amount is output to each neural circuit retinal circuit, and the internal parameter is corrected in each neural circuit retinal circuit based on the average internal parameter correction amount. As described above, since a plurality of internal parameter correction amounts can be simultaneously obtained by using a plurality of neural circuit retina type circuits, a plurality of neural circuit retina type circuits, that is, a plurality of neural circuit retina type circuits constituting The computer can be used efficiently.

実施例 以下本発明の一実施例について説明する。Example One example of the present invention will be described below.

第1図は本発明の一実施例における並列計算機の構成を
示すブロック図である。第1図において、21はn個の学
習データを蓄えるメモリ、22はメモリに蓄えられたn個
の学習データからm個の学習データを選択する選択機、
23はm個の学習データをm個の神経回路網膜式回路へ出
力する分配機、24,25,26は1個または複数の計算機によ
り構成される神経回路網膜式回路、27はm個の神経回路
網膜式回路から出力される内部パラメータ修正量を集め
る収集機、28はm個の内部パラメータ修正量から平均パ
ラメータ修正量を求める平均機、29は平均パラメータ修
正量をm個の神経回路網膜式回路へ出力する分配機であ
る。
FIG. 1 is a block diagram showing the configuration of a parallel computer according to an embodiment of the present invention. In FIG. 1, 21 is a memory for storing n learning data, 22 is a selector for selecting m learning data from the n learning data stored in the memory,
23 is a distributor that outputs m learning data to m neural circuit retinal circuits, 24, 25 and 26 are neural circuit retinal circuits composed of one or more computers, and 27 is m neural circuits. Circuit retina type collector that collects the internal parameter modification amount output from the circuit, 28 is an averaging machine that calculates the average parameter modification amount from m internal parameter modification amounts, and 29 is the average parameter modification amount m neural circuit retinal formula It is a distributor that outputs to the circuit.

以上のように構成された並列計算機について、以下その
動作を説明する。
The operation of the parallel computer configured as described above will be described below.

まず、メモリ21に蓄えられたn個の学習データから、選
択機22によって任意のm個の学習データが選択される。
このとき、残りの(n−m)個のデータはそのままメモ
リ21に蓄えられている。前記選択されたm個の学習デー
タは分配機29によりm個の神経回路網膜式回路に1個ず
つ出力され、m個の神経回路網膜式回路において学習デ
ータをもとに内部パラメータ修正量が求められ、m個の
神経回路網膜式回路24,25,26から出力されるm個の内部
パラメータ修正量が収集機27により集められる。集めら
れたm個の内部パラメータ修正量は平均機28において平
均化され、平均内部パラメータ修正量が求められ、平均
内部パラメータ修正量は分配機29によりm個の神経回路
網膜式回路24,25,26に出力され、各神経回路網膜式回路
24,25,26において平均内部パラメータ修正量を基に内部
パラメータの修正が行われる。以上の処理を繰り返して
各神経回路網膜式回路24、25、26の学習が進行する。こ
の場合、選択機22でn個の学習データからm個を選択す
るしかたは特に定めないが、例えばn個全ての1回ずつ
用いるためには規則的、あるいは順番に選択するように
すればよい。学習を繰り返しながらn個から任意にm個
を選択する場合に、一度も選択されないデータがいくつ
か残ってしまったとしても、学習の精度の面から問題が
ない場合もある。
First, from the n pieces of learning data stored in the memory 21, the selector 22 selects arbitrary m pieces of learning data.
At this time, the remaining (n−m) pieces of data are stored in the memory 21 as they are. The selected m learning data are output one by one to the m neural circuit retinal circuits by the distributor 29, and the internal parameter correction amount is obtained based on the learning data in the m neural circuit retinal circuits. Then, the m internal parameter correction amounts output from the m neural circuit retinal circuits 24, 25, 26 are collected by the collector 27. The collected m number of internal parameter correction amounts are averaged by the averaging machine 28 to obtain an average internal parameter correction amount. The average internal parameter correction amount is distributed by the distribution machine 29 to m neural circuit retina circuits 24, 25, Output to 26, each neural circuit retinal circuit
At 24, 25, and 26, the internal parameters are corrected based on the average internal parameter correction amount. By repeating the above processing, learning of each neural circuit retinal circuit 24, 25, 26 proceeds. In this case, how to select m learning data from n learning data by the selector 22 is not particularly specified. For example, in order to use all n learning data once, it may be selected regularly or in order. . When m is arbitrarily selected from n while repeating learning, there may be no problem in terms of accuracy of learning even if some data that are not selected remain.

発明の効果 以上本発明によれば、n個の学習データからm個の学習
データを選択し、m個の学習データをm個の神経回路網
膜式回路で同時に計算することにより、複数の神経回路
網膜式回路を構成する複数の計算機で同時に計算するこ
とができ、計算の効率が向上する。
EFFECTS OF THE INVENTION According to the present invention, a plurality of neural circuits are selected by selecting m learning data from n learning data and calculating m learning data at the same time by m neural circuit retina circuits. The calculation can be performed simultaneously by a plurality of computers forming the retinal circuit, which improves the efficiency of the calculation.

本発明はこのように、神経回路網膜式回路の学習を複数
の神経回路網膜式回路で並列に進めることを可能にし、
複数個の学習データによる学習が同時に進行するので、
学習速度が著しく向上し、その効果は大きい。
The present invention thus enables learning of neural circuit retinal circuits to proceed in parallel with a plurality of neural circuit retinal circuits,
Since learning with multiple learning data proceeds at the same time,
The learning speed is remarkably improved and its effect is great.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の一実施例における並列計算機の構成を
示すブロック図、第2図は従来の並列計算機の構成を示
すブロック図である。 21……メモリ、22……選択機、23……分配機、24,25,26
……神経回路網膜式回路、27……収集機、28……平均
機、29……分配機。
FIG. 1 is a block diagram showing the configuration of a parallel computer in one embodiment of the present invention, and FIG. 2 is a block diagram showing the configuration of a conventional parallel computer. 21 …… Memory, 22 …… Selector, 23 …… Distributor, 24,25,26
...... Neural circuit Retinal circuit, 27 …… Collector, 28 …… Average machine, 29 …… Distributor.

フロントページの続き (72)発明者 斉藤 美恵 神奈川県川崎市多摩区東三田3丁目10番1 号 松下技研株式会社内 (72)発明者 ▲吉▼田 邦夫 神奈川県川崎市多摩区東三田3丁目10番1 号 松下技研株式会社内 (56)参考文献 特開 平1−237754(JP,A)(72) Inventor Mie Saito 3-10-1 Higashisanda, Tama-ku, Kawasaki-shi, Kanagawa Matsushita Giken Co., Ltd. No. 10 No. 1 Matsushita Giken Co., Ltd. (56) Reference JP-A-1-237754 (JP, A)

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】n個(nは2以上の整数)の学習データか
らm個(mは2以上n以下の正の整数)の学習データを
選択して残りの(n−m)個の学習データは放置する手
段と、外部からの内部パラメータ修正量により修正可能
な内部パラメータを持ち、1個または複数個の計算機に
より構成されるm個の神経回路網膜式回路と、前記m個
の学習データを前記m個の神経回路網膜式回路に分配す
る手段と、前記m個の神経回路網膜式回路から出力され
る内部パラメータ修正量を収集する手段と、前記m個の
内部のパラメータ修正量の平均をとることにより平均内
部パラメータ修正量を求める手段と、前記平均内部パラ
メータ修正量を内部パラメータ修正量として前記m個の
神経回路網膜式回路に分配する手段を具備してなる並列
計算機。
1. The learning data of m (m is a positive integer of 2 or more and n or less) is selected from n (n is an integer of 2 or more) learning data and the remaining (n−m) learning data is selected. The data is a means for leaving it alone, the internal parameters that can be modified by an external internal parameter modification amount, and the m neural circuit retina circuits that are composed of one or more computers, and the m learning data. To the m neural network retinal circuits, a means for collecting internal parameter modification amounts output from the m neural circuit retinal circuits, and an average of the m internal parameter modification amounts. A parallel computer comprising means for obtaining an average internal parameter correction amount by taking the above, and means for distributing the average internal parameter correction amount as the internal parameter correction amount to the m neural circuit retina circuits.
JP1314725A 1989-12-04 1989-12-04 Parallel computer Expired - Fee Related JPH07101414B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1314725A JPH07101414B2 (en) 1989-12-04 1989-12-04 Parallel computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1314725A JPH07101414B2 (en) 1989-12-04 1989-12-04 Parallel computer

Publications (2)

Publication Number Publication Date
JPH03175565A JPH03175565A (en) 1991-07-30
JPH07101414B2 true JPH07101414B2 (en) 1995-11-01

Family

ID=18056821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1314725A Expired - Fee Related JPH07101414B2 (en) 1989-12-04 1989-12-04 Parallel computer

Country Status (1)

Country Link
JP (1) JPH07101414B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4866645A (en) * 1987-12-23 1989-09-12 North American Philips Corporation Neural network with dynamic refresh capability

Also Published As

Publication number Publication date
JPH03175565A (en) 1991-07-30

Similar Documents

Publication Publication Date Title
CN104639639B (en) A kind of method of adjustment of deploying virtual machine position, apparatus and system
DE69132495T2 (en) Distributed processing memory
DE3880478T2 (en) LAYERED NET.
Nassimi et al. Bitonic sort on a mesh-connected parallel computer
DE69314824T2 (en) Neural processor with distributed synaptic cells
DE3850896T2 (en) Vector access to memory.
EP0186150A2 (en) Parallel processing computer
JPH06509894A (en) Input/output configuration of massively parallel computer systems
KR20130090147A (en) Neural network computing apparatus and system, and method thereof
US5793657A (en) Random number generating apparatus and random number generating method in a multiprocessor system
DE2556617C2 (en) Sliding and rotating circuit
EP1125216A2 (en) Digital processing device
CN105591895A (en) Network device and method for managing network traffic
Abali et al. Balanced parallel sort on hypercube multiprocessors
JPH07101414B2 (en) Parallel computer
CN110851282B (en) Distributed data calculation method and system based on memory grid
DE69900142T2 (en) Procedure for performing modular multiplication according to the Montgomery method
US20220366947A1 (en) Compute-in-memory macro device and electronic device
Loch et al. Sparbit: a new logarithmic-cost and data locality-aware MPI Allgather algorithm
JPH06231028A (en) Data distribution system
CN108243113B (en) Random load balancing method and device
DE69900127T2 (en) Improved procedure for performing integer division
Xu et al. Decentralized remapping of data parallel applications in distributed memory multiprocessors
JP2509929B2 (en) Parallel sort processing method
Russell et al. Algorithms for the construction of (M, S)-optimal block designs and row-column designs

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees