JP2009042898A - Parallel arithmetic unit and parallel operation method - Google Patents
Parallel arithmetic unit and parallel operation method Download PDFInfo
- Publication number
- JP2009042898A JP2009042898A JP2007205427A JP2007205427A JP2009042898A JP 2009042898 A JP2009042898 A JP 2009042898A JP 2007205427 A JP2007205427 A JP 2007205427A JP 2007205427 A JP2007205427 A JP 2007205427A JP 2009042898 A JP2009042898 A JP 2009042898A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- input
- output
- value
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、複数の演算ユニットを有する並列演算装置に関し、特に、複数の演算ユニット間の接続を簡易にすることを可能とする並列演算装置に関する。 The present invention relates to a parallel arithmetic device having a plurality of arithmetic units, and more particularly to a parallel arithmetic device that makes it possible to simplify connection between a plurality of arithmetic units.
並列演算の1つとして、ニューラルネットワークが知られている。このニューラルネットワークは、脳機能に見られるいくつかの特性を表現することを目指した数学モデルである。このニューラルネットワークによる処理は、入力されたデータの情報量を削減することが可能であるため、画像や統計など多次元量のデータでかつ線形分離不可能な問題に対して、比較的小さい計算量で良好な解を得られることが多い。そのためニューラルネットワークは、パターン認識やデータマイニングをはじめ、さまざまな分野において応用されている。 A neural network is known as one of parallel operations. This neural network is a mathematical model that aims to express some characteristics found in brain function. Since this neural network process can reduce the amount of information in the input data, it is a relatively small amount of computation for problems that cannot be linearly separated such as images and statistics. In many cases, a good solution can be obtained. Therefore, neural networks are applied in various fields such as pattern recognition and data mining.
ここで、大規模なニューラルネットワークを実現しようとすると、その計算量が膨大となるため、現実的な時間での処理が難しくなる。これを解決する方法として、(1)単体プロセッサ自体のコンピューティングパワーを上げる方法、(2)プロセッサを複数用いる並列コンピューティングの手法を用いる方法、(3)機能をLSI等によりハードウェアにより実装する方法、等が考えられる。上記(1)と(2)との方法は、プロセッサの能力を上げることで膨大な計算量に対処しようとするものであり、プログラムを変更することで様々なニューラルネットワークのアルゴリズムに対応することができる。 Here, if an attempt is made to realize a large-scale neural network, the amount of calculation becomes enormous and processing in a realistic time becomes difficult. As a method for solving this, (1) a method for increasing the computing power of a single processor itself, (2) a method using a parallel computing method using a plurality of processors, and (3) a function is implemented by hardware using an LSI or the like. A method, etc. can be considered. The above methods (1) and (2) are intended to deal with a huge amount of calculation by increasing the capacity of the processor, and it is possible to cope with various neural network algorithms by changing the program. it can.
ここで(1)の方法においては、従来、単体プロセッサのクロック周波数を高速化することで単体プロセッサ自体のコンピューティングパワーを上げてきていた。しかし、近年、クロック周波数の高速化は発熱量を増加させ、また、微細加工寸法が物理的限界に達しつつあることからムーアの法則が破綻しつつあり、単体プロセッサ自体のコンピューティングパワーを上げることが難しくなってきている。そのため、(1)の方法から(2)の方法へと、プロセッサのコンピューティングパワーを上げる方法の開発がシフトしてきており、コンピューティングパワーを上げるという高性能化と、発熱を抑えることの両立をより進めるために、より大きなキャッシュと複数の計算コアを持つことに焦点が当てられている。また、このプロセッサの開発は、低いクロック周波数で動作し、低電力化で動作するようにも、進められている。 Here, in the method (1), conventionally, the computing power of the single processor itself has been increased by increasing the clock frequency of the single processor. However, in recent years, increasing the clock frequency has increased the amount of heat generation, and Moore's Law is failing because microfabrication dimensions are reaching physical limits, increasing the computing power of the single processor itself. Is getting harder. Therefore, the development of a method for increasing the computing power of a processor has shifted from the method (1) to the method (2), and it is possible to achieve both high performance by increasing computing power and suppression of heat generation. To go further, the focus is on having a larger cache and multiple compute cores. Development of this processor is also progressing so that it operates at a low clock frequency and operates at low power.
しかし、(2)の方法においては、膨大なプロセッサを効率的に動作させる方法、つまり並列度を上げることと、複数のプロセッサ間の膨大なデータ通信を可能とするネットワークの構成が難しいことが本質的な問題としてある。そのため、(2)の方法である、プロセッサを複数用いる並列コンピューティングの手法を用いる方法により、大規模なニューラルネットワークの並列演算効率を上げることは、難しい。 However, in the method (2), it is difficult to efficiently operate a large number of processors, that is, to increase the degree of parallelism and to configure a network that enables huge data communication between a plurality of processors. As a general problem. Therefore, it is difficult to increase the parallel computation efficiency of a large-scale neural network by the method (2) that uses a parallel computing technique using a plurality of processors.
一方、(3)の方法であるハードウェア化に関しては、ハードウェアで実現可能なニューラルネットワークのアルゴリズムに制限があるが、特定な用途に対しては(1)または(2)の方法に比べ、低周波数での場合でも、桁違いな演算速度の性能を発揮することが可能である。このような、並列演算をハードウェア化する技術として、特許文献1および特許文献2が知られている。
しかしながら、(3)の方法であるハードウェア化に関しての特許文献1および特許文献2の従来技術においては、配線の問題があり、配線のために回路規模が膨大となり、または、回路間の配線が出来ないという問題がある。例えば、多層型のニューラルネットワークにおいては、出力層のあるノードからの出力を、入力層の全てのノードの入力に入力することが必要となり、各層のノード数が増大すると、その配線量が急激に増大してしまう。
However, in the prior arts of
また、例えば、実際の脳のニューラルネットワークの場合、ニューロンは3次元空間に配置され配線されているのに対し、LSIのようなハードウェアによる構成では構成要素の配置は2次元が基本であるため、配線の問題を本質的には解決できない。積層構造などで構成要素を3次元化しようとしても配線の問題は残るので、応用は限られた配線(近傍のみとの結合)で事足りるような用途に限定される。 Also, for example, in the case of an actual brain neural network, neurons are arranged and wired in a three-dimensional space, whereas in a hardware configuration such as LSI, the arrangement of components is basically two-dimensional. The wiring problem cannot be solved essentially. Even if an attempt is made to make the components three-dimensional in a laminated structure or the like, the problem of wiring remains, so the application is limited to a use where limited wiring (coupling with only the vicinity) is sufficient.
また、このような複数の演算ユニット間の配線の問題は、ニューラルネットワークに限られるものではなく、演算ユニットの出力を、一度に複数の演算ユニットに入力することが計算上必要な場合に、問題となる。階層型ニューラルネットワークや自己組織化マップのような一般のニューラルネットワーク以外にも、例えば、重力多体問題、電荷を持った多体粒子のシミュレーション、信号のフィルタリング、などがある。 In addition, the problem of wiring between a plurality of arithmetic units is not limited to the neural network, and it is a problem when it is necessary to input the output of the arithmetic unit to a plurality of arithmetic units at the same time. It becomes. In addition to general neural networks such as hierarchical neural networks and self-organizing maps, there are, for example, gravity many-body problems, simulation of charged many-body particles, signal filtering, and the like.
本発明は、このような事情に鑑みてなされたもので、その目的の一つは、複数の演算ユニット間の配線を簡易にすることを可能とする並列演算装置および並列演算方法を提供することにある。 The present invention has been made in view of such circumstances, and one of its purposes is to provide a parallel arithmetic device and a parallel arithmetic method that can simplify wiring between a plurality of arithmetic units. It is in.
この発明は上述した課題を解決するためになされたもので、並列演算装置が、予め定められた識別番号である固有ユニット番号によりそれぞれが識別される複数のユニットと、前記複数のユニットの中のいずれか1つのユニットが出力する出力値がユニット出力バスを介して入力されたことに応じて、該入力された入力値と前記複数のユニットの中から選択したいずれか1つのユニットを選択する識別番号である選択ユニット番号とを含む制御データを、前記複数のユニットのそれぞれにユニット入力バスを介して出力する分配制御部と、を有し、前記ユニットが、前記ユニット入力バスを介して前記分配制御部からの制御データを入力するデータ入力部と、前記データ入力部に入力された制御データに含まれる選択ユニット番号と、前記固有ユニット番号とが一致するか否かを判定するユニット番号一致判定部と、前記データ入力部に入力された制御データに含まれる入力値に基づいて、前記ユニット毎に予め定められた演算方法により演算するユニット演算部と、前記ユニット番号一致判定部が判定した結果が一致である場合には、前記ユニット演算部が演算した結果である演算結果を前記出力値として、前記分配制御部に前記ユニット出力バスを介して出力するデータ出力部と、を有することを特徴とする並列演算装置である。 The present invention has been made to solve the above-described problem. A parallel processing device includes a plurality of units each identified by a unique unit number that is a predetermined identification number, and a plurality of units among the plurality of units. Identification for selecting any one unit selected from the input value and the plurality of units in response to an output value output from any one unit being input via the unit output bus. A distribution control unit that outputs control data including a selected unit number, which is a number, to each of the plurality of units via a unit input bus, and the unit distributes the control data via the unit input bus. A data input unit for inputting control data from the control unit; a selection unit number included in the control data input to the data input unit; Based on a unit number matching determination unit that determines whether or not the unit number matches, and an input value included in the control data input to the data input unit, the calculation is performed by a predetermined calculation method for each unit. The unit calculation unit and the unit number coincidence determination unit determine that the result of determination is the same, the calculation result that is the result of calculation by the unit calculation unit is used as the output value, and the unit output to the distribution control unit And a data output unit that outputs the data via a bus.
この発明によれば、並列演算装置の複数の演算ユニット間の接続を簡易にすることが出来るという効果を奏する。また、複数のユニットが並列に演算をするため、高速に演算することが出来るという効果を奏する。 According to the present invention, it is possible to simplify the connection between the plurality of arithmetic units of the parallel arithmetic device. In addition, since a plurality of units perform operations in parallel, there is an effect that operations can be performed at high speed.
また、この発明は、前記分配制御部は、前記制御データに、前記ユニット演算部の演算方法を選択するための制御コードを含めており、前記ユニットが、前記データ入力部に入力された制御データから前記制御コードを抽出する制御コード抽出部を有し、前記ユニット演算部が、前記制御コード抽出部が抽出した制御データと前記ユニット番号一致判定部が判定した結果とに基づいて前記演算を実行する、または、前記演算を実行させるユニット制御部を有する、ことを特徴とする並列演算装置である。 Further, according to the present invention, the distribution control unit includes a control code for selecting a calculation method of the unit calculation unit in the control data, and the unit receives the control data input to the data input unit. A control code extraction unit that extracts the control code from the unit, and the unit calculation unit executes the calculation based on the control data extracted by the control code extraction unit and the result determined by the unit number match determination unit Or a parallel control device having a unit control section for executing the calculation.
この発明によれば、制御コードを用いて、分配制御部が全てのユニットを制御することが出来るという効果を奏する。また、分配制御部が全てのユニットを制御することにより、各ユニットの構成、および、分配制御部と各ユニットとの接続などの並列演算装置全体の構成が、より簡易となる効果を奏する。 According to the present invention, there is an effect that the distribution control unit can control all the units by using the control code. Further, when the distribution control unit controls all the units, the configuration of each unit and the configuration of the entire parallel computing device such as the connection between the distribution control unit and each unit can be simplified.
また、この発明は、前記分配制御部が、前記ユニット出力バスを介して前記複数のユニットの中のいずれか1つのユニットが出力する出力値を入力するユニット出力値入力部と、前記ユニット出力値入力部に入力された出力値に基づいて、予め定められた処理手順により前記制御データを生成する制御データ生成部と、前記制御データ生成部が生成した制御データを前記複数のユニットのそれぞれに前記ユニット入力バスを介して出力する制御データ出力部と、を有することを特徴とする並列演算装置である。 Further, according to the present invention, the distribution control unit has a unit output value input unit that inputs an output value output from any one of the plurality of units via the unit output bus, and the unit output value. Based on the output value input to the input unit, the control data generation unit that generates the control data according to a predetermined processing procedure, and the control data generated by the control data generation unit to each of the plurality of units And a control data output unit for outputting via a unit input bus.
この発明によれば、分配制御部がユニット出力値入力部に入力された出力値に基づいて、予め定められた処理手順により制御データを生成することが可能となり、例えば、階層型ニューラルネットワークや自己組織化マップなどの目的とする演算方法に応じて、制御データを生成することが可能となる効果を奏する。 According to this invention, it becomes possible for the distribution control unit to generate control data based on the output value input to the unit output value input unit according to a predetermined processing procedure, for example, a hierarchical neural network or self There is an effect that it is possible to generate control data according to a target calculation method such as an organization map.
また、この発明は、前記ユニットが、前記演算結果が記憶されるユニット出力記憶部を有し、前記ユニット演算部が、前記演算結果を前記ユニット出力記憶部に記憶させ、前記データ出力部が、前記ユニット番号一致判定部が判定した結果が一致である場合には、前記演算結果を前記ユニット出力記憶部から読み出し、該読み出した演算結果を前記出力値として前記分配制御部に前記ユニット出力バスを介して出力する、ことを特徴とする並列演算装置である。 Further, according to the present invention, the unit includes a unit output storage unit in which the calculation result is stored, the unit calculation unit stores the calculation result in the unit output storage unit, and the data output unit includes: When the result determined by the unit number coincidence determination unit is coincident, the calculation result is read from the unit output storage unit, and the read calculation result is used as the output value as the output value to the distribution control unit. The parallel arithmetic device is characterized in that the output is made via a network.
この発明によれば、各ユニットが演算結果をユニット出力記憶部に記憶しておき、例えば、階層型ニューラルネットワークや自己組織化マップなどの全体の演算処理において、適切なタイミングで出力することができるという効果を奏する。 According to this invention, each unit stores the calculation result in the unit output storage unit, and can be output at an appropriate timing in the entire calculation processing such as a hierarchical neural network or a self-organizing map. There is an effect.
また、この発明は、前記ユニットが、前記固有ユニット番号が予め記憶されている固有ユニット番号記憶部と、前記データ入力部に入力された制御データから前記選択ユニット番号を抽出する選択ユニット番号抽出部と、前記データ入力部に入力された制御データから前記入力値を抽出する入力値抽出部と、を有し、前記ユニット番号一致判定部は、前記選択ユニット番号抽出部が抽出した選択ユニット番号と、前記固有ユニット番号記憶部から読み出した固有ユニット番号とが一致するか否かを判定し、前記ユニット演算部は、前記入力値抽出部が抽出した入力値に基づいて、前記ユニット毎に予め定められた演算方法により演算する、ことを特徴とする並列演算装置である。 Further, according to the present invention, the unit includes a unique unit number storage unit in which the unique unit number is stored in advance, and a selection unit number extraction unit that extracts the selected unit number from control data input to the data input unit. And an input value extraction unit that extracts the input value from the control data input to the data input unit, and the unit number match determination unit includes the selected unit number extracted by the selected unit number extraction unit, Determining whether or not the unique unit number read from the unique unit number storage unit matches, and the unit calculation unit is predetermined for each unit based on the input value extracted by the input value extracting unit. It is a parallel operation device characterized by performing an operation by the calculated operation method.
また、この発明は、前記並列演算装置が階層型ニューラルネットワークを演算する並列演算装置である場合には、前記ユニット演算部が、前記階層型ニューラルネットワークの階層のうち、出力する層を識別する層情報が記憶されている層情報記憶部と、前記ユニットの出力関数と前記層情報とが関連付けて予め記憶されている関数記憶部と、前記層情報で識別される出力層のユニットからの出力値に乗ずる予め定められた結合荷重と、前記層情報とが関連付けて記憶されている重み記憶部と、前記出力ユニットからの入力値と結合荷重とを乗じた積和計算一次値情報が記憶される積和計算一次値記憶部と、前記ユニット制御部の選択に応じて、前記層情報記憶部から読み出した層情報に該当する結合荷重を前記重み記憶部から読み出し、該読み出した結合荷重と、前記データ入力部に入力された入力値とを乗算し、該乗算した値を前記積和計算一次値記憶部に記憶されている積和計算一次値情報に加算して記憶させる積和計算一次値算出部と、前記ユニット制御部の選択に応じて、前記積和計算一次値記憶部から積和計算一次値情報を読み出し、前記層情報記憶部から読み出した層情報に該当する出力関数を前記関数記憶部から読み出し、該読み出した出力関数に前記読み出した積和計算一次値情報を代入することにより出力値を算出し、該算出した出力値を前記ユニット出力記憶部に記憶させるユニット出力算出部と、を有することを特徴とする並列演算装置である。 In the present invention, in the case where the parallel arithmetic device is a parallel arithmetic device that calculates a hierarchical neural network, the unit arithmetic unit is a layer for identifying an output layer among the layers of the hierarchical neural network. An output value from the unit of the output layer identified by the layer information storage unit in which information is stored, the function storage unit in which the output function of the unit and the layer information are associated and stored in advance, and the layer information Is stored in association with a weight storage unit in which a predetermined combined load multiplied by the value and the layer information are stored in association with each other, and product sum calculation primary value information obtained by multiplying the input value from the output unit and the combined load. In response to the selection of the product-sum calculation primary value storage unit and the unit control unit, the combined load corresponding to the layer information read from the layer information storage unit is read from the weight storage unit, Multiplying the calculated combined weight by the input value input to the data input unit, and adding the multiplied value to the product-sum calculation primary value information stored in the product-sum calculation primary value storage unit. The product-sum calculation primary value calculation unit to be stored and the product-sum calculation primary value information are read from the product-sum calculation primary value storage unit according to the selection of the unit control unit, and the layer information read from the layer information storage unit is read A corresponding output function is read from the function storage unit, an output value is calculated by substituting the read product-sum calculation primary value information into the read output function, and the calculated output value is stored in the unit output storage unit. And a unit output calculation unit to be stored.
この発明によれば、並列演算装置を階層型ニューラルネットワークに適応可能となる効果を奏する。 According to the present invention, the parallel computing device can be adapted to the hierarchical neural network.
また、この発明は、前記ユニット演算部が、前記出力層に属しているユニットのうち、いずれのユニットが出力ユニットとして出力しているかを示す配信ユニット識別情報が記憶されている前段ユニット番号記憶部、を有し、前記重み記憶部には、前記層情報と前記配信ユニット識別情報とで識別される前記出力層のユニットからの出力値に乗ずる予め定められた結合荷重と、前記層情報と前記配信ユニット識別情報とが、関連付けて記憶されており、前記積和計算一次値算出部が、前記前段ユニット番号記憶部から読み出した配信ユニット識別情報と前記層情報記憶部から読み出した層情報とに該当する結合荷重を前記重み記憶部から読み出し、該読み出した結合荷重と、前記データ入力部に入力された入力値とを乗算し、該乗算した値を前記積和計算一次値記憶部に記憶されている積和計算一次値情報に加算して記憶させる、ことを特徴とする並列演算装置である。 Further, the present invention provides a preceding unit number storage unit in which distribution unit identification information indicating which unit outputs as an output unit among the units belonging to the output layer is stored in the unit arithmetic unit. The weight storage unit includes a predetermined combined load multiplied by an output value from the unit of the output layer identified by the layer information and the distribution unit identification information, the layer information, and the layer information. Distribution unit identification information is stored in association with each other, and the product-sum calculation primary value calculation unit includes the distribution unit identification information read from the preceding unit number storage unit and the layer information read from the layer information storage unit. The corresponding connection weight is read from the weight storage unit, the read connection weight is multiplied by the input value input to the data input unit, and the multiplied value is obtained. Was added to the miracle sum calculation primary value product-sum calculating primary value information stored in the storage unit is stored, it is a parallel arithmetic apparatus according to claim.
この発明によれば、複数の層からなっており層間が複数のノードにより結合している階層型ニューラルネットワークの演算が可能となる効果を奏する。 According to the present invention, it is possible to perform an operation of a hierarchical neural network which is composed of a plurality of layers and in which the layers are connected by a plurality of nodes.
また、この発明は、前記データ入力部に入力された制御データに含まれる制御コードが、積和計算一次値を初期化することを示す場合には、前記ユニット制御部が、前記積和計算一次値記憶部に記憶されている積和計算一次値情報を0に初期化する、ことを特徴とする並列演算装置である。 Further, according to the present invention, when the control code included in the control data input to the data input unit indicates that the product-sum calculation primary value is initialized, the unit control unit performs the product-sum calculation primary value. A parallel arithmetic unit that initializes product-sum calculation primary value information stored in a value storage unit to zero.
また、この発明は、前記データ入力部に入力された制御データに含まれる制御コードが、積和計算一次値を算出し加算格納することを示し、該制御データが出力値と該出力値を出力しているユニットのユニット識別情報である配信ユニット識別情報とを含む場合には、前記ユニット制御部が、前記配信ユニット識別情報を前記前段ユニット番号記憶部に記憶し、前記出力値に基づいて前記積和計算一次値算出部の処理を実行させる、ことを特徴とする並列演算装置である。 The present invention also shows that the control code included in the control data input to the data input unit calculates and stores the product-sum calculation primary value, and the control data outputs the output value and the output value. The unit control unit stores the distribution unit identification information in the previous unit number storage unit, and based on the output value, A parallel arithmetic apparatus that performs processing of a product-sum calculation primary value calculation unit.
また、この発明は、前記データ入力部に入力された制御データに含まれる制御コードがユニット出力演算を実行することを示す場合には、前記ユニット制御部が、前記ユニット出力算出部の処理を実行させる、ことを特徴とする並列演算装置である。 In the present invention, when the control code included in the control data input to the data input unit indicates that the unit output calculation is executed, the unit control unit executes the process of the unit output calculation unit. It is a parallel arithmetic device characterized by the above.
また、この発明は、前記データ入力部に入力された制御データに含まれる制御コードがアクティブなユニットとして出力値を出力することを示し、該制御データが選択ユニット番号を含む場合には、前記ユニット制御部が、前記ユニット番号一致判定部が判定した結果が一致である場合には、前記演算結果を前記ユニット出力記憶部から読み出し、該読み出した演算結果を前記出力値として前記分配制御部に前記データ出力部と前記ユニット出力バスとを介して出力する、ことを特徴とする並列演算装置である。 Further, the present invention indicates that the control code included in the control data input to the data input unit outputs an output value as an active unit, and when the control data includes a selected unit number, When the result determined by the unit number match determination unit is coincident, the control unit reads the calculation result from the unit output storage unit, and the read calculation result is used as the output value to the distribution control unit. It is a parallel operation device characterized in that it outputs via a data output unit and the unit output bus.
また、この発明は、前記データ入力部に入力された制御データが配信層情報を含む場合には、前記ユニット制御部が、前記データ入力部に入力された制御データに含められた配信層情報を前記層情報記憶部に記憶する、ことを特徴とする並列演算装置である。 Further, according to the present invention, when the control data input to the data input unit includes distribution layer information, the unit control unit displays the distribution layer information included in the control data input to the data input unit. The parallel processing device stores the information in the layer information storage unit.
また、この発明は、前記分配制御部が、前記積和計算一次値を初期化することを示す制御コード、前記出力値と前記配信ユニット識別情報とを含み、前記積和計算一次値を算出し加算格納することを示す制御コード、前記ユニット出力演算を実行することを示す制御コード、前記アクティブなユニットとして出力値を出力することを示す制御コード、または、前記配信層情報を含む制御データを含む制御データを、前記階層型ニューラルネットワークの階層数と該階層のノード数とに合わせて予め定められた順序で出力する、ことを特徴とする並列演算装置である。 Further, the present invention includes a control code indicating that the distribution control unit initializes the product-sum calculation primary value, the output value, and the distribution unit identification information, and calculates the product-sum calculation primary value. Including a control code indicating addition storage, a control code indicating execution of the unit output calculation, a control code indicating output of an output value as the active unit, or control data including the distribution layer information The parallel processing device is characterized in that the control data is output in a predetermined order according to the number of layers of the hierarchical neural network and the number of nodes of the layer.
また、この発明は、前記並列演算装置が自己組織化マップを演算する並列演算装置である場合には、前記固有ユニット番号にかわってユニット固有のネットワーク座標であるユニットネットワーク座標により前記複数のユニットのそれぞれが識別されており、前記ユニット演算部が、前記ユニットネットワーク座標が予め記憶されているユニットネットワーク座標記憶部と、前記ユニットの結合重みベクトルが記憶されている重み記憶部と、前記ユニットのノルムであるユニットノルムを記憶するユニットノルム記憶部と、ノルムを算出することを示す制御コードと入力ベクトルとを含む制御データを前記ユニット制御部から前記データ入力部に入力した場合には、前記データ入力部に入力された入力データベクトルと、前記重み記憶部から読み出した結合重みベクトルとのノルムを算出し、該算出したノルムを前記ユニットノルムとして前記ユニットノルム記憶部に記憶させるノルム算出部と、を有し、ノルムを出力することを示す制御コードと入力ネットワーク座標とを含む制御データを前記ユニット制御部から前記データ入力部に入力した場合には、前記ユニット制御部が、該入力された入力ネットワーク座標と前記ユニットネットワーク座標記憶部から読み出したユニットネットワーク座標とが一致する場合には、前記ユニットノルム記憶部から読み出したユニットノルムを前記データ出力部を介して出力する、ことを特徴とする並列演算装置である。 Further, according to the present invention, when the parallel processing device is a parallel processing device that calculates a self-organizing map, the unit network coordinates that are unit-specific network coordinates instead of the unique unit numbers are used to identify the plurality of units. Each unit has been identified, the unit calculation unit includes a unit network coordinate storage unit in which the unit network coordinates are stored in advance, a weight storage unit in which coupling weight vectors of the units are stored, and a norm of the unit A unit norm storage unit that stores the unit norm, and control data including a control code indicating that the norm is calculated and an input vector are input from the unit control unit to the data input unit, the data input Input data vector input to the unit and the weight storage unit A norm calculation unit that calculates a norm with the extracted connection weight vector and stores the calculated norm as the unit norm in the unit norm storage unit, and a control code indicating that the norm is output and an input When control data including network coordinates is input from the unit control unit to the data input unit, the unit control unit reads the input network coordinates and the unit network coordinates read from the unit network coordinate storage unit. Is a unit that reads out the unit norm read from the unit norm storage unit via the data output unit.
この発明によれば、並列演算装置が自己組織化マップを演算することが可能となる効果を奏する。 According to the present invention, there is an effect that the parallel computing device can compute the self-organizing map.
また、この発明は、前記データ入力部に入力された制御データに含まれる制御コードが重みを設定することを示し、入力ネットワーク座標と入力結合重みベクトルとを含んでいる場合には、前記ユニット制御部が、入力ネットワーク座標記憶部に記憶されている入力ネットワーク座標の値を、受信した制御データに含まれる入力ネットワーク座標に更新し、前記ユニット番号一致判定部が、該更新した入力ネットワーク座標とユニットネットワーク座標記憶部から読み出したユニットネットワーク座標とが一致するか否かを判定し、前記ユニット番号一致判定部の判定結果が一致する場合には、前記ユニット制御部が、重み記憶部に記憶されている結合重みベクトルを、受信した制御データに含まれる入力結合重みベクトルに更新する、ことを特徴とする並列演算装置である。 Further, the present invention shows that the control code included in the control data input to the data input unit sets a weight, and the unit control when the input network coordinates and the input coupling weight vector are included. The unit updates the value of the input network coordinate stored in the input network coordinate storage unit to the input network coordinate included in the received control data, and the unit number match determination unit determines that the updated input network coordinate and unit It is determined whether or not the unit network coordinates read from the network coordinate storage unit match, and if the determination result of the unit number match determination unit matches, the unit control unit is stored in the weight storage unit Updating the existing connection weight vector to the input connection weight vector included in the received control data. A parallel operation and wherein.
また、この発明は、前記データ入力部に入力された制御データに含まれる制御コードが学習速度と近傍距離とを設定することを示し、入力学習速度と入力近傍距離とを含んでいる場合には、前記ユニット制御部が、学習速度記憶部に記憶されている学習速度を受信した制御データに含まれる入力学習速度に更新するとともに、距離記憶部に記憶されている基準距離を受信した制御データに含まれる入力近傍距離に更新する、ことを特徴とする並列演算装置である。 Further, the present invention indicates that the control code included in the control data input to the data input unit sets the learning speed and the proximity distance, and includes the input learning speed and the input proximity distance. The unit control unit updates the learning speed stored in the learning speed storage unit to the input learning speed included in the received control data, and converts the reference distance stored in the distance storage unit into the control data received. The parallel computing device is characterized by updating to the included input neighborhood distance.
また、この発明は、前記データ入力部に入力された制御データに含まれる制御コードが実数ベクトルの次元数を設定すること示し、入力次元数Nを含んでいる場合には、前記ユニット制御部が、実数ベクトル次元数記憶部に記憶されている次元数を受信した制御データに含まれる入力次元数に更新する、ことを特徴とする並列演算装置である。 Further, the present invention shows that the control code included in the control data input to the data input unit sets the number of dimensions of the real vector, and when the input dimension number N is included, the unit control unit The parallel arithmetic device is characterized in that the number of dimensions stored in the real vector dimension number storage unit is updated to the number of input dimensions included in the received control data.
また、この発明は、前記データ入力部に入力された制御データに含まれる制御コードがノルムを算出することを示し、入力ベクトルを含んでいる場合には、前記ユニット制御部が、入力データ記憶部に記憶されている入力データベクトルを入力ベクトルに更新し、前記ノルム算出部が、該更新した入力ベクトルと重み記憶部から読み出した結合重みベクトルとのノルムを算出し、該算出したノルムをユニットノルムとしてユニットノルム記憶部に記憶させる、ことを特徴とする並列演算装置である。 Further, the present invention indicates that the control code included in the control data input to the data input unit calculates a norm, and when the input code includes an input vector, the unit control unit includes an input data storage unit The norm calculation unit calculates a norm between the updated input vector and the combined weight vector read from the weight storage unit, and the calculated norm is a unit norm. Is stored in the unit norm storage unit.
また、この発明は、前記データ入力部に入力された制御データに含まれる制御コードがノルムを出力することを示し、入力ネットワーク座標を含んでいる場合には前記ユニット制御部が、入力ネットワーク座標記憶部に記憶されている入力ネットワーク座標の値を、受信した制御データに含まれる入力ネットワーク座標に更新し、前記ユニット番号一致判定部が、該更新した入力ネットワーク座標とユニットネットワーク座標記憶部から読み出したユニットネットワーク座標とが一致するか否かを判定し、前記ユニット番号一致判定部の判定結果が一致する場合には、前記ユニット制御部が、前記ユニットノルム記憶部から読み出したユニットノルムを前記データ出力部と前記ユニット出力バスとを介して前記分配制御部に出力する、ことを特徴とする並列演算装置である。 Further, the present invention indicates that the control code included in the control data input to the data input unit outputs a norm, and if the control code includes input network coordinates, the unit control unit stores the input network coordinate The value of the input network coordinates stored in the unit is updated to the input network coordinates included in the received control data, and the unit number match determination unit reads out the updated input network coordinates and the unit network coordinate storage unit. It is determined whether or not the unit network coordinates match, and if the determination result of the unit number match determination unit matches, the unit control unit outputs the unit norm read from the unit norm storage unit as the data output Output to the distribution control unit via the unit and the unit output bus. A parallel operation apparatus according to symptoms.
また、この発明は、前記データ入力部に入力された制御データに含まれる制御コードが学習することを示し、入力ネットワーク座標を含んでいる場合には、前記ユニット制御部が、前記入力ネットワーク座標記憶部に記憶されている入力ネットワーク座標を、前記制御データに含まれていた入力ネットワーク座標に更新し、前記演算部が、前記データ入力部に入力された制御データに含まれる制御コードが学習することを示す場合には、前記ユニットネットワーク座標記憶部から読み出したユニットネットワーク座標と前記入力ネットワーク座標記憶部から読み出した入力ネットワーク座標との間の距離を算出し、該算出した距離が、前記距離記憶部から読み出した距離以下であるか否かを判定することにより、ユニットネットワーク座標記憶部から読み出したユニットネットワーク座標が、入力ネットワーク座標記憶部から読み出した入力ネットワーク座標の近傍にあるか否かを判定する近傍判定部と、前記近傍判定部の判定した結果が近傍である場合には、前記入力データ記憶部から読み出した入力データベクトルと前記重み記憶部から読み出した結合重みベクトルとの差を算出し、該算出した差に前記学習速度記憶部から読み出した学習速度係数を乗じた値を、重み記憶部に記憶されている結合重みベクトルに加算し、重み記憶部に記憶されている結合重みベクトルを更新する重み更新部と、を有することを特徴とする並列演算装置である。 Further, the present invention indicates that the control code included in the control data input to the data input unit is learned, and when the input network coordinate is included, the unit control unit stores the input network coordinate storage The input network coordinates stored in the unit are updated to the input network coordinates included in the control data, and the arithmetic unit learns the control code included in the control data input to the data input unit. , The distance between the unit network coordinates read from the unit network coordinate storage unit and the input network coordinates read from the input network coordinate storage unit is calculated, and the calculated distance is the distance storage unit By determining whether the distance is less than or equal to the distance read from the unit network coordinates When the unit network coordinates read from the unit are in the vicinity of the input network coordinates read out from the input network coordinate storage unit, and the determination result of the proximity determination unit is near A value obtained by calculating the difference between the input data vector read from the input data storage unit and the combined weight vector read from the weight storage unit, and multiplying the calculated difference by the learning speed coefficient read from the learning speed storage unit Is added to the connection weight vector stored in the weight storage unit, and the weight update unit updates the connection weight vector stored in the weight storage unit.
また、この発明は、前記データ入力部に入力された制御データに含まれる制御コードが学習結果を出力することを示し、入力ネットワーク座標を含んでいる場合には、前記ユニット制御部が、前記入力ネットワーク座標記憶部に記憶されている入力ネットワーク座標の値を、受信した制御データに含まれる入力ネットワーク座標に更新し、前記ユニット番号一致判定部が、該更新した入力ネットワーク座標と前記ユニットネットワーク座標記憶部から読み出したユニットネットワーク座標とが一致するか否かを判定し、前記ユニット番号一致判定部の判定結果が一致する場合には、前記ユニット制御部が、前記重み記憶部から読み出した結合重みベクトルを、データ出力部と前記ユニット出力バスとを介して前記分配制御部に出力する、ことを特徴とする並列演算装置である。 Further, the present invention indicates that the control code included in the control data input to the data input unit outputs a learning result, and when the input network coordinates are included, the unit control unit The value of the input network coordinate stored in the network coordinate storage unit is updated to the input network coordinate included in the received control data, and the unit number coincidence determination unit stores the updated input network coordinate and the unit network coordinate It is determined whether or not the unit network coordinates read from the unit match, and if the determination results of the unit number match determination unit match, the unit control unit reads the combined weight vector read from the weight storage unit Is output to the distribution control unit via the data output unit and the unit output bus. A parallel operation and wherein.
また、この発明は、前記分配制御部が、前記重みを設定することを示す制御コード、前記学習速度と近傍距離とを設定することを示す制御コード、実数ベクトルの次元数を設定すること示す制御コード、ノルムを算出することを示す制御コード、ノルムを出力することを示す制御コード、学習することを示す制御コード、または、学習結果を出力することを示す制御コードを含む制御データを、前記複数のユニットの数および学習回数に合わせて予め定められた順序で出力する、ことを特徴とする並列演算装置である。 Also, the present invention provides a control code for setting the weight, a control code for setting the learning speed and a neighborhood distance, and a control for setting the number of dimensions of a real vector. A plurality of control data including a code, a control code indicating calculating a norm, a control code indicating outputting a norm, a control code indicating learning, or a control code indicating outputting a learning result The parallel processing device is characterized in that it outputs in a predetermined order according to the number of units and the number of learnings.
また、この発明は、前記複数のユニットと前記分配制御部とを接続する前記ユニット出力バスとユニット出力バスとが、互いに接続可能な第1の接続部と第2の接続部とにより分離し、前記複数のユニットと前記第1の接続部とを含む第1の装置とし、前記分配制御部と前記第2の接続部とを含む第2の装置とする、ことを特徴とする並列演算装置である。 Further, according to the present invention, the unit output bus and the unit output bus that connect the plurality of units and the distribution control unit are separated by a first connection unit and a second connection unit that can be connected to each other, A parallel arithmetic device characterized in that the first device includes the plurality of units and the first connection unit, and the second device includes the distribution control unit and the second connection unit. is there.
また、この発明は、予め定められた識別番号である固有ユニット番号によりそれぞれが識別される複数のユニットと、前記複数のユニットの中のいずれか1つのユニットが出力する出力値がユニット出力バスを介して入力されたことに応じて、該入力された入力値と前記複数のユニットの中から選択したいずれか1つのユニットを選択する識別番号である選択ユニット番号とを含む制御データを、前記複数のユニットのそれぞれにユニット入力バスを介して出力する分配制御部と、を有する並列演算装置で用いられる並列演算であって、前記ユニットが、前記ユニット入力バスを介して前記分配制御部からの制御データを入力し、前記データ入力部に入力された制御データに含まれる選択ユニット番号と、前記固有ユニット番号とが一致するか否かを判定し、前記入力された制御データに含まれる入力値に基づいて、前記ユニット毎に予め定められた演算方法により演算し、前記判定した結果が一致である場合には、前記演算した結果である演算結果を前記出力値として、前記分配制御部に前記ユニット出力バスを介して出力する、ことを特徴とする並列演算方法である。 In addition, according to the present invention, a plurality of units each identified by a unique unit number, which is a predetermined identification number, and an output value output from any one of the plurality of units are transmitted to the unit output bus. Control data including the inputted input value and a selection unit number which is an identification number for selecting any one unit selected from the plurality of units in response to being inputted through the plurality of units. And a distribution control unit that outputs to each of the units via a unit input bus, wherein the unit is controlled by the distribution control unit via the unit input bus. When data is input, the selected unit number included in the control data input to the data input unit matches the unique unit number. Whether or not is calculated by a predetermined calculation method for each unit based on the input value included in the input control data. If the determined result is coincident, the calculation is performed. The parallel calculation method is characterized in that a calculation result as a result is output as the output value to the distribution control unit via the unit output bus.
<第1の基本構成>
以下、図面を参照して、本発明の実施の形態について説明する。図1は、この発明の一実施形態による並列演算装置の構成(第1の基本構成)を示す概略ブロック図である。ここでは、ユニットU1からU10の、ユニットの個数が10である場合について説明する。なお、このユニットの詳細については、後述する。
<First basic configuration>
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic block diagram showing a configuration (first basic configuration) of a parallel arithmetic device according to an embodiment of the present invention. Here, a case where the number of units U1 to U10 is ten will be described. Details of this unit will be described later.
複数のユニットU1からU10は、予め定められた順序であるデイジーチェーン順序で、デイジーチェーン制御バス1を介してデイジーチェーンされている。ここでは、このデイジーチェーン順序は、ユニットU1、ユニットU2、ユニットU3、・・・ユニットU10の順と、予め定められているものとして説明する。また、デイジーチェーン制御バス1は、デイジーチェーン順序で隣接するユニット同士を接続している。例えば、デイジーチェーン制御バス1は、ユニットU1とユニットU2、ユニットU2とユニットU3、・・・ユニットU10とユニットU1、を接続している。また、このデイジーチェーン制御バス1は、ユニットU1からU10をデイジーチェーン順序で循環的に接続している。そのため、ユニットU10とユニットU1とも、デイジーチェーン制御バス1を介して接続されている。
The plurality of units U1 to U10 are daisy chained via the daisy
ユニットU1からU10のそれぞれのユニットは、トークンをデイジーチェーン順序で、デイジーチェーン制御バス1を介してユニット間で送受信している。このトークンは、デイジーチェーンされたユニットU1からU10の、いずれかの1つのユニットが有しており、このトークンを有しているユニットが、出力ユニットとなることを示す信号である。ユニットは、トークンを有しているユニットのみが出力ユニットとなり、また、全てのユニットが入力ユニットとなる。
Each of the units U1 to U10 transmits and receives tokens between the units via the daisy
この各ユニットは、ユニット出力バス2を介して入力される増幅器4からの入力値に基づいて、ユニット毎に予め定められた演算方法により演算する。また、各ユニットは、トークンがデイジーチェーン順序で前のユニットからデイジーチェーン制御バス1を介して入力されたことに応じて、トークンをデイジーチェーン順序で次のユニットにデイジーチェーン制御バス1を介して出力すると共に、演算した結果を出力値として増幅器4にユニット出力バス2を介して出力する。
Each unit performs an operation by a predetermined operation method for each unit based on an input value from the
増幅器(中継器)4は、複数のユニットU1からU10の内のいずれか1つが出力する出力値がユニット出力バス2を介して入力され、入力された出力値を複数のユニットU1からU10のそれぞれに、ユニット入力バス3を介して入力値として出力する。また、増幅器4は、入力された出力値の信号を、電気的に増幅して、入力値として出力する。
The amplifier (repeater) 4 receives an output value output from any one of the plurality of units U1 to U10 via the
また、ユニット出力バス2の一端が、並列演算装置の出力端子P1に接続されている。また、増幅器4の入力端子に、並列演算装置の入力端子P2に接続されている。また、ユニットU1は、トリガ入力線5を介して、トリガ入力端子P3と、接続されている。また、出力端子P1、入力端子P2、トリガ入力端子P3は、並列演算装置の外部にある制御装置に接続されている。制御装置は、出力端子P1、入力端子P2、トリガ入力端子P3を介して、並列演算装置にデータを入力し、並列演算装置から演算結果を取得し、また、並列演算装置を制御する。
One end of the
次に、図2を用いて、各ユニットの構成について説明する。なお、ユニットU1からU10は同一の構成を有するため、ここでは、ユニットU2の構成のみについて説明する。ユニットU2は、トークン入力部12と、トークン出力部13と、データ入力部11と、データ出力部14と、ユニット演算部15と、ユニット出力記憶部16と、を有する。
Next, the configuration of each unit will be described with reference to FIG. Since units U1 to U10 have the same configuration, only the configuration of unit U2 will be described here. The unit U2 includes a
トークン入力部12は、デイジーチェーン制御バス1を介してデイジーチェーンされている順序が1つ前のユニットからのトークンを入力する。例えば、ユニットU2のトークン入力部12は、デイジーチェーン制御バス1を介してデイジーチェーンされている順序が1つ前のユニットであるユニットU1からのトークンを入力する。なお、ユニットU1のトークン入力部12は、ユニットU10からのトークンがトークンデイジーチェーン制御バス1を介して入力されるだけでなく、制御装置からのトークンがトリガ入力端子P3とトリガ入力線5とを介して入力される。
The
トークン出力部13は、トークン入力部にトークンが入力されたことに応じて、トークンをデイジーチェーンされている順序が1つ後のユニットへデイジーチェーン制御バス1を介して出力する。例えば、ユニットU2のトークン出力部13は、デイジーチェーン制御バス1を介してデイジーチェーンされている順序が1つ後のユニットであるユニットU3へトークンを出力する。
The
データ入力部11は、ユニット出力バス2を介して増幅器4からの入力値を入力する。ユニット出力記憶部16は、ユニット演算部15が演算した結果である演算結果が記憶される。ユニット演算部15は、データ入力部11に入力された入力値に基づいて、ユニット毎に予め定められた演算方法により演算する。また、ユニット演算部15は、演算した結果である演算結果を、ユニット出力記憶部16に記憶させる。
The
データ出力部14は、トークン入力部12にトークンが入力されたことに応じて、ユニット演算部15が演算した結果である演算結果を出力値として、増幅器4にユニット出力バス2を介して出力する。また、データ出力部14は、トークン入力部12にトークンが入力されたことに応じて、ユニット出力記憶部16から演算結果を読み出し、読み出した演算結果を出力値として、増幅器4にユニット出力バス2を介して出力する。
The
なお、後述するように、並列演算装置が、トリガであるトークンをユニットU1にトリガ入力端子P3を介して入力し、ユニットU1から順にトークンがユニット間で順次渡されていくことにより、並列演算装置の各ユニットでの処理が実行される。この並列演算装置の動作については、次に説明する並列演算装置を階層型ニューラルネットワークに適応した場合を例にして説明する。 As will be described later, the parallel arithmetic device inputs a token that is a trigger to the unit U1 via the trigger input terminal P3, and the tokens are sequentially passed between the units in order from the unit U1, thereby the parallel arithmetic device. The processing in each unit is executed. The operation of the parallel arithmetic device will be described by taking as an example a case where the parallel arithmetic device described below is applied to a hierarchical neural network.
<第1の実施形態>
<階層型ニューラルネットワークに適応した場合のユニットの構成>
次に、並列演算装置を、階層型ニューラルネットワークに適応した場合の構成について説明する。階層型ニューラルネットワークにおいても並列演算装置全体の構成は、図1の並列演算装置の構成と同一であり、ユニットの構成のみが異なる。従って、図3を用いて、階層型ニューラルネットワークに適応した場合のユニットの構成を説明する。
<First Embodiment>
<Unit configuration when applied to hierarchical neural network>
Next, a configuration when the parallel arithmetic device is applied to a hierarchical neural network will be described. Also in the hierarchical neural network, the configuration of the entire parallel arithmetic device is the same as that of the parallel arithmetic device in FIG. 1, and only the configuration of the unit is different. Therefore, the configuration of the unit when applied to the hierarchical neural network will be described with reference to FIG.
ユニットは、データ入力部101と、トークン入力部102と、トークン出力部103と、データ出力部104とを有する。また、ユニットは、重み記憶部130と、層情報記憶部133と、ユニット数記憶部134と、積和計算一次値記憶部131と、関数記憶部132と、ユニット出力記憶部135と、データ出力フラグ記憶部136と、ユニット識別情報記憶部137とを有する。また、ユニットは、カウンタ114と、積和計算一次値算出部111と、層情報算出部113と、ユニット出力算出部112とを有する。
The unit includes a
ここで、図3のデータ入力部101、トークン入力部102、トークン出力部103、データ出力部104は、図2のデータ入力部11、トークン入力部12、トークン出力部13、データ出力部14に、それぞれ対応する。また、図3のユニット出力記憶部135が、図2のユニット出力記憶部16に対応する。これらの図2と図3とにおいて対応する構成について、共通の機能については、その説明を省略する。
Here, the
また、図3の重み記憶部130と、層情報記憶部133と、ユニット数記憶部134と、積和計算一次値記憶部131と、関数記憶部132と、データ出力フラグ記憶部136と、ユニット識別情報記憶部137と、カウンタ114と、積和計算一次値算出部111と、層情報算出部113と、ユニット出力算出部112とが、図2のユニット演算部15に対応する。
Also, the
層情報記憶部133には、階層型ニューラルネットワークの階層のうち、アクティブな層(出力層)を識別する層情報が記憶されている。ユニット識別情報記憶部137には、アクティブな層に属しているユニットのうち、いずれのユニットが出力しているかを示すユニット識別情報が記憶されている。関数記憶部132には、ユニットの出力関数と層情報とが関連付けて予め記憶されている。この出力関数とは、例えば、シグモイド関数、ステップ関数、区分線形関数などの、予め定められた関数である。
The layer
重み記憶部130には、層情報で識別されるアクティブな層のユニットからの出力値に乗ずる予め定められた結合荷重と、層情報とが関連付けて記憶されている。また、重み記憶部130には、層情報とユニット識別情報とで識別される層のユニットからの出力値に乗ずる予め定められた結合荷重と、層情報とユニット識別情報とが、関連付けて記憶されている。
In the
ユニット数記憶部134には、層情報と層情報で識別される階層に属する階層型ニューラルネットワークのユニット数とが関連付けて予め記憶されている。積和計算一次値記憶部131には、前段ユニットに相当するユニットからの入力値と結合荷重とを乗じた積和計算一次値情報が記憶される。データ出力フラグ記憶部136には、データ出力部104が出力値を出力済みであるか否かを示すデータ出力フラグが記憶されている。カウンタ114は、データ入力部101に入力値が入力される毎に、ユニット識別情報記憶部137に記憶されているユニット識別情報の値をインクリメントする。
In the unit
ユニット数比較部115は、層情報記憶部133から層情報を読み出し、読み出した層情報に該当するユニット数をユニット数記憶部134から読み出し、ユニット識別情報記憶部137からユニット識別情報を読み出し、読み出したユニット識別情報の値と読み出したユニット数とを比較し、比較した結果が一致した場合に、読み出したユニット識別情報の値と読み出したユニット数とが一致したことを示す比較一致信号を出力する。また、ユニット数比較部115は、読み出したユニット識別情報の値と読み出したユニット数とを比較し、比較した結果が一致した場合に、ユニット識別情報記憶部137に記憶されているユニット識別情報の値をリセットする。
The unit
積和計算一次値算出部111は、層情報記憶部133から読み出した層情報に該当する結合荷重を重み記憶部130から読み出し、読み出した結合荷重と、データ入力部101に入力された入力値とを乗算し、乗算した値を積和計算一次値記憶部131に記憶されている積和計算一次値情報に加算して記憶させる。
The product-sum calculation primary
また、積和計算一次値算出部111は、ユニット識別情報記憶部137から読み出したユニット識別情報と層情報記憶部133から読み出した層情報とに該当する結合荷重を重み記憶部130から読み出し、読み出した結合荷重と、データ入力部101に入力された入力値とを乗算し、乗算した値を積和計算一次値記憶部131に記憶されている積和計算一次値情報に加算して記憶させる。
Further, the product-sum calculation primary
ユニット出力算出部112は、積和計算一次値記憶部131から積和計算一次値情報を読み出し、層情報記憶部133から読み出した層情報に該当する出力関数を関数記憶部132から読み出し、読み出した出力関数に読み出した積和計算一次値情報を代入することにより出力値を算出し、算出した出力値をユニット出力記憶部135に記憶させる。
The unit
また、ユニット出力算出部112は、ユニット数比較部115から比較一致信号を入力されたことに応じて、積和計算一次値記憶部131から積和計算一次値情報を読み出し、層情報記憶部133から読み出した層情報に該当する出力関数を関数記憶部132から読み出し、読み出した出力関数に読み出した積和計算一次値情報を代入することにより出力値を算出し、算出した出力値をユニット出力記憶部135に記憶させる。
また、ユニット出力算出部112は、積和計算一次値記憶部131から積和計算一次値情報を読み出した後、積和計算一次値記憶部131に記憶されている積和計算一次値情報の値を0にリセットする。
Further, the unit
The unit
層情報算出部113は、ユニット数比較部115から比較一致信号を入力されたことに応じて、層情報記憶部133に記憶されている層情報の値をインクリメントする。データ出力部104は、トークン入力部102にトークンが入力されたことに応じて、データ出力フラグ記憶部136のデータ出力フラグを出力済みに設定する。
The layer
トークン出力部103は、データ入力部101に入力値が入力されたことに応じて、データ出力フラグ記憶部136からデータ出力フラグを読み出し、該読み出したデータ出力フラグが出力済みに設定されている場合には、トークンを出力する(トークン出力手順)。また、トークン出力部103は、トークンを出力すると共に、データ出力フラグ記憶部136のデータ出力フラグを未出力に設定する。
The
なお、トークン出力部103は、データ入力部101に入力値が入力されたことに応じて、データ出力フラグ記憶部136からデータ出力フラグを読み出し、読み出したデータ出力フラグが出力済みに設定されている場合には、トークンを出力するという上記トークン出力手順の代わりに、積和計算一次値算出部111にデータ入力部101からの入力値が入力されたことに応じて、データ出力フラグ記憶部136からデータ出力フラグを読み出し、該読み出したデータ出力フラグが出力済みに設定されている場合には、トークンを出力してもよい。
The
<階層型ニューラルネットワークに適応した場合のユニットの動作>
次に、図4と図5とを用いて、図3の階層型ニューラルネットワークに適応した場合のユニットの動作について説明する。まず、図4を用いて、ユニットに入力値が入力された場合の動作について説明する。
<Unit operation when applied to hierarchical neural network>
Next, the operation of the unit when applied to the hierarchical neural network of FIG. 3 will be described using FIG. 4 and FIG. First, the operation when an input value is input to the unit will be described with reference to FIG.
まず、データ入力部101に、増幅器4からユニット入力バス3を介して入力値が入力される(ステップS100)。次に、ステップS100で、データ入力部101に入力値が入力されたことに応じて、カウンタ114がユニット識別情報記憶部137に記憶されているユニット識別情報の値を、1つインクリメントする(ステップS101)。
First, an input value is input from the
また、ステップS100で、データ入力部101に入力値が入力されたことに応じて、積和計算一次値算出部111が、ユニット識別情報記憶部137から読み出したユニット識別情報と層情報記憶部133から読み出した層情報とに該当する結合荷重を重み記憶部130から読み出し、読み出した結合荷重と、データ入力部101に入力された入力値とを乗算し、乗算した値を積和計算一次値記憶部131に記憶されている積和計算一次値情報に加算して記憶させる。
In addition, in step S100, in response to the input value being input to the
次に、ユニット数比較部115が、層情報記憶部133から層情報を読み出し、読み出した層情報に該当するユニット数をユニット数記憶部134から読み出し、ユニット識別情報記憶部137からユニット識別情報を読み出し、読み出したユニット識別情報の値と読み出したユニット数とを比較し、比較した結果が一致した場合に、読み出したユニット識別情報の値と読み出したユニット数とが一致したことを示す比較一致信号を出力する(ステップS103)。また、このユニット数比較部115が、読み出したユニット識別情報の値と読み出したユニット数とを比較し、比較した結果が一致した場合に、ユニット識別情報記憶部137に記憶されているユニット識別情報の値をリセットする。
Next, the unit
次に、ステップS103にて比較した結果が一致した場合には、層情報算出部113が、ユニット数比較部115から比較一致信号を入力されたことに応じて、層情報記憶部133に記憶されている層情報の値をインクリメントする(ステップS104)。
Next, when the comparison results in step S103 match, the layer
次に、ステップS103にて比較した結果が一致した場合には、ユニット出力算出部112は、ユニット数比較部115から比較一致信号を入力されたことに応じて、積和計算一次値記憶部131から積和計算一次値情報を読み出し、層情報記憶部133から読み出した層情報に該当する出力関数を関数記憶部132から読み出し、読み出した出力関数に読み出した積和計算一次値情報を代入することにより出力値を算出し、算出した出力値をユニット出力記憶部135に記憶させる(ステップS105)。次に、このユニット出力算出部112は、積和計算一次値記憶部131から積和計算一次値情報を読み出した後、積和計算一次値記憶部131に記憶されている積和計算一次値情報の値を0にリセットする。
Next, when the comparison results in step S103 match, the unit
次に、または、ステップS103にて比較した結果が不一致であった場合には、トークン出力部103が、ステップS100にてデータ入力部101に入力値が入力されたことに応じて、データ出力フラグ記憶部136からデータ出力フラグを読み出し、該読み出したデータ出力フラグが出力済みであるか否かを検出し(ステップS106)、データ出力フラグが出力済みに設定されている場合には、トークンを出力する(ステップS107)。
Next, or when the result of comparison in step S103 is inconsistent, the
また、トークン出力部103は、ステップS107にてトークンを出力すると共に、データ出力フラグ記憶部136のデータ出力フラグを未出力に設定し(ステップS108)、処理を終了する。一方、ステップS106にてデータ出力フラグが未出力に設定されている場合には、トークン出力部103は、処理を終了する。
In addition, the
次に、図5を用いて、ユニットにトークンが入力された場合の動作について説明する。まず、トークン入力部102に、デイジーチェーン制御バス1を介してデイジーチェーンされている順序が1つ前のユニットからのトークンが入力される(ステップS200)。
Next, the operation when a token is input to the unit will be described with reference to FIG. First, tokens from the unit in the previous order in the daisy chain via the daisy
次に、データ出力部104は、トークン入力部102にトークンが入力されたことに応じて、ユニット出力記憶部135から出力値(演算結果)を読み出し、読み出した出力値(演算結果)を出力値として、増幅器4にユニット出力バス2を介して出力する(ステップS201)。次に、データ出力部104は、トークン入力部102にトークンが入力されたことに応じて、データ出力フラグ記憶部136のデータ出力フラグを出力済みに設定して(ステップS202)、処理を終了する。
Next, the
<階層型ニューラルネットワークの全体の構成>
次に、本実施形態による階層型ニューラルネットワークの全体の構成について、説明する。
ここでは、図6に示すように、階層型ニューラルネットワークとして、入力層L1、隠れ層L2、出力層L3の3層がある場合について説明する。各層は、層情報により識別されており、また、階層の層情報は、階層の順に層情報が1つずつ大きくなるようにして、識別されている。例えば、入力層L1の層情報が1、隠れ層L2の層情報が2、出力層L3の層情報が3として識別されている。
<Overall configuration of hierarchical neural network>
Next, the overall configuration of the hierarchical neural network according to the present embodiment will be described.
Here, as shown in FIG. 6, a case where there are three layers of an input layer L1, a hidden layer L2, and an output layer L3 as a hierarchical neural network will be described. Each layer is identified by the layer information, and the layer information of the layers is identified such that the layer information increases in order of the layers. For example, the layer information of the input layer L1 is identified as 1, the layer information of the hidden layer L2 is 2, and the layer information of the output layer L3 is identified as 3.
また、入力層L1には、P101、P102、P103の3個のノードがあり、隠れ層L2には、P201、P202、P203、P204、P205、P206、P207、P208、P209、P210の10個のノードがあり、出力層L3には、P301、P302、P303の3個のノードがある場合について説明する。入力層L1の各ノードの出力は、隠れ層L2の各ノードの入力に入力され、また、隠れ層L2の各ノードの出力は、出力層L3の各ノードの入力に入力されている。 The input layer L1 has three nodes P101, P102, and P103, and the hidden layer L2 has ten nodes P201, P202, P203, P204, P205, P206, P207, P208, P209, and P210. A case where there are nodes and the output layer L3 has three nodes P301, P302, and P303 will be described. The output of each node of the input layer L1 is input to the input of each node of the hidden layer L2, and the output of each node of the hidden layer L2 is input to the input of each node of the output layer L3.
各層において、各ノードはユニット識別情報により識別されており、各ノードのユニット識別情報は、予め定められたノードの配置順に、ユニット識別情報が1つずつ大きくなるようにして設定されている。例えば、P101はユニット識別情報が1であり、P102はユニット識別情報が2であり、P103はユニット識別情報が3である。 In each layer, each node is identified by unit identification information, and the unit identification information of each node is set so that the unit identification information is increased by one in the predetermined node arrangement order. For example, P101 has unit identification information of 1, P102 has unit identification information of 2, and P103 has unit identification information of 3.
本実施の形態においては、それぞれのユニットが、隠れ層L2、出力層L3のノードとして機能する。なお、この例においては、ユニットU1からユニットU3は、隠れ層L2、出力層L3のノードとして機能し、ユニットU4からユニットU10は、隠れ層L2のノードとして機能する。ここで、制御装置が入力層L1として出力値を、増幅器4とユニット出力バス2とを介して、隠れ層L2としての各ユニットに、順次出力する。そのために、ここでは、各ユニットは、隠れ層L2と出力層L3として機能する。
例えば、ユニットU1は、隠れ層L2のノードP201と出力層L3のノードP301として機能する。また、ユニットU3は、隠れ層L2のノードP203と出力層L3のノードP303として機能する。また、ユニットU4は、隠れ層L2のノードP204として機能する。
In the present embodiment, each unit functions as a node of the hidden layer L2 and the output layer L3. In this example, the units U1 to U3 function as nodes of the hidden layer L2 and the output layer L3, and the units U4 to U10 function as nodes of the hidden layer L2. Here, the control device sequentially outputs the output value as the input layer L1 to each unit as the hidden layer L2 via the
For example, the unit U1 functions as a node P201 in the hidden layer L2 and a node P301 in the output layer L3. The unit U3 functions as a node P203 in the hidden layer L2 and a node P303 in the output layer L3. The unit U4 functions as the node P204 of the hidden layer L2.
ここで、あるユニットに値が入力された際、入力層L1、隠れ層L2、出力層L3のいずれの層からの入力であるかは、各ユニットにおいて、ユニットが有する層情報記憶部133に記憶してある層情報により判定される。
Here, when a value is input to a certain unit, the input from the input layer L1, the hidden layer L2, or the output layer L3 is stored in the layer
<階層型ニューラルネットワークの全体の動作>
次に、本実施形態による階層型ニューラルネットワークの、一例としての、全体の動作について説明する。ここでは、各ユニットが、出力層L3のノードとして機能し、トークンを入力されたいずれか1つのユニットが隠れ層L2のアクティブなノードとして機能する場合について説明する。この場合、各ユニットが出力層L3のノードとして機能し、アクティブな層が隠れ層L2であるため、各ユニットの層情報記憶部133には層情報の値として2が記憶されている。
<Overall operation of hierarchical neural network>
Next, an overall operation as an example of the hierarchical neural network according to the present embodiment will be described. Here, a case will be described in which each unit functions as a node of the output layer L3, and any one unit to which a token is input functions as an active node of the hidden layer L2. In this case, since each unit functions as a node of the output layer L3 and the active layer is the hidden layer L2, 2 is stored as the value of the layer information in the layer
まず、ノードP201であるユニットU1が、トークンが制御装置から入力されることにより、ユニット出力記憶部135から出力値を読み出し、出力値を出力すると共に、データ出力フラグ記憶部136のデータ出力フラグを出力済みとして設定する(手順A100)。次に、ノードP201からの出力値が、ユニット出力バス2と増幅器4とユニット入力バス3とを介して、ユニットU1からU10の各ユニットのデータ入力部101に入力される。
First, the unit U1 which is the node P201 reads the output value from the unit
次に、ユニットU1からU10の各ユニットは、ユニットU1からの入力値に基づいて、積和計算一次値算出部111が、ユニット識別情報記憶部137から読み出したユニット識別情報と層情報記憶部133から読み出した層情報とに該当する結合荷重を重み記憶部130から読み出し、読み出した結合荷重と、データ入力部101に入力された入力値とを乗算し、乗算した値を積和計算一次値記憶部131に記憶されている積和計算一次値情報に加算して記憶させる(手順A101)。
ここで、各ユニットの積和計算一次値算出部111が、ユニット識別情報記憶部137から読み出したユニット識別情報と層情報記憶部133から読み出した層情報とに該当する結合荷重を重み記憶部130から読み出すことにより、各ユニットは、層情報に基づいて出力層L3のノードとして機能し、また、層情報に基づいて、アクティブなユニットの属する層が隠れ層L2であると識別し、更に、ユニット識別情報に基づいてアクティブとなる隠れ層L2での各ノードを識別し、この隠れ層L2のアクティブとなるノードに対応する結合荷重を、このアクティブとなった隠れ層L2のノードからの出力値に乗ずることが可能となる。
Next, each of the units U1 to U10 has unit identification information and a layer
Here, the product-sum calculation primary
ここで、ユニットU1のデータ出力フラグ記憶部136のデータ出力フラグは、出力済みとして設定されてあるため、ユニットU1のトークン出力部103は、データ入力部101に入力値が入力されたことに応じて、トークンを出力すると共に、データ出力フラグ記憶部136のデータ出力フラグを未出力として設定する(手順A102)。
Here, since the data output flag of the data output
次に、ユニットU1から出力されたトークンは、デイジーチェーン制御バス1を介して、デイジーチェーンされている順序が1つ後のユニットであるユニットU2のトークン入力部12に入力される(手順A103)。
Next, the token output from the unit U1 is input via the daisy
ユニットU2はトークン入力部12にトークンが入力されたことに応じて、上記に説明した手順A100でノードP101であるユニットU1が、トークンが入力された場合と同様に、ユニット出力記憶部135から出力値を読み出し、出力値を出力すると共に、データ出力フラグ記憶部136のデータ出力フラグを出力済みとして設定する(手順A104)。
In response to the input of the token to the
以降、同様に、手順A101から手順A103を繰り返し、隠れ層L2のノードP210であるユニットU10が、出力値を出力すると共に、データ出力フラグ記憶部136のデータ出力フラグを出力済みとして設定する。
Thereafter, similarly, the procedure A101 to the procedure A103 are repeated, and the unit U10 that is the node P210 of the hidden layer L2 outputs the output value and sets the data output flag of the data output
次に、出力層L3のノードP301からP303に該当するユニットU1からU3の各ユニットは、手順A101と同様に、ユニットU10からの入力値に基づいて、各ユニットの積和計算一次値算出部111が、ユニット識別情報記憶部137から読み出したユニット識別情報と層情報記憶部133から読み出した層情報とに該当する結合荷重を重み記憶部130から読み出し、読み出した結合荷重と、データ入力部101に入力された入力値とを乗算し、乗算した値を積和計算一次値記憶部131に記憶されている積和計算一次値情報に加算して記憶させる(手順A105)。
Next, the units U1 to U3 corresponding to the nodes P301 to P303 of the output layer L3 are similar to the procedure A101, based on the input value from the unit U10, the product-sum calculation primary
ここで、ユニットU10からの入力値が、各ユニットのデータ入力部101に入力されたことに応じて、各ユニットのカウンタ114は、ユニット識別情報記憶部137に記憶されているユニット識別情報の値をインクリメントし、ユニット識別情報の値は3となる(手順A106)。
なお、各ユニットのユニット数記憶部134には、層情報と層情報で識別される階層に属する階層型ニューラルネットワークのユニット数とが関連付けて予め記憶されている。例えば、図6の階層型ニューラルネットワークの場合には、入力層L1の層情報である値1と、階層型ニューラルネットワークのユニット数、つまり、入力層L1のノード数である3とが、関連付けて予め記憶されている。また、例えば、図6の階層型ニューラルネットワークの場合には、隠れ層L2の層情報である値2と、階層型ニューラルネットワークのユニット数、つまり、隠れ層L2のノード数である10とが、関連付けて予め記憶されている。
Here, in response to the input value from the unit U10 being input to the
The unit
次に、各ユニットのユニット数比較部115は、層情報記憶部133から層情報を読み出し、読み出した層情報に該当するユニット数をユニット数記憶部134から読み出し、ユニット識別情報記憶部137からユニット識別情報を読み出し、読み出したユニット識別情報の値と読み出したユニット数とを比較し、比較した結果が一致するために、読み出したユニット識別情報の値と読み出したユニット数とが一致したことを示す比較一致信号を出力すると共に、ユニット識別情報記憶部137に記憶されているユニット識別情報の値をリセットする(手順A107)。
Next, the unit
次に、各ユニットのユニット出力算出部112は、ユニット数比較部115から比較一致信号を入力されたことに応じて、積和計算一次値記憶部131から積和計算一次値情報を読み出し、層情報記憶部133から読み出した層情報に該当する出力関数を関数記憶部132から読み出し、読み出した出力関数に読み出した積和計算一次値情報を代入することにより出力値を算出し、算出した出力値をユニット出力記憶部135に記憶させる(手順A108)。
Next, the unit
ここで、各ユニットのユニット出力算出部112は、層情報記憶部133から読み出した層情報に該当する出力関数を関数記憶部132から読み出すため、出力層L3に該当するユニット毎の出力関数により、ユニットの出力値を算出することが可能となる。また、各ユニットのユニット出力記憶部135に出力層L3のノードとして算出した出力値が記憶されるため、各ユニットはトークンが入力された場合に、各ユニットは出力層L3のアクティブなノードとして、出力値を出力することが可能となる。
Here, the unit
また、各ユニットの層情報算出部113が、ユニット数比較部115から比較一致信号を入力されたことに応じて、層情報記憶部133に記憶されている層情報の値をインクリメントして、層情報の値を3とする。そのために、各ユニットは、以降、トークンが入力されたいずれか1つのユニットが、出力層L3のアクティブなノードとして出力値を出力する。
Further, the layer
なお、上記において、出力層L3でユニットU3からユニットU4にトークンが出力され、次に、トークンを入力されたユニットU4が出力層L3のノードとして出力値を出力するが、この例における階層型ニューラルネットワークにおいて、出力層L3のノードとしてユニットU4に相当するノードは無いため、ユニットU4は、出力層L3のノードとして出力値を出力しないことが望ましい。または、ユニットU4は、出力層L3のノードとしては、出力値の値を0として出力してもよい。または、各ユニットにおいて、出力層L3としてのユニットU4からの出力値に乗じる結合荷重を0として、重み記憶部130に予め記憶しておいてもよい。
In the above, a token is output from the unit U3 to the unit U4 in the output layer L3, and then the unit U4 to which the token is input outputs an output value as a node of the output layer L3. Since there is no node corresponding to the unit U4 as a node of the output layer L3 in the network, it is desirable that the unit U4 does not output an output value as a node of the output layer L3. Alternatively, the unit U4 may output the output value as 0 as a node of the output layer L3. Alternatively, in each unit, the connection load multiplied by the output value from the unit U4 as the output layer L3 may be set to 0 and stored in the
このようにユニットU4の出力値、または、ユニットU4からの出力値を受けた各ユニットの結合荷重を、予め階層型ニューラルネットワークの各層のノードの個数に合わせて設定しておくことにより、ユニットに対して、ある層でそのユニットに対応するノードが無い場合においても、本実施形態の並列演算装置は階層型ニューラルネットワークとして問題なく動作することが可能である。 Thus, the unit U4 output value or the connection load of each unit that receives the output value from the unit U4 is set in advance in accordance with the number of nodes in each layer of the hierarchical neural network. On the other hand, even when there is no node corresponding to the unit in a certain layer, the parallel arithmetic device of this embodiment can operate as a hierarchical neural network without any problem.
以上説明したように、本実施形態を階層型ニューラルネットワークに適応した場合には、一度に発火すうニューロンの個数を1つに限定したことにより、つまり、出力層において出力値を出力するノードを、トークンが入力された1つのユニットに限定することにより、ユニット間の配線が増大することを減じる効果を奏する。
また、1つの出力層のノードであるユニットからの出力値が、ユニット入力バス3を介して、1度に全ての入力層となるノードであるユニットに分配して入力されるため、分配に要する時間を減じる効果を奏する。また、複数のユニットが、並列にユニット内演算を演算するため、全体としての演算が高速になるという効果を奏する。
As described above, when this embodiment is applied to a hierarchical neural network, the number of neurons that fire at one time is limited to one, that is, the node that outputs an output value in the output layer, By limiting to one unit to which a token is input, an effect of reducing an increase in wiring between units can be obtained.
Further, since the output value from the unit which is a node of one output layer is distributed and inputted to the unit which is a node which becomes the input layer at a time via the
例えば、階層型ニューラルネットワークを演算した場合、従来型のプロセッサを用いた場合には、その計算時間は概算として、計算時間=(シナプス数×1回の演算に要するステップ数÷クロック周波数)として算出されるのに対して、本実形態による並列演算装置を用いた場合には、計算時間=(ニューロン数×1ニューロンの発火周期)により算出される。ここで、シナプス数は、ニューロン数の2乗に比例するため、本実形態による並列演算装置を用いた階層型ニューラルネットワークの計算時間は、従来型のプロセッサを用いた場合に比較して、計算時間を大幅に減ずることが可能となる。 For example, when calculating a hierarchical neural network, if a conventional processor is used, the calculation time is approximately calculated as calculation time = (number of synapses × number of steps required for one calculation ÷ clock frequency). On the other hand, when the parallel arithmetic device according to the present embodiment is used, calculation time = (number of neurons × one neuron firing cycle). Here, since the number of synapses is proportional to the square of the number of neurons, the calculation time of the hierarchical neural network using the parallel arithmetic device according to this embodiment is calculated as compared with the case of using a conventional processor. Time can be greatly reduced.
また、各ユニットが、階層型ニューラルネットワークの層を変更し、かつ、入力側の層のノードと出力側の層のノードとして機能するため、少ないユニット数で多層のノードの演算を実行することが可能となる効果を奏する。 In addition, since each unit changes the layer of the hierarchical neural network and functions as a node on the input side and a node on the output side, it is possible to perform multi-layer node operations with a small number of units. There is a possible effect.
なお、上記に説明した第1の実施形態においては、制御装置が入力層L1として出力値を順次出力し、そのために、各ユニットは隠れ層L2と出力層L3のノードとして機能するとして説明したが、各ユニットは、入力層L1のノードとして機能するようにしてもよい。例えば、制御装置が入力層L1のノードに対応する出力値を順次出力し、ユニットが入力層L1のノードとして、制御装置からの出力値をユニット出力記憶部135に順次記憶する。次に、トークンが入力されたユニットが、入力層L1のアクティブなユニットとして出力値を出力する。このようにして、各ユニットは、入力層L1と、隠れ層L2と、出力層L3とのユニットとして機能することも可能である。
In the first embodiment described above, the control device sequentially outputs output values as the input layer L1, and therefore, each unit functions as a node of the hidden layer L2 and the output layer L3. Each unit may function as a node of the input layer L1. For example, the control device sequentially outputs output values corresponding to the nodes of the input layer L1, and the unit sequentially stores output values from the control device in the unit
なお、上記の第1の実施形態においては、階層型ニューラルネットワークとして、入力層L1、隠れ層L2、出力層L3の3層がある場合について説明したが、本実施形態は、階層型ニューラルネットワークの階層は3層に限られるものではなく、任意の階層に適応可能である。 In the first embodiment, the case where there are three layers of the input layer L1, the hidden layer L2, and the output layer L3 as the hierarchical neural network has been described. However, in the present embodiment, the hierarchical neural network The hierarchy is not limited to three layers, and can be applied to any hierarchy.
<第2の実施形態>
<自己組織化マップに適応した場合のユニットの構成>
次に、本実施形態の並列演算装置を、自己組織化マップに適応した場合について説明する。自己組織化マップは、次のような処理を実行することにより、多変量からなるデータの統計的性質を学習し、 類似したデータが近接するように配列し、また、データの視覚化することを可能とするものである。
<Second Embodiment>
<Unit structure when adapted to the self-organizing map>
Next, the case where the parallel arithmetic device of this embodiment is applied to a self-organizing map will be described. The self-organizing map learns the statistical properties of multivariate data by performing the following processes, arranges similar data in close proximity, and visualizes the data: It is possible.
各ユニットは、ユニットの結合重みベクトルを有している。まず、各ユニットに入力データベクトルが入力され、各ユニットは入力された入力データベクトルと結合重みベクトルの差であるノルムを算出する(手順A200)。次に、最もノルムの小さい出力ユニットを勝者ユニットとして選択する(手順A201)。次に、選択した勝者ユニットとその近傍のユニットが、より入力データベクトルに近づくように結合重みベクトルの値を予め定められた関数により変更して、学習を行う(手順A203)。この、手順A200から手順A203を繰り返す。 Each unit has a unit connection weight vector. First, an input data vector is input to each unit, and each unit calculates a norm that is the difference between the input data vector and the connection weight vector (procedure A200). Next, the output unit with the smallest norm is selected as the winner unit (procedure A201). Next, learning is performed by changing the value of the coupling weight vector with a predetermined function so that the selected winner unit and its neighboring units are closer to the input data vector (procedure A203). This procedure A200 to procedure A203 are repeated.
本実施形態の並列演算装置を自己組織化マップに適応する場合、各ユニットに入力されるデータは、上記の手順A200と、手順A201と、手順A202とで異なるため、実施形態においては、ユニットに入力するデータに、上記の手順A200と、手順A201と、手順A202とを識別する識別情報を組とすることにより、識別する。 When the parallel computing device of this embodiment is applied to a self-organizing map, the data input to each unit is different in the above-described procedure A200, procedure A201, and procedure A202. The input data is identified by combining identification information for identifying the procedure A200, the procedure A201, and the procedure A202.
図9(a)に示すように、ユニット入力バス3からの入力値は、ノルム部とデータ部とを有する。また、図9(b)に示すように、ノルム部の値が−2である場合、入力値のノルム部は「データ部の値が入力ベクトルである」ことを示す識別子であり、そのデータ部は入力ベクトルである。また、図9(c)に示すように、ノルム部の値が−1である場合、ノルム部は「近傍判定識別情報」であり、そのデータ部は、ネットワーク座標である。また、図9(d)に示すように、ノルム部の値が零または正の値である場合、ノルム部の値はノルムであり、また、データ部は、ネットワーク座標である。これらの詳細については、後述する。
As shown in FIG. 9A, the input value from the
次に、図7と図8とを用いて、自己組織化マップに適応した場合の並列演算装置のユニットの構成について説明する。ここで、複数のユニットのそれぞれは、ネットワーク座標により識別される座標で予め識別されている。なお、各ユニットは、第1の実施形態と同様に、同一の構成を有しているので、ここでは1つのユニットの構成のみについて説明する。 Next, the configuration of the units of the parallel arithmetic device when applied to the self-organizing map will be described using FIG. 7 and FIG. Here, each of the plurality of units is identified in advance by coordinates identified by network coordinates. Since each unit has the same configuration as in the first embodiment, only the configuration of one unit will be described here.
この図7または図8のユニットの構成において、データ入力部201はデータ入力部11に対応し、データ出力部204はデータ出力部14に対応し、トークン入力部202はトークン入力部12に対応と、トークン出力部203はトークン出力部13に対応する。また、ユニットノルム記憶部236と、入力ノルム記憶部237と、ユニットネットワーク座標記憶部234と、入力ネットワーク座標記憶部233とは、ユニット出力記憶部16に対応する。また、他の構成は、ユニット演算部15に対応する。
7 or 8, the data input unit 201 corresponds to the
ユニットネットワーク座標記憶部234には、ユニットのネットワーク座標であるユニットネットワーク座標が予め記憶されている。入力ネットワーク座標記憶部233には、入力されたネットワーク座標である入力ネットワーク座標が記憶される。重み記憶部231には、ユニットの結合重みベクトルが予め記憶されている。入力データ記憶部230には、入力された入力データベクトルが記憶される。ユニットノルム記憶部236には、ユニットのノルムが記憶される。入力ノルム記憶部237には、入力されたノルムが記憶される。
In the unit network coordinate
学習速度記憶部235には、学習速度を決める係数である学習速度係数が予め記憶されている。また、学習速度記憶部235には、学習した回数を示す学習ステップ数と、前記学習速度係数とが予め関連付けて記憶されている。距離記憶部232には、ネットワーク座標の間の距離が近傍であるか否かを判定する基準である基準距離が予め記憶されている。また、距離記憶部232には、学習ステップ数と基準距離とが予め関連付けて記憶されている。
The learning
データ入力判定部222は、データ入力部201に入力された入力値が入力データベクトルであるか否かを判定し、入力データベクトルである場合には、データ抽出部210に入力値である入力データベクトルを出力し、入力データベクトルでない場合には、ネットワーク座標抽出部211とノルム抽出部212とに入力値を出力する。
このデータ入力判定部222は、入力値のノルムの値が、入力値が入力データベクトルであることを示す値である−2であるか否かを判定することにより、データ入力部201に入力された入力値が入力データベクトルであるか否かを判定する。
The data
The data
データ抽出部210は、データ入力部201に入力された入力値が入力データベクトルである場合には、入力された入力データベクトルを入力データ記憶部230に記憶させる。また、データ抽出部210は、入力された入力データベクトルを、ノルム算出部214に出力する。また、データ抽出部210は、入力データベクトルが入力される毎に、カウンタ213がカウントアップ信号を出力する。
If the input value input to the data input unit 201 is an input data vector, the
カウンタ213は、ユニットに入力データベクトルが入力される毎に、ユニットに入力データベクトルが入力された回数であるステップ数をカウントアップする。また、カウンタ213は、データ抽出部210からカウントアップ信号を入力される毎に、ステップ数をカウントアップする。
Each time an input data vector is input to the unit, the
ノルム算出部214は、データ入力部201に入力された入力値が入力データベクトルである場合には、入力された入力データベクトルと、重み記憶部231から読み出した結合重みベクトルとのノルムを算出し、算出したノルムをユニットノルムとしてユニットノルム記憶部236に記憶させる。
When the input value input to the data input unit 201 is an input data vector, the
入力ノルム部250は、データ入力部201に入力された入力値が、ネットワーク座標とノルムとの組みである場合には、入力されたネットワーク座標を入力ネットワーク座標として入力ネットワーク座標記憶部233に記憶させると共に、入力されたノルムを入力ノルムとして入力ノルム記憶部237に記憶させる。この入力ノルム部250は、ネットワーク座標抽出部211と、ノルム抽出部212と、入力ノルム判定部218とから構成されている。
When the input value input to the data input unit 201 is a combination of network coordinates and norm, the
ネットワーク座標抽出部211は、入力された入力値から、ネットワーク座標を抽出し、抽出したネットワーク座標を入力ネットワーク座標として入力ネットワーク座標記憶部233に記憶させる。ノルム抽出部212は、入力された入力値から、ノルムを抽出し、抽出したノルムを入力ノルム判定部218に出力する。
The network coordinate
入力ノルム判定部218は、ノルム抽出部212から入力されたノルムの値により、入力されたノルムが、ノルムであるのか、または、ネットワーク座標と近傍判定を実行することを示す識別情報である近傍判定識別情報であるのかを判定し、ノルムである場合には、入力されたノルムを入力ノルムとして入力ノルム記憶部237に記憶させる。逆に、入力されたノルムが近傍判定識別情報である場合には、入力ノルム判定部218は、近傍判定部215に、近傍判定識別情報を出力する。
例えば、この入力ノルム判定部218は、ノルム抽出部212から入力されたノルムの値が−1である場合には、入力されたノルムが近傍判定識別情報であるとして判定し、ノルム抽出部212から入力されたノルムの値が−1でない場合には、ノルムとして判定する。
The input norm determination unit 218 determines whether the input norm is a norm based on the norm value input from the
For example, when the norm value input from the
ノルム比較部217は、トークン入力部202を介してトークンが入力されたことに応じて、ユニットノルム記憶部236から読み出したユニットノルムと、入力ノルム記憶部237から読み出した入力ノルムとを比較する。
The
選択出力部251は、ノルム比較部217の比較した結果が、読み出したユニットノルムが入力ノルムより小さい場合には、ユニットノルム記憶部236から読み出したユニットノルムとユニットネットワーク座標記憶部234から読み出したユニットネットワーク座標とを組みとして、データ出力部204を介して出力し、読み出したユニットノルムが入力ノルム以上である場合には、入力ノルム記憶部237から読み出した入力ノルムと入力ネットワーク座標記憶部233から読み出した入力ネットワーク座標とを組みとして、データ出力部204を介して出力する。この選択出力部251は、ネットワーク座標選択部219と、ノルム選択部220と、データ合成出力部221とから構成されている。
The
ノルム選択部220は、ノルム比較部217の比較した結果が、読み出したユニットノルムが入力ノルムより小さい場合には、ユニットノルム記憶部236からユニットノルムを読み出し、読み出したユニットノルムをデータ合成出力部221に出力する。また、ネットワーク座標選択部219は、ノルム比較部217の比較した結果が、読み出したユニットノルムが入力ノルム以上である場合には入力ノルム記憶部237から入力ノルムを読み出し、読み出した入力ノルムをデータ合成出力部221に出力する。
When the comparison result of the
ネットワーク座標選択部219は、ノルム比較部217の比較した結果が、読み出したユニットノルムが入力ノルムより小さい場合には、ユニットネットワーク座標記憶部234からユニットネットワーク座標を読み出し、読み出したユニットネットワーク座標をデータ合成出力部221に出力する。また、ネットワーク座標選択部219は、ノルム比較部217の比較した結果が、読み出したユニットノルムが入力ノルム以上である場合には、入力ネットワーク座標記憶部233から入力ネットワーク座標を読み出し、読み出した入力ネットワーク座標をデータ合成出力部221に出力する。
When the result of comparison by the
データ合成出力部221は、ノルム選択部220から入力されたユニットノルムまたは入力ノルムであるノルムと、ネットワーク座標選択部219から入力されたユニットネットワーク座標または入力ネットワーク座標であるネットワーク座標とを組みとして合成し、組として合成したノルムとネットワーク座標とを、データ出力部204を介して出力する。
The data synthesis output unit 221 synthesizes a unit norm input from the
近傍判定部215は、データ入力部201に入力された入力値が、ネットワーク座標と近傍判定を実行することを示す識別情報である近傍判定識別情報との組みである場合には、ユニットネットワーク座標記憶部234から読み出したユニットネットワーク座標が、入力されたネットワーク座標である入力ネットワーク座標の近傍にあるか否かを判定する。
When the input value input to the data input unit 201 is a set of network coordinates and proximity determination identification information that is identification information indicating that the proximity determination is executed, the
また、近傍判定部215は、近傍判定識別情報が入力ノルム部250または入力ノルム判定部218から入力されたことに応じて、ユニットネットワーク座標記憶部234から読み出したユニットネットワーク座標が、入力されたネットワーク座標である入力ネットワーク座標の近傍にあるか否かを判定する。
Further, the
また、近傍判定部215は、データ入力部201に入力された入力値が、ネットワーク座標と近傍判定を実行することを示す識別情報である近傍判定識別情報との組みである場合には、距離記憶部232から基準距離を読み出し、ユニットネットワーク座標記憶部234から読み出したユニットネットワーク座標と入力されたネットワーク座標である入力ネットワーク座標との間の距離が、読み出した基準距離以下であるか否かを判定することにより、ユニットネットワーク座標が入力ネットワーク座標の近傍にあるか否かを判定する。
The
また、近傍判定部215は、カウンタ213から読み出したステップ数に一致する学習ステップ数に関連付けられている基準距離を距離記憶部232から読み出し、該読み出した基準距離に基づいて前記ユニットネットワーク座標が前記入力ネットワーク座標の近傍にあるか否かを判定する。
Further, the
重み更新部216は、近傍判定部215の判定した結果が近傍である場合には、重み記憶部231に記憶されている結合重みベクトルの値を更新する。また、重み更新部216は、入力データ記憶部230から読み出した入力データベクトルと重み記憶部231から読み出した結合重みベクトルとの差を算出し、算出した差に、学習速度記憶部235から読み出した学習速度係数を乗じた値を、重み記憶部231に記憶されている結合重みベクトルに加算することにより、重み記憶部231に記憶されている結合重みベクトルの値を更新する。
The
また、重み更新部216は、カウンタ213から読み出したステップ数と一致する学習ステップ数に関連付けられている学習速度係数を学習速度記憶部235から読み出し、読み出した学習速度係数に基づいて重み記憶部231に記憶されている結合重みベクトルの値を更新する。
Also, the
トークン出力フラグ記憶部238には、トークン出力部203がトークンを出力済みであるか否かを示すトークン出力フラグが記憶されている。トークン出力フラグ判定部223は、トークン入力部202にトークンが入力されたことに応じて、トークン出力フラグ記憶部238からトークン出力フラグを読み出し、読み出したトークン出力フラグがトークンを未出力である場合に、入力されたトークンをノルム比較部217に出力すると共に、入力されたトークンを、トークン出力部203を介して出力する。
The token output
トークン出力部203は、トークン入力部202にトークンが入力されたことに応じて、トークンを出力する。また、トークン出力部203は、データ合成出力部221または選択出力部251が、ユニットノルム記憶部236から読み出したユニットノルムとユニットネットワーク座標記憶部234から読み出したユニットネットワーク座標とを組みとしてデータ出力部204を介して出力したことに応じて、または、入力ノルム記憶部237から読み出した入力ノルムと入力ネットワーク座標記憶部233から読み出した入力ネットワーク座標とを組みとしてデータ出力部204を介して出力したことに応じて、トークンを出力する。また、トークン出力部203は、トークンを出力した後に、トークン出力フラグ記憶部238に記憶されているトークン出力フラグを出力済みに更新する。
The
<自己組織化マップに適応した場合のユニットの動作>
次に、図10と図11とを用いて、自己組織化マップに適応した場合の並列演算装置のユニットの動作について説明する。最初に、図10を用いて、ユニットのデータ入力部に入力値が入力された場合の動作について説明する。
<Unit operation when applied to a self-organizing map>
Next, with reference to FIGS. 10 and 11, the operation of the units of the parallel arithmetic device when applied to the self-organizing map will be described. First, the operation when an input value is input to the data input unit of the unit will be described with reference to FIG.
まず、データ入力部201に入力値であるデータが入力される(ステップS400)。次に、データ入力判定部222は、入力値のノルムの値が、入力値が入力データベクトルであることを示す値である−2であるか否かを判定することにより、データ入力部201に入力された入力値が入力データベクトルであるか否かを判定する(ステップS401)。
First, data that is an input value is input to the data input unit 201 (step S400). Next, the data
次に、ステップS401の判定結果が、ノルムの値が−2であり、入力データベクトルである場合には、データ抽出部210が、入力された入力データベクトルを入力データ記憶部230に記憶させる(ステップS402)と共に、カウントアップ信号をカウンタ213に出力する。次に、カウンタ213は、データ抽出部210からカウントアップ信号を入力されたことに応じて、ステップ数をカウントアップする(ステップS403)。
Next, when the determination result in step S401 is that the norm value is −2 and an input data vector, the
次に、ノルム算出部214は、データ抽出部210を介して入力された入力データベクトルと、重み記憶部231から読み出した結合重みベクトルとのノルムを算出し、算出したノルムをユニットノルムとしてユニットノルム記憶部236に記憶させ(ステップS404)、処理を終了する。
Next, the
一方、ステップS401の判定結果が、ノルムの値が−2ではなく、入力データベクトルではない場合には、ネットワーク座標抽出部211が、入力された入力値から、ネットワーク座標を抽出し、抽出したネットワーク座標を入力ネットワーク座標として入力ネットワーク座標記憶部233に記憶させる(ステップS405)と共に、ノルム抽出部212は、入力された入力値から、ノルムを抽出し、抽出したノルムを入力ノルム判定部218に出力する。
On the other hand, if the determination result in step S401 is that the norm value is not −2 and is not an input data vector, the network coordinate
次に、入力ノルム判定部218は、ノルム抽出部212から入力されたノルムの値が−1であるか否かを判定し(ステップS406)、判定結果が、ノルム抽出部212から入力されたノルムの値が−1でない場合には、ノルムとして判定し、入力されたノルムを入力ノルムとして入力ノルム記憶部237に記憶させ(ステップS407)、処理を終了する。
Next, the input norm determination unit 218 determines whether or not the norm value input from the
一方、ステップS406の判定結果が、ノルム抽出部212から入力されたノルムの値が−1である場合には、入力ノルム判定部218は、入力されたノルムが近傍判定識別情報であるとして判定し、近傍判定部215に、近傍判定識別情報を出力する。次に、近傍判定部215は、近傍判定識別情報が入力ノルム判定部218から入力されたことに応じて、ユニットネットワーク座標記憶部234から読み出したユニットネットワーク座標が、入力されたネットワーク座標である入力ネットワーク座標の近傍にあるか否かを判定する(ステップS408)。
On the other hand, if the determination result in step S406 is that the norm value input from the
ステップS408の判定結果が、近傍である場合には、重み更新部216が、重み記憶部231に記憶されている結合重みベクトルの値を更新して(ステップS409)、処理を終了する。一方、ステップS408の判定結果が、近傍でない場合には、処理を終了する。
If the determination result in step S408 is near, the
次に、図11を用いて、ユニットのトークン入力部にトークンが入力された場合の動作について説明する。まず、トークン入力部202に、トークンが入力される(ステップS500)。次に、トークン出力フラグ判定部223が、トークン入力部202にトークンが入力されたことに応じて、トークン出力フラグ記憶部238からトークン出力フラグを読み出し、読み出したトークン出力フラグがトークンを未出力であるか否かを判定し(ステップS501)、読み出したトークン出力フラグがトークンを未出力である場合には、入力されたトークンをノルム比較部217に出力すると共に、入力されたトークンを、トークン出力部203を介して出力する。
Next, the operation when a token is input to the token input unit of the unit will be described with reference to FIG. First, a token is input to the token input unit 202 (step S500). Next, the token output
次に、ノルム比較部217は、トークン入力部202を介してトークンが入力されたことに応じて、ユニットノルム記憶部236から読み出したユニットノルムと、入力ノルム記憶部237から読み出した入力ノルムとを比較する(ステップS502)。
Next, the
ノルム比較部217の比較した結果が、読み出したユニットノルムが入力ノルムより小さい場合には、ノルム選択部220が、ユニットノルム記憶部236からユニットノルムを読み出し、読み出したユニットノルムをデータ合成出力部221に出力する(ステップS503)と共に、ネットワーク座標選択部219が、ユニットネットワーク座標記憶部234からユニットネットワーク座標を読み出し、読み出したユニットネットワーク座標をデータ合成出力部221に出力する(ステップS504)。
When the comparison result of the
次に、データ合成出力部221が、ノルム選択部220から入力されたユニットノルムと、ネットワーク座標選択部219から入力されたユニットネットワーク座標とを組みとして合成し、組として合成したユニットノルムとユニットネットワーク座標とを、データ出力部204を介して出力する(ステップS505)。
Next, the data combination output unit 221 combines the unit norm input from the
一方、ステップS502でノルム比較部217が比較した結果が、読み出したユニットノルムが入力ノルム以上である場合には、ノルム選択部220が、入力ノルム記憶部237から入力ノルムを読み出し、読み出した入力ノルムをデータ合成出力部221に出力する(ステップS508)と共に、ネットワーク座標選択部219が、入力ネットワーク座標記憶部233から入力ネットワーク座標を読み出し、読み出した入力ネットワーク座標をデータ合成出力部221に出力する(ステップS509)。
On the other hand, if the result of comparison by the
次に、データ合成出力部221は、ノルム選択部220から入力された入力ノルムと、ネットワーク座標選択部219から入力された入力ネットワーク座標とを組みとして合成し、組として合成した入力ノルムと入力ネットワーク座標とを、データ出力部204を介して出力する(ステップS510)。
Next, the data synthesis output unit 221 synthesizes the input norm input from the
次に、トークン出力部203が、ステップS505にて、データ合成出力部221が、ユニットノルム記憶部236から読み出したユニットノルムとユニットネットワーク座標記憶部234から読み出したユニットネットワーク座標とを組みとしてデータ出力部204を介して出力したことに応じて、または、ステップS510にて、入力ノルム記憶部237から読み出した入力ノルムと入力ネットワーク座標記憶部233から読み出した入力ネットワーク座標とを組みとしてデータ出力部204を介して出力したことに応じて、トークンを出力する(ステップS506)。
Next, in step S <b> 505, the
次に、トークン出力部203は、トークンを出力した後に、トークン出力フラグ記憶部238に記憶されているトークン出力フラグを出力済みに更新し(ステップS507)、処理を終了する。
Next, after outputting the token, the
<自己組織化マップに適応した場合の並列演算装置全体の動作>
次に、自己組織化マップに適応した場合の並列演算装置全体の動作について説明する。まず、制御装置は、入力ベクトルと、値を−2としたノルムとを組みとした入力値を、全てのユニットに、ユニット入力バス3を介して、入力する(手順A300)。
<Operation of entire parallel computing device when adapted to self-organizing map>
Next, the operation of the entire parallel computing device when applied to the self-organizing map will be described. First, the control device inputs an input value composed of an input vector and a norm having a value of −2 to all units via the unit input bus 3 (procedure A300).
次に、入力ベクトルを入力された各ユニットのノルム算出部214は、入力された入力ベクトルと、ユニットが有する結合重みベクトルとのノルムを算出し、算出したノルムを、ユニットノルム記憶部236に記憶させる(手順A301)。
Next, the
次に、制御装置は、ユニットU1に、トークンを入力する(手順A302)。次に、ユニットU1のノルム比較部217は、ユニットU1のトークン入力部202を介してトークンが入力されたことに応じて、ユニットノルム記憶部236から読み出したユニットノルムと、入力ノルム記憶部237から読み出した入力ノルムとを比較する(手順A303)。
Next, the control device inputs a token to the unit U1 (procedure A302). Next, the
ここで、ユニットU1の入力ノルム記憶部237には、ユニットU1が手順A301で算出したノルムに比較して、十分に大きな値のノルムが予め記憶されているものとして説明する。
Here, the input
ここでは、ユニットノルム記憶部236から読み出したユニットノルムの方が、入力ノルム記憶部237から読み出した入力ノルムより小さいため、ユニットU1の選択出力部251は、ユニットノルム記憶部236から読み出したユニットノルムとユニットネットワーク座標記憶部234から読み出したユニットネットワーク座標とを組みとして、データ出力部204を介して出力する(手順A304)。
Here, since the unit norm read from the unit
次に、ユニットU1のデータ出力部204が出力したノルムとネットワーク座標とが組として、ユニット出力バス2と増幅器4とユニット入力バス3とを介して、各ユニットのデータ入力部201に入力される(手順A305)。
Next, the norm output from the data output unit 204 of the unit U1 and the network coordinates are input as a set to the data input unit 201 of each unit via the
次に、各ユニットの入力ノルム部250は、データ入力部201に入力された入力値のノルムの値が−1でないため、入力されたネットワーク座標を入力ネットワーク座標として入力ネットワーク座標記憶部233に記憶させると共に、入力されたノルムを入力ノルムとして入力ノルム記憶部237に記憶させる(手順A306)。ここで、入力ネットワーク座標記憶部233に記憶されるネットワーク座標と、入力ノルム記憶部237に記憶されるノルムは、ユニットU1の、ネットワーク座標とノルムである。
Next, since the norm value of the input value input to the data input unit 201 is not −1, the
次に、ユニットU1のトークン出力部203は、ユニットU1のデータ合成出力部221または選択出力部251が、ユニットノルム記憶部236から読み出したユニットノルムとユニットネットワーク座標記憶部234から読み出したユニットネットワーク座標とを組みとしてデータ出力部204を介して出力したことに応じて、トークンを、デイジーチェーン制御バス1を介してユニットU2に出力する(手順A307)。
Next, the
次に、手順A303のユニットU1と同様に、ユニットU2のノルム比較部217は、ユニットU2のトークン入力部202を介してユニットU1からのトークンが入力されたことに応じて、ユニットノルム記憶部236から読み出したユニットノルムと、入力ノルム記憶部237から読み出した入力ノルムとを比較する(手順A308)。
Next, similarly to the unit U1 in the procedure A303, the
ここで、入力ノルム記憶部237に記憶される入力ノルムは、ユニットU1のノルムであり、また、ユニットノルム記憶部236から読み出したユニットノルムは、ユニットU2のノルムであるため、このユニットU2のノルム比較部217は、ユニットU2のノルムと、ユニットU1のノルムとを比較することになる。以降、ユニットU2のノルム比較部217の比較結果に基づいて、手順A304から手順A306の処理が、同様に実行される(手順A309)。
Here, since the input norm stored in the input
従って、トークンがユニットU2に入力されることにより、ユニットU1とユニットU2とのノルムが比較され、ノルムが小さい方のユニットが勝者ユニットとして選択され、勝者ユニットのノルムとユニットネットワーク座標とが、全てのユニットの入力ノルム記憶部237と入力ネットワーク座標記憶部233とに記憶される(手順A310)。
Therefore, when the token is input to the unit U2, the norms of the unit U1 and the unit U2 are compared, the unit with the smaller norm is selected as the winner unit, and the winner unit norm and unit network coordinates are all Are stored in the input
次に、手順A307と同様に、ユニットU2からユニットU3にトークンが送信されることにより、次に、ユニットU3が、手順A303から手順A307とを実行することにより、ユニットU1とユニットU2との勝者ユニットのノルムと、ユニットU3のノルムとが比較され、ユニットU1からユニットU3までのユニットの中からの勝者ユニットが選択される(手順A311)。 Next, similarly to the procedure A307, the token is transmitted from the unit U2 to the unit U3, and then the unit U3 executes the procedure A303 to the procedure A307, thereby winning the unit U1 and the unit U2. The norm of the unit is compared with the norm of the unit U3, and the winner unit is selected from the units U1 to U3 (procedure A311).
以降、トークンがデイジーチェーン順序でユニットに渡されていく毎に、トークンが入力されたユニットの中での勝者ユニットが選択される(手順A312)。その後、デイジーチェーン順序で最後のユニットであるユニットU10にトークンが入力されると、ユニットU10のデータ出力部204が、ユニットU1からユニットU10の中の勝者ユニットのノルムとネットワーク座標とを出力する(手順A313)。 Thereafter, each time tokens are delivered to the units in the daisy chain order, the winner unit among the units to which the tokens are input is selected (procedure A312). Thereafter, when a token is input to the unit U10 which is the last unit in the daisy chain order, the data output unit 204 of the unit U10 outputs the norm and network coordinates of the winner unit in the unit U10 from the unit U1 ( Procedure A313).
制御装置は、ユニットU10のデータ出力部204が出力するノルムとネットワーク座標とを、勝者ユニットのノルムとネットワーク座標として受信する(手順A314)。これにより、制御装置は、入力ベクトルに対しての、勝者ユニットのノルムとネットワーク座標とを、受信することが出来る。 The control device receives the norm and network coordinates output from the data output unit 204 of the unit U10 as the norm and network coordinates of the winner unit (procedure A314). Thereby, the control apparatus can receive the norm of the winner unit and the network coordinates with respect to the input vector.
次に、制御装置は、ユニットU10のデータ出力部204から受信したネットワーク座標と、値を−1としたノルムとを組みとした入力値を、全てのユニットに、ユニット入力バス3を介して、入力する(手順A315)。
Next, the control device sends the input value that is a combination of the network coordinates received from the data output unit 204 of the unit U10 and the norm with a value of −1 to all units via the
次に、ネットワーク座標と値を−1としたノルムとを組みとした入力値を入力された各ユニットは、各ユニットのネットワーク座標抽出部211が、入力された入力値から、ネットワーク座標を抽出し、抽出したネットワーク座標を入力ネットワーク座標として入力ネットワーク座標記憶部233に記憶させる(手順A316)と共に、各ユニットの入力ノルム判定部218が、ノルム抽出部212から入力されたノルムの値が−1であるため、入力されたノルムが近傍判定識別情報であるとして判定し、近傍判定部215に、近傍判定識別情報を出力する(手順A317)。
Next, each unit to which an input value that is a combination of the network coordinate and the norm with a value of −1 is input, the network coordinate
次に、各ユニットの近傍判定部215が、近傍判定識別情報が入力ノルム部250または入力ノルム判定部218から入力されたことに応じて、ユニットネットワーク座標記憶部234から読み出したユニットネットワーク座標が、入力ネットワーク座標記憶部233から読み出した入力ネットワーク座標の近傍にあるか否かを判定する(手順A318)。
Next, the unit network coordinates read from the unit network coordinate
次に、各ユニットの重み更新部216は、そのユニットの近傍判定部215の判定した結果が近傍である場合には、そのユニットの重み記憶部231に記憶されている結合重みベクトルの値を更新する(手順A319)。これにより、勝者ユニットのネットワーク座標の近傍であるユニットの結合重みベクトルが、更新され、学習が実行される。
Next, the
以上に説明した自己組織化マップに適応した場合の並列演算装置においては、ユニット入力バス3に全てのユニットが接続されているため、制御装置が入力ベクトルをユニット入力バス3に1度出力するだけで、全てのユニットに入力ベクトルを入力することができる。また、各ユニットが、入力された入力ベクトルに対して、並列にノルムを算出することができるため、ユニット全体で、短時間でノルムを算出することができる。
In the parallel computing device adapted to the self-organizing map described above, all the units are connected to the
また、ユニット入力バス3に全てのユニットが接続されているため、制御装置が勝者ユニットのネットワーク座標をユニット入力バス3に1度出力するだけで、全てのユニットに勝者ユニットのネットワーク座標を入力することができる。また、各ユニットが、入力された勝者ユニットのネットワーク座標の近傍にあるか否かを並列に判定し、学習するため、ユニット全体で、短時間で学習することができる。
Further, since all the units are connected to the
また、デイジーチェーン制御バス1を介してトークンをユニット間で渡していくことにより、デイジーチェーン順序で順に勝者ユニットを決定することができる。つまり、勝者ユニットの決定が、デイジーチェーン制御バス1という、簡易な配線で可能となる。
Also, by passing tokens between units via the daisy
<冗長性を持たせた並列演算装置>
次に、図12を用いて、デイジーチェーン制御バス1に冗長性をもたせた場合の並列演算装置の構成を説明する。
各ユニットは、予め定められた順序であるデイジーチェーン順序において、1つ飛ばしの順序である第1の冗長順序で、複数のユニットのうちの半数のユニットが、第1の冗長デイジーチェーン制御バス6によりデイジーチェーンされている。例えば、ユニットU1とユニットU3とユニットU5とユニットU7とユニットU9とが、第1の冗長デイジーチェーン制御バス6により、デイジーチェーンされている。
<Parallel processing unit with redundancy>
Next, the configuration of the parallel arithmetic unit when redundancy is provided to the daisy
Each unit has a first redundancy order that is a skipping order in a daisy chain order that is a predetermined order, and half of the plurality of units are connected to the first redundant daisy
また、予め定められた順序であるデイジーチェーン順序において、1つ飛ばしの順序で、上記の第1の冗長デイジーチェーン制御バス6によりデイジーチェーンされていない複数のうちの残りの半数のユニットが、第2の冗長デイジーチェーン制御バス7によりデイジーチェーンされている。例えば、ユニットU2とユニットU4とユニットU6とユニットU8とユニットU10とが、第2の冗長デイジーチェーン制御バス7により、デイジーチェーンされている。
Further, in the daisy chain order that is a predetermined order, the remaining half of the plurality of units that are not daisy chained by the first redundant daisy
次に、図13を用いて、第1の冗長デイジーチェーン制御バス6によりデイジーチェーンされているユニットの構成について説明する。つまり、例えば、ユニットU1とユニットU3とユニットU5とユニットU7とユニットU9の構成について説明する。なお、冗長性について変更される構成のみについて説明するため、図2のユニットの構成において、変更される構成のみについて説明する。
Next, the configuration of units daisy-chained by the first redundant daisy
図13において、図13(a)と(c)とには、変更される前の図2で示されたユニットの構成が示してある。並列演算装置が冗長性を有するようにすることにより、図13(a)のユニットの構成が、図13(b)の構成に変更される。また、図13(c)のユニットの構成が、図13(d)のユニットの構成に変更される。 In FIG. 13, FIGS. 13A and 13C show the configuration of the unit shown in FIG. 2 before being changed. By making the parallel computing device have redundancy, the configuration of the unit in FIG. 13A is changed to the configuration in FIG. Further, the configuration of the unit in FIG. 13C is changed to the configuration of the unit in FIG.
図13(b)に示すようにユニットは、トークン出力部A13_1と、トークン出力部B13_2と、トークン出力部選択部17と、トークン選択情報記憶部18とを有する。ここで、トークン出力部A13_1は、図2のトークン出力部13に対応する。
As shown in FIG. 13B, the unit includes a token output unit A13_1, a token output unit B13_2, a token output
トークン出力部B13_2(冗長トークン出力部)は、トークン入力部12にトークンが入力されたことに応じて、トークンを冗長順序で1つ後のユニットへ第1の冗長デイジーチェーン制御バス6を介して出力する。トークン選択情報記憶部18には、トークン出力部A13_1とトークン出力部B13_2とのうち、いずれを選択するかを示すトークン出力選択情報が記憶されている。
The token output unit B13_2 (redundant token output unit) sends the token to the next unit in the redundant order via the first redundant daisy
トークン出力部選択部17は、トークン入力部12にトークンが入力されたことに応じて、トークン選択情報記憶部18から読み出したトークン出力選択情報に基づいて、トークン出力部A13_1とトークン出力部B13_2とのうちいずれか一方を選択し、選択したトークン出力部A13_1またはトークン出力部B13_2を介してトークンを出力する。
Based on the token output selection information read from the token selection
また、図13(d)に示すように、ユニットは、トークン入力部A12_1と、トークン入力部B12_2(冗長トークン入力部)とを有する。ここで、トークン入力部A12_1は、図2のトークン入力部12に対応する。
Moreover, as shown in FIG.13 (d), a unit has token input part A12_1 and token input part B12_2 (redundant token input part). Here, the token input unit A12_1 corresponds to the
トークン入力部B12_2は、第1の冗長デイジーチェーン制御バス6を介してデイジーチェーンされている冗長順序が1つ前のユニットからのトークンを入力する。
また、トークン出力部13は、トークン入力部A12_1またはトークン入力部B12_2にトークンが入力されたことに応じて、トークンを出力する。
The token input unit B12_2 inputs a token from the unit in the previous redundancy order that is daisy chained via the first redundant daisy
Further, the
また、第1の冗長デイジーチェーン制御バス6によりデイジーチェーンされているユニットと同様に、第2の冗長デイジーチェーン制御バス7によりデイジーチェーンされているユニットも、第2の冗長デイジーチェーン制御バス7を第1の冗長デイジーチェーン制御バス6として、トークン入力部B12_2(冗長トークン出力部)とトークン選択情報記憶部18とトークン出力部選択部17とトークン入力部B12_2(冗長トークン入力部)を有している。
Similarly to the units daisy chained by the first redundant daisy
なお、ここでは、トークン選択情報記憶部18には、トークン出力部A13_1とトークン出力部B13_2とのうち、いずれを選択するかを示すトークン出力選択情報が記憶されているもとして説明したが、このトークン出力選択情報は、例えば、デイジーチェーン順序で次のユニットに欠陥があるか否かを示す情報であってもよい。
Here, the token selection
トークン出力選択情報が、デイジーチェーン順序で次のユニットに欠陥があるか否かを示す情報である場合、トークン出力部選択部17は、トークン選択情報記憶部18から読み出したトークン出力選択情報に基づいて、デイジーチェーン順序で次のユニットに欠陥がない場合には、トークン出力部A13_1を選択してトークンを出力し、逆に欠陥がある場合には、トークン出力部B13_2を選択してトークンを出力する。
When the token output selection information is information indicating whether or not the next unit is defective in the daisy chain order, the token output
<欠陥チェックの方法>
次に、欠陥チェックの方法について説明する。ここでは、並列演算装置が、階層型ニューラルネットワークの場合について説明する。まず、ニューラルネットワークの並列演算装置が、結合係数がすべて同じで、中間層無しの入力層と出力層との2層である階層型ニューラルネットワークとして演算を実行し、制御装置が、演算結果の出力値を得る。制御装置は、出力値を判定し、正常な場合は処理を修了する。制御装置は、出力値を判定し、異常があることを検出した場合には、異常ユニットの前段ユニットのトークン選択情報記憶部18に対し、欠陥情報を書き込む。
<Defect check method>
Next, a defect check method will be described. Here, a case where the parallel arithmetic device is a hierarchical neural network will be described. First, the parallel processing unit of the neural network executes the calculation as a hierarchical neural network having the same coupling coefficient and two layers of the input layer and the output layer without the intermediate layer, and the control device outputs the calculation result. Get the value. The control device determines the output value, and if normal, completes the process. When the control device determines the output value and detects that there is an abnormality, it writes defect information in the token selection
次に、制御装置の、正常な場合と異常な場合の、判定方法とその処理について、詳細に説明する。まず、制御装置は、全てのユニットから、すべて同じ出力を得る場合に、正常として判定する。次に、制御装置は、ユニットからの出力が途中で止まる、または、ユニットからの出力値が予想された値と異なる部分がある場合に、異常として判定する。この場合、制御装置は、異常として検出したユニットである異常ユニットの、デイジーチェーン順序で1つ前となる前段ユニットのトークン選択情報記憶部18に、欠陥情報を書き込み、もう一度欠陥チェックを実行し、判定結果が正常となるまで欠陥チェックを実行する。このとき、欠陥が原因で電気的に切り離す必要が生じる場合に備え、ユニットの入出力部にハイインピーダンススイッチを設け、回路を電気的に切り離す機構を備えても良い。
Next, the determination method and its processing when the control device is normal and abnormal will be described in detail. First, when all the units obtain the same output from all units, the control device determines that the unit is normal. Next, the control device determines that the output from the unit stops in the middle or when the output value from the unit is different from the expected value as an abnormality. In this case, the control device writes the defect information in the token selection
以上のように、並列演算装置が、第1の冗長デイジーチェーン制御バス6と、第2の冗長デイジーチェーン制御バス7とにより冗長性を有するようにすることにより、デイジーチェーン制御バス1またはいずれかのユニットに欠陥が生じた場合においても、並列演算装置は問題なく動作することが可能となる。
As described above, the parallel arithmetic device has redundancy by using the first redundant daisy
なお、ここでは、冗長配線が、デイジーチェーン順序において1つ飛ばしの第1の冗長デイジーチェーン制御バス6と第2の冗長デイジーチェーン制御バス7との場合について説明したが、更に、デイジーチェーン順序において2つ飛ばしの冗長デイジーチェーン制御バスなどを追加することも可能である。
Here, a case has been described in which the redundant wirings are the first redundant daisy
<第2の基本構成>
次に、この発明の一実施形態による並列演算装置の第2の基本構成を、図14の概略ブロック図を用いて説明する。図14の概略ブロック図において、図1の第1の基本構成と同一の構成には同一の符号を付けて、その説明を省略する。ここでは、ユニットAU1からAU10の、ユニットの個数が10である場合について説明する。このユニットの詳細については、後述する。
<Second basic configuration>
Next, a second basic configuration of the parallel arithmetic device according to the embodiment of the present invention will be described with reference to the schematic block diagram of FIG. In the schematic block diagram of FIG. 14, the same components as those of the first basic configuration of FIG. Here, a case where the number of units of units AU1 to AU10 is ten will be described. Details of this unit will be described later.
並列演算装置は、第2の基本構成においては、予め定められた識別番号である固有ユニット番号で識別される複数のユニット(AU1〜AU10)と、この複数のユニットの中のいずれか1つのユニットが出力する出力値がユニット出力バス2を介して入力されたことに応じて、該入力された入力値と複数のユニットの中から選択したいずれか1つのユニットを識別する識別番号である選択ユニット番号とを含む制御データを、複数のユニットのそれぞれにユニット入力バス3を介して出力する分配制御部8と、を有する。なお、この制御データには、入力値と、選択ユニット番号と、ユニットの演算方法または制御方法を選択するための制御コードとを含む。
In the second basic configuration, the parallel arithmetic device has a plurality of units (AU1 to AU10) identified by unique unit numbers that are predetermined identification numbers, and any one of the plurality of units. Is a selection unit that is an identification number for identifying any one unit selected from the inputted input value and a plurality of units in response to the output value output by the unit being input via the
次に、図15を用いて、各ユニットの構成について説明する。なお、ユニットAU1からAU10は同一の構成を有するため、ここでは、ユニットAU1の構成のみについて説明する。ユニットAU1は、データ入力部11Aと、データ出力部14Aと、ユニット演算部15Aと、ユニット出力記憶部16Aと、制御コード抽出部17Aと、入力値抽出部18Aと、ユニット番号抽出部19Aと、ユニット番号一致判定部20Aと、固有ユニット番号記憶部21Aと、を有する。
Next, the configuration of each unit will be described with reference to FIG. Since units AU1 to AU10 have the same configuration, only the configuration of unit AU1 will be described here. The unit AU1 includes a
固有ユニット番号記憶部21Aには、それぞれのユニットを識別するための識別番号である固有ユニット番号が予め記憶されている。ユニット出力記憶部16Aには、ユニット演算部15Aが演算した結果である演算結果が記憶される。データ入力部11Aは、ユニット入力バス3を介して分配制御部8からの制御データを入力する。入力値抽出部18Aは、データ入力部11Aに入力された制御データから入力値を抽出する。選択ユニット番号抽出部19Aは、データ入力部11Aに入力された制御データから選択ユニット番号を抽出する。制御コード抽出部17Aは、データ入力部11Aに入力された制御データから制御コードを抽出する。
The unique unit
ユニット番号一致判定部20Aは、データ入力部11Aに入力された制御データに含まれる出力ユニット番号と、固有ユニット番号とが一致するか否かを判定する。このユニット番号一致判定部20Aは、選択ユニット番号抽出部19Aが抽出した選択ユニット番号と、固有ユニット番号記憶部21Aから読み出した固有ユニット番号とが一致するか否かを判定する。
The unit number
ユニット演算部15Aは、データ入力部11Aに入力された制御データに含まれる入力値に基づいて、ユニット毎に予め定められた演算方法により演算する。このユニット演算部15Aは、入力値抽出部18Aが抽出した入力値に基づいて、ユニット毎に予め定められた演算方法により演算する。また、このユニット演算部15Aは、予め定められた演算方法から、制御コード抽出部17Aが抽出した制御コードに基づいて、演算方法を選択し、該選択した演算方法により演算する。また、ユニット演算部15Aは、演算した結果である演算結果をユニット出力記憶部16Aに記憶させる。
The unit calculation unit 15A calculates by a calculation method predetermined for each unit based on the input value included in the control data input to the
データ出力部14Aは、ユニット番号一致判定部20Aが判定した結果が一致である場合には、ユニット演算部15Aが演算した結果である演算結果を出力値として、分配制御部8にユニット出力バス2を介して出力する。また、データ出力部14Aは、ユニット番号一致判定部20Aが判定した結果が一致である場合には、演算結果をユニット出力記憶部16Aから読み出し、該読み出した演算結果を出力値として分配制御部8にユニット出力バス2を介して出力する。
When the result determined by the unit number
次に、図16を用いて、分配制御部8の構成を説明する。分配制御部8は、ユニット出力値入力部31と、制御データ生成部32と、制御データ出力部33と、処理手順記憶部34と、を有する。ユニット出力値入力部31は、ユニット出力バス2を介して複数のユニットの中のいずれか1つのユニットが出力する出力値を入力する。制御データ生成部32は、ユニット出力値入力部31に入力された出力値に基づいて、予め定められた処理手順により制御データを生成する。制御データ出力部33は、制御データ生成部32が生成した制御データを複数のユニットのそれぞれにユニット入力バス3を介して出力する。なお、この制御データ出力部33は、出力する制御データを、電気的に増幅する増幅器を、その内部に有していてもよい。
Next, the configuration of the
また、処理手順記憶部34には、演算を実行する処理手順が予め記憶されている。制御データ生成部32は、処理手順を処理手順記憶部34から順に読み出すことにより、また、必要であれば読み出した処理手順にユニット出力値入力部31に入力された出力値を挿入することにより、予め定められた処理手順により制御データを生成する。
Further, the processing
ここで、分配制御部8の制御データ生成部32は、ユニット出力値入力部31に出力値が入力されたことに応じて、または、制御データ出力部33が制御データを出力してから予め定められた一定時間の経過後に、制御データを生成する。そのため、分配制御部8、より詳しくは、分配制御部8の制御データ出力部33は、ユニット出力値入力部31に出力値が入力されたことに応じて、または、制御データ出力部33が制御データを出力してから予め定められた一定時間の経過後に、制御データを出力する。
Here, the control
また、分配制御部8は、入力端子P2を介して外部から初期値などのデータである入力値を入力され、入力された入力値を各ユニットにユニット入力バス3を介して設定することにより、各ユニットを用いた並列演算を実行する。また、分配制御部8は、各ユニットが演算した演算結果を、各ユニットからユニット出力バス2を介して入力され、該入力された演算結果を外部に出力端子P1を介して出力する。なお、ここでいう外部とは、並列演算装置の外部にある制御装置やコンピュータである。
Further, the
図14から図16を用いて説明した並列演算装置の第2の基本構成においては、分配制御部8が制御データにより各ユニットを制御するために、図1に示す並列演算装置の第1の基本構成と比較して、各ユニットでの処理が簡易となり、また、各ユニット間をデイジーチェーン順序で接続していたデイジーチェーン制御バス1が不要となる効果を奏する。
In the second basic configuration of the parallel arithmetic device described with reference to FIGS. 14 to 16, since the
<第3の実施形態>
<階層型ニューラルネットワークに適応した場合のユニットの構成>
次に、第2の基本構成による並列演算装置を、階層型ニューラルネットワークに適応した場合の構成について説明する。階層型ニューラルネットワークにおいても並列演算装置全体の構成は、図14の並列演算装置の構成と同一であり、ユニットの構成のみが異なる。従って、図17を用いて、階層型ニューラルネットワークに適応した場合のユニットの構成のみについて説明する。
<Third Embodiment>
<Unit configuration when applied to hierarchical neural network>
Next, a configuration when the parallel arithmetic device according to the second basic configuration is applied to a hierarchical neural network will be described. Also in the hierarchical neural network, the configuration of the entire parallel arithmetic device is the same as the configuration of the parallel arithmetic device in FIG. Accordingly, only the configuration of the unit when applied to the hierarchical neural network will be described with reference to FIG.
ユニットは、データ入力部101Aと、データ出力部104Aと、重み記憶部130と、積和計算一次値記憶部131と、層情報記憶部133と、関数記憶部132と、ユニット出力記憶部135Aと、前段ユニット出力記憶部138Bと、前段ユニット番号記憶部139Bと、選択ユニット番号記憶部141Bと、固有ユニット番号記憶部140Bと、を有する。また、ユニットは、積和計算一次値算出部111Aと、ユニット出力算出部112Aと、比較部115Bと、ユニット制御部116Bと、ファンクション番号抽出部150Bと、ファンクション番号記憶部151Bと、オペランド抽出部152Bと、汎用バッファー記憶部153Bと、を有する。
The unit includes a
ここで、図17のデータ入力部101A、データ出力部104A、ユニット出力記憶部135Aは、図15のデータ入力部11A、データ出力部14A、ユニット出力記憶部16Aに、それぞれ対応する。また、図17の固有ユニット番号記憶部140B、比較部115Aが、図15の固有ユニット番号記憶部21A、ユニット番号一致判定部20Aに、それぞれ対応する。これらの図17と図15とにおいて対応する構成について、共通の機能については、その説明を省略する。
Here, the
また、図17のファンクション番号抽出部150Bとファンクション番号記憶部151Bとが図15の制御コード抽出部17Aに対応する。また、図17のオペランド抽出部152Bと汎用バッファー記憶部153Bとが、図15の入力値抽出部18Aまたは選択ユニット番号抽出部19Aに対応する。
Further, the function
また、図17の重み記憶部130と、層情報記憶部133と、積和計算一次値記憶部131と、関数記憶部132と、積和計算一次値算出部111Aと、ユニット出力算出部112Aと、前段ユニット番号記憶部139Bとが、図15のユニット演算部15Aに対応する。
Also, the
また、図17の構成において、図3の第1の基本構成における階層型ニューラルネットワークに適応した場合の並列演算装置のユニットの構成と同様の構成には、同一の符号、または、同一の符号に符号Aを付した符号を付け、その説明を省略する。 In the configuration of FIG. 17, the same reference numerals or the same reference numerals are used for the same configuration as the configuration of the units of the parallel arithmetic unit when applied to the hierarchical neural network in the first basic configuration of FIG. 3. The code | symbol which attached | subjected code | symbol A is attached, and the description is abbreviate | omitted.
<第3の実施形態におけるユニットの各構成の説明>
ファンクション番号記憶部151Bには、制御データに含まれる制御コード(ファンクション番号)が記憶される。汎用バッファー記憶部153Bには、制御データに含まれる制御コードA(ファンクション番号)以外の情報、例えば、後述する選択ユニット番号B、出力値C、配信層情報D、または、配信ユニット識別情報Eが記憶される。以降において、制御データに含まれる制御コードA(ファンクション番号)以外の情報、例えば、後述する選択ユニット番号B、出力値C、配信層情報D、または、配信ユニット識別情報Eを汎用データとして説明する。この制御データの詳細については、図18を用いて後述する。
<Description of Each Configuration of Unit in Third Embodiment>
The function
ファンクション番号抽出部150Bは、データ入力部101Aに入力された制御データに含まれる制御コードを抽出し、抽出した制御コードをファンクション番号記憶部151Bに記憶させる。オペランド抽出部152Bは、データ入力部101Aに入力された制御データに含まれる汎用データを抽出し、抽出した汎用データを汎用バッファー記憶部153Bに記憶させる。
The function
ユニット制御部116Bは、データ入力部101Aに入力された制御データと比較部115Bが判定した結果とに基づいて、処理を実行する、または、予め定められた処理部の中から選択的に処理を実行させる。このデータ入力部101Aに入力された制御データとは、ファンクション番号記憶部151Bから読み出した制御コードと、汎用バッファー記憶部153Bから読み出した汎用データとである。
The
この前記ユニット制御部116Bは、データ入力部101Aに入力された制御データに含まれる制御コードが、積和計算一次値を初期化することを示す場合には、積和計算一次値記憶部131に記憶されている積和計算一次値情報の値を0に初期化する。
When the control code included in the control data input to the
またユニット制御部116Bは、データ入力部101Aに入力された制御データに含まれる制御コードが、積和計算一次値を算出し加算格納することを示し、該制御データが出力値と該出力値を出力しているユニットのユニット識別情報である配信ユニット識別情報とを含む場合には、配信ユニット識別情報を前段ユニット出力記憶部138Bに記憶し、出力値に基づいて積和計算一次値算出部111Aを用いて処理を選択的に実行する。
Further, the
また、ユニット制御部116Bは、データ入力部101Aに入力された制御データに含まれる制御コードがユニット出力演算を実行することを示す場合には、ユニット出力算出部112Aを用いて処理を選択的に実行する。
In addition, when the control code included in the control data input to the
また、ユニット制御部116Bは、データ入力部101Aに入力された制御データに含まれる制御コードがアクティブなユニットとして出力値を出力することを示し、該制御データが選択ユニット番号を含む場合であり、かつ、比較部115B(ユニット番号一致判定部)が判定した結果が一致である場合には、データ出力部104Aの処理を用いて処理を選択的に実行し、演算結果をユニット出力記憶部135Aから読み出し、該読み出した演算結果を出力値として分配制御部8にデータ出力部104Aとユニット出力バス2とを介して出力する。
The
なお、ユニット出力記憶部135Aに層情報と演算結果とが関連付けて記憶されている場合においては、ユニット制御部116Bは、データ入力部101Aに入力された制御データに含まれる制御コードがアクティブなユニットとして出力値を出力することを示し、該制御データが選択ユニット番号を含む場合であり、かつ、比較部115Bが判定した結果が一致である場合には、データ出力部104Aの処理を選択的に実行し、層情報記憶部133から読み出した層情報に該当する演算結果をユニット出力記憶部135Aから読み出し、該読み出した演算結果を出力値として分配制御部8にデータ出力部104Aとユニット出力バス2とを介して出力する。
When the layer information and the operation result are stored in association with each other in the unit
また、ユニット制御部116Bは、データ入力部101Aに入力された制御データが配信層情報を含む場合には、データ入力部101Aに入力された制御データに含められた配信層情報を層情報記憶部133に記憶する。
詳細には、ユニット制御部116Bは、データ入力部101Aに入力された制御データが配信層情報を含む場合には、データ入力部101Aに入力された制御データから配信層情報を抽出し、抽出した配信層情報を層情報記憶部133に記憶する。また、このユニット制御部116Bは、汎用バッファー記憶部153Bから配信層情報を読み出すことにより、データ入力部101Aに入力された制御データから配信層情報を抽出する。
In addition, when the control data input to the
Specifically, when the control data input to the
またユニット制御部116Bは、出力値を出力しているユニットのユニット識別情報である配信ユニット識別情報を、データ入力部101Aに入力された制御データが含む場合には、データ入力部101Aに入力された制御データに含められた配信ユニット識別情報を前段ユニット出力記憶部138Bに記憶する。
詳細には、ユニット制御部116Bは、出力値を出力しているユニットのユニット識別情報である配信ユニット識別情報を、データ入力部101Aに入力された制御データが含む場合には、データ入力部101Aに入力された制御データから配信ユニット識別情報を抽出し、抽出した配信ユニット識別情報をユニット番号記憶部139Bに記憶する。また、このユニット制御部116Bは、汎用バッファー記憶部153Bから配信ユニット識別情報を読み出すことにより、データ入力部101Aに入力された制御データから配信ユニット識別情報を抽出する。
In addition, the
Specifically, the
積和計算一次値算出部111Aは、ユニット制御部116Bの選択に応じて、層情報記憶部133から読み出した層情報に該当する結合荷重を重み記憶部130から読み出し、該読み出した結合荷重と、データ入力部101Aに入力された入力値とを乗算し、該乗算した値を積和計算一次値記憶部131に記憶されている積和計算一次値情報に加算して記憶させる。
The product-sum calculation primary
また、積和計算一次値算出部111Aは、ユニット制御部116Bの選択に応じて、前段ユニット出力記憶部138Bから読み出したユニット識別情報と層情報記憶部133から読み出した層情報とに該当する結合荷重を重み記憶部130から読み出し、該読み出した結合荷重と、データ入力部101Aに入力された入力値とを乗算し、該乗算した値を前記積和計算一次値記憶部131に記憶されている積和計算一次値情報に加算して記憶させる。
Further, the product-sum calculation primary
ユニット出力算出部112Aは、ユニット制御部116Bの選択に応じて、積和計算一次値記憶部131から積和計算一次値情報を読み出し、層情報記憶部133から読み出した層情報に該当する出力関数を関数記憶部132から読み出し、該読み出した出力関数に読み出した積和計算一次値情報を代入することにより出力値を算出し、該算出した出力値をユニット出力記憶部135Aに記憶させる。また、ユニット出力算出部112Aは、この算出した出力値をユニット出力記憶部135Aに記憶させるときに、層情報記憶部133から読み出した層情報と関連付けて、この算出した出力値を前記ユニット出力記憶部135Aに記憶させる。
The unit
<第3の実施形態における制御データのプロトコル>
次に、図18を用いて、一例としての制御データのプロトコルについて説明する。この制御データは、制御コードAと、選択ユニット番号Bと、出力値Cとを含み、更に、配信層情報Dと、配信ユニット識別情報Eと、を含む。この配信層情報Dとは、出力値Cを出力しているユニットの層情報であり、また、配信ユニット識別情報Eとは、出力値Cを出力しているユニットのユニット識別情報である。この制御コードのプロトコルは、制御コードの値により、次に示すように予め定められている。
<Protocol of Control Data in Third Embodiment>
Next, a control data protocol as an example will be described with reference to FIG. The control data includes a control code A, a selection unit number B, and an output value C, and further includes distribution layer information D and distribution unit identification information E. The distribution layer information D is layer information of a unit that outputs an output value C, and the distribution unit identification information E is unit identification information of a unit that outputs an output value C. The protocol of this control code is determined in advance as follows according to the value of the control code.
<選択処理0>
制御データに含まれる制御コードAの値が“0”であり、“積和計算一次値を初期化する”ことを示す制御コードである場合には、この制御データは、他の情報(汎用データ)を含んでいない。この制御コードAの値が“0”である制御データを受信した全てのユニットは、積和計算一次値算出部111Aに記憶されている積和計算一次値の値を0に初期化する。
<
When the value of the control code A included in the control data is “0” and is a control code indicating “initialize the product-sum calculation primary value”, the control data contains other information (general data ) Is not included. All units that have received the control data whose control code A value is “0” initialize the value of the product-sum calculation primary value stored in the product-sum calculation primary
<選択処理1>
また、制御データに含まれる制御コードAの値が“1”であり、“積和計算一次値を算出し加算格納する”ことを示す制御コードである場合には、この制御データは、出力値Cと、配信層情報Dと、配信ユニット識別情報Eと、を含む。この制御コードAの値が1である制御データを受信した全てのユニットは、層情報lを配信層情報Dとし、ユニット識別情報iを配信ユニット識別情報Eとし、入力値の値を出力値Cとして、積和計算一次値を算出する。
<
In addition, when the value of the control code A included in the control data is “1” and the control code indicates that “the product-sum calculation primary value is calculated and added and stored”, the control data is an output value. C, distribution layer information D, and distribution unit identification information E. All the units that have received the control data whose control code A value is 1 have the layer information l as the distribution layer information D, the unit identification information i as the distribution unit identification information E, and the input value as the output value C. As a result, a product-sum calculation primary value is calculated.
<選択処理2>
また、制御データに含まれる制御コードAの値が“2”であり、“ユニット出力演算を実行する”ことを示す制御コードである場合には、この制御データは、配信層情報Dを含む。この制御コードAの値が“2”である制御データを受信した全てのユニットは、層情報lを配信層情報Dとして、ユニット出力演算を実行し、実行した演算結果を出力値として層情報lと関連付けてユニット出力記憶部135Aに格納する。
<
Further, when the value of the control code A included in the control data is “2” and the control code indicates that “unit output calculation is executed”, the control data includes the distribution layer information D. All the units that have received the control data whose control code A value is “2” execute the unit output calculation using the layer information l as the distribution layer information D, and the layer information l using the executed calculation result as the output value. And stored in the unit
<選択処理3>
また、制御データに含まれる制御コードAの値が“3”であり、“アクティブなユニットとして出力値を出力する”ことを示す制御コードである場合には、制御データは、選択ユニット番号Bと配信層情報Dとを含む。この制御コードAの値が“3”である制御データを受信した全てのユニットは、受信した制御データに含まれる選択ユニット番号Bが、自身のユニットが有する固有ユニット番号Iと一致するか否かを判定し、判定した結果が一致する場合には、層情報lを配信層情報Dの値とし、この層情報lに該当するユニット出力記憶部135Aから読み出した出力値を出力する。
<
When the value of the control code A included in the control data is “3” and the control code indicates that “output value is output as an active unit”, the control data includes the selected unit number B and Distribution layer information D. Whether all units that have received control data whose control code A value is “3” indicates whether or not the selected unit number B included in the received control data matches the unique unit number I of its own unit If the determined results match, the layer information l is set as the value of the distribution layer information D, and the output value read from the unit
この図18の制御データのプロトコルに基づいて、分配制御部9は、積和計算一次値を初期化することを示す制御コード、出力値と配信ユニット識別情報とを含み、積和計算一次値を算出し加算格納することを示す制御コード、ユニット出力演算を実行することを示す制御コード、アクティブなユニットとして出力値を出力することを示す制御コード、または、前記配信層情報を含む制御データを、階層型ニューラルネットワークの階層数と該階層のノード数とに合わせて予め定められた順序で出力する。
Based on the control data protocol of FIG. 18, the
<第3の実施形態におけるユニットの動作>
次に、図19を用いて、図18で説明した制御データのプロトコルを受信した場合の、ユニットの動作、特に、ユニットのユニット制御部116の動作について説明する。
まず、ユニットは、データ入力部101Aに制御データが入力されたことに応じて、処理を開始する(ステップS1901)。次に、ファンクション番号抽出部150Bが、データ入力部101Aに入力された制御データから、制御コードを抽出し、抽出した制御コードをファンクション番号記憶部151Bに記憶させる。
<Operation of Unit in Third Embodiment>
Next, the operation of the unit, particularly the operation of the unit control unit 116 of the unit when the control data protocol described in FIG. 18 is received will be described with reference to FIG.
First, the unit starts processing in response to input of control data to the
また、オペランド抽出部152Bが、データ入力部101Aに入力された制御データから、オペランドである制御コード以外の情報、例えば、選択ユニット番号Bと、出力値Cと、配信層情報Dと、配信ユニット識別情報Eとを抽出し、抽出したオペランドを汎用バッファー記憶部153Bに記憶させる。
Further, the
次に、ユニット制御部116Bが、ファンクション番号抽出部150Bが制御コードを抽出したことに応じて、ファンクション番号記憶部151Bから読み出した制御コードの値に基づいて、以降に説明するステップS1902からステップS1908により、ユニットにおける処理を選択的に実行する。
Next, based on the value of the control code read from the function
まず、ユニット制御部116Bは、読み出した制御コードAの値が“0”であるか否かを判定する(ステップS1902)。ステップS1902の判定結果が、読み出した制御コードAの値が“0”である場合には、ユニット制御部116Bは、上記に説明した選択処理0を実行し(ステップS1903)、処理を終了する。
First, the
一方、ステップS1902の判定結果が、読み出した制御コードAの値が“0”でない場合には、ユニット制御部116Bは、読み出した制御コードAの値が“1”であるか否かを判定する(ステップS1904)。ステップS1904の判定結果が、読み出した制御コードAの値が“1”である場合には、ユニット制御部116Bは、上記に説明した選択処理1を実行し(ステップS1905)、処理を終了する。
On the other hand, if the determination result of step S1902 is that the value of the read control code A is not “0”, the
一方、ステップS1904の判定結果が、読み出した制御コードAの値が“1”でない場合には、ユニット制御部116Bは、読み出した制御コードAの値が“2”であるか否かを判定する(ステップS1905)。ステップS1905の判定結果が、読み出した制御コードAの値が“2”である場合には、ユニット制御部116Bは、上記に説明した選択処理2を実行し(ステップS1906)、処理を終了する。
On the other hand, if the determination result of step S1904 is that the value of the read control code A is not “1”, the
一方、ステップS1905の判定結果が、読み出した制御コードAの値が“2”でない場合には、つまり、読み出した制御コードAの値が“3”である場合には、比較部115Bが、選択ユニット番号記憶部141Bから読み出した選択ユニット番号と固有ユニット番号記憶部140Bから読み出した固有ユニット番号とが一致するか否かを判定する(ステップS1907)。ステップS1907の判定結果が、選択ユニット番号と固有ユニット番号とが一致する場合には、ユニット制御部116Bは、上記に説明した選択処理3を実行し(ステップS1908)、処理を終了する。一方、ステップS1907の判定結果が、選択ユニット番号と固有ユニット番号とが一致しない場合には、処理を終了する。
On the other hand, if the determination result of step S1905 indicates that the value of the read control code A is not “2”, that is, if the value of the read control code A is “3”, the
<第3の実施形態における分配制御部8の動作>
次に、図20と図21とを用いて、第2の基本構成による並列演算装置を階層型ニューラルネットワークに適応した場合の分配制御部8の動作について説明する。なお、分配制御部8が出力した制御データに含まれる制御コードの値に応じた各ユニットの動作については、図17から図19を用いて既に説明したので、ここでは、分配制御部8の動作のみについて説明する。なお、ここでも図6の階層型ニューラルネットワークに、第2の基本構成による並列演算装置を適応した場合について説明する。
<Operation of
Next, the operation of the
まず、図20(a)を用いて、階層型ニューラルネットワークに適応した場合における、分配制御部8の動作概要について説明する。まず、各ユニットの初期設定(初期化)をする(ステップS2001)。次に、外部から入力端子P2を介して入力層L1のノード用の入力データ(パターン入力)である入力の指示を受けて、受けた入力を、中間層(隠れ層)L2のノードとしての各ユニットに、分配制御部8が入力層L1として、分配することにより、各ユニットを用いて中間層L2の積和計算を並列に実行する(ステップS2002)。このステップS2002では、分配制御部8が入力層L1のノードとして、中間層L2のノードとなる各ユニットに出力値を出力している。
First, an outline of the operation of the
次に、階層型ニューラルネットワークの全ての中間層(層情報カウンタ変数l=2、・・・L+1)について、中間層積和計算(ステップS2004)の処理を繰り返す(ステップL2002からステップL2005の層ループ処理)。ここで、Lは、中間層の総数(中間層総数)の値であり、図6の3階層である階層型ニューラルネットワークにおいては、この中間層総数Lの値は1である。このステップS2004の中間層積和計算は、後に図21(a)を用いて詳述する。 Next, the intermediate layer product sum calculation (step S2004) is repeated for all intermediate layers (layer information counter variable l = 2,..., L + 1) of the hierarchical neural network (layer loop from step L2002 to step L2005). processing). Here, L is the value of the total number of intermediate layers (total number of intermediate layers). In the hierarchical neural network having three layers in FIG. 6, the value of the total number L of intermediate layers is 1. The intermediate layer product sum calculation in step S2004 will be described in detail later with reference to FIG.
このステップL2002からステップL2005の層ループ処理により、階層型ニューラルネットワークの中間層のノードとしての処理が階層型ニューラルネットワークの層において、入力層L1から出力層L3の方向に順に実行され、最終的には、各ユニットには出力層L3としての演算結果の値が記憶される。なお、このステップL2002からステップL2005のループにおいては、いずれか1つのユニットは、出力をする層としてのアクティブなユニットとして機能し、全てのユニットは入力を受ける層のノードとして機能する。 Through the layer loop processing from step L2002 to step L2005, the processing as the intermediate layer node of the hierarchical neural network is executed in order from the input layer L1 to the output layer L3 in the layer of the hierarchical neural network. In each unit, the value of the operation result as the output layer L3 is stored. In the loop from step L2002 to step L2005, any one unit functions as an active unit serving as an output layer, and all units function as nodes in a layer receiving input.
次に、出力層L3のノードとしてのユニットに出力値を、ユニット識別情報で識別されるユニットの順に出力させる(ステップS2006)ことにより、階層型ニューラルネットワークの出力層L3に属するノードとなる全てのユニットからの演算結果を順に受信する。また、この順に受信した演算結果を、入力されたパターン入力に対しての階層型ニューラルネットワーク演算装置の演算結果として、出力端子P1を介して外部に順に出力する。 Next, the output values are output to the units as the nodes of the output layer L3 in the order of the units identified by the unit identification information (step S2006), whereby all the nodes that belong to the output layer L3 of the hierarchical neural network are output. The calculation results from the unit are received in order. In addition, the calculation results received in this order are sequentially output to the outside through the output terminal P1 as the calculation results of the hierarchical neural network calculation device for the input pattern input.
以上のステップS2001からステップS2006の処理により、この並列演算装置は、外部から入力された入力データ(パターン入力)である入力に応じて、階層型ニューラルネットワークの演算を複数のユニットを用いて並列に実行し、この実行した演算結果を、外部に出力することができる。 Through the processing from step S2001 to step S2006, the parallel arithmetic device performs the calculation of the hierarchical neural network in parallel using a plurality of units according to the input which is input data (pattern input) input from the outside. It can be executed and the result of the executed operation can be output to the outside.
次に、図20(b)、図20(c)、図21(a)、および、図21(b)を用いて、図20(a)の各処理について詳細に説明する。なお、ここでは、図20(b)、図20(c)、図21(a)、および、図21(b)の処理を、図20(a)の各処理についての関数またはサブルーチンとして説明する。 Next, each process of FIG. 20A will be described in detail with reference to FIGS. 20B, 20C, 21A, and 21B. Here, the processing of FIG. 20B, FIG. 20C, FIG. 21A, and FIG. 21B will be described as functions or subroutines for each processing of FIG. .
最初に、図20(b)を用いて、図20(a)のステップS2001の処理を詳細に説明する。まず、制御コードAの値を“0”とした制御データを出力し(ステップS20011)、次に、処理を戻す。 First, the process in step S2001 in FIG. 20A will be described in detail with reference to FIG. First, control data with the value of the control code A set to “0” is output (step S20011), and then the process returns.
次に、図20(c)を用いて、図20(a)のステップS2002の処理を詳細に説明する。まず、カウンタ変数iの値を0から、1、2、・・・N(1)まで順次増加させながら、次のステップS20022とステップS20023との処理を繰り返す(ステップL20021とステップL20024の入力ループ)。このN(1)は、層識別情報の値が1である層のノード数の値、つまり、入力層L1のノード数の値である。例えば、図6の階層型ニューラルネットワークにおいては、この入力層L1のノード数の値は3である。 Next, the process in step S2002 in FIG. 20A will be described in detail with reference to FIG. First, the process of the next step S20022 and step S20023 is repeated while sequentially increasing the value of the counter variable i from 0 to 1, 2,... N (1) (input loop of steps L20021 and L20024). . N (1) is the value of the number of nodes in the layer whose layer identification information value is 1, that is, the value of the number of nodes in the input layer L1. For example, in the hierarchical neural network of FIG. 6, the value of the number of nodes in the input layer L1 is 3.
このステップS20022では、パターン入力xi (l)を外部から入力する。次に、このステップS20023では、制御コードAの値を“1”とし、出力値Cの値をステップS20022で外部から入力されたパターン入力xi (1)とし、配信層情報Dの値をカウンタ変数iとし、配信ユニット識別情報Eの値を1とした制御データを、各ユニットに出力する。
次に、制御コードAの値を“2”とし、配信層情報Dの値を1とした制御データを、各ユニットに出力し(ステップS20025)、処理を戻す。
In step S20022, pattern input x i (l) is input from the outside. Next, in step S20023, the value of the control code A is set to “1”, the value of the output value C is set to the pattern input x i (1) input from the outside in step S20022, and the value of the distribution layer information D is counted as a counter. Control data in which the variable i is set to 1 and the value of the distribution unit identification information E is 1 is output to each unit.
Next, control data with the value of the control code A set to “2” and the value of the distribution layer information D set to 1 is output to each unit (step S20025), and the process returns.
次に、図21(a)を用いて、図20(a)のステップS2004の処理を詳細に説明する。まず、カウンタ変数iの値を0から、1、2、・・・N(l)まで順次増加させながら、次のステップS20042からステップS20044の処理を繰り返す(ステップL20041とステップL20045の入力ループ)。このN(l)は、層識別情報の値が層情報カウンタ変数lである層のノード数の値である。 Next, the processing in step S2004 in FIG. 20A will be described in detail with reference to FIG. First, while sequentially increasing the value of the counter variable i from 0 to 1, 2,... N (l) , the processing from the next step S20042 to step S20044 is repeated (input loop of step L20041 and step L20045). N (l) is the value of the number of nodes in the layer whose layer identification information value is the layer information counter variable l.
このステップS20042では、制御コードAの値を“3”とし、選択ユニット番号Bをカウンタ変数iとし、配信層情報Dを層情報カウンタ変数lとした制御データを、各ユニットに出力する。また、このステップS20043では、ステップS20042で出力した選択ユニット番号Bであるカウンタ変数iと固有ユニット番号とが一致したユニットから出力された出力値xi (l)を入力する。また、このステップS20044では、制御コードAの値を“2”とし、出力値CをステップS20043でユニットから入力された出力値xi (l)とし、配信層情報Dをカウンタ変数iとし、配信ユニット識別情報Eを層情報カウンタ変数lとした制御データを、各ユニットに出力する。
次に、制御コードAの値を“2”とし、配信層情報Dを層情報カウンタ変数lとした制御データを、各ユニットに出力し(ステップS20046)、処理を戻す。
In this step S20042, control data with the value of the control code A set to “3”, the selected unit number B as the counter variable i, and the distribution layer information D as the layer information counter variable l is output to each unit. In step S20043, the output value x i (l) output from the unit in which the counter variable i, which is the selected unit number B output in step S20042, matches the unique unit number is input. In step S20044, the value of the control code A is “2”, the output value C is the output value x i (l) input from the unit in step S20043, the distribution layer information D is the counter variable i, and the distribution is performed. Control data with the unit identification information E as the layer information counter variable l is output to each unit.
Next, control data in which the value of the control code A is “2” and the distribution layer information D is the layer information counter variable l is output to each unit (step S20046), and the process returns.
次に、図21(b)を用いて、図20(a)のステップS2006の処理を詳細に説明する。まず、カウンタ変数iの値を0から、1、2、・・・N(L+2)まで順次増加させながら、次のステップS20062からステップS20064の処理を繰り返し(ステップL20061とステップL20065の出力ループ)、処理を戻す。このN(L+2)は、層識別情報の値が(中間層総数L+2)である層のノード数の値であり、つまり、出力層L3のノードの数である。例えば、図6の階層型ニューラルネットワークにおいては、この出力層L3のノード数の値は3である。 Next, the processing in step S2006 in FIG. 20A will be described in detail with reference to FIG. First, while sequentially increasing the value of the counter variable i from 0 to 1, 2,... N (L + 2) , the processing from the next step S20062 to step S20064 is repeated (the output loop of step L20061 and step L20065). Return processing. N (L + 2) is the value of the number of nodes in the layer whose layer identification information value is (intermediate layer total number L + 2), that is, the number of nodes in the output layer L3. For example, in the hierarchical neural network of FIG. 6, the value of the number of nodes of the output layer L3 is 3.
このステップS20062では、制御コードAの値を“3”とし、選択ユニット番号Bをカウンタ変数iとし、配信層情報Dを(中間層総数L+2)とした制御データを、各ユニットに出力する。また、このステップS20063では、ステップS20062で出力した選択ユニット番号Bであるカウンタ変数iと固有ユニット番号とが一致したユニットから出力された出力値xi (L+2)を入力する。また、このステップS20064では、ステップS20063でユニットから入力された出力値xi (L+2)を、出力端子P1を介して外部に出力する。 In this step S20062, control data in which the value of the control code A is “3”, the selected unit number B is the counter variable i, and the distribution layer information D is (intermediate layer total number L + 2) is output to each unit. In step S20063, the output value x i (L + 2) output from the unit in which the counter variable i, which is the selected unit number B output in step S20062, matches the unique unit number is input. In step S20064, the output value x i (L + 2) input from the unit in step S20063 is output to the outside via the output terminal P1.
以上の処理により、この第3の実施形態による階層型ニューラルネットワークに適応した場合の並列演算装置は、第1の実施形態による階層型ニューラルネットワークに適応した場合の並列演算装置と同様に、階層型ニューラルネットワークを実行することができ、また、第1の実施形態による階層型ニューラルネットワークと同様の効果を奏することが可能である。 As a result of the above processing, the parallel computing device when applied to the hierarchical neural network according to the third embodiment is similar to the hierarchical computing device adapted to the hierarchical neural network according to the first embodiment. A neural network can be executed, and the same effects as the hierarchical neural network according to the first embodiment can be obtained.
<第4の実施形態>
<自己組織化マップに適応した場合のユニットの構成>
次に、第2の基本構成による並列演算装置を、自己組織化マップに適応した場合の構成について説明する。自己組織化マップにおいても並列演算装置全体の構成は、図14の並列演算装置の構成と同一であり、ユニットの構成のみが異なる。従って、図22を用いて、自己組織化マップに適応した場合のユニットの構成のみについて説明する。
<Fourth Embodiment>
<Unit structure when adapted to the self-organizing map>
Next, a configuration when the parallel arithmetic device according to the second basic configuration is applied to the self-organizing map will be described. Also in the self-organizing map, the configuration of the entire parallel arithmetic device is the same as the configuration of the parallel arithmetic device in FIG. Accordingly, only the configuration of the unit when applied to the self-organizing map will be described with reference to FIG.
ここで、第1の基本構成における自己組織化マップの並列演算装置においては、最小のノルムを有するユニットの決定は、各ユニットがノルムを算出し、次に、ユニット間でノルムの大小を順に比較していた。これに対して、この第2の基本構成における自己組織化マップの並列演算装置においては、各ユニットがノルムを算出した後に、分配制御部8の制御に基づいて、各ユニットが算出したノルムを順に分配制御部8にユニット出力バス2を介して出力する。次に、分配制御部8が、入力されたノルムの中から最小となるノルムを選択することにより、最小のノルムを有するユニットを決定する。
Here, in the parallel arithmetic unit of the self-organizing map in the first basic configuration, the unit having the minimum norm is determined by each unit calculating the norm, and then the norms are compared in order between the units. Was. On the other hand, in the parallel computing device of the self-organizing map in the second basic configuration, after each unit calculates the norm, the norm calculated by each unit is sequentially changed based on the control of the
また、第1の基本構成における自己組織化マップの並列演算装置においては、各ユニットが、学習回数に関連付けて学習速度と近傍距離とを予め内部の記憶部(学習速度記憶部と近傍距離記憶部)に記憶していた。これに対して第2の基本構成における自己組織化マップの並列演算装置においては、分配制御部8が、内部に有する学習速度記憶部と近傍距離記憶部とに、学習回数に関連付けて学習速度と近傍距離とを記憶する。また、各ユニットは、1つの値の学習速度と近傍距離とを内部の記憶部(学習速度記憶部と近傍距離記憶部)に記憶する。また、分配制御部8が、学習回数に応じて、学習速度記憶部と近傍距離記憶部とを各ユニットに制御データに含めて配信し、各ユニットが、内部の記憶部(学習速度記憶部と近傍距離記憶部)の学習速度記憶部と近傍距離記憶部とを、分配制御部8から受信した制御データに含まれている学習速度記憶部と近傍距離記憶部とに更新する。
Further, in the self-organizing map parallel computation device according to the first basic configuration, each unit associates the learning speed and the neighborhood distance with the number of times of learning in advance in an internal storage unit (learning rate storage unit and neighborhood distance storage unit ) On the other hand, in the parallel computing device of the self-organizing map in the second basic configuration, the
以上のように、分配制御部8が、学習回数に応じて、学習速度記憶部と近傍距離記憶部とを各ユニットに制御データに含めて配信するようにすることにより、全てのユニットが学習回数に関連付けて学習速度と近傍距離とを予め内部の記憶部しておく必要がなくなるという効果を奏する。また、例えば、学習速度と近傍距離との変化の度合いを学習回数に応じて早くするまたは遅くするなどの、学習回数に関連付いた学習速度と近傍距離との変化の仕方を変更する場合には、学習回数と関連付けて学習速度記憶部と近傍距離記憶部とを記憶している分配制御部8内部の記憶部の情報のみを変更するのみでよく、変更が簡易となる効果を奏する。
As described above, the
また、自己組織化マップに適応した場合のユニットは、第2の実施形態と同様に、ネットワーク座標により識別される座標で予め識別されている。そこで、第4の実施形態においては、固有ユニット番号をネットワーク座標として説明する。なお、各ユニットは、第2の実施形態または第3の実施形態と同様に、同一の構成を有しているので、ここでは図22を用いて1つのユニットの構成のみについて説明する。 Further, the unit when adapted to the self-organizing map is identified in advance by coordinates identified by network coordinates, as in the second embodiment. Therefore, in the fourth embodiment, the unique unit number will be described as network coordinates. Since each unit has the same configuration as in the second or third embodiment, only the configuration of one unit will be described here with reference to FIG.
ユニットは、データ入力部201Aと、データ出力部204Aと、距離記憶部232Aと、重み記憶部231Aと、ノルム算出部214Aと、近傍判定部215Aと、重み更新部216Aと、ユニットネットワーク座標記憶部234Aと、入力ネットワーク座標記憶部233Aと、学習速度記憶部235Aと、ユニットノルム記憶部236Aと、入力データ記憶部230Aと、実数ベクトル次元数記憶部242Bと、比較部215Bと、ユニット制御部216Bと、ファンクション番号抽出部250Bと、ファンクション番号記憶部251Bと、オペランド抽出部252Bと、汎用バッファー記憶部253Bと、を有する。
The unit includes a
ここで、図22のデータ入力部201A、データ出力部204A、ユニットノルム記憶部236Aと重み記憶部231Aは、図15のデータ入力部11A、データ出力部14A、ユニット出力記憶部16Aに、それぞれ対応する。また、図22のユニットネットワーク座標記憶部234A、比較部215Bが、図15の固有ユニット番号記憶部21A、ユニット番号一致判定部20Aに、それぞれ対応する。これらの図22と図15とにおいて対応する構成について、共通の機能については、その説明を省略する。
Here, the
また、図22のファンクション番号抽出部250Bとファンクション番号記憶部251Bとが図15の制御コード抽出部17Aに対応する。また、図22のオペランド抽出部252Bと汎用バッファー記憶部253Bとが、図15の入力値抽出部18Aまたは選択ユニット番号抽出部19Aに対応する。
Further, the function
また、図22の構成において、図7と図8との第1の基本構成における自己組織化マップに適応した場合の並列演算装置のユニットの構成と同様の構成には、同一の符号、または、同一の符号に符号Aを付した符号を付け、その説明を省略する。 In the configuration of FIG. 22, the same reference numerals are given to the same configuration as the configuration of the units of the parallel arithmetic device when applied to the self-organizing map in the first basic configuration of FIGS. 7 and 8, or The same reference numerals are denoted by the reference numerals A, and the description thereof is omitted.
<第4の実施形態におけるユニットの各構成の説明>
ファンクション番号記憶部251Bには、制御データに含まれる制御コード(ファンクション番号)が記憶される。汎用バッファー記憶部253Bには、制御データに含まれる制御コードA(ファンクション番号)以外の情報、例えば、後述する入力ネットワーク座標B、入力学習速度C、入力近傍距離D、入力重みW、入力次元数N、または、入力値Xが記憶される。
<Description of Each Configuration of Unit in Fourth Embodiment>
The function
以降において、制御データに含まれる制御コードA(ファンクション番号)以外の情報、例えば、後述する入力ネットワーク座標B、入力学習速度C、入力近傍距離D、入力重みW、入力次元数N、または、入力値Xを汎用データとして説明する。この制御データの詳細については、図23を用いて後述する。 Hereinafter, information other than the control code A (function number) included in the control data, for example, input network coordinates B, input learning speed C, input proximity distance D, input weight W, input dimension number N, or input described later The value X will be described as general-purpose data. Details of the control data will be described later with reference to FIG.
ファンクション番号抽出部250Bは、データ入力部201Aに入力された制御データに含まれる制御コードを抽出し、抽出した制御コードをファンクション番号記憶部251Bに記憶させる。オペランド抽出部252Bは、データ入力部201Aに入力された制御データに含まれる汎用データを抽出し、抽出した汎用データを汎用バッファー記憶部253Bに記憶させる。
The function
ユニット制御部216Bは、データ入力部201Aに入力された制御データと比較部215Bが判定した結果とに基づいて、処理を実行する、または、予め定められた処理部の中から選択的に処理を実行させる。このデータ入力部201Aに入力された制御データとは、ファンクション番号記憶部251Bから読み出した制御コードと、汎用バッファー記憶部253Bから読み出した汎用データとである。
The
また、図22の距離記憶部232Aと、ノルム算出部214Aと、近傍判定部215Aと、重み更新部216Aと、入力ネットワーク座標記憶部233Aと、学習速度記憶部235Aと、入力データ記憶部230Aと、実数ベクトル次元数記憶部242Bと、ユニット制御部216Bとが、図15のユニット演算部15Aに対応する。なお、図22の重み記憶部231Aは、図15のユニット演算部15Aとユニット出力記憶部16Aとに対応する。
Also, the
また、ユニット制御部216Bの詳細と他の構成とについては、次に図23を用いて、一例としての制御データのプロトコルの説明とともに説明する。
Details and other configurations of the
<第4の実施形態における制御データのプロトコル>
次に、図23を用いて、一例としての制御データのプロトコルについて説明する。この制御データは、制御コードAと、入力ネットワーク座標Bと、入力学習速度Cと、入力近傍距離Dと、入力結合重みベクトルW(W1、W2、・・・)と、入力次元数Nと、入力ベクトルX(X1、X2、・・・)と、を含む。この制御コードのプロトコルは、制御コードの値により、次に示すように予め定められている。
<Protocol of Control Data in Fourth Embodiment>
Next, an exemplary control data protocol will be described with reference to FIG. This control data includes control code A, input network coordinates B, input learning speed C, input proximity distance D, input coupling weight vector W (W1, W2,...), Input dimension number N, Input vector X (X1, X2,...). The protocol of this control code is determined in advance as follows according to the value of the control code.
<選択処理4>
制御データに含まれる制御コードAの値が“4”であり、“重みを設定する”ことを示す場合には、この制御データは、入力ネットワーク座標Bと入力結合重みベクトルW(W1、W2、・・・)とを含んでいる。この制御コードAの値が“4”であり、“重みを設定する”ことを示す制御データを受信した全てのユニットは、ユニットのユニット制御部216Bが、入力ネットワーク座標記憶部233Aに記憶されている入力ネットワーク座標の値を、受信した制御データに含まれる入力ネットワーク座標Bに更新するとともに、比較部215Bが、該更新した入力ネットワーク座標とユニットネットワーク座標記憶部234Aから読み出したユニットネットワーク座標とが一致するか否かを判定する。次に、比較部215Bの判定結果が一致する場合には、ユニット制御部216Bが、重み記憶部231Aに記憶されている結合重みベクトルを、受信した制御データに含まれる入力結合重みベクトルW(W1、W2、・・・)に更新する。
<
When the value of the control code A included in the control data is “4”, indicating that “weight is set”, the control data includes the input network coordinate B and the input coupling weight vector W (W1, W2, ...). For all units that have received the control data indicating that the value of the control code A is “4” and “set the weight”, the
<選択処理5>
制御データに含まれる制御コードAの値が“5”であり、“学習速度と近傍距離とを設定する”ことを示す場合には、この制御データは、入力学習速度Cと、入力近傍距離Dと、を含んでいる。この制御コードAの値が“5”であり、“学習速度と近傍距離とを設定する”ことを示す制御データを受信した全てのユニットは、ユニットのユニット制御部216Bが、学習速度記憶部235Aに記憶されている学習速度を受信した制御データに含まれる入力学習速度Cに更新するとともに、距離記憶部232Aに記憶されている基準距離を受信した制御データに含まれる入力近傍距離Dに更新する。
<
When the value of the control code A included in the control data is “5”, indicating that “the learning speed and the neighborhood distance are set”, the control data includes the input learning speed C and the input neighborhood distance D. And. The
<選択処理6>
制御データに含まれる制御コードAの値が“6”であり、“実数ベクトルの次元数を設定する”こと示す場合には、この制御データは、入力次元数Nを含んでいる。この制御コードAの値が“6”であり、“実数ベクトルの次元数を設定する”ことを示す制御データを受信した全てのユニットは、ユニットのユニット制御部216Bが、実数ベクトル次元数記憶部242Bに記憶されている次元数を受信した制御データに含まれる入力次元数Nに更新する。
<
When the value of the control code A included in the control data is “6”, which indicates that “the number of dimensions of the real vector is set”, the control data includes the number of input dimensions N. The
<選択処理7>
制御データに含まれる制御コードAの値が“7”であり、“ノルムを算出する”ことを示す場合には、この制御データは、入力ベクトルX(X1、X2、・・・)を含んでいる。この制御コードAの値が“7”であり、“ノルムを算出する”ことを示す制御データを受信した全てのユニットは、ユニットのユニット制御部216Bが、入力データ記憶部230Aに記憶されている入力データベクトルを入力ベクトルX(X1、X2、・・・)に更新する。次に、ノルム算出部214Aが、該更新した入力ベクトルX(X1、X2、・・・)と、重み記憶部231Aから読み出した結合重みベクトルとのノルムを算出し、該算出したノルムをユニットノルムとしてユニットノルム記憶部236Aに記憶させる。
<
When the value of the control code A included in the control data is “7”, indicating that “norm is calculated”, this control data includes the input vector X (X1, X2,...). Yes. For all units that have received the control data indicating that the value of the control code A is “7” and “calculate the norm”, the
<選択処理8>
制御データに含まれる制御コードAの値が“8”であり、“ノルムを出力する”ことを示す場合には、この制御データは、入力ネットワーク座標Bを含んでいる。この制御コードAの値が“8”であり、“ノルムを出力する”ことを示す制御データを受信した全てのユニットは、ユニットのユニット制御部216Bが、入力ネットワーク座標記憶部233Aに記憶されている入力ネットワーク座標の値を、受信した制御データに含まれる入力ネットワーク座標Bに更新するとともに、比較部215Bが、該更新した入力ネットワーク座標とユニットネットワーク座標記憶部234Aから読み出したユニットネットワーク座標とが一致するか否かを判定する。次に、比較部215Bの判定結果が一致する場合には、ユニット制御部216Bが、ユニットノルム記憶部236Aから読み出したユニットノルムを、データ出力部204Aとユニット出力バス2とを介して分配制御部8に出力する。
<
When the value of the control code A included in the control data is “8”, which indicates “output the norm”, the control data includes the input network coordinate B. For all units that have received the control data indicating that the value of the control code A is “8” and “output the norm”, the
<選択処理9>
制御データに含まれる制御コードAの値が“9”であり、“学習する”ことを示す場合には、この制御データは、入力ネットワーク座標Bを含んでいる。この制御コードAの値が“9”であり、“学習する”ことを示す制御データを受信した全てのユニットは、ユニット制御部216Bが、入力ネットワーク座標記憶部233Aに記憶されている入力ネットワーク座標を、制御データに含まれていた入力ネットワーク座標Bに更新する。次に、ユニットの近傍判定部215Aが、ユニットネットワーク座標記憶部234Aから読み出したユニットネットワーク座標と入力ネットワーク座標記憶部233Aから読み出した入力ネットワーク座標との間の距離を算出し、該算出した距離が、距離記憶部232Aから読み出した距離以下であるか否かを判定することにより、ユニットネットワーク座標記憶部234Aから読み出したユニットネットワーク座標が、入力ネットワーク座標記憶部233Aから読み出した入力ネットワーク座標の近傍にあるか否かを判定する。次に、近傍判定部215Aの判定した結果が近傍である場合には、重み更新部216Aが、入力データ記憶部230Aから読み出した入力データベクトルと重み記憶部231Aから読み出した結合重みベクトルとの差を算出し、該算出した差に学習速度記憶部235Aから読み出した学習速度係数を乗じた値を、重み記憶部231Aに記憶されている結合重みベクトルに加算し、重み記憶部231Aに記憶されている結合重みベクトルを更新することにより、学習する。
<
When the value of the control code A included in the control data is “9”, which indicates “learn”, the control data includes the input network coordinate B. All units that have received the control data indicating that the value of the control code A is “9” and “learn” are input network coordinates stored in the input network coordinate
<選択処理10>
制御データに含まれる制御コードAの値が“10”であり、“学習結果を出力する”ことを示す場合には、この制御データは、入力ネットワーク座標Bを含んでいる。この制御コードAの値が“10”であり、“学習結果を出力する”ことを示す制御データを受信した全てのユニットは、ユニットのユニット制御部216Bが、入力ネットワーク座標記憶部233Aに記憶されている入力ネットワーク座標の値を、受信した制御データに含まれる入力ネットワーク座標Bに更新するとともに、比較部215Bが、該更新した入力ネットワーク座標とユニットネットワーク座標記憶部234Aから読み出したユニットネットワーク座標とが一致するか否かを判定する。次に、比較部215Bの判定結果が一致する場合には、ユニット制御部216Bが、重み記憶部231Aから読み出した結合重みベクトルを、データ出力部204Aとユニット出力バス2とを介して分配制御部8に出力する。
<
When the value of the control code A included in the control data is “10”, indicating that “learning result is output”, the control data includes the input network coordinate B. For all units that have received the control data indicating that the value of the control code A is “10” and “output the learning result”, the
<第4の実施形態におけるユニットの動作>
次に、図24を用いて、図23で説明した制御データのプロトコルを受信した場合の、ユニットの動作、特に、ユニットのユニット制御部216Bの動作について説明する。なお、説明の簡略のために、以降においては制御コードAの値を用いて説明する。この制御コードAの値の意味は、上記に図23の説明と同様である。
<Operation of Unit in Fourth Embodiment>
Next, with reference to FIG. 24, the operation of the unit when the control data protocol described in FIG. 23 is received, in particular, the operation of the
まず、ユニットは、データ入力部201Aに制御データが入力されたことに応じて、処理を開始する(ステップS2401)。次に、ファンクション番号抽出部250Bが、データ入力部201Aに入力された制御データから、制御コードを抽出し、抽出した制御コードをファンクション番号記憶部251Bに記憶させる。
First, the unit starts processing in response to input of control data to the
また、オペランド抽出部252Bが、データ入力部201Aに入力された制御データから、オペランドである制御コード以外の情報を汎用バッファー記憶部253Bに記憶させる。
Further, the
次に、ユニット制御部216Bが、ファンクション番号抽出部250Bが制御コードを抽出したことに応じて、ファンクション番号記憶部251Bから読み出した制御コードの値に基づいて、以降に説明するステップS2402からステップS2412により、ユニットにおける処理を選択的に実行する(ステップS2402)。
Next, based on the value of the control code read from the function
ステップS2402で、読み出した制御コードの値が“4”である場合には、比較部215Bが、ユニットネットワーク座標記憶部234Aから読み出したユニットネットワーク座標と入力ネットワーク座標記憶部233Aから読み出した入力ネットワーク座標とが一致するか否かを判定する(ステップS2403)。ステップS2403の判定結果が、選択ユニット番号と固有ユニット番号とが一致する場合には、ユニット制御部216Bは、上記に説明した選択処理4を実行し(ステップS2404)、処理を終了する。一方、ステップ2403の判定結果が、選択ユニット番号と固有ユニット番号とが一致しない場合には、処理を終了する。
If the read control code value is “4” in step S2402, the
一方、ステップS2402で、読み出した制御コードの値が“5”である場合には、ユニット制御部216Bは、上記に説明した選択処理5を実行し(ステップS2405)、処理を終了する。一方、ステップS2402で、読み出した制御コードの値が“6”である場合には、ユニット制御部216Bは、上記に説明した選択処理6を実行し(ステップS2406)、処理を終了する。一方、ステップS2403で、読み出した制御コードの値が“7”である場合には、ユニット制御部216Bは、上記に説明した選択処理7を実行し(ステップS2407)、処理を終了する。
On the other hand, if the value of the read control code is “5” in step S2402, the
一方、ステップS2402で、読み出した制御コードの値が“8”である場合には、比較部215Bが、ユニットネットワーク座標記憶部234Aから読み出したユニットネットワーク座標と入力ネットワーク座標記憶部233Aから読み出した入力ネットワーク座標とが一致するか否かを判定する(ステップS2408)。ステップS2408の判定結果が、選択ユニット番号と固有ユニット番号とが一致する場合には、ユニット制御部216Bは、上記に説明した選択処理8を実行し(ステップS2409)、処理を終了する。一方、ステップ2408の判定結果が、選択ユニット番号と固有ユニット番号とが一致しない場合には、処理を終了する。
On the other hand, if the read control code value is “8” in step S2402, the
一方、ステップS2402で、読み出した制御コードの値が“9”である場合には、ユニット制御部216Bは、上記に説明した選択処理9を実行し(ステップS2410)、処理を終了する。
On the other hand, if the value of the read control code is “9” in step S2402, the
一方、ステップS2402で、読み出した制御コードの値が“10”である場合には、比較部215Bが、ユニットネットワーク座標記憶部234Aから読み出したユニットネットワーク座標と入力ネットワーク座標記憶部233Aから読み出した入力ネットワーク座標とが一致するか否かを判定する(ステップS2411)。ステップS2411の判定結果が、選択ユニット番号と固有ユニット番号とが一致する場合には、ユニット制御部216Bは、上記に説明した選択処理10を実行し(ステップS2412)、処理を終了する。一方、ステップ2411の判定結果が、選択ユニット番号と固有ユニット番号とが一致しない場合には、処理を終了する。
On the other hand, if the read control code value is “10” in step S2402, the
上記に図24を用いて説明したように、各ユニットは、ユニットのユニット制御部216Bにより、入力された入力データに含まれる制御コードの値に基づいて、選択的に予め定められた処理を実行する。
As described above with reference to FIG. 24, each unit selectively executes predetermined processing based on the value of the control code included in the input data, by the
<第4の実施形態における分配制御部8の動作>
次に、図25と図26とを用いて、第2の基本構成による並列演算装置を自己組織化マップに適応した場合の、並列演算装置の動作について説明する。なお、並列演算装置は分配制御部8と複数のユニットを有するが、分配制御部8が出力した制御データに含まれる制御コードの値に応じた各ユニットの動作については、図22から図24を用いて既に説明したので、ここでは、分配制御部8の動作のみについて説明する。
<Operation of
Next, the operation of the parallel computing device when the parallel computing device according to the second basic configuration is applied to the self-organizing map will be described with reference to FIGS. Note that the parallel computing device includes the
まず、図25(a)を用いて、自己組織化マップに適応した場合における並列演算装置の分配制御部8の動作について説明する。まず、各ユニットの初期設定をする(ステップS2501)。この初期設定については、後に図25(b)を用いて詳述する。
First, the operation of the
次に、学習回数変数t=0、1、2、・・・・Tについて、競合学習(ステップS2503)を繰り返す(ステップL2502からステップL2504の学習ループ処理)。ここで、このTは、競合学習の学習回数である。また、このステップS2502の競合学習については、後に図26(a)を用いて詳述する。 Next, competitive learning (step S2503) is repeated for the learning frequency variable t = 0, 1, 2,... T (learning loop processing from step L2502 to step L2504). Here, T is the number of times of competitive learning. The competitive learning in step S2502 will be described in detail later with reference to FIG.
次に、学習した結果を出力する(ステップS2505)。この出力については、後に図26(c)を用いて詳述する。 Next, the learned result is output (step S2505). This output will be described in detail later with reference to FIG.
次に、図25(b)と、図26(a)から図26(c)とを用いて、図25(a)の各処理について詳細に説明する。なお、ここでは、図25(b)と、図26(a)から図26(c)との処理を、図20(a)の各処理についての関数またはサブルーチンとして説明する。 Next, with reference to FIG. 25B and FIGS. 26A to 26C, each process of FIG. 25A will be described in detail. Here, the processes in FIG. 25B and FIGS. 26A to 26C will be described as functions or subroutines for the processes in FIG. 20A.
最初に、図25(b)を用いて、図25(a)のステップS2501の初期設定の処理について説明する。まず、パターン入力nを外部から入力する(ステップS250101)。次に、制御コードAの値を“6”、出力値Dの値を入力されたパターン入力nとした制御データを、各ユニットに出力する(ステップS250102)。 First, the initial setting process in step S2501 in FIG. 25A will be described with reference to FIG. First, the pattern input n is input from the outside (step S250101). Next, control data in which the value of the control code A is “6” and the value of the output value D is input to the pattern input n is output to each unit (step S250102).
次に、ユニットループ変数j=1、2、・・・Nで示されるユニットの順に、次のステップL250104からステップL250106の次元ループとS250107との処理を繰り返す(ステップL250103からステップL250108のユニットループ)。ここで、Nは、ユニットの総数の値である。 Next, in the order of the units indicated by unit loop variable j = 1, 2,... N, the processing of the next dimension loop from step L250104 to step L250106 and S250107 is repeated (unit loop from step L250103 to step L250108). . Here, N is a value of the total number of units.
このステップL250104からステップL250106の次元ループでは、入力ベクトル次元数i=1、2、・・・nで示される入力ベクトルの次元数の順に、次のステップS250105の処理を繰り返す。このステップS250105では、外部から入力パターンwjiを入力する。ここで、nは、入力ベクトルの次元数である。 In the dimension loop from step L250104 to step L250106, the processing of the next step S250105 is repeated in the order of the dimension number of the input vector indicated by the input vector dimension number i = 1, 2,. In step S250105, an input pattern wji is input from the outside. Here, n is the number of dimensions of the input vector.
また、このステップS250107の処理では、制御コードAの値を“4”、入力ネットワーク座標Bの値をユニットループ変数j、出力値C(C1、C2、・・・Cn)を入力パターンwji(wj1、wj2、・・・wjn)とした制御データを、各ユニットに出力する。 In step S250107, the value of the control code A is “4”, the value of the input network coordinate B is the unit loop variable j, and the output value C (C1, C2,... Cn) is the input pattern wji (wj1). , Wj2,... Wjn) are output to each unit.
上記のステップL250103からステップL250108の処理により、各ユニットに対して、それぞれのユニット内の重み記憶部231Aの結合重みベクトルを初期設定する。
By the processing from step L250103 to step L250108, the connection weight vector of the
次に、学習回数変数t=0、1、2、・・・Tについて、ステップS250110の処理を繰り返す(ステップL250109からステップL250111の入力ループ)。このステップS250110では、外部から学習速度η(t)と近傍距離d(t)とを入力し、学習回数変数tと関連付けて入力した学習速度η(t)を内部の学習速度記憶部に記憶するとともに、学習回数変数tと関連付けて入力した近傍距離d(t)を内部の近傍距離記憶部に記憶する。
次に、後に図26(b)を用いて説明する最小ノルム判定に用いるダミー変数であるノルム最小値dminの値を−1に設定し(ステップS250112)、処理を戻す。
Next, the processing in step S250110 is repeated for the learning frequency variable t = 0, 1, 2,... T (input loop from step L250109 to step L250111). In this step S250110, the learning speed η (t) and the neighborhood distance d (t) are input from the outside, and the learning speed η (t) input in association with the learning frequency variable t is stored in the internal learning speed storage unit. At the same time, the proximity distance d (t) input in association with the learning frequency variable t is stored in the internal proximity distance storage unit.
Next, the value of the norm minimum value dmin, which is a dummy variable used for minimum norm determination described later with reference to FIG. 26B, is set to −1 (step S250112), and the process returns.
次に、図26(a)を用いて、図25(a)のステップS2503の競合学習の処理について説明する。まず、制御コードAの値を“5”、入力学習速度Cを内部の学習速度記憶部から読み出した学習速度η(t)、入力近傍距離Dを内部の近傍距離記憶部から読み出した近傍距離d(t)とした制御データを各ユニットに出力する(ステップS250301)。 Next, the competitive learning process in step S2503 in FIG. 25A will be described with reference to FIG. First, the value of the control code A is “5”, the input learning speed C is the learning speed η (t) read from the internal learning speed storage unit, and the input neighborhood distance D is the neighborhood distance d read from the internal neighborhood distance storage unit. The control data set as (t) is output to each unit (step S250301).
次に、次元ループ変数i=1、2、・・・nについて、次のステップS250303の処理を繰り返す(ステップL250302からステップL250304の次元ループ)。このステップS250303では、外部からパターン入力xiを入力する。 Next, the process of the next step S250303 is repeated for the dimension loop variable i = 1, 2,... N (the dimension loop from step L250302 to step L250304). In step S250303, a pattern input xi is input from the outside.
次に、制御コードAの値を“7”、入力ベクトルC(C1、C2、・・・Cn)をステップL250302からステップL250304で外部から入力したパターン入力x(x1、x2、・・・xn)とした制御データを各ユニットに出力する(ステップS250305)。 Next, the value of the control code A is “7”, and the input vector C (C1, C2,... Cn) is input from the outside in steps L250302 to L250304, pattern input x (x1, x2,... Xn). The control data is output to each unit (step S250305).
次に、ユニットループ数変j=1、2、・・・Nについて、次のステップS250307とステップS250308とステップS250309との処理を繰り返す(ステップL250306からステップL250310のユニットループ)。このステップS250307では、制御コードAの値を“8”、入力ネットワーク座標Bの値をユニットループ変数j、とした制御データを各ユニットに出力する。また、このステップS250308では、ステップS250307で制御コードAの値を“8”、入力ネットワーク座標Bの値をユニットループ数変j、とした制御データに対して、ユニットネットワーク座標が入力ネットワーク座標Bであるユニットループ数変jに一致するユニットからのノルムの出力を、ノルムdnとして入力する。 Next, for the unit loop number variable j = 1, 2,... N, the processing of the next step S250307, step S250308, and step S250309 is repeated (unit loop from step L250306 to step L250310). In step S250307, control data having the control code A value of “8” and the input network coordinate B value of the unit loop variable j is output to each unit. In step S250308, the unit network coordinates are the input network coordinates B for the control data in which the value of the control code A is “8” and the value of the input network coordinates B is the unit loop number variable j in step S250307. The norm output from the unit that matches a certain unit loop number variable j is input as norm dn.
また、このステップS250309では、ステップS250308で入力したノルムdnに基づいて、最小ノルム判定の処理を実行する。このステップS250309における最小ノルム判定の処理については、後に、図26(b)を用いて詳細に説明する。 In step S250309, the minimum norm determination process is executed based on the norm dn input in step S250308. The minimum norm determination process in step S250309 will be described later in detail with reference to FIG.
上記のステップL250306からステップL250310の処理により、各ユニットで算出されたノルムを全てのユニットから順に入力し、ステップS250309の処理にて入力したノルムを順に比較することにより、全てのユニットからのノルムの出力の中から最小となるノルムと、該最小となるノルムを出力したユニットを識別する識別情報であるユニットネットワーク座標をノルム最小ユニットネットワーク座標jminとして選択する。 The norm calculated in each unit is input in order from all units by the processing in steps L250306 to L250310, and the norms input in the processing in step S250309 are compared in order, so that the norms from all units are compared. From the output, the minimum norm and the unit network coordinates that are identification information for identifying the unit that has output the minimum norm are selected as the norm minimum unit network coordinates jmin.
次に、制御コードAの値を“9”、入力ネットワーク座標Bの値をノルム最小ユニットネットワーク座標jmin、とした制御データを各ユニットに出力する。これにより、各ユニットは、入力されたノルム最小ユニットネットワーク座標jminに基づいて、近傍となるユニットが学習をする。 Next, control data in which the value of the control code A is “9” and the value of the input network coordinate B is the norm minimum unit network coordinate jmin is output to each unit. Thereby, each unit learns based on the input norm minimum unit network coordinate jmin.
次に、図26(b)を用いて、図26(a)のステップS250309の最小ノルム判定の処理について説明する。
まず、ステップS250308で入力したノルムdnがノルム最小値dminより小さいか否か、または、ノルム最小値dminの値が−1であるか否かを判定する(ステップS2503091)。ステップS2503091で判定した結果が、入力したノルムdnがノルム最小値dminより小さい場合、または、ノルム最小値dminの値が−1である場合には、ノルム最小値dminを入力したノルムdnとするともに、ノルム最小ユニットネットワーク座標jminをユニットループ変数jとし(ステップS2503092)、処理を戻す。
Next, the minimum norm determination process in step S250309 in FIG. 26A will be described with reference to FIG.
First, it is determined whether the norm dn input in step S250308 is smaller than the norm minimum value dmin or whether the value of the norm minimum value dmin is −1 (step S2503091). If the input norm dn is smaller than the norm minimum value dmin, or if the norm minimum value dmin is −1, the norm minimum value dmin is set as the input norm dn. The norm minimum unit network coordinate jmin is set as the unit loop variable j (step S2503092), and the process returns.
一方、ステップS2503091で判定した結果が、入力したノルムdnがノルム最小値dminより小さくない場合であって、かつ、ノルム最小値dminの値が−1でない場合には、処理を戻す。 On the other hand, if the result of the determination in step S2503091 is that the input norm dn is not smaller than the norm minimum value dmin, and the norm minimum value dmin is not −1, the process is returned.
次に、図26(c)を用いて、図25(a)のステップS2505の出力の処理について説明する。まず、ユニットループ変数j=0、1、2、・・・Nについて、次のステップS250502の処理とステップL250503からステップL250506の次元ループの処理とを繰り返す(ステップL250501からステップL250507のユニットループ)。 Next, the output process in step S2505 in FIG. 25A will be described with reference to FIG. First, for the unit loop variable j = 0, 1, 2,... N, the processing in the next step S250502 and the dimension loop processing from step L250503 to step L250506 are repeated (unit loop from step L250501 to step L250507).
このステップS250502では、制御コードAの値を“10”、入力ネットワーク座標Bの値をユニットループ変数j、とした制御データを各ユニットに出力する。 In step S250502, control data with the value of the control code A being “10” and the value of the input network coordinate B being the unit loop variable j is output to each unit.
また、このステップL250503からステップL250506の次元ループの処理では、次元ループ変数i=1、2、・・・nについて、次のステップS250504とステップS250505との処理を繰り返す。このステップS250504では、ステップS250502で出力した制御データに応じたユニットからの出力である結合重みベクトルを、結合重みベクトルwjiとして入力する。次に、このステップS250505では、ステップS250504でユニットから入力した結合重みベクトルwjiを外部に出力する。 In the dimension loop process from step L250503 to step L250506, the process of the next step S250504 and step S250505 is repeated for the dimension loop variable i = 1, 2,... N. In step S250504, a connection weight vector that is an output from the unit corresponding to the control data output in step S250502 is input as a connection weight vector wji. In step S250505, the connection weight vector wji input from the unit in step S250504 is output to the outside.
以上の、ステップL250501からステップL250507の処理により、まず、各ユニットから順に結合重みベクトルを出力させ(ステップS250502)、次に、ステップS250502に応じて各ユニットが順に出力した結合重みベクトルを順に入力する(ステップS250504)。次に、ステップS250504で各ユニットから順に入力した結合重みベクトルを、順に外部に自己組織化マップの演算結果として出力する(ステップS250505)。 Through the above processing from step L250501 to step L250507, first, the coupling weight vector is output in order from each unit (step S250502), and then the coupling weight vector output by each unit in sequence according to step S250502 is input in order. (Step S250504). Next, the connection weight vector input in order from each unit in step S250504 is sequentially output to the outside as the calculation result of the self-organizing map (step S250505).
以上の図22から図26を用いて説明した第2の基本構成による自己組織化マップに適応した場合の並列演算装置は、第1の基本構成による自己組織化マップに適応した場合の並列演算装置と同様に、自己組織化マップの演算を実行し、実行した結果を外部に出力することが可能である。 The parallel computing device when applied to the self-organizing map according to the second basic configuration described above with reference to FIGS. 22 to 26 is the parallel computing device when adapted to the self-organizing map according to the first basic configuration. Similarly to the above, it is possible to execute the calculation of the self-organizing map and output the execution result to the outside.
また、第2の基本構成による自己組織化マップに適応した場合の並列演算装置は、第1の基本構成による自己組織化マップに適応した場合の並列演算装置と比較して、その構成が簡易であるという効果がある。また、入力ベクトルの次元数や学習速度や近傍距離の変更など、自己組織化マップにおける様々な変数の値の設計変更が容易であるという効果がある。 In addition, the parallel computing device when applied to the self-organizing map according to the second basic configuration is simpler than the parallel computing device when adapted to the self-organizing map according to the first basic configuration. There is an effect that there is. In addition, there is an effect that it is easy to change the design of the values of various variables in the self-organizing map, such as changing the number of dimensions of the input vector, learning speed, and neighborhood distance.
<分離構成>
次に、図27を用いて、図14の第2の基本構成による並列演算装置において、各ユニットと分配制御装置8とを、分離構成とした場合の並列演算装置の構成について説明する。
<Separation configuration>
Next, with reference to FIG. 27, the configuration of the parallel arithmetic device when the units and the
この図27の並列演算装置は、図14の並列演算装置に対して、互いに接続可能な接続部9Aと接続部9Bとを有する。この接続部9Aと接続部9Bとを介して、ユニットAU1からユニットAU10の全てのユニットと分配制御装置8とは、ユニット出力バス2とユニット入力バス3とにより接続される。例えば、この接続部9Aと接続部9Bとは、互いに嵌合する部材であることが望ましい。
The parallel arithmetic device shown in FIG. 27 has a connecting
また、図27に示すように、互いに接続可能な接続部9Aと接続部9Bとにより、ユニットAU1からユニットAU10の全てのユニットと接続部9Bとを1つの装置(装置B)とし、分配制御装置8と接続部9Aとを1つの装置(装置A)とする。
In addition, as shown in FIG. 27, all of the units AU1 to AU10 and the
この場合、例えば、この接続部9Aと接続部9Bとは、USB(Universal Serial Bus)(登録商標)コネクタのメスとオスとし、また、装置BをUSB機器とし、装置Aをパーソナルコンピュータとしてもよい。以上のように、ユニットと分配制御装置8とを別の装置として構成し、分配制御装置8をパーソナルコンピュータとすることにより、並列演算装置全体の構成がより簡易となり、安価に製造可能となる。
In this case, for example, the connecting
また、分配制御装置8をパーソナルコンピュータとすることにより、予め定められた制御の手順などを、コンピュータプログラミングすることにより、より簡易に制御の手順が作成可能となる。また、分配制御装置8であるパーソナルコンピュータは、入力手段としてのキーボードや、表示手段または出力手段としてのモニタも有しているため、よりユーザが簡易に並列演算装置を用いることが可能となる。
Further, by making the distribution control device 8 a personal computer, it becomes possible to create a control procedure more easily by computer programming a predetermined control procedure and the like. Further, since the personal computer which is the
なお、接続部9Aと接続部9BとはUSBコネクタに限られるものではなく、他の規格のコネクタでもよいし、または、通信ネットワークのコネクタであってもよい。通信ネットワークのコネクタの場合には、ユニットAU1からユニットAU10と配制御装置8との間の接続は、接続部9Aと接続部9Bとを介した通信プロトコルを用いた通信接続であってもよいし、接続部9Aと接続部9Bとが、通信プロトコルを制御するようにしてもよい。
Note that the
また、装置Bを拡張基盤装置として構成し、この拡張基盤装置を、パーソナルコンピュータである分配制御装置8の拡張スロットに接続するようにしてもよい。例えば、拡張基盤装置として構成された装置Bが、例えば、PCI(Peripheral Component Interconnect)規格またはPCI−Express規格のバスに準じたボードであってもよい。また、この場合には、装置Aであるパーソナルコンピュータは、接続部9Aとして、例えば、PCI規格またはPCI−Express規格に準じた拡張スロットを有するようにしてもよい。
Further, the device B may be configured as an expansion base device, and this expansion base device may be connected to an expansion slot of the
なお、上記実施形態の各図で示した構成である記憶部のそれぞれは、ハードディスク装置や光磁気ディスク装置、フラッシュメモリ等の不揮発性のメモリや、CR−ROM等の読み出しのみが可能な記憶媒体、RAM(Random Access Memory)のような揮発性のメモリ、あるいはこれらの組み合わせにより構成されるものとする。
なお、図2の図15のユニット算出部、または、図16の分配制御部8は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。
Each of the storage units having the configuration shown in the drawings of the above embodiment is a non-volatile memory such as a hard disk device, a magneto-optical disk device, or a flash memory, or a storage medium that can only be read such as a CR-ROM. , A volatile memory such as RAM (Random Access Memory), or a combination thereof.
The unit calculation unit in FIG. 15 in FIG. 2 or the
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes a design and the like within the scope not departing from the gist of the present invention.
1 デイジーチェーン制御バス
2 ユニット出力バス
3 ユニット入力バス
4 増幅器
5 トリガ入力線
6 第1の冗長デイジーチェーン制御バス
7 第2の冗長デイジーチェーン制御バス
11、101、201、11A、101A、201A データ入力部
12、A12、B12、102、202 トークン入力部
13、A13、B13、103、203 トークン出力部
14、104、204、14A、104A、204A データ出力部
16、16A ユニット出力記憶部
17 トークン出力部選択部
18 トークン選択情報記憶部
33 制御データ出力部
101A、201A データ入力部
104A、204A データ出力部
150B、250B ファンクション番号抽出部
151B、251B ファンクション番号記憶部
152B、252B オペランド抽出部
153B、253B 汎用バッファー記憶部
111、111A 積和計算一次値算出部
112、112A ユニット出力算出部
113 層情報算出部
114 カウンタ
130、231、231A 重み記憶部
131 積和計算一次値記憶部
132 関数記憶部
133 層情報記憶部
134 ユニット数記憶部
135、135A ユニット出力記憶部
136 データ出力フラグ記憶部
137 ユニット識別情報記憶部
138B 前段ユニット出力記憶部
210 データ抽出部
211 ネットワーク座標抽出部
212 ノルム抽出部
213 カウンタ
214、214A ノルム算出部
215、215A 近傍判定部
216、216A 重み更新部
217 ノルム比較部
218 入力ノルム判定部
219 ネットワーク座標選択部
220 ノルム選択部
221 データ合成出力部
222 データ入力判定部
223 トークン出力フラグ判定部
230、230A 入力データ記憶部
232、232A 距離記憶部
233、233A 入力ネットワーク座標記憶部
234、234A ユニットネットワーク座標記憶部
235、235A 学習速度記憶部
236、236A ユニットノルム記憶部
237 入力ノルム記憶部
238 トークン出力フラグ記憶部
250 入力ノルム部
251 選択出力部
L1 入力層
L2 隠れ層
L3 出力層
P1 出力端子
P2 入力端子
P3 トリガ入力端子
U1、U2、U3、U4、U5、U6、U7、U8、U9、U10、AU1、AU2、AU3、AU4、AU5、AU6、AU7、AU8、AU9、AU10 ユニット
DESCRIPTION OF SYMBOLS 1 Daisy chain control bus 2 Unit output bus 3 Unit input bus 4 Amplifier 5 Trigger input line 6 1st redundant daisy chain control bus 7 2nd redundant daisy chain control bus 11, 101, 201, 11A, 101A, 201A Data input Unit 12, A12, B12, 102, 202 Token input unit 13, A13, B13, 103, 203 Token output unit 14, 104, 204, 14A, 104A, 204A Data output unit 16, 16A Unit output storage unit 17 Token output unit Selection unit 18 Token selection information storage unit 33 Control data output unit 101A, 201A Data input unit 104A, 204A Data output unit 150B, 250B Function number extraction unit 151B, 251B Function number storage unit 152B, 252B Land extraction unit 153B, 253B General-purpose buffer storage unit 111, 111A Product sum calculation primary value calculation unit 112, 112A Unit output calculation unit 113 Layer information calculation unit 114 Counter 130, 231, 231A Weight storage unit 131 Product sum calculation primary value storage unit 132 function storage unit 133 layer information storage unit 134 unit number storage unit 135, 135A unit output storage unit 136 data output flag storage unit 137 unit identification information storage unit 138B pre-stage unit output storage unit 210 data extraction unit 211 network coordinate extraction unit 212 norm Extraction unit 213 Counter 214, 214A Norm calculation unit 215, 215A Neighborhood determination unit 216, 216A Weight update unit 217 Norm comparison unit 218 Input norm determination unit 219 Network coordinate selection unit 220 Norm selection unit 221 Data composition output unit 222 Data input determination unit 223 Token output flag determination unit 230, 230A Input data storage unit 232, 232A Distance storage unit 233, 233A Input network coordinate storage unit 234, 234A Unit network coordinate storage unit 235, 235A Learning speed Storage unit 236, 236A Unit norm storage unit 237 Input norm storage unit 238 Token output flag storage unit 250 Input norm unit 251 Selection output unit L1 Input layer L2 Hidden layer L3 Output layer P1 Output terminal P2 Input terminal P3 Trigger input terminal U1, U2 , U3, U4, U5, U6, U7, U8, U9, U10, AU1, AU2, AU3, AU4, AU5, AU6, AU7, AU8, AU9, AU10 units
Claims (24)
予め定められた識別番号である固有ユニット番号によりそれぞれが識別される複数のユニットと、
前記複数のユニットの中のいずれか1つのユニットが出力する出力値がユニット出力バスを介して入力されたことに応じて、該入力された入力値と前記複数のユニットの中から選択したいずれか1つのユニットを選択する識別番号である選択ユニット番号とを含む制御データを、前記複数のユニットのそれぞれにユニット入力バスを介して出力する分配制御部と、
を有し、
前記ユニットが、
前記ユニット入力バスを介して前記分配制御部からの制御データを入力するデータ入力部と、
前記データ入力部に入力された制御データに含まれる選択ユニット番号と、前記固有ユニット番号とが一致するか否かを判定するユニット番号一致判定部と、
前記データ入力部に入力された制御データに含まれる入力値に基づいて、前記ユニット毎に予め定められた演算方法により演算するユニット演算部と、
前記ユニット番号一致判定部が判定した結果が一致である場合には、前記ユニット演算部が演算した結果である演算結果を前記出力値として、前記分配制御部に前記ユニット出力バスを介して出力するデータ出力部と、
を有することを特徴とする並列演算装置。 Parallel computing device
A plurality of units each identified by a unique unit number that is a predetermined identification number;
One of the plurality of units selected from the input value and the plurality of units when an output value output from any one of the plurality of units is input via the unit output bus. A distribution control unit that outputs control data including a selection unit number that is an identification number for selecting one unit to each of the plurality of units via a unit input bus;
Have
The unit is
A data input unit for inputting control data from the distribution control unit via the unit input bus;
A unit number coincidence determining unit that determines whether or not the selected unit number included in the control data input to the data input unit matches the unique unit number;
A unit calculation unit for calculating by a predetermined calculation method for each unit based on an input value included in the control data input to the data input unit;
When the result determined by the unit number coincidence determination unit is coincident, the operation result, which is the result calculated by the unit operation unit, is output as the output value to the distribution control unit via the unit output bus. A data output section;
A parallel computing device comprising:
前記制御データに、前記ユニット演算部の演算方法を選択するための制御コードを含めており、
前記ユニットが、
前記データ入力部に入力された制御データから前記制御コードを抽出する制御コード抽出部を有し、
前記ユニット演算部が、
前記制御コード抽出部が抽出した制御データと前記ユニット番号一致判定部が判定した結果とに基づいて前記演算を実行する、または、前記演算を実行させるユニット制御部を有する、
ことを特徴とする請求項1に記載の並列演算装置。 The distribution controller is
The control data includes a control code for selecting a calculation method of the unit calculation unit,
The unit is
A control code extraction unit that extracts the control code from the control data input to the data input unit;
The unit calculation unit is
Based on the control data extracted by the control code extraction unit and the result determined by the unit number match determination unit, the calculation is performed, or the unit control unit is configured to execute the calculation.
The parallel arithmetic apparatus according to claim 1, wherein:
前記ユニット出力バスを介して前記複数のユニットの中のいずれか1つのユニットが出力する出力値を入力するユニット出力値入力部と、
前記ユニット出力値入力部に入力された出力値に基づいて、予め定められた処理手順により前記制御データを生成する制御データ生成部と、
前記制御データ生成部が生成した制御データを前記複数のユニットのそれぞれに前記ユニット入力バスを介して出力する制御データ出力部と、
を有することを特徴とする請求項1または請求項2に記載の並列演算装置。 The distribution control unit
A unit output value input unit for inputting an output value output from any one of the plurality of units via the unit output bus;
Based on the output value input to the unit output value input unit, a control data generation unit that generates the control data according to a predetermined processing procedure;
A control data output unit that outputs the control data generated by the control data generation unit to each of the plurality of units via the unit input bus;
The parallel arithmetic device according to claim 1, wherein the parallel arithmetic device is provided.
前記演算結果が記憶されるユニット出力記憶部を有し、
前記ユニット演算部が、
前記演算結果を前記ユニット出力記憶部に記憶させ、
前記データ出力部が、
前記ユニット番号一致判定部が判定した結果が一致である場合には、前記演算結果を前記ユニット出力記憶部から読み出し、該読み出した演算結果を前記出力値として前記分配制御部に前記ユニット出力バスを介して出力する、
ことを特徴とする請求項1から請求項3に記載の並列演算装置。 The unit is
A unit output storage unit for storing the calculation result;
The unit calculation unit is
The calculation result is stored in the unit output storage unit,
The data output unit is
When the result determined by the unit number coincidence determination unit is coincident, the calculation result is read from the unit output storage unit, and the read calculation result is used as the output value as the output value to the distribution control unit. Output via
The parallel arithmetic apparatus according to claim 1, wherein
前記固有ユニット番号が予め記憶されている固有ユニット番号記憶部と、
前記データ入力部に入力された制御データから前記選択ユニット番号を抽出する選択ユニット番号抽出部と、
前記データ入力部に入力された制御データから前記入力値を抽出する入力値抽出部と、
を有し、
前記ユニット番号一致判定部は、
前記選択ユニット番号抽出部が抽出した選択ユニット番号と、前記固有ユニット番号記憶部から読み出した固有ユニット番号とが一致するか否かを判定し、
前記ユニット演算部は、
前記入力値抽出部が抽出した入力値に基づいて、前記ユニット毎に予め定められた演算方法により演算する、
ことを特徴とする請求項1から請求項4に記載の並列演算装置。 The unit is
A unique unit number storage unit in which the unique unit number is stored in advance;
A selection unit number extraction unit that extracts the selection unit number from the control data input to the data input unit;
An input value extraction unit for extracting the input value from the control data input to the data input unit;
Have
The unit number match determination unit
Determining whether the selected unit number extracted by the selected unit number extraction unit and the unique unit number read from the unique unit number storage unit match;
The unit calculation unit is
Based on the input value extracted by the input value extraction unit, the calculation is performed by a predetermined calculation method for each unit,
The parallel arithmetic device according to claim 1, wherein
前記ユニット演算部が、
前記階層型ニューラルネットワークの階層のうち、出力する層を識別する層情報が記憶されている層情報記憶部と、
前記ユニットの出力関数と前記層情報とが関連付けて予め記憶されている関数記憶部と、
前記層情報で識別される出力層のユニットからの出力値に乗ずる予め定められた結合荷重と、前記層情報とが関連付けて記憶されている重み記憶部と、
前記出力ユニットからの入力値と結合荷重とを乗じた積和計算一次値情報が記憶される積和計算一次値記憶部と、
前記ユニット制御部の選択に応じて、前記層情報記憶部から読み出した層情報に該当する結合荷重を前記重み記憶部から読み出し、該読み出した結合荷重と、前記データ入力部に入力された入力値とを乗算し、該乗算した値を前記積和計算一次値記憶部に記憶されている積和計算一次値情報に加算して記憶させる積和計算一次値算出部と、
前記ユニット制御部の選択に応じて、前記積和計算一次値記憶部から積和計算一次値情報を読み出し、前記層情報記憶部から読み出した層情報に該当する出力関数を前記関数記憶部から読み出し、該読み出した出力関数に前記読み出した積和計算一次値情報を代入することにより出力値を算出し、該算出した出力値を前記ユニット出力記憶部に記憶させるユニット出力算出部と、
を有することを特徴とする請求項4または請求項5に記載の並列演算装置。 When the parallel computing device is a parallel computing device that computes a hierarchical neural network,
The unit calculation unit is
Of the layers of the hierarchical neural network, a layer information storage unit storing layer information for identifying a layer to be output;
A function storage unit in which the output function of the unit and the layer information are associated and stored in advance;
A weight storage unit in which a predetermined coupling load multiplied by an output value from the unit of the output layer identified by the layer information is stored in association with the layer information;
A product-sum calculation primary value storage unit for storing product-sum calculation primary value information obtained by multiplying an input value from the output unit and a combined load;
In accordance with the selection of the unit control unit, the connection load corresponding to the layer information read from the layer information storage unit is read from the weight storage unit, and the read connection load and the input value input to the data input unit A product-sum calculation primary value calculation unit that adds and stores the multiplied value to the product-sum calculation primary value information stored in the product-sum calculation primary value storage unit;
According to the selection of the unit control unit, the product sum calculation primary value information is read from the product sum calculation primary value storage unit, and the output function corresponding to the layer information read from the layer information storage unit is read from the function storage unit. A unit output calculation unit that calculates an output value by substituting the read product-sum calculation primary value information into the read output function, and stores the calculated output value in the unit output storage unit;
The parallel processing device according to claim 4, wherein:
前記重み記憶部には、前記層情報と前記配信ユニット識別情報とで識別される前記出力層のユニットからの出力値に乗ずる予め定められた結合荷重と、前記層情報と前記配信ユニット識別情報とが、関連付けて記憶されており、
前記積和計算一次値算出部が、前記前段ユニット番号記憶部から読み出した配信ユニット識別情報と前記層情報記憶部から読み出した層情報とに該当する結合荷重を前記重み記憶部から読み出し、該読み出した結合荷重と、前記データ入力部に入力された入力値とを乗算し、該乗算した値を前記積和計算一次値記憶部に記憶されている積和計算一次値情報に加算して記憶させる、
ことを特徴とする請求項6に記載の並列演算装置。 The unit arithmetic unit has a preceding unit number storage unit in which distribution unit identification information indicating which unit is outputting as an output unit among units belonging to the output layer is stored,
In the weight storage unit, a predetermined combined load multiplied by an output value from the unit of the output layer identified by the layer information and the distribution unit identification information, the layer information and the distribution unit identification information, Are stored in association,
The product-sum calculation primary value calculation unit reads the combined load corresponding to the distribution unit identification information read from the preceding unit number storage unit and the layer information read from the layer information storage unit from the weight storage unit, and reads the read The combined weight is multiplied by the input value input to the data input unit, and the multiplied value is added to and stored in the product-sum calculation primary value information stored in the product-sum calculation primary value storage unit. ,
The parallel arithmetic apparatus according to claim 6.
前記ユニット制御部が、
前記積和計算一次値記憶部に記憶されている積和計算一次値情報を0に初期化する、
ことを特徴とする請求項6または請求項7に記載の並列演算装置。 When the control code included in the control data input to the data input unit indicates to initialize the product-sum calculation primary value,
The unit controller
Initializing the product-sum calculation primary value information stored in the product-sum calculation primary value storage unit to 0;
The parallel arithmetic apparatus according to claim 6 or 7, characterized in that
前記ユニット制御部が、
前記配信ユニット識別情報を前記前段ユニット番号記憶部に記憶し、
前記出力値に基づいて前記積和計算一次値算出部の処理を実行させる、
ことを特徴とする請求項6から請求項8に記載の並列演算装置。 The control code included in the control data input to the data input unit indicates that the product sum calculation primary value is calculated and added and stored, and the unit of the unit in which the control data outputs the output value and the output value When including the distribution unit identification information that is identification information,
The unit controller
Storing the delivery unit identification information in the preceding unit number storage unit;
Causing the product-sum calculation primary value calculation unit to execute processing based on the output value;
9. The parallel arithmetic apparatus according to claim 6, wherein the parallel arithmetic apparatus is characterized by that.
前記ユニット制御部が、
前記ユニット出力算出部の処理を実行させる、
ことを特徴とする請求項6から請求項9に記載の並列演算装置。 When the control code included in the control data input to the data input unit indicates that the unit output calculation is performed,
The unit controller
Causing the unit output calculation unit to execute processing;
The parallel arithmetic apparatus according to claim 6, wherein the parallel arithmetic apparatus according to claim 6.
前記ユニット制御部が、
前記ユニット番号一致判定部が判定した結果が一致である場合には、前記演算結果を前記ユニット出力記憶部から読み出し、該読み出した演算結果を前記出力値として前記分配制御部に前記データ出力部と前記ユニット出力バスとを介して出力する、
ことを特徴とする請求項6から請求項10に記載の並列演算装置。 When the control code included in the control data input to the data input unit indicates that an output value is output as an active unit, and the control data includes a selected unit number,
The unit controller
When the result determined by the unit number coincidence determining unit is a match, the calculation result is read from the unit output storage unit, and the read calculation result is output as the output value to the distribution control unit and the data output unit. Output via the unit output bus,
The parallel arithmetic apparatus according to claim 6, wherein the parallel arithmetic apparatus is characterized by that.
前記ユニット制御部が、
前記データ入力部に入力された制御データに含められた配信層情報を前記層情報記憶部に記憶する、
ことを特徴とする請求項6から請求項11に記載の並列演算装置。 When the control data input to the data input unit includes distribution layer information,
The unit controller
Storing the distribution layer information included in the control data input to the data input unit in the layer information storage unit;
12. The parallel arithmetic apparatus according to claim 6, wherein the parallel arithmetic apparatus is characterized in that
前記積和計算一次値を初期化することを示す制御コード、前記出力値と前記配信ユニット識別情報とを含み、前記積和計算一次値を算出し加算格納することを示す制御コード、前記ユニット出力演算を実行することを示す制御コード、前記アクティブなユニットとして出力値を出力することを示す制御コード、または、前記配信層情報を含む制御データを含む制御データを、前記階層型ニューラルネットワークの階層数と該階層のノード数とに合わせて予め定められた順序で出力する、
ことを特徴とする請求項6から請求項12に記載の並列演算装置。 The distribution control unit
A control code indicating that the product-sum calculation primary value is initialized, the output value and the delivery unit identification information, and a control code indicating that the product-sum calculation primary value is calculated and added and stored; A control code indicating that an operation is executed, a control code indicating that an output value is output as the active unit, or control data including control data including the distribution layer information is stored in the number of layers of the hierarchical neural network. And in a predetermined order according to the number of nodes in the hierarchy,
13. The parallel arithmetic apparatus according to claim 6, wherein the parallel arithmetic apparatus is characterized in that
前記ユニット演算部が、
前記ユニットネットワーク座標が予め記憶されているユニットネットワーク座標記憶部と、
前記ユニットの結合重みベクトルが記憶されている重み記憶部と、
前記ユニットのノルムであるユニットノルムを記憶するユニットノルム記憶部と、
ノルムを算出することを示す制御コードと入力ベクトルとを含む制御データを前記ユニット制御部から前記データ入力部に入力した場合には、前記データ入力部に入力された入力データベクトルと、前記重み記憶部から読み出した結合重みベクトルとのノルムを算出し、該算出したノルムを前記ユニットノルムとして前記ユニットノルム記憶部に記憶させるノルム算出部と、
を有し、
ノルムを出力することを示す制御コードと入力ネットワーク座標とを含む制御データを前記ユニット制御部から前記データ入力部に入力した場合には、
前記ユニット制御部が、
該入力された入力ネットワーク座標と前記ユニットネットワーク座標記憶部から読み出したユニットネットワーク座標とが一致する場合には、前記ユニットノルム記憶部から読み出したユニットノルムを前記データ出力部を介して出力する、
ことを特徴とする請求項4または請求項5に記載の並列演算装置。 When the parallel arithmetic device is a parallel arithmetic device that calculates a self-organizing map, each of the plurality of units is identified by a unit network coordinate that is a network coordinate of the unit instead of the unique unit number,
The unit calculation unit is
A unit network coordinate storage unit in which the unit network coordinates are stored in advance;
A weight storage unit in which the unit weight vector is stored;
A unit norm storage unit for storing a unit norm which is a norm of the unit;
When control data including a control code indicating calculation of a norm and an input vector is input from the unit control unit to the data input unit, the input data vector input to the data input unit and the weight storage A norm calculation unit that calculates a norm with the connection weight vector read from the unit, and stores the calculated norm as the unit norm in the unit norm storage unit;
Have
When control data including a control code indicating that a norm is output and input network coordinates are input from the unit control unit to the data input unit,
The unit controller
If the input network coordinates input and the unit network coordinates read from the unit network coordinate storage unit match, the unit norm read from the unit norm storage unit is output via the data output unit,
The parallel arithmetic apparatus according to claim 4 or 5, wherein
前記ユニット制御部が、入力ネットワーク座標記憶部に記憶されている入力ネットワーク座標の値を、受信した制御データに含まれる入力ネットワーク座標に更新し、
前記ユニット番号一致判定部が、該更新した入力ネットワーク座標とユニットネットワーク座標記憶部から読み出したユニットネットワーク座標とが一致するか否かを判定し、
前記ユニット番号一致判定部の判定結果が一致する場合には、前記ユニット制御部が、重み記憶部に記憶されている結合重みベクトルを、受信した制御データに含まれる入力結合重みベクトルに更新する、
ことを特徴とする請求項14に記載の並列演算装置。 When the control code included in the control data input to the data input unit indicates that a weight is set and includes input network coordinates and an input coupling weight vector,
The unit control unit updates the value of the input network coordinates stored in the input network coordinate storage unit to the input network coordinates included in the received control data,
The unit number match determination unit determines whether or not the updated input network coordinates match the unit network coordinates read from the unit network coordinate storage unit,
When the determination results of the unit number match determination unit match, the unit control unit updates the connection weight vector stored in the weight storage unit to the input connection weight vector included in the received control data.
15. The parallel arithmetic apparatus according to claim 14, wherein
前記ユニット制御部が、学習速度記憶部に記憶されている学習速度を受信した制御データに含まれる入力学習速度に更新するとともに、距離記憶部に記憶されている基準距離を受信した制御データに含まれる入力近傍距離に更新する、
ことを特徴とする請求項14または請求項15に記載の並列演算装置。 When the control code included in the control data input to the data input unit indicates that the learning speed and the proximity distance are set, and includes the input learning speed and the input proximity distance,
The unit control unit updates the learning speed stored in the learning speed storage unit to the input learning speed included in the received control data, and includes the reference distance stored in the distance storage unit in the received control data Update to the input neighborhood distance
The parallel arithmetic apparatus according to claim 14 or 15, wherein
前記ユニット制御部が、実数ベクトル次元数記憶部に記憶されている次元数を受信した制御データに含まれる入力次元数に更新する、
ことを特徴とする請求項14から請求項16に記載の並列演算装置。 When the control code included in the control data input to the data input unit indicates that the number of dimensions of the real vector is set and includes the number of input dimensions N,
The unit control unit updates the number of dimensions stored in the real vector dimension number storage unit to the number of input dimensions included in the received control data.
The parallel arithmetic apparatus according to claim 14, wherein the parallel arithmetic apparatus is characterized by that.
前記ユニット制御部が、入力データ記憶部に記憶されている入力データベクトルを入力ベクトルに更新し、
前記ノルム算出部が、該更新した入力ベクトルと重み記憶部から読み出した結合重みベクトルとのノルムを算出し、該算出したノルムをユニットノルムとしてユニットノルム記憶部に記憶させる、
ことを特徴とする請求項14から請求項17に記載の並列演算装置。 When the control code included in the control data input to the data input unit indicates that the norm is calculated, and includes an input vector,
The unit control unit updates the input data vector stored in the input data storage unit to the input vector,
The norm calculation unit calculates a norm between the updated input vector and the combined weight vector read from the weight storage unit, and stores the calculated norm as a unit norm in the unit norm storage unit.
The parallel arithmetic apparatus according to claim 14, wherein
前記ユニット制御部が、入力ネットワーク座標記憶部に記憶されている入力ネットワーク座標の値を、受信した制御データに含まれる入力ネットワーク座標に更新し、
前記ユニット番号一致判定部が、該更新した入力ネットワーク座標とユニットネットワーク座標記憶部から読み出したユニットネットワーク座標とが一致するか否かを判定し、
前記ユニット番号一致判定部の判定結果が一致する場合には、前記ユニット制御部が、前記ユニットノルム記憶部から読み出したユニットノルムを前記データ出力部と前記ユニット出力バスとを介して前記分配制御部に出力する、
ことを特徴とする請求項14から請求項18に記載の並列演算装置。 The control code included in the control data input to the data input unit indicates that the norm is output. When the control code includes input network coordinates, the unit control unit is stored in the input network coordinate storage unit. Update the input network coordinate value to the input network coordinate included in the received control data,
The unit number match determination unit determines whether or not the updated input network coordinates match the unit network coordinates read from the unit network coordinate storage unit,
When the determination results of the unit number match determination unit match, the unit control unit reads the unit norm read from the unit norm storage unit via the data output unit and the unit output bus. Output to
19. The parallel arithmetic device according to claim 14, wherein the parallel arithmetic device is characterized by that.
前記ユニット制御部が、前記入力ネットワーク座標記憶部に記憶されている入力ネットワーク座標を、前記制御データに含まれていた入力ネットワーク座標に更新し、
前記演算部が、
前記データ入力部に入力された制御データに含まれる制御コードが学習することを示す場合には、前記ユニットネットワーク座標記憶部から読み出したユニットネットワーク座標と前記入力ネットワーク座標記憶部から読み出した入力ネットワーク座標との間の距離を算出し、該算出した距離が、前記距離記憶部から読み出した距離以下であるか否かを判定することにより、ユニットネットワーク座標記憶部から読み出したユニットネットワーク座標が、入力ネットワーク座標記憶部から読み出した入力ネットワーク座標の近傍にあるか否かを判定する近傍判定部と、
前記近傍判定部の判定した結果が近傍である場合には、前記入力データ記憶部から読み出した入力データベクトルと前記重み記憶部から読み出した結合重みベクトルとの差を算出し、該算出した差に前記学習速度記憶部から読み出した学習速度係数を乗じた値を、重み記憶部に記憶されている結合重みベクトルに加算し、重み記憶部に記憶されている結合重みベクトルを更新する重み更新部と、
を有することを特徴とする請求項14から請求項19に記載の並列演算装置。 When the control code included in the control data input to the data input unit indicates learning and includes input network coordinates,
The unit control unit updates the input network coordinates stored in the input network coordinate storage unit to the input network coordinates included in the control data,
The computing unit is
When the control code included in the control data input to the data input unit indicates learning, the unit network coordinates read from the unit network coordinate storage unit and the input network coordinates read from the input network coordinate storage unit And the unit network coordinates read from the unit network coordinate storage unit is determined to be the input network by determining whether the calculated distance is equal to or less than the distance read from the distance storage unit. A proximity determining unit that determines whether or not the input network coordinates are read from the coordinate storage unit;
If the result of the determination by the proximity determination unit is a neighborhood, the difference between the input data vector read from the input data storage unit and the combined weight vector read from the weight storage unit is calculated, and the calculated difference is A weight update unit that adds a value obtained by multiplying the learning speed coefficient read from the learning speed storage unit to the connection weight vector stored in the weight storage unit, and updates the connection weight vector stored in the weight storage unit; ,
20. The parallel arithmetic device according to claim 14, wherein the parallel arithmetic device comprises:
前記ユニット制御部が、前記入力ネットワーク座標記憶部に記憶されている入力ネットワーク座標の値を、受信した制御データに含まれる入力ネットワーク座標に更新し、
前記ユニット番号一致判定部が、該更新した入力ネットワーク座標と前記ユニットネットワーク座標記憶部から読み出したユニットネットワーク座標とが一致するか否かを判定し、
前記ユニット番号一致判定部の判定結果が一致する場合には、前記ユニット制御部が、前記重み記憶部から読み出した結合重みベクトルを、データ出力部と前記ユニット出力バスとを介して前記分配制御部に出力する、
ことを特徴とする請求項14から請求項20に記載の並列演算装置。 When the control code included in the control data input to the data input unit indicates that the learning result is output and includes the input network coordinates,
The unit control unit updates the value of the input network coordinates stored in the input network coordinate storage unit to the input network coordinates included in the received control data;
The unit number match determination unit determines whether the updated input network coordinates match the unit network coordinates read from the unit network coordinate storage unit,
When the determination results of the unit number coincidence determination unit match, the unit control unit outputs the connection weight vector read from the weight storage unit via the data output unit and the unit output bus to the distribution control unit. Output to
21. The parallel arithmetic apparatus according to claim 14, wherein the parallel arithmetic apparatus is characterized by that.
前記重みを設定することを示す制御コード、前記学習速度と近傍距離とを設定することを示す制御コード、実数ベクトルの次元数を設定すること示す制御コード、ノルムを算出することを示す制御コード、ノルムを出力することを示す制御コード、学習することを示す制御コード、または、学習結果を出力することを示す制御コードを含む制御データを、前記複数のユニットの数および学習回数に合わせて予め定められた順序で出力する、
ことを特徴とする請求項6から請求項12に記載の並列演算装置。 The distribution control unit
A control code indicating setting the weight, a control code indicating setting the learning speed and the neighborhood distance, a control code indicating setting the number of dimensions of a real vector, a control code indicating calculating a norm, Control data including a control code indicating that a norm is output, a control code indicating that learning is performed, or a control code that indicates that a learning result is output is determined in advance according to the number of units and the number of times of learning. Output in the order given,
13. The parallel arithmetic apparatus according to claim 6, wherein the parallel arithmetic apparatus is characterized in that
前記複数のユニットと前記第1の接続部とを含む第1の装置とし、
前記分配制御部と前記第2の接続部とを含む第2の装置とする、
ことを特徴とする請求項1から請求項22に記載の並列演算装置。 The unit output bus and the unit output bus that connect the plurality of units and the distribution control unit are separated by a first connection unit and a second connection unit that can be connected to each other,
A first device including the plurality of units and the first connection unit;
A second device including the distribution control unit and the second connection unit;
The parallel arithmetic apparatus according to any one of claims 1 to 22, wherein
前記複数のユニットの中のいずれか1つのユニットが出力する出力値がユニット出力バスを介して入力されたことに応じて、該入力された入力値と前記複数のユニットの中から選択したいずれか1つのユニットを選択する識別番号である選択ユニット番号とを含む制御データを、前記複数のユニットのそれぞれにユニット入力バスを介して出力する分配制御部と、
を有する並列演算装置で用いられる並列演算であって、
前記ユニットが、
前記ユニット入力バスを介して前記分配制御部からの制御データを入力し、
前記データ入力部に入力された制御データに含まれる選択ユニット番号と、前記固有ユニット番号とが一致するか否かを判定し、
前記入力された制御データに含まれる入力値に基づいて、前記ユニット毎に予め定められた演算方法により演算し、
前記判定した結果が一致である場合には、前記演算した結果である演算結果を前記出力値として、前記分配制御部に前記ユニット出力バスを介して出力する、
ことを特徴とする並列演算方法。 A plurality of units each identified by a unique unit number that is a predetermined identification number;
One of the plurality of units selected from the input value and the plurality of units when an output value output from any one of the plurality of units is input via the unit output bus. A distribution control unit that outputs control data including a selection unit number that is an identification number for selecting one unit to each of the plurality of units via a unit input bus;
A parallel operation used in a parallel operation device having
The unit is
Input control data from the distribution control unit via the unit input bus,
Determining whether the selected unit number included in the control data input to the data input unit matches the unique unit number;
Based on the input value included in the input control data, calculated by a predetermined calculation method for each unit,
When the determined result is coincident, the calculation result which is the calculation result is output as the output value to the distribution control unit via the unit output bus.
A parallel operation method characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007205427A JP2009042898A (en) | 2007-08-07 | 2007-08-07 | Parallel arithmetic unit and parallel operation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007205427A JP2009042898A (en) | 2007-08-07 | 2007-08-07 | Parallel arithmetic unit and parallel operation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009042898A true JP2009042898A (en) | 2009-02-26 |
Family
ID=40443602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007205427A Withdrawn JP2009042898A (en) | 2007-08-07 | 2007-08-07 | Parallel arithmetic unit and parallel operation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009042898A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106447037A (en) * | 2015-10-08 | 2017-02-22 | 上海兆芯集成电路有限公司 | Neural network unit having multiple optional outputs |
JP2017130221A (en) * | 2015-10-23 | 2017-07-27 | 株式会社半導体エネルギー研究所 | Semiconductor device and electronic device |
CN114327676A (en) * | 2021-12-28 | 2022-04-12 | 北京航天自动控制研究所 | High-reliability accelerator for convolutional neural network |
-
2007
- 2007-08-07 JP JP2007205427A patent/JP2009042898A/en not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106447037A (en) * | 2015-10-08 | 2017-02-22 | 上海兆芯集成电路有限公司 | Neural network unit having multiple optional outputs |
CN106447037B (en) * | 2015-10-08 | 2019-02-12 | 上海兆芯集成电路有限公司 | Neural network unit with multiple optional outputs |
JP2017130221A (en) * | 2015-10-23 | 2017-07-27 | 株式会社半導体エネルギー研究所 | Semiconductor device and electronic device |
US10922605B2 (en) | 2015-10-23 | 2021-02-16 | Semiconductor Energy Laboratory Co., Ltd. | Semiconductor device and electronic device |
US11893474B2 (en) | 2015-10-23 | 2024-02-06 | Semiconductor Energy Laboratory Co., Ltd. | Semiconductor device and electronic device |
CN114327676A (en) * | 2021-12-28 | 2022-04-12 | 北京航天自动控制研究所 | High-reliability accelerator for convolutional neural network |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4513865B2 (en) | Parallel computing device and parallel computing method | |
US10891544B2 (en) | Event-driven universal neural network circuit | |
Wen et al. | Pinning synchronization of directed networks with switching topologies: A multiple Lyapunov functions approach | |
Naveros et al. | A spiking neural simulator integrating event-driven and time-driven computation schemes using parallel CPU-GPU co-processing: a case study | |
JP2009099008A (en) | Parallel arithmetic unit and parallel arithmetic method | |
Macia et al. | Distributed robustness in cellular networks: insights from synthetic evolved circuits | |
WO2021025075A1 (en) | Training device, inference device, training method, inference method, program, and computer-readable non-transitory storage medium | |
Venu | Design Analysis and Classification of Digital Transmission Based Composite Relay and Artificial Neural Network Approach | |
Nayak et al. | Elitist teaching–learning-based optimization (ETLBO) with higher-order Jordan Pi-sigma neural network: a comparative performance analysis | |
JP2009042898A (en) | Parallel arithmetic unit and parallel operation method | |
CN114219076A (en) | Quantum neural network training method and device, electronic device and medium | |
Liu et al. | PSN‐aware circuit test timing prediction using machine learning | |
Kropat et al. | Regulatory networks under ellipsoidal uncertainty–data analysis and prediction by optimization theory and dynamical systems | |
Cheng et al. | Optimal control of finite‐valued networks | |
JP2009075765A (en) | Parallel arithmetic unit and parallel arithmetic method | |
JP2008299381A (en) | Parallel arithmetic unit and parallel arithmetic method | |
Jin et al. | Bargaining strategies designed by evolutionary algorithms | |
Stilman et al. | Revisiting Major Discoveries in Linguistic Geometry with Mosaic Reasoning | |
Bellucci et al. | A Taylor series approach to the robust parameter design of computer simulations using kriging and radial basis function neural networks | |
Moscinski et al. | Building an efficient evolutionary algorithm for forex market predictions | |
Tsuchida et al. | A Parallelization Method for Neural Network Learning | |
Golzari et al. | A maze routing algorithm based on two dimensional cellular automata | |
Das | Think Smart, Play Dumb: A Game Theoretic Approach to Study Deception in Hardware Trojan Testing | |
Goulianas et al. | An adaptive learning rate backpropagation‐type neural network for solving n× n systems on nonlinear algebraic equations | |
US20230394292A1 (en) | Method and apparatus for synchronizing neuromorphic processing units |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20101102 |