JPH09319724A - Inference device - Google Patents

Inference device

Info

Publication number
JPH09319724A
JPH09319724A JP8160634A JP16063496A JPH09319724A JP H09319724 A JPH09319724 A JP H09319724A JP 8160634 A JP8160634 A JP 8160634A JP 16063496 A JP16063496 A JP 16063496A JP H09319724 A JPH09319724 A JP H09319724A
Authority
JP
Japan
Prior art keywords
layer
storage means
inference
output
layers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8160634A
Other languages
Japanese (ja)
Inventor
Tetsuya Nakamura
哲也 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritz Corp
Original Assignee
Noritz Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritz Corp filed Critical Noritz Corp
Priority to JP8160634A priority Critical patent/JPH09319724A/en
Publication of JPH09319724A publication Critical patent/JPH09319724A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an inference device utilizing a neural network of a hierarchical structure type with the optional number of layers. SOLUTION: This device is provided with a single-layer neuron layer 12, a number of layers storing means, a synapse storing means, an input data storing means 13, an output data storing means 14, a data shifting means 24 shifting contents stored in the storing means 14 to the storing means 13, and a control means 23 weighting a weight stored in the synapse storing means to a synapse on the input/output side of the layer 12. Then, the device is constituted of an inference control means 26 repeating operation by the shifting means 24 and the control means 23 until the number of the layers becomes one stored in the number of layers storing means, and making the inference output of the neural network based on the output of the layer 12 at the time of amounting to the number of layers stored in the number of layers storing means.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、生体神経細胞(以
下、ニューロンという。)をモデルとして推論を行うニ
ューラルネットワークを利用した推論装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a reasoning device using a neural network for reasoning using living nerve cells (hereinafter referred to as neurons) as a model.

【0002】[0002]

【従来の技術】従来、ニューラルネットワークによる推
論装置の一つとしては階層構造型のものが知られてい
る。これは、入力層、一つ又は複数の中間層、出力層と
いうように通常3つ以上の層が階層状に形成され、各層
は複数のニューロンで構成されている。そして、各々の
層間は重み付けがされたシナプスで相互に接続されてお
り、学習用のデータに基づいて学習によりシナプスの重
みが決定されている。
Hitherto, a hierarchical structure type is known as one of inference devices using a neural network. In this structure, usually three or more layers are formed in a hierarchical structure such as an input layer, one or more intermediate layers, and an output layer, and each layer is composed of a plurality of neurons. The layers are connected to each other by weighted synapses, and the weight of the synapse is determined by learning based on the learning data.

【0003】そして、推論を行う際には入力層から入力
データが入力されているとその情報がシナプスを通して
次層のニューロンに伝送され、ニューロンの発火現象に
より次層に順次伝送されて、最終的に出力層からの出力
が、ニューラルネットワークにおいて推論する対象モデ
ルの推論結果として得られるようになっている。
When the input data is input from the input layer when inferring, the information is transmitted to the neurons in the next layer through the synapse, and sequentially transmitted to the next layer by the firing phenomenon of the neuron, and finally. The output from the output layer is obtained as the inference result of the target model inferred in the neural network.

【0004】[0004]

【発明が解決しようとする課題】従来このような推論装
置が存在するものの、従来のものでは推論対象のモデル
が大きいものであれば、それに対応してニューラルネッ
トワーク自体も大型化してしまい、それと共にシステム
が高価になってしまう問題がある。ニューラルネットワ
ークが大型化(層数の増加)した場合であっても、小型
化で安価なニューラルネットワークの実現が望まれてい
た。
Although there is such an inference apparatus in the related art, if the model to be inferred is large in the related art, the neural network itself is correspondingly enlarged, and together with that, There is a problem that the system becomes expensive. Even if the neural network becomes large (the number of layers increases), it has been desired to realize a small-sized and inexpensive neural network.

【0005】また、従来のものでは予めニューラルネッ
トワークの構成が定まっており、一旦構成されてしまう
とそのニューラルネットワークの総数を増やしたり、減
らしたりすることができず、推論するモデルとニューラ
ルネットワークの大きさが合致しないと不都合が生じて
いた。例えば、推論するモデルに対してニューラルネッ
トワークの大きさが小さければ適切な推論ができないと
いう不都合が生じ、一方推論するモデルに対してニュー
ラルネットワークが大きければ不経済に高価な推論装置
となってしまう問題がある。特に、ニューラルネットワ
ークは高価であるため、推論するモデルに柔軟に対応で
きるものが望まれていた。
Further, in the conventional system, the configuration of the neural network is predetermined, and once constructed, the total number of neural networks cannot be increased or decreased. If the values do not match, inconvenience occurred. For example, if the size of the neural network is small with respect to the model to be inferred, inconvenience may occur, but if the neural network is large with respect to the model to be inferred, it becomes an uneconomically expensive inference device. There is. In particular, since the neural network is expensive, it has been desired to be able to flexibly deal with the model to be inferred.

【0006】そこで、本発明はニューロン自体を有する
層を一層のみで構成し、安価なニューラルネットワーク
の推論装置の提供を目的とする。更に、本発明では一層
のみで構成すると共に任意に層数を可変できるニューラ
ルネットワークの推論装置の提供を目的とする。
Therefore, an object of the present invention is to provide a reasonably priced inference device for a neural network by forming a layer having neurons itself by only one layer. Another object of the present invention is to provide an inference device for a neural network that is composed of only one layer and that can arbitrarily change the number of layers.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に、請求項1記載の発明は、複数のニューロンで一層を
構成する一層ニューロン層と、推論を実行するニューラ
ルネットワークの層数を記憶する層数記憶手段と、前記
ニューラルネットワークの各層に対応したシナプスの重
みを記憶するシナプス記憶手段と、前記一層ニューロン
層の入力側に提供するデータを記憶する入力データ記憶
手段と、前記一層ニューロン層の出力側のデータを記憶
する出力データ記憶手段と、前記出力データ記憶手段に
記憶された内容を前記入力データ記憶手段にシフトする
データシフト手段と、実行している層数に対応する前記
シナプス記憶手段に記憶されている重みを前記一層ニュ
ーロン層の入出力側のシナプスに重み付けを行う重み付
け制御手段とを有し、前記層数記憶手段に記憶されてい
る層数になるまで、前記データシフト手段及び前記重み
付け制御手段による動作を繰り返し、前記層数記憶手段
に記憶されている層数に達したときの前記一層ニューロ
ン層の出力側の出力を基にニューラルネットワークの推
論出力とする推論制御手段とを具備したことを特徴とす
る推論装置。
In order to achieve the above object, the invention according to claim 1 stores a single neuron layer which constitutes one layer of a plurality of neurons and the number of layers of a neural network which executes inference. Layer number storage means, synapse storage means for storing synapse weights corresponding to each layer of the neural network, input data storage means for storing data provided to the input side of the one neuron layer, and one neuron layer Output data storage means for storing data on the output side, data shift means for shifting the contents stored in the output data storage means to the input data storage means, and the synapse storage means corresponding to the number of layers being executed. And a weighting control means for weighting the synapses on the input and output sides of the one-layer neuron layer with the weights stored in , The operation by the data shift means and the weighting control means is repeated until the number of layers stored in the layer number storage means is reached, and the layer is stored when the number of layers stored in the layer number storage means is reached. An inference device, comprising inference control means for making an inference output of a neural network based on an output on the output side of a neuron layer.

【0008】請求項1記載の発明によれば、一層ニュー
ロン層、入力データ記憶手段、出力データ記憶手段をも
うけ、一層ニューロン層と入力データ記憶手段との間に
シナプスを設け、シナプスの重み付けを実行層に対応す
る重み付けに設定し変更しながら、出力データ記憶手段
の内容を入力データ記憶手段にシフトしていき、一層ニ
ューロン層で多数の層で構成される階層構造型のニュー
ラルネットワークの動作を行う。
According to the first aspect of the present invention, a one-layer neuron layer, an input data storage unit, and an output data storage unit are provided, and a synapse is provided between the one-layer neuron layer and the input data storage unit to execute synapse weighting. While setting and changing the weighting corresponding to the layers, the contents of the output data storage means are shifted to the input data storage means, and the operation of the hierarchical neural network composed of a large number of layers in one neuron layer is performed. .

【0009】請求項2記載の発明は、複数のニューロン
で一層を構成する一層ニューロン層と、推論を実行する
ニューラルネットワークの層数を記憶する層数記憶手段
と、前記ニューラルネットワークの各層に対応したシナ
プスの重みを記憶するシナプス記憶手段と、前記一層ニ
ューロン層の入力側に提供するデータを記憶する入力デ
ータ記憶手段と、前記一層ニューロン層の出力側のデー
タを記憶する出力データ記憶手段と、前記出力データ記
憶手段に記憶された内容を前記入力データ記憶手段にシ
フトするデータシフト手段と、実行している層数に対応
する前記シナプス記憶手段に記憶されている重みを前記
一層ニューロン層の入出力側のシナプスに重み付けを行
う重み付け制御手段と、前記データシフト手段によるシ
フトタイミング及び前記一層ニューロン層の入出力側の
シナプスに前記重み付け制御手段により重み付けを行う
タイミングをとる推論同期手段と、前記層数記憶手段に
記憶されている層数になるまで、前記推論同期手段によ
るタイミングを基に前記データシフト手段及び前記重み
付け制御手段による動作を繰り返し、前記層数記憶手段
に記憶されている層数に達したときの前記一層ニューロ
ン層の出力側の出力を基にニューラルネットワークの推
論出力とする推論制御手段とから構成される。
The invention according to claim 2 corresponds to a single neuron layer forming a single layer of a plurality of neurons, a layer number storage means for storing the number of layers of a neural network for executing inference, and each layer of the neural network. Synapse storage means for storing synapse weights, input data storage means for storing data to be provided to the input side of the one-layer neuron layer, output data storage means for storing data on the output side of the one-layer neuron layer, and Data shift means for shifting the content stored in the output data storage means to the input data storage means, and the weights stored in the synapse storage means corresponding to the number of layers being executed are input / output to / from the one neuron layer Weighting control means for weighting the synapses on the side, and shift timing and shift timing by the data shift means. The inference synchronization means for timing the weighting of the synapses on the input / output side of the one-layer neuron layer by the weighting control means and the timing by the inference synchronization means until the number of layers stored in the layer number storage means is reached. Based on the output on the output side of the one-layer neuron layer when the number of layers stored in the layer number storage means is repeated, the inference output of the neural network is repeated based on the operations of the data shift means and the weight control means. And the inference control means.

【0010】請求項2記載の発明によれば、一層ニュー
ロン層、入力データ記憶手段、出力データ記憶手段をも
うけ、一層ニューロン層と入力データ記憶手段との間に
シナプスを設け、シナプスの重み付けを実行層に対応す
る重み付けに設定し変更しながら、最大層数記憶手段に
記憶されている最大層数になるまで、推論同期手段に基
づく同期タイミングにより、出力データ記憶手段の内容
を入力データ記憶手段にシフトしていき、一層ニューロ
ン層で多数の層で構成される階層構造型のニューラルネ
ットワークの動作を行う。
According to the second aspect of the present invention, a single-layer neuron layer, an input data storage means, and an output data storage means are provided, a synapse is provided between the single-layer neuron layer and the input data storage means, and synapse weighting is executed. While setting and changing the weighting corresponding to the layers, the contents of the output data storage means are stored in the input data storage means by the synchronization timing based on the inference synchronization means until the maximum number of layers stored in the maximum layer number storage means is reached. As a result of shifting, a neural network of a hierarchical structure composed of many layers in one neuron layer is operated.

【0011】[0011]

【発明の実施の形態】以下、本発明の好ましい実施の形
態を図面を参照して説明する。図1が本発明の推論装置
の構成を示した説明図である。図1に示すように推論装
置1は、実行部10、制御部20、記憶部30等とから
構成されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is an explanatory diagram showing the configuration of the inference apparatus of the present invention. As shown in FIG. 1, the inference apparatus 1 includes an execution unit 10, a control unit 20, a storage unit 30 and the like.

【0012】まず、実行部10について説明すると、実
行部10は一層ニューロン層12、入力データ記憶手段
13、及び出力データ記憶手段14とで構成されてお
り、また入力データ記憶手段13と一層ニューロン層1
2との間にはシナプス15にて接続されている。この一
層ニューロン層12は階層構造型のニューラルネットワ
ークの一層のみのものであり、この一層ニューロン層1
2には複数のニューロン11が縦位置に配置されてい
る。
First, the execution unit 10 will be described. The execution unit 10 is composed of a single neuron layer 12, an input data storage means 13, and an output data storage means 14, and the input data storage means 13 and a single neuron layer. 1
A synapse 15 is connected between the two. The one-layer neuron layer 12 is only one layer of the hierarchical neural network.
2 has a plurality of neurons 11 arranged in a vertical position.

【0013】入力データ記憶手段13には、この一層ニ
ューロン層12にシナプス15を通して入力するための
データ出力値を記憶しており、その記憶データを基にシ
ナプス15に出力する。出力データ記憶手段14は、一
層ニューロン層12の出力状態を一時記憶するためであ
る。
The input data storage means 13 stores a data output value to be input to the one-layer neuron layer 12 through the synapse 15, and outputs the data output value to the synapse 15 based on the stored data. The output data storage means 14 is for temporarily storing the output state of the one-layer neuron layer 12.

【0014】次に、制御部20について説明する。制御
部20は、初期入力制御手段21、出力制御手段22、
重み付け制御手段23、データシフト手段24、推論同
期手段25、推論制御手段26、及びその他の制御手段
27とから構成されている。
Next, the control unit 20 will be described. The control unit 20 includes an initial input control unit 21, an output control unit 22,
The weighting control means 23, the data shift means 24, the inference synchronization means 25, the inference control means 26, and the other control means 27 are included.

【0015】初期入力制御手段21は、推論を行うため
のニューラルネットワークの入力層(一層目)にデータ
を供給するための手段である。出力制御手段22は、推
論を行うニューラルネットワークの出力層(最終層)か
らのデータを得るための手段である。重み付け制御手段
23は、各層数に対応したシナプス15の重み付けを行
うための手段である。その層に対応した重みは、重み付
け記憶手段31に記憶されてある。
The initial input control means 21 is means for supplying data to the input layer (first layer) of the neural network for performing inference. The output control unit 22 is a unit for obtaining data from the output layer (final layer) of the neural network that performs inference. The weight control unit 23 is a unit for weighting the synapses 15 corresponding to the number of layers. The weight corresponding to the layer is stored in the weight storage unit 31.

【0016】データシフト手段24は、実行部10にお
いて推論を実行する際に、実行層数を1つ増すごとにそ
れに対応して、出力データ記憶手段14の内容を入力デ
ータ記憶手段13へシフトして移す動作を制御するもの
である。推論同期手段25は、推論動作の際に実行層数
を増加することに対応して、重み付け制御手段23がシ
ナプス15に重み付けを行うタイミング、データシフト
手段24が出力データ記憶手段14の記憶内容で入力デ
ータ記憶手段13の内容をシフト変更するタイミング等
の同期タイミングを取る手段である。推論制御手段26
は、上述の各制御手段等の相互関係等、推論に関する全
体動作を制御している。
The data shift means 24 shifts the contents of the output data storage means 14 to the input data storage means 13 in response to each increase in the number of execution layers when executing the inference in the execution section 10. It controls the movement of the transfer. The inference synchronization means 25 responds to the increase in the number of execution layers during the inference operation by the timing at which the weighting control means 23 weights the synapses 15, and the data shift means 24 by the storage contents of the output data storage means 14. It is a means for obtaining a synchronization timing such as a timing for shifting the contents of the input data storage means 13. Inference control means 26
Controls the overall operation related to inference, such as the mutual relationship between the above-mentioned control means.

【0017】次に、記憶部30について説明すると、記
憶部30は重み付け記憶手段31、推論情報記憶手段3
2、及びその他の記憶手段33とからなっている。重み
付け記憶手段31は、推論を行う対象モデルにおいて望
ましい学習データに基づいて予め学習しておき、ニュー
ラルネットワークの各層間のシナプスの重みを特定して
おき、その各層間のシナプスの重みが記憶されてある。
この重み付け記憶手段31がシナプス記憶手段に相当す
る。推論情報記憶手段32は、推論を行う際の必要デー
タを記憶する手段であり、例えば入力層(一層目)に入
力する値、推論を行っている実行層数、最終的な出力値
等を記憶している。この推論情報記憶手段32が層数記
憶手段の機能も行っている。
Next, the storage unit 30 will be described. The storage unit 30 includes a weight storage unit 31 and an inference information storage unit 3.
2 and other storage means 33. The weighting storage means 31 learns in advance based on desired learning data in a target model to be inferred, specifies synapse weights between layers of the neural network, and stores synapse weights between the layers. is there.
The weighting storage means 31 corresponds to synapse storage means. The inference information storage unit 32 is a unit that stores necessary data when performing inference, and stores, for example, a value input to an input layer (first layer), the number of execution layers performing inference, and a final output value. are doing. The inference information storage means 32 also functions as a layer number storage means.

【0018】次に、本発明の推論装置の動作について、
図2のフローチャートを用いて説明する。推論に際し
て、まず初期設定動作を行う(ステップS1)。初期入
力制御手段21が、ニューラルネットワークの入力層に
入力すべき値を入力データ記憶手段13に入力記憶す
る。この値は、入出力部2から予め入力された値であ
り、あるいは例えば人為的に数値入力してもよいし、あ
るいは推論するモデルに使用しているセンサの出力値で
もよく、推論するモデルに対応して適宜決められる値で
ある。
Next, regarding the operation of the inference apparatus of the present invention,
This will be described with reference to the flowchart of FIG. At the time of inference, an initial setting operation is first performed (step S1). The initial input control means 21 inputs and stores the value to be input to the input layer of the neural network in the input data storage means 13. This value is a value previously input from the input / output unit 2, or may be, for example, artificially input as a numerical value, or may be an output value of the sensor used in the model to be inferred. It is a value that is appropriately determined correspondingly.

【0019】次に、推論の実行層数が出力層の層数に達
しているかを判断する(ステップS2)。実行層数と
は、一層ニューロン層12が現在実行している層数のこ
とであり、一層ニューロン層12が入力層(一層目)か
ら出力層(最終層)に順次シフトされる過程でどの層に
対応している動作を行っているかを監視するためのもの
である。
Next, it is determined whether the number of execution layers of inference has reached the number of output layers (step S2). The number of execution layers is the number of layers that the one-layer neuron layer 12 is currently executing, and which layer the one-layer neuron layer 12 is sequentially shifted from the input layer (first layer) to the output layer (final layer). It is for monitoring whether the operation corresponding to is being performed.

【0020】ステップS2において、実行層数が最大層
数以下であれば、次に推論同期判別手段25が重み付け
のタイミングか否かを判断する(ステップS3)。重み
付けのタイミングであれば、重み付け制御手段23が実
行している層に対応して、重み付け記憶手段31に記憶
されている重みをシナプス15に設定する。なお、この
シナプス15は必要により重み付けの内容を書き替えら
れるものでなされている。
If the number of execution layers is equal to or less than the maximum number of layers in step S2, the inference synchronization determination means 25 next determines whether or not it is the timing of weighting (step S3). At the weighting timing, the weight stored in the weight storage means 31 is set in the synapse 15 corresponding to the layer being executed by the weight control means 23. The synapse 15 has a weighting content that can be rewritten if necessary.

【0021】重み付けがなされると、次に一層ニューロ
ン層12の出力値が出力データ記憶手段14に記憶され
る(ステップS5)。これにより一層分の動作が実行さ
れたことになり、次にデータシフト手段24がシフト動
作をするタイミングか否かを推論同期手段25が判断す
る(ステップS6)。シフトタイミングであれば、デー
タシフト手段24が出力データ記憶手段14の内容を入
力データ記憶手段13にシフトし、入力データ記憶手段
13の内容を出力データ記憶手段の内容で書き替え、そ
の内容値に対応する値をシナプスに出力する。そして、
推論制御手段26が監視している実行層数を+1加算
し、次の層のニューロン層の動作を上述のステップS4
からS8の動作を順次繰り返して行く。これにより階層
構造型のニューラルネットワークの動作を一層づつ順に
実行していくことになる。
After the weighting, the output value of the further neuron layer 12 is stored in the output data storage means 14 (step S5). This means that one layer of operation has been executed, and the inference synchronization means 25 determines whether or not it is the timing for the data shift means 24 to perform a shift operation next (step S6). At the shift timing, the data shift means 24 shifts the content of the output data storage means 14 to the input data storage means 13, rewrites the content of the input data storage means 13 with the content of the output data storage means, and sets the content value. Output the corresponding value to the synapse. And
The number of execution layers monitored by the inference control means 26 is incremented by 1, and the operation of the next neuron layer is performed in step S4 described above.
The operations from to S8 are sequentially repeated. As a result, the operations of the hierarchical structure type neural network are sequentially executed one by one.

【0022】なお、上記実施例においてニューラルネッ
トワークの層数を記憶する層数記憶手段を記憶部30に
設けているが、ROM、RAM等に記憶する他に例えば
この記憶手段はEEPROMで行い、層数を電気的に書
き替えれるようにすればより一層便利となる。また、入
出力部2等に層数指定手段を設けて層数記憶手段の内容
を書き替えるようにすれば更に容易にニューラルネット
ワークの大きさを変更でき一層便利となる。
Although the number of layers storage means for storing the number of layers of the neural network is provided in the storage unit 30 in the above embodiment, the storage means may be an EEPROM in addition to the storage in ROM, RAM or the like. It would be even more convenient if the numbers could be electrically rewritten. Further, if the layer number designating means is provided in the input / output unit 2 and the like and the contents of the layer number storing means are rewritten, the size of the neural network can be changed more easily, which is more convenient.

【0023】また、上記実施例において重み付け記憶手
段31の内容は、予め学習した結果のその各種重みを記
憶したROM等の記憶手段を交換することによって変更
できるようにしたり、あるいは入出力部2により重み付
けを入力変更できるようにしてもよい。更に、図示はし
ていないが、学習機能により学習により重み付けを決定
するようにしてもよい。
Further, in the above embodiment, the contents of the weighting storage means 31 can be changed by exchanging the storage means such as ROM storing the various weights of the result learned in advance, or by the input / output unit 2. The weighting may be input and changed. Further, although not shown, the weighting may be determined by learning by the learning function.

【0024】そして、ステップS2において、実行層数
が出力層に対応する層数(最大層数)を越えていれば、
出力層の実行動作が終わっていると判断し、現在の出力
データ記憶手段14の内容をニューラルネットワークに
対応する推論動作の出力として、その内容を記憶部30
に記憶して推論動作を終了する(ステップS9)。そし
て、その内容は必要により表示部(図示せず)に表示し
たり、推論結果として他の機器に出力したりしている。
If the number of execution layers exceeds the number of layers (maximum number of layers) corresponding to the output layer in step S2,
It is determined that the execution operation of the output layer is completed, and the contents of the current output data storage means 14 are used as the output of the inference operation corresponding to the neural network, and the contents are stored in the storage unit 30.
And ends the inference operation (step S9). Then, the content is displayed on a display unit (not shown) as necessary, or is output to another device as an inference result.

【0025】他の実施例として、シナプス15の位置を
一層ニューロン層12と出力データ記憶手段14の間の
位置に設け、入力データ記憶手段13との間の位置に設
けないようにしてもよい。また、シナプス15を入力デ
ータ記憶手段13と一層ニューロン層12の間、及び一
層ニューロン層12と出力データ記憶手段14の間の双
方に設けるようにしてもよい。
As another embodiment, the synapse 15 may be provided at a position between the neuron layer 12 and the output data storage means 14 and not at a position between the input data storage means 13. Further, the synapse 15 may be provided both between the input data storage means 13 and the one-layer neuron layer 12, and between the one-layer neuron layer 12 and the output data storage means 14.

【0026】[0026]

【発明の効果】以上説明したように、本発明によれば、
一層ニューロン層、入力データ記憶手段、出力データ記
憶手段をもうけ、一層ニューロン層と入力データ記憶手
段(出力データ記憶手段)との間にシナプスを設け、シ
ナプスの重み付けを実行層に対応する重み付けに設定し
変更しながら、出力データ記憶手段の内容を入力データ
記憶手段にシフトしていき、一層ニューロン層で多数の
層で構成される階層構造型のニューラルネットワークの
動作を行うことができる効果がある。
As described above, according to the present invention,
A single neuron layer, an input data storage means, and an output data storage means are provided, a synapse is provided between the single neuron layer and the input data storage means (output data storage means), and the weight of the synapse is set to the weight corresponding to the execution layer. However, the contents of the output data storage means are shifted to the input data storage means while being changed, so that there is an effect that the operation of the hierarchical neural network composed of a large number of layers in one neuron layer can be performed.

【0027】また、推論同期手段による同期タイミング
によりデータシフト手段によるシフト動作を行っている
ので階層構造型のニューラルネットワークの動作をスム
ーズに行うことができる。
Further, since the shift operation is performed by the data shift means at the synchronization timing by the inference synchronization means, the operation of the hierarchical structure type neural network can be performed smoothly.

【0028】また、本発明では、実行する最大層を任意
に設定できるため任意の大きさのニューラルネットワー
クに対応することができる効果がある。更に、本発明で
は大きなニューラルネットワークに対応させた場合で
も、記憶部のシナプスの重み付けの記憶容量を多く取る
のみで実現でき、大規模なニューラルネットワークの場
合でも小型で実現できる効果がある。
Further, in the present invention, since the maximum layer to be executed can be arbitrarily set, there is an effect that it is possible to cope with a neural network of an arbitrary size. Further, according to the present invention, even when it is applied to a large neural network, it can be realized only by taking a large storage capacity for weighting of synapses in the storage unit, and even a large-scale neural network can be realized in a small size.

【図面の簡単な説明】[Brief description of drawings]

【図1】推論装置の構成の説明図である。FIG. 1 is an explanatory diagram of a configuration of an inference device.

【図2】推論装置の推論動作を示したフローチャートで
ある。
FIG. 2 is a flowchart showing an inference operation of an inference device.

【符号の説明】[Explanation of symbols]

1 推論装置 2 入出力部 10 実行部 12 一層ニューロン層 13 入力データ記憶手段 14 出力データ記憶手段 15 シナプス 20 制御部 21 初期入力制御手段 23 重み付け制御手段 24 データシフト手段 25 推論同期手段 26 推論制御手段 30 記憶部 31 重み付け記憶手段 32 推論情報記憶手段 DESCRIPTION OF SYMBOLS 1 Inference device 2 Input / output unit 10 Execution unit 12 One layer neuron layer 13 Input data storage unit 14 Output data storage unit 15 Synapse 20 Control unit 21 Initial input control unit 23 Weighting control unit 24 Data shift unit 25 Inference synchronization unit 26 Inference control unit 30 storage unit 31 weighting storage unit 32 inference information storage unit

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 複数のニューロンで一層を構成する一層
ニューロン層と、推論を実行するニューラルネットワー
クの層数を記憶する層数記憶手段と、前記ニューラルネ
ットワークの各層に対応したシナプスの重みを記憶する
シナプス記憶手段と、前記一層ニューロン層の入力側に
提供するデータを記憶する入力データ記憶手段と、前記
一層ニューロン層の出力側のデータを記憶する出力デー
タ記憶手段と、前記出力データ記憶手段に記憶された内
容を前記入力データ記憶手段にシフトするデータシフト
手段と、実行している層数に対応する前記シナプス記憶
手段に記憶されている重みを前記一層ニューロン層の入
出力側のシナプスに重み付けを行う重み付け制御手段と
を有し、 前記層数記憶手段に記憶されている層数になるまで、前
記データシフト手段及び前記重み付け制御手段による動
作を繰り返し、前記層数記憶手段に記憶されている層数
に達したときの前記一層ニューロン層の出力側の出力を
基にニューラルネットワークの推論出力とする推論制御
手段と、 を具備したことを特徴とする推論装置。
1. A one-layer neuron layer that forms one layer of a plurality of neurons, a layer number storage unit that stores the number of layers of a neural network that performs inference, and a synapse weight corresponding to each layer of the neural network. Synapse storage means, input data storage means for storing data provided to the input side of the one-layer neuron layer, output data storage means for storing data on the output side of the one-layer neuron layer, and storage in the output data storage means Data shift means for shifting the stored contents to the input data storage means, and weights stored in the synapse storage means corresponding to the number of layers being executed are weighted to the synapses on the input / output side of the one neuron layer. And a weighting control means for performing the data until the number of layers stored in the layer number storage means is reached. The inference control in which the operation by the shift means and the weighting control means is repeated and the output on the output side of the one-layer neuron layer when the number of layers stored in the layer number storage means is reached becomes the inference output of the neural network An inference apparatus comprising means and.
【請求項2】 複数のニューロンで一層を構成する一層
ニューロン層と、推論を実行するニューラルネットワー
クの層数を記憶する層数記憶手段と、前記ニューラルネ
ットワークの各層に対応したシナプスの重みを記憶する
シナプス記憶手段と、前記一層ニューロン層の入力側に
提供するデータを記憶する入力データ記憶手段と、前記
一層ニューロン層の出力側のデータを記憶する出力デー
タ記憶手段と、前記出力データ記憶手段に記憶された内
容を前記入力データ記憶手段にシフトするデータシフト
手段と、実行している層数に対応する前記シナプス記憶
手段に記憶されている重みを前記一層ニューロン層の入
出力側のシナプスに重み付けを行う重み付け制御手段
と、前記データシフト手段によるシフトタイミング及び
前記一層ニューロン層の入出力側のシナプスに前記重み
付け制御手段により重み付けを行うタイミングをとる推
論同期手段と、前記層数記憶手段に記憶されている層数
になるまで、前記推論同期手段によるタイミングを基に
前記データシフト手段及び前記重み付け制御手段による
動作を繰り返し、前記層数記憶手段に記憶されている層
数に達したときの前記一層ニューロン層の出力側の出力
を基にニューラルネットワークの推論出力とする推論制
御手段と、 を具備したことを特徴とする推論装置。
2. A one-layer neuron layer that forms one layer of a plurality of neurons, a layer number storage unit that stores the number of layers of a neural network that performs inference, and a synapse weight corresponding to each layer of the neural network. Synapse storage means, input data storage means for storing data provided to the input side of the one-layer neuron layer, output data storage means for storing data on the output side of the one-layer neuron layer, and storage in the output data storage means Data shift means for shifting the stored contents to the input data storage means, and weights stored in the synapse storage means corresponding to the number of layers being executed are weighted to the synapses on the input / output side of the one neuron layer. Weighting control means for performing, shift timing by the data shift means, and the one-layer neuron layer Of the data based on the timing of the inference synchronization means until the number of layers stored in the layer number storage means is reached, and the inference synchronization means for timing the weighting of the input / output side synapses by the weighting control means. The inference control in which the operation by the shift means and the weight control means is repeated and the inference output of the neural network is based on the output on the output side of the one-layer neuron layer when the number of layers stored in the layer number storage means is reached An inference apparatus comprising means and.
JP8160634A 1996-05-31 1996-05-31 Inference device Pending JPH09319724A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8160634A JPH09319724A (en) 1996-05-31 1996-05-31 Inference device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8160634A JPH09319724A (en) 1996-05-31 1996-05-31 Inference device

Publications (1)

Publication Number Publication Date
JPH09319724A true JPH09319724A (en) 1997-12-12

Family

ID=15719176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8160634A Pending JPH09319724A (en) 1996-05-31 1996-05-31 Inference device

Country Status (1)

Country Link
JP (1) JPH09319724A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008545197A (en) * 2005-06-28 2008-12-11 ニューロサイエンシーズ リサーチ ファンデーション インコーポレイテッド A brain-based device using an address mechanism and a special purpose processor for neural modeling
JP2009508182A (en) * 2005-06-28 2009-02-26 ニューロサイエンシーズ リサーチ ファンデーション インコーポレイテッド Neural modeling and brain-based devices using special purpose processors
WO2020225916A1 (en) * 2019-05-09 2020-11-12 株式会社アラヤ Information processing device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008545197A (en) * 2005-06-28 2008-12-11 ニューロサイエンシーズ リサーチ ファンデーション インコーポレイテッド A brain-based device using an address mechanism and a special purpose processor for neural modeling
JP2009508182A (en) * 2005-06-28 2009-02-26 ニューロサイエンシーズ リサーチ ファンデーション インコーポレイテッド Neural modeling and brain-based devices using special purpose processors
WO2020225916A1 (en) * 2019-05-09 2020-11-12 株式会社アラヤ Information processing device

Similar Documents

Publication Publication Date Title
Stassinopoulos et al. Democratic reinforcement: a principle for brain function
JPH09319724A (en) Inference device
Coyne Modelling the emergence of design descriptions across schemata
JPH05233586A (en) Digital neural circuit and its driving method
Gurari Convolutional Neural Networks
JPH05197705A (en) Learning system for neural network
Stassinopoulos et al. Self-organization in a simple brain model
JPH1055346A (en) Neural network circuit
Oubbati et al. Meta-learning for adaptive identification of non-linear dynamical systems
JPH0460752A (en) Learning device for neural network
JPH06175999A (en) Neurocomputer
Beşer et al. The use of look ahead factoring in neurocontrol using forward plant dynamics
JP2559883B2 (en) Fuzzy controller
JP2559881B2 (en) Fuzzy controller
JP2559882B2 (en) Fuzzy controller
JP2000132532A (en) Neural network learning control system and method therefor
JPH03268074A (en) System and device for recognition of pattern
JPH07141316A (en) Observation system for learning state of neural network
JP2559877B2 (en) Fuzzy controller
JP2559884B2 (en) Fuzzy controller
JPH02273834A (en) Fuzzy inference device
Stassinopoulos et al. Self-Organization and Pavlov's Dogs. A Simple Model of the Brain
JP2559880B2 (en) Fuzzy controller
Thomson et al. R. CAPONETTO, M. LO PRESTI, M. LAVORGNA
JPH03271806A (en) Fuzzy controller

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050719

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051205