JPH04237388A - Neuro processor - Google Patents

Neuro processor

Info

Publication number
JPH04237388A
JPH04237388A JP3005690A JP569091A JPH04237388A JP H04237388 A JPH04237388 A JP H04237388A JP 3005690 A JP3005690 A JP 3005690A JP 569091 A JP569091 A JP 569091A JP H04237388 A JPH04237388 A JP H04237388A
Authority
JP
Japan
Prior art keywords
memory
data
input
input signal
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3005690A
Other languages
Japanese (ja)
Inventor
Yoichi Tamura
洋一 田村
Tadayuki Morishita
森下 賢幸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP3005690A priority Critical patent/JPH04237388A/en
Publication of JPH04237388A publication Critical patent/JPH04237388A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To offer a neuro processor capable of rapidly executing the forward propagation and learning of a hierarchical structure neural network. CONSTITUTION:The neuro processor is provided with two pairs of input signal memories 1A, 1B and teaching signal memories 2A, 2B. In parallel with calculation using input signal data stored in the memory 1A and teaching signal data stored in the memory 2A, input signal data and teaching signal data to be used for the succeeding calculation are inputted and respectively written in the memories 1B, 2B. In the succeeding step, the succeeding data are written in the memories 1A, 2A during the calculation of the data of the memories 1B, 2B. Since data input work is executed in parallel with calculation, the processing time can be shortened.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、階層構造ニューラルネ
ットワークの前向き伝搬、及び学習の処理を高速に行な
うためのニューロプロセッサに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neuroprocessor for performing forward propagation and learning processing of a hierarchical neural network at high speed.

【0002】0002

【従来の技術】ニューラルネットワークは、人間の脳の
神経細胞の働きをモデル化して模倣することによって、
従来のいわゆるノイマン形のコンピュータが苦手として
いた認識や、連想,最適化問題,音声合成等を得意とす
る新しいコンピュータを実現しようとするものである。
[Prior Art] Neural networks model and imitate the functions of neurons in the human brain.
The aim is to create a new computer that is good at recognition, association, optimization problems, speech synthesis, etc., which conventional so-called Neumann computers were weak at.

【0003】ニューラルネットワークには、ニューロン
が層状に配置された階層構造のものや、すべてのニュー
ロンが相互に結合した相互結合構造のものなど、さまざ
まな構造のものがある。その中で階層構造のネットワー
クは、例えばバックプロパゲーションアルゴリズムと呼
ばれる学習アルゴリズムで簡単に学習させることができ
、制御、文字認識、画像認識、画像処理などに幅広く応
用することができると考えられている。
[0003] Neural networks have various structures, such as those with a hierarchical structure in which neurons are arranged in layers, and those with an interconnected structure in which all neurons are interconnected. Among them, hierarchical networks can be easily trained using a learning algorithm called a backpropagation algorithm, and are thought to be widely applicable to control, character recognition, image recognition, image processing, etc. .

【0004】図4は階層構造のネットワークの例を示し
たものである。図4で、101は各層中に配置されたニ
ューロン、102はシナプスと呼ばれるニューロン間の
結合、103は入力層、104は中間層、105は出力
層を示す。図4では3層のネットワークの例を示してい
るが、中間層を複数にすることによって4層以上の階層
構造のネットワークにすることもできる。以後は3層の
ネットワークに限って説明するが、4層以上のネットワ
ークに対してもまったく同様の扱いである。また、図4
では各層のニューロンの数は、それぞれ3,2,3とし
て例示したものであるが、各層のニューロンの数を増減
させても同様である。ニューラルネットワークへの入力
信号データは、おのおの、入力層103の各ニューロン
に与えられる。そして、信号が入力層,中間層,出力層
の順番に伝搬していき、出力層105のニューロンの信
号がネットワークの出力になる。このような入力層,中
間層,出力層の順番に伝搬していく通常の伝搬を前向き
の伝搬と呼ぶ。
FIG. 4 shows an example of a network with a hierarchical structure. In FIG. 4, 101 is a neuron arranged in each layer, 102 is a connection between neurons called a synapse, 103 is an input layer, 104 is an intermediate layer, and 105 is an output layer. Although FIG. 4 shows an example of a three-layer network, it is also possible to create a network with a hierarchical structure of four or more layers by providing a plurality of intermediate layers. Hereinafter, the explanation will be limited to three-layer networks, but networks with four or more layers will be treated in exactly the same way. Also, Figure 4
Although the number of neurons in each layer is illustrated as 3, 2, and 3, the same effect can be obtained even if the number of neurons in each layer is increased or decreased. Input signal data to the neural network is provided to each neuron in the input layer 103. Then, the signal propagates in the order of the input layer, intermediate layer, and output layer, and the signal of the neuron in the output layer 105 becomes the output of the network. This normal propagation that propagates in the order of input layer, intermediate layer, and output layer is called forward propagation.

【0005】図5はニューロンの働きを示した図である
。図5で、101,107,108,109はニューロ
ン、102はシナプス、106はニューロンの特性関数
fである。ニューロンは1つ前の層のニューロンの出力
をシナプスを介して受け取る。それぞれのシナプスは結
合の重みと呼ばれる値を持っており、前の層のニューロ
ンの出力値にその結合の重みの値を乗算した結果を次の
ニューロンに与える。シナプスの結合の重みは、それぞ
れのシナブスで異なった値になっている。例えば、図5
のl層目のi番目のニューロン108とl+1層目のj
番目のニューロン101との間のシナプスは結合の重み
wljiを持っており、l層目のi番目のニューロン1
08の出力Oliにその結合の重みの値を乗算した結果
wlji×Oliがl+1層目のj番目のニューロン1
01に与える。そして、ニューロン101はそれに結合
するすべてのシナプスより与えられる入力をすべて加算
し、その加算結果にニューロンの特性関数106を作用
させて、その関数値をニューロン101の出力Ol+1
,jとして出力する。これを式で表すと次式のようにな
る。
FIG. 5 is a diagram showing the function of neurons. In FIG. 5, 101, 107, 108, and 109 are neurons, 102 is a synapse, and 106 is a characteristic function f of the neuron. Each neuron receives the output of the neuron in the previous layer via synapses. Each synapse has a value called a connection weight, and the output value of the neuron in the previous layer is multiplied by that connection weight value, and the result is given to the next neuron. The weights of synaptic connections have different values for each synapse. For example, Figure 5
The i-th neuron 108 of the l-th layer and j of the l+1-th layer
The synapse with the i-th neuron 101 has a connection weight wlji, and the synapse with the i-th neuron 1 of the l-th layer has a connection weight wlji.
The result of multiplying the output Oli of 08 by the value of the connection weight is wlji×Oli, which is the jth neuron 1 of the l+1st layer.
Give to 01. Then, the neuron 101 adds all the inputs given from all the synapses connected to it, applies the characteristic function 106 of the neuron to the addition result, and converts the function value into the output Ol+1 of the neuron 101.
, j. This can be expressed as the following formula.

【0006】[0006]

【数1】[Math 1]

【0007】したがって、3層のネットワークの場合の
前向き伝搬は、つぎの手順で計算される。まず最初にす
べての中間層のニューロンについて、その出力を、
[0007] Therefore, forward propagation in the case of a three-layer network is calculated using the following procedure. First, the output of all hidden layer neurons is

【0
008】
0
008]

【数2】[Math 2]

【0009】に従って計算する。入力層のニューロンの
出力O1iは、そのニューロンに与えられた入力信号デ
ータである。次にその結果を使ってすべての出力層のニ
ューロンについて、その出力を、
Calculate according to: The output O1i of a neuron in the input layer is input signal data given to that neuron. Next, use that result to calculate the output for all output layer neurons,

【0010】0010

【数3】[Math 3]

【0011】に従って計算する。次に、図4の3層の階
層構造ネットワークのバックプロパゲーションアルゴリ
ズムによる学習の方法について説明する。バックプロパ
ゲーションアルゴリズムでは、入力とそれに対する理想
的な出力の組を用意し、その入力に対する実際の出力と
理想的な出力の差が減少するようにシナプスの結合の重
みを修正する。この理想的な出力のことを通常は教師信
号と呼ぶ。以下に、3層のネットワークについて具体的
な計算方法を順を追って説明する。
Calculate according to the following. Next, a learning method using a backpropagation algorithm for the three-layer hierarchical network shown in FIG. 4 will be described. In the backpropagation algorithm, a pair of input and its ideal output is prepared, and the weights of synaptic connections are modified so that the difference between the actual output and the ideal output for that input is reduced. This ideal output is usually called a teacher signal. Below, a specific calculation method for the three-layer network will be explained step by step.

【0012】1.前向きの伝搬によって実際の出力を計
算する。2.次式に従って出力層の各ニューロンの誤差
に対応した値(以下、単にデルタと呼ぶ)を計算する。
1. Compute the actual output by forward propagation. 2. A value (hereinafter simply referred to as delta) corresponding to the error of each neuron in the output layer is calculated according to the following equation.

【0013】[0013]

【数4】[Math 4]

【0014】δljはl層目のj番目のニューロンに対
するデルタ、tjは出力層のj番目のニューロンに対す
る教師信号、gは
δlj is the delta for the j-th neuron in the l-th layer, tj is the teacher signal for the j-th neuron in the output layer, and g is the delta for the j-th neuron in the l-th layer.

【0015】[0015]

【数5】[Math 5]

【0016】で表されるようにニューロンの特性関数f
の微分係数である。ニューロンの特性関数fは、単調非
減少の関数が用いられるので、数5に示したように、特
性関数の微分係数を特性関数の関数値の関数として表す
ことができる。
The characteristic function f of the neuron is expressed as
is the differential coefficient of Since a monotonically non-decreasing function is used as the characteristic function f of the neuron, the differential coefficient of the characteristic function can be expressed as a function of the function value of the characteristic function, as shown in Equation 5.

【0017】3.中間層と出力層との間のシナプスの結
合の重みの修正量を、次式に従って計算し、重みを修正
する。
3. The amount of modification of the weight of the synaptic connection between the intermediate layer and the output layer is calculated according to the following equation, and the weight is modified.

【0018】[0018]

【数6】[Math 6]

【0019】ηは修正係数である。4.中間層のニュー
ロンに対するデルタを、次式に従って計算する。
η is a correction coefficient. 4. Compute the delta for the neurons in the hidden layer according to the following equation:

【0020】[0020]

【数7】[Math 7]

【0021】5.中間層と入力層の間のシナプスの結合
の重みの修正量を、次式に従って計算し、重みを修正す
る。
5. The amount of modification of the weight of the synaptic connection between the intermediate layer and the input layer is calculated according to the following formula, and the weight is modified.

【0022】[0022]

【数8】[Math. 8]

【0023】実際の学習では、以上に述べた手順を、複
数個の入力と教師信号の組に対して行い、さらにそれを
何回も繰り返す。すなわち、上の1から5までの手順を
1回の学習と呼ぶことにすると、総学習回数は、(学習
に用いる入力と教師信号の組の数)×(繰り返しの回数
)となる。
In actual learning, the above-described procedure is performed for a plurality of pairs of inputs and teacher signals, and is repeated many times. That is, if the steps 1 to 5 above are called one learning, the total number of learning times is (number of input and teacher signal pairs used for learning) x (number of repetitions).

【0024】以上が、階層構造のニューラルネットワー
クの前向き伝搬、および学習の計算の手順である。しか
し、実際の処理では、計算を開始する前に、前向き伝搬
の計算では、入力信号データが与えられなければならな
い。また、学習の計算では、入力信号データと教師信号
データが与えられなければならない。したがって、従来
、前向き伝搬や学習の処理を行う時は、次のような手順
がとられている。
The above are the steps for forward propagation and learning calculations of a hierarchical neural network. However, in actual processing, input signal data must be provided in forward propagation calculations before starting the calculation. Furthermore, in learning calculations, input signal data and teacher signal data must be given. Therefore, conventionally, when forward propagation and learning processing is performed, the following steps are taken.

【0025】まず、最初に、ニューロプロセッサは、入
力信号データや教師信号データを外部より受取り、それ
らのデータをいったんメモリに書き込む。入力信号デー
タや教師信号データを外部より受取り、それらのデータ
をメモリに書き込む作業を、以後、データの入力と呼ぶ
ことにする。次に、そのメモリ上の入力信号データや教
師信号データを用いて、実際の計算を行う。このような
、2段階の処理の方法が、通常はとられている。図3の
(イ)は、この従来法の処理の流れを示した図である。 まず最初に、データの入力を行い、その後で、計算を行
っている。通常は、違ったデータについての処理を連続
して行うので、図3の(イ)に示したように、計算の後
に、さらに次のデータの入力が行われる。この操作を何
回も繰り返す。
[0025] First, the neuroprocessor receives input signal data and teacher signal data from the outside, and once writes these data into the memory. The process of receiving input signal data and teacher signal data from the outside and writing those data into memory will be referred to as data input hereinafter. Next, actual calculations are performed using the input signal data and teacher signal data on the memory. Such a two-step processing method is normally used. FIG. 3A is a diagram showing the processing flow of this conventional method. First, data is input, and then calculations are performed. Normally, different data are processed in succession, so after the calculation, the next data is input, as shown in FIG. 3(a). Repeat this operation many times.

【0026】[0026]

【発明が解決しようとする課題】一般に、ニューラルネ
ットワークの計算は、計算量が非常に多いので、多くの
処理時間を必要とする。特に、学習は何回も繰り返すこ
とが必要なので、処理時間は膨大になる。したがって、
処理が高速に行えるニューロプロセッサが望まれている
[Problems to be Solved by the Invention] Generally, neural network calculations involve a very large amount of calculation, and therefore require a large amount of processing time. In particular, since learning needs to be repeated many times, the processing time becomes enormous. therefore,
A neuroprocessor that can perform high-speed processing is desired.

【0027】しかし、従来のニューロプロセッサのよう
に、データの入力を行い、次に計算を行う方法だと、1
回の処理に、(データの入力に必要な時間)+(計算に
必要な時間)がかかる。すなわち、実際に計算に要する
時間の他に、データの入力にかかる時間が余分に必要に
なるわけである。
However, if you input data and then perform calculations as in the conventional neuroprocessor, 1
It takes (time required to input data) + (time required for calculation) to complete the process. That is, in addition to the time required for actual calculation, additional time is required for inputting data.

【0028】本発明は上記課題を解決するもので、階層
構造ニューラルネットワークの前向き伝搬、及び学習の
処理が高速にできるニューロプロセッサを提供すること
を目的としている。
The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to provide a neuroprocessor that can perform forward propagation and learning processing of a hierarchical neural network at high speed.

【0029】[0029]

【課題を解決するための手段】以上の課題を解決するた
め、本発明のニューロプロセッサでは、入力信号用メモ
リと教師信号用メモリの組を2組備え、一方の組の入力
信号用メモリ上の入力信号データと教師信号用メモリ上
の教師信号データを用いて、計算を行っている間に、そ
れと並列に、次の計算で使用する入力信号データと教師
信号データを入力し、もう一方の組の入力信号用メモリ
と教師信号用メモリに書き込むことを行う。
[Means for Solving the Problems] In order to solve the above-mentioned problems, the neuroprocessor of the present invention is provided with two sets of input signal memory and teacher signal memory. While a calculation is being performed using the input signal data and the teacher signal data in the teacher signal memory, input the input signal data and teacher signal data to be used in the next calculation in parallel, and calculate the other set. writes to the input signal memory and teacher signal memory.

【0030】[0030]

【作用】上記構成により、データの入力の作業が、計算
と並列して行われるので、データの入力のための時間が
、見かけ上不要になる。すなわち、従来、データの入力
に要していた時間の分だけ、全体の処理時間が短縮され
る。したがって、処理の高速化が図れる。
[Operation] With the above configuration, the data input operation is performed in parallel with the calculation, so that the time required for data input is seemingly unnecessary. That is, the overall processing time is reduced by the time conventionally required for inputting data. Therefore, processing speed can be increased.

【0031】[0031]

【実施例】以下、本発明の実施例を図面により説明する
[Embodiments] Hereinafter, embodiments of the present invention will be explained with reference to the drawings.

【0032】図1は、本発明のニューロプロセッサの構
成図である。図1の1Aと1Bは入力信号用メモリ、2
Aと2Bは教師信号用メモリで、1Aと2Aが、1つの
組となり、1Bと2Bが、もう1つの組となっている。 以後、1Aと2Aの組をメモリA、1Bと2Bの組をメ
モリBと呼ぶことにする。図1の3は、ニューラルネッ
トワーク演算処理部で、前向き伝搬や学習の計算が行わ
れる。図1の4は、入力部で、入力信号データと教師信
号データは、この入力部を通して入力される。図1の5
と6はスイッチで、スイッチ5は、入力部4より入力さ
れたデータを、メモリAに書き込むか、メモリBに書き
込むかを切り替える。スイッチ6は、ニューラルネット
ワーク演算処理部3で使用するデータを、メモリAから
読み出すか、メモリBから読み出すかを切り替える。
FIG. 1 is a block diagram of the neuroprocessor of the present invention. 1A and 1B in Fig. 1 are input signal memories, 2
A and 2B are teacher signal memories, 1A and 2A are one set, and 1B and 2B are another set. Hereinafter, the set of 1A and 2A will be called memory A, and the set of 1B and 2B will be called memory B. 3 in FIG. 1 is a neural network arithmetic processing unit where forward propagation and learning calculations are performed. 4 in FIG. 1 is an input section, and input signal data and teacher signal data are input through this input section. 5 in Figure 1
and 6 are switches, and switch 5 switches whether data input from input section 4 is written to memory A or memory B. The switch 6 switches whether the data used by the neural network calculation processing section 3 is read from the memory A or the memory B.

【0033】図2は、本実施例におけるスイッチとメモ
リの使用法を示した図である。以下、図2に従って、本
実施例のニューロプロセッサの動作について説明する。
FIG. 2 is a diagram showing how the switches and memory are used in this embodiment. The operation of the neuroprocessor of this embodiment will be described below with reference to FIG.

【0034】まず、最初のステップaでは、スイッチ5
をAに切り替えることによって、入力部4より入力され
たデータを、メモリAに書き込む。次のステップbでは
、スイッチ6をAに切り替えて、ステップaで書き込ん
だメモリAのデータを読み出して、ニューラルネットワ
ーク演算処理部3が計算を行う。それと同時に、スイッ
チ5をBに切り替えて、入力部4より入力されたデータ
を、メモリBに書き込む。次のステップcでは、スイッ
チ6をBに切り替えて、ステップbで書き込んだメモリ
Bのデータを読み出して、ニューラルネットワーク演算
処理部3が計算を行う。それと同時に、スイッチ5をA
に切り替えて、入力部4より入力されたデータを、メモ
リAに書き込む。以後は、このような操作を繰り返す。
First, in the first step a, the switch 5
By switching to A, the data input from the input section 4 is written into the memory A. In the next step b, the switch 6 is switched to A, the data written in the memory A in step a is read out, and the neural network arithmetic processing unit 3 performs calculation. At the same time, the switch 5 is switched to B, and the data input from the input section 4 is written into the memory B. In the next step c, the switch 6 is switched to B, the data written in the memory B in step b is read out, and the neural network arithmetic processing unit 3 performs calculations. At the same time, turn switch 5 to
The data input from the input section 4 is written into the memory A. From now on, repeat these operations.

【0035】図3の(ア)は、この処理の流れを示した
図である。データの入力と計算が並列に行われ、1つ前
のステップで入力されたデータを使って、計算は行われ
る。図3の(イ)の従来法の場合と比べると明らかなよ
うに、図3の(イ)の従来法では2ステップで1つの処
理が終わるのに対して、本発明の方法では、見かけ上、
1ステップで1つの処理が終わる。
FIG. 3A is a diagram showing the flow of this process. Data input and calculations are performed in parallel, and calculations are performed using the data input in the previous step. As is clear from the comparison with the conventional method shown in FIG. 3(a), one process is completed in two steps in the conventional method shown in FIG. 3(a), whereas the method of the present invention ,
One step completes one process.

【0036】以上の動作の説明よりわかるように、本ニ
ューロプロセッサでは、入力信号用メモリと教師信号用
メモリの組を2組備え、一方の組の入力信号用メモリ上
の入力信号データと教師信号用メモリ上の教師信号デー
タを用いて、計算を行っている間に、それと並列して、
次の計算で使用する入力信号データと教師信号データを
入力し、もう一方の組の入力信号用メモリと教師信号用
メモリに書き込むことを行う。その結果、データの入力
の作業が、計算と並列して行われるので、データの入力
のための時間が、見かけ上不要になる。すなわち、従来
、データの入力に要していた時間の分だけ、全体の処理
時間が短縮される。
As can be seen from the above explanation of the operation, this neuroprocessor is provided with two sets of input signal memory and teacher signal memory, and the input signal data and the teacher signal on one set of input signal memory are While performing calculations using the teacher signal data on the memory, in parallel,
Input signal data and teacher signal data to be used in the next calculation are input and written to the other set of input signal memory and teacher signal memory. As a result, the data input work is performed in parallel with the calculation, so that the time required for data input is seemingly unnecessary. That is, the overall processing time is reduced by the time conventionally required for inputting data.

【0037】なお、本発明は、ニューラルネットワーク
演算処理部の構造には、無関係であり、どのようなニュ
ーラルネットワーク演算処理部に対しても、効果がある
Note that the present invention is independent of the structure of the neural network arithmetic processing section, and is effective for any neural network arithmetic processing section.

【0038】[0038]

【発明の効果】以上の実施例から明らかなように、本発
明によれば、入力信号用メモリと教師信号用メモリの組
を2組備え、データの入力と計算を並列して行うことに
よって、データの入力のための時間が、見かけ上不要に
なり、階層構造のニューラルネットワークの前向き伝搬
、及び学習の処理が高速に行えるニューロプロセッサを
提供できる。
As is clear from the above embodiments, according to the present invention, two sets of input signal memory and teacher signal memory are provided, and data input and calculation are performed in parallel. It is possible to provide a neuroprocessor that apparently requires no time for inputting data and can perform forward propagation and learning processing of a hierarchical neural network at high speed.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の一実施例のニューロプロセッサの構成
FIG. 1 is a configuration diagram of a neuroprocessor according to an embodiment of the present invention.

【図2】スイッチとメモリの使用方法を示した図[Figure 2] Diagram showing how to use switches and memory

【図3
】処理の流れを示した図
[Figure 3
] Diagram showing the flow of processing

【図4】階層構造ニューラルネットワークの図[Figure 4] Diagram of hierarchical neural network

【図5】
ニューロンの働きを示した図
[Figure 5]
Diagram showing how neurons work

【符号の説明】[Explanation of symbols]

1A,1B  入力信号用メモリ 2A,2B  教師信号用メモリ 3  ニューラルネットワーク演算処理部4  入力部 5,6  スイッチ 101  ニューロン 102  シナプス 103  入力層 104  中間層 105  出力層 106  ニューロンの特性関数 107−109  ニューロン 1A, 1B Input signal memory 2A, 2B Memory for teacher signal 3 Neural network calculation processing section 4 Input section 5, 6 Switch 101 Neuron 102 Synapse 103 Input layer 104 Middle class 105 Output layer 106 Characteristic function of neuron 107-109 Neuron

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】ニューラルネットワーク演算処理部と、2
つの入力信号用メモリを備え、一方の入力信号用メモリ
上の入力信号データを用いて、前向き伝搬の計算を行っ
ている間に、それと並列して、次の前向き伝搬の計算で
使用する入力信号データを入力し、それをもう一方の入
力信号用メモリに書き込むことを行うニューロプロセッ
サ。
Claim 1: A neural network calculation processing unit; 2.
one input signal memory, and while forward propagation calculations are being performed using the input signal data on one input signal memory, the input signal data used in the next forward propagation calculation is provided in parallel. A neuroprocessor whose job is to input data and write it to memory for another input signal.
【請求項2】ニューラルネットワーク演算処理部と、入
力信号用メモリと教師信号用メモリの組を2組備え、一
方の組の入力信号用メモリ上の入力信号データと教師信
号用メモリ上の教師信号データを用いて、学習の計算を
行っている間に、それと並列して、次の学習の計算で使
用する入力信号データと教師信号データを入力し、それ
をもう一方の組の入力信号用メモリと教師信号用メモリ
に書き込むことを行うニューロプロセッサ。
2. A neural network arithmetic processing unit, two sets of an input signal memory and a teacher signal memory, the input signal data on one set of the input signal memory and the teacher signal on the teacher signal memory. While performing learning calculations using data, in parallel, input signal data and teacher signal data to be used in the next learning calculation, and store them in the memory for the other set of input signals. and a neuroprocessor that writes to the memory for the teacher signal.
JP3005690A 1991-01-22 1991-01-22 Neuro processor Pending JPH04237388A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3005690A JPH04237388A (en) 1991-01-22 1991-01-22 Neuro processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3005690A JPH04237388A (en) 1991-01-22 1991-01-22 Neuro processor

Publications (1)

Publication Number Publication Date
JPH04237388A true JPH04237388A (en) 1992-08-25

Family

ID=11618099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3005690A Pending JPH04237388A (en) 1991-01-22 1991-01-22 Neuro processor

Country Status (1)

Country Link
JP (1) JPH04237388A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020173661A (en) * 2019-04-11 2020-10-22 富士通株式会社 Optimization device and method for controlling optimization device
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11238331B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method for augmenting an existing artificial neural network
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11263512B2 (en) 2017-04-04 2022-03-01 Hailo Technologies Ltd. Neural network processor incorporating separate control and data fabric
US11461614B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. Data driven quantization optimization of weights and input data in an artificial neural network
JP2020173661A (en) * 2019-04-11 2020-10-22 富士通株式会社 Optimization device and method for controlling optimization device
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor

Similar Documents

Publication Publication Date Title
EP0504932A2 (en) A parallel data processing system
JPH04237388A (en) Neuro processor
JP3177996B2 (en) Neuroprocessor
US5485548A (en) Signal processing apparatus using a hierarchical neural network
JPH05159087A (en) Neuro processor
JPH05128285A (en) Neuro-processor
JP2654686B2 (en) neural network
JPH01282672A (en) Neural network device
JPH04233063A (en) Neuro processor
WO2020213670A1 (en) Neural calculation device and neural calculation method
JP3082530B2 (en) Neural network circuit
JPH02178758A (en) Neural net constituting information processor
JPH01116869A (en) Neural network having dynamic programming function
CN117332824A (en) Memristor neural network full circuit based on weighting and synchronous dithering algorithm
JP2766858B2 (en) Neural network parallel simulation method and device used therefor
JP3296609B2 (en) Neural network that outputs membership function
JP3393511B2 (en) Character recognition apparatus and method
JPH04293152A (en) Neural network simulator
JPH0583920B2 (en)
JPH0736181B2 (en) Neural network circuit
JPH06332878A (en) Neurocomputer
Dalianis et al. Graph coloring using fuzzy controlled Neural Networks
JPH0652140A (en) Data structure for neural network
JPH0243665A (en) Neural network device
JPH06301663A (en) Learning system for serial connection type recurrent neural network