JPH05128284A - Neuro-processor - Google Patents

Neuro-processor

Info

Publication number
JPH05128284A
JPH05128284A JP3291196A JP29119691A JPH05128284A JP H05128284 A JPH05128284 A JP H05128284A JP 3291196 A JP3291196 A JP 3291196A JP 29119691 A JP29119691 A JP 29119691A JP H05128284 A JPH05128284 A JP H05128284A
Authority
JP
Japan
Prior art keywords
calculation
neuron
function
equation
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3291196A
Other languages
Japanese (ja)
Inventor
Yoichi Tamura
洋一 田村
Tadayuki Morishita
賢幸 森下
Atsuo Inoue
敦雄 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP3291196A priority Critical patent/JPH05128284A/en
Publication of JPH05128284A publication Critical patent/JPH05128284A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To prevent the overflow of parameters and functions by constituting a processor so that the calculation of a computational equation transformed by using a normalized parameter and a function may be performed. CONSTITUTION:Each parameter and each function are normalized to sizes to be fitted for dynamic range, respectively. The calculation of a computational equation transformed by using the normalized parameter can be performed by inputting the output of a sum of products operator 1 in a factor multiplier 2 and by inputting the output of the factor multiplier 2 in a neuron characteristic function circuit 3. Thus, the occurrence of the overflow of parameters and functions can be prevented, the word lengths alloted to parameters and functions, respectively can be fully utilized and a calculation with high accuracy becomes possible.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ニューラルネットワー
クの計算を高精度に行なうためのニューロプロセッサに
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neuroprocessor for performing neural network calculations with high accuracy.

【0002】[0002]

【従来の技術】ニューラルネットワークは、人間の脳の
神経細胞の働きをモデル化して模倣することによって、
従来のいわゆるノイマン形のコンピュータが苦手として
いた認識や、連想、最適化問題、音声合成等を得意とす
る新しいコンピュータを実現しようするものである。
BACKGROUND OF THE INVENTION Neural networks model and imitate the function of nerve cells in the human brain,
It is intended to realize a new computer which is good at recognition, association, optimization problem, speech synthesis, etc., which are not good at the conventional so-called Neumann type computer.

【0003】ニューラルネットワークには、ニューロン
が層状に配置された階層構造のものや、すべてのニュー
ロンが相互に結合した相互結合構造のものなど、さまざ
まな構造のものがある。その中で階層構造のネットワー
クは、例えばバックプロパゲーションアルゴリズムと呼
ばれる学習アルゴリズムで簡単に学習させることがで
き、制御、文字認識、画像認識、画像処理などに幅広く
応用することができると考えられている。
There are various types of neural networks, such as a hierarchical structure in which neurons are arranged in layers and an interconnected structure in which all neurons are connected to each other. Among them, the hierarchical network can be easily learned by a learning algorithm called a backpropagation algorithm and is considered to be widely applicable to control, character recognition, image recognition, image processing, etc. ..

【0004】図3は階層構造のネットワークの例を示し
たものである。図3で、101は各層中に配置されたニ
ューロン、102はシナプスと呼ばれるニューロン間の
結合、103は入力層、104は中間層、105は出力
層を示す。図3では3層のネットワークの例を示してい
るが、中間層を複数にすることによって4層以上の階層
構造のネットワークにすることもできる。以後は3層の
ネットワークに限って説明するが、4層以上のネットワ
ークに対してもまったく同様の扱いである。また、図3
では各層のニューロンの数は、それぞれ3,2,3とし
て例示したものであるが、各層のニューロンの数を増減
させても同様である。ニューラルネットワークへの入力
信号は、おのおの、入力層103の各ニューロンに与え
られる。そして、信号が入力層、中間層、出力層の順番
に伝搬していき、出力層105のニューロンの信号がネ
ットワークの出力になる。このような入力層、中間層、
出力層の順番に伝搬していく通常の伝搬を前向きの伝搬
と呼ぶ。
FIG. 3 shows an example of a hierarchical network. In FIG. 3, 101 is a neuron arranged in each layer, 102 is a connection between neurons called synapse, 103 is an input layer, 104 is an intermediate layer, and 105 is an output layer. Although FIG. 3 shows an example of a three-layer network, a network having a hierarchical structure of four or more layers can be formed by using a plurality of intermediate layers. Hereinafter, the description will be limited to the network of three layers, but the same applies to the network of four layers or more. Also, FIG.
Then, the numbers of neurons in each layer are illustrated as 3, 2 and 3 respectively, but the same applies when the number of neurons in each layer is increased or decreased. The input signal to the neural network is given to each neuron of the input layer 103. Then, the signal propagates in the order of the input layer, the intermediate layer, and the output layer, and the signal of the neuron in the output layer 105 becomes the output of the network. Such input layer, middle layer,
Normal propagation that propagates in the order of the output layer is called forward propagation.

【0005】図4はニューロンの働きを示した図であ
る。図4で、101、107、108、109はニュー
ロン、102はシナプス、106はニューロンの特性関
数fである。ニューロンは1つ前の層のニューロンの出
力をシナプスを介して受け取る。それぞれのシナプスは
結合の重みと呼ばれる値を持っており、前の層のニュー
ロンの出力値にその結合の重みの値を乗算した結果を次
のニューロンに与える。シナプスの結合の重みは、それ
ぞれのシナブスで異なった値になっている。例えば、図
4のl層目のi番目のニューロン108とl+1層目の
j番目のニューロン101との間のシナプスは結合の重
みwljiを持っており、l層目のi番目のニューロン1
08の出力Oliにその結合の重みの値を乗算した結果w
lji×Oliがl+1層目のj番目のニューロン101に
与える。そして、ニューロン101はそれに結合するす
べてのシナプスより与えられる入力をすべて加算し、そ
の加算結果にニューロンの特性関数106を作用させ
て、その関数値をニューロン101の出力Ol+1,jとし
て出力する。これを式で表すと次式のようになる。
FIG. 4 is a diagram showing the functions of neurons. In FIG. 4, 101, 107, 108, and 109 are neurons, 102 is a synapse, and 106 is a characteristic function f of the neuron. The neuron receives the output of the neuron in the previous layer via the synapse. Each synapse has a value called a connection weight, and the result obtained by multiplying the output value of the neuron in the previous layer by the value of the connection weight is given to the next neuron. The weight of synaptic connection is different for each synapse. For example, the synapse between the i-th neuron 108 of the l-th layer and the j-th neuron 101 of the l + 1-th layer in FIG. 4 has a connection weight w lji , and the i-th neuron 1 of the l-th layer 1
The result w of multiplying the output O li of 08 by the value of the weight of the connection
lji × O li is given to the jth neuron 101 of the (l + 1) th layer. Then, the neuron 101 adds all the inputs given by all the synapses connected to the neuron 101, causes the characteristic function 106 of the neuron to act on the addition result, and outputs the function value as the output O l + 1, j of the neuron 101. To do. This can be expressed by the following equation.

【0006】[0006]

【数1】 [Equation 1]

【0007】ニューロンの特性関数fは通常、The characteristic function f of a neuron is usually

【0008】[0008]

【数2】 [Equation 2]

【0009】で表される関数を用いる。したがって、3
層のネットワークの場合の前向き伝搬は、つぎの手順で
計算される。まず最初にすべての中間層のニューロンに
ついて、その出力を、
The function represented by Therefore, 3
Forward propagation for a layer network is calculated by the following procedure. First of all, for all neurons in the middle layer, the output is

【0010】[0010]

【数3】 [Equation 3]

【0011】に従って計算する。次にその結果を使って
すべての出力層のニューロンについて、その出力を、
Calculate according to Next, using the result, for all the neurons in the output layer, its output is

【0012】[0012]

【数4】 [Equation 4]

【0013】に従って計算する。次に、図3の3層の階
層構造ネットワークのバックプロパゲーションアルゴリ
ズムによる学習の方法について説明する。バックプロパ
ゲーションアルゴリズムでは、入力とそれに対する理想
的な出力の組を用意し、その入力に対する実際の出力と
理想的な出力の差が減少するようにシナプスの結合の重
みを修正する。この理想的な出力のことを通常は教師信
号と呼ぶ。以下に、3層のネットワークについて具体的
な計算方法を順を追って説明する。 1.前向きの伝搬によって実際の出力を計算する。 2.次式に従って出力層の各ニューロンの誤差に対応し
た値(以下、単にデルタと呼ぶ)を計算する。
Calculate according to: Next, a learning method using the backpropagation algorithm of the three-layer hierarchical network of FIG. 3 will be described. The backpropagation algorithm prepares a pair of an input and an ideal output corresponding to the input, and modifies synaptic coupling weights so that the difference between the actual output and the ideal output for the input is reduced. This ideal output is usually called a teacher signal. Hereinafter, a specific calculation method for the three-layer network will be described step by step. 1. Calculate the actual output by forward propagation. 2. A value (hereinafter simply referred to as delta) corresponding to the error of each neuron in the output layer is calculated according to the following equation.

【0014】[0014]

【数5】 [Equation 5]

【0015】δljはl層目のj番目のニューロンに対す
るデルタ、tjは出力層のj番目のニューロンに対する
教師信号、gは
Δ lj is the delta for the j-th neuron in the l-th layer, t j is the teacher signal for the j-th neuron in the output layer, and g is

【0016】[0016]

【数6】 [Equation 6]

【0017】で表されるようにニューロンの特性関数f
の微分係数である。ニューロンの特性
The characteristic function f of the neuron as represented by
Is the differential coefficient of. Characteristics of neurons

【0018】関数fは、単調非減少の関数が用いられる
ので、(数6)に示したように、特性関数の微分係数を
特性関数の関数値の関数として表すことができる。 3.中間層と出力層との間のシナプスの結合の重みの修
正量を、次式に従って計算し、重みを修正する。
Since the function f is a monotone non-decreasing function, the differential coefficient of the characteristic function can be expressed as a function of the function value of the characteristic function, as shown in (Equation 6). 3. The correction amount of the weight of the synapse connection between the intermediate layer and the output layer is calculated according to the following equation, and the weight is corrected.

【0019】[0019]

【数7】 [Equation 7]

【0020】ηは修正係数である。 4.中間層のニューロンに対するデルタを、次式に従っ
て計算する。
Η is a correction coefficient. 4. The delta for the hidden layer neurons is calculated according to the following equation:

【0021】[0021]

【数8】 [Equation 8]

【0022】5.中間層と入力層の間のシナプスの結合
の重みの修正量を、次式に従って計算し、重みを修正す
る。
5. The correction amount of the synaptic connection weight between the intermediate layer and the input layer is calculated according to the following equation, and the weight is corrected.

【0023】[0023]

【数9】 [Equation 9]

【0024】ニューロプロセッサでは、以上の計算式の
計算を行うことが必要である。従来は、主に、回路規模
が小さくてすむ固定小数点方式で、これらの計算が行え
るニューロプロセッサが開発されてきた。
In the neuroprocessor, it is necessary to perform the above calculation formula calculations. Conventionally, a neuroprocessor capable of performing these calculations has been developed mainly by a fixed-point method that requires a small circuit scale.

【0025】[0025]

【発明が解決しようとする課題】固定小数点演算では、
各変数や各関数はそれぞれで設定された語長(ビット
数)に対して、あらかじめ小数点の位置が定められ、固
定される。したがって、各変数や各関数のダイナミック
レンジが狭くなる。すなわち、変数や関数がオーバーフ
ローを起こしたり、あるいは、それぞれの変数や関数に
割り当てられた語長を十分に活かせなかったりする。そ
のため、精度の高い計算を行うことができない。
In fixed point arithmetic,
For each variable and each function, the position of the decimal point is fixed in advance with respect to the word length (bit number) set for each variable and fixed. Therefore, the dynamic range of each variable and each function becomes narrow. That is, a variable or function overflows, or the word length assigned to each variable or function cannot be fully utilized. Therefore, highly accurate calculation cannot be performed.

【0026】本発明は上記課題を解決するもので、高精
度の計算ができるニューロプロセッサを提供することを
目的としている。
The present invention solves the above problems, and an object of the present invention is to provide a neuroprocessor capable of highly accurate calculation.

【0027】[0027]

【課題を解決するための手段】以上の課題を解決するた
め、本発明のニューロプロセッサでは、各変数や各関数
の規格化によって変換された計算式の計算を実行できる
構成にする。例えば、ニューラルネットワークの前向き
伝搬の計算においては、積和演算器の出力を係数乗算器
に入力し、係数乗算器の出力をニューロン特性関数回路
に入力するようにする。また、バックプロバゲーション
・アルゴリズムによって学習する階層構造のニューラル
ネットワークの、中間層のニューロンのデルタを計算す
る場合には、通常の計算結果に係数乗算器で係数を乗算
した値を、中間層のニューロンのデルタにする。このよ
うに、係数乗算器を備えることによって、各変数や各関
数の規格化によって変換された計算式の計算を実行でき
る構成にする。
In order to solve the above problems, the neuroprocessor of the present invention is configured to execute the calculation of the calculation formula converted by standardization of each variable and each function. For example, in the forward propagation calculation of the neural network, the output of the product-sum calculator is input to the coefficient multiplier, and the output of the coefficient multiplier is input to the neuron characteristic function circuit. Also, when calculating the delta of neurons in the middle layer of a hierarchical neural network learned by the back propagation algorithm, the value obtained by multiplying the normal calculation result by a coefficient by a coefficient multiplier is used. To the delta. As described above, by providing the coefficient multiplier, it is possible to execute the calculation of the calculation formula converted by the standardization of each variable and each function.

【0028】[0028]

【作用】上記構成により、各変数や各関数を、それぞれ
のダイナミックレンジに適合するような大きさに規格化
し、その規格化によって変換された計算式の計算を実行
できるようになる。したがって、変数や関数がオーバー
フローするのを防ぐことができ、また、それぞれの変数
や関数に割り当てられた語長を十分に活かすことができ
るので、ニューラルネットワークの前向きの伝搬や、バ
ックプロパゲーション・アルゴリズムによる学習の計算
を高精度に行える。
With the above configuration, each variable and each function can be standardized to have a size that fits each dynamic range, and the calculation formula converted by the standardization can be executed. Therefore, variables and functions can be prevented from overflowing, and the word length assigned to each variable and function can be fully utilized, so that forward propagation of the neural network and backpropagation algorithm can be performed. The learning calculation can be performed with high accuracy.

【0029】[0029]

【実施例】以下、本発明の実施例を図面により説明す
る。
Embodiments of the present invention will be described below with reference to the drawings.

【0030】図1は、本発明の一実施例のニューロプロ
セッサの前向きの伝搬の計算の場合のデータの流れの図
である。図1の1は積和演算器で、2は係数乗算器、3
はニ
FIG. 1 is a data flow diagram for the forward propagation calculation of the neuroprocessor of one embodiment of the present invention. 1 in FIG. 1 is a product-sum calculator, 2 is a coefficient multiplier, 3
Is

【0031】ューロン特性関数回路、4は乗算器、5は
加算器である。図1は、(数1)で表される通常の前向
き伝搬の計算が行える構成に、係数乗算器2を1つ加え
たものである。
The uron characteristic function circuit, 4 is a multiplier, and 5 is an adder. FIG. 1 shows a configuration in which one coefficient multiplier 2 is added to the configuration capable of calculating the normal forward propagation represented by (Equation 1).

【0032】また図2は、本発明の一実施例のニューロ
プロセッサの中間層のデルタの計算の場合のデータの流
れの図である。図2の6はデルタ計算回路、7は係数乗
算器、8は乗算器、9は加算器、10はニューロン特性
関数微分係数回路、11は乗
FIG. 2 is a data flow diagram in the case of calculating the delta of the middle layer of the neuroprocessor according to the embodiment of the present invention. 2, 6 is a delta calculation circuit, 7 is a coefficient multiplier, 8 is a multiplier, 9 is an adder, 10 is a neuron characteristic function differential coefficient circuit, and 11 is a power.

【0033】算器である。図2で、デルタ計算回路6
は、(数8)で表される通常のデルタの計算が行える構
成になっている。
It is a calculator. In FIG. 2, the delta calculation circuit 6
Is configured so that a normal delta represented by (Equation 8) can be calculated.

【0034】本実施例では、以下に示すような規格化を
行う。まず、Oとδとgは、最適になっており、規格化
の必要が無いものとする。そして、次式のように、規格
化係数aとbを用いて、変数wとIを規格化する。
In this embodiment, the following standardization is performed. First, it is assumed that O, δ, and g are optimal and need not be standardized. Then, as in the following equation, the variables w and I are standardized using the standardization coefficients a and b.

【0035】[0035]

【数10】 [Equation 10]

【0036】変数を表す文字の上の〜は規格化された変
数であることを表す。(数10)を用
The symbol ˜ above the character representing a variable represents a standardized variable. Use (Equation 10)

【0037】いると、前向きの伝搬の計算式(数1)は
次のように変換される。
Then, the forward propagation calculation formula (Equation 1) is converted as follows.

【0038】[0038]

【数11】 [Equation 11]

【0039】また、バックプロパゲーション・アルゴリ
ズムによる学習の計算式のうち(数7
Further, among the calculation formulas for learning by the backpropagation algorithm,

【0040】)、(数8)、(数9)は次のように変換
される。
), (Equation 8) and (Equation 9) are converted as follows.

【0041】[0041]

【数12】 [Equation 12]

【0042】[0042]

【数13】 [Equation 13]

【0043】[0043]

【数14】 [Equation 14]

【0044】ここで、Here,

【0045】[0045]

【数15】 [Equation 15]

【0046】[0046]

【数16】 [Equation 16]

【0047】であり、変数の規格化に伴って、係数ηと
関数fが変換されている。
The coefficient η and the function f are converted according to the standardization of the variables.

【0048】図1は、(数11)を計算する場合のデー
タの流れの図である。(数11)より明らかなように、
変数を規格化したことによって、積和演算の結果にa/
bを掛ける演算が増える。この演算を行うのが、図1の
2の係数乗算器である。このように、積和演算器1の出
力を係数乗算器2に入力し、係数乗算器2の出力をニュ
ーロン特性関数回路3に入力することによって、規格化
した変数を用いて変換
FIG. 1 is a diagram showing a data flow when calculating (Equation 11). As is clear from (Equation 11),
By normalizing the variables, a /
The number of operations for multiplying b increases. It is the coefficient multiplier 2 in FIG. 1 that performs this calculation. In this way, the output of the product-sum calculator 1 is input to the coefficient multiplier 2, and the output of the coefficient multiplier 2 is input to the neuron characteristic function circuit 3, so that conversion is performed using the standardized variables.

【0049】した計算式(数11)の計算が行えるよう
になる。なお、図1のニューロン特性関数回路3は、実
際に特性関数を計算する演算回路であってもよいし、関
数のテーブルを記憶したメモリであってもよいし、その
他の構成のものでもよい。ただ
The calculation of the above calculation formula (Equation 11) can be performed. The neuron characteristic function circuit 3 in FIG. 1 may be an arithmetic circuit that actually calculates the characteristic function, a memory that stores a table of functions, or another configuration. However

【0050】し、ニューロン特性関数回路3が発生する
関数は、(数2)のfではなく、(数16)で表される
関数である。
The function generated by the neuron characteristic function circuit 3 is not f in (Equation 2) but the function represented by (Equation 16).

【0051】図2は、(数13)を計算する場合のデー
タの流れの図である。(数13)より明らかなように、
変数を規格化したことによって、aを掛ける演算が増え
る。この演算を行うのが、図2の7の係数乗算器であ
る。このように、通常のデルタの計算結果であるデルタ
計算回路6の出力を係数乗算器7に入力し、その出力を
FIG. 2 is a diagram showing the flow of data when calculating (Equation 13). As is clear from (Equation 13),
By standardizing the variables, the number of operations for multiplying a increases. It is the coefficient multiplier 7 in FIG. 2 that performs this calculation. In this way, the output of the delta calculation circuit 6 which is the normal delta calculation result is input to the coefficient multiplier 7 and its output is

【0052】デルタにすることによって、規格化した変
数を用いて変換した計算式(数13)の計算が行えるよ
うになる。なお、図2のニューロン特性関数微分係数回
路10は、実際に特性関数の微分係数を計算する演算回
路であってもよいし、関数のテーブルを記憶したメモリ
であってもよいし、その他の構成のものでもよい。
By using delta, it becomes possible to calculate the calculation formula (Equation 13) converted using the standardized variables. The neuron characteristic function differential coefficient circuit 10 in FIG. 2 may be an arithmetic circuit that actually calculates the differential coefficient of the characteristic function, a memory that stores a table of functions, or another configuration. It may be one.

【0053】本実施例の係数乗算器は、通常の乗算器で
あってもよいし、バレルシフタであってもよい。バレル
シフタにした場合は、係数が2の累乗の値になるように
規格化係数を選ぶことが必要である。
The coefficient multiplier of this embodiment may be a normal multiplier or a barrel shifter. When the barrel shifter is used, it is necessary to select the normalization coefficient so that the coefficient becomes a power of 2.

【0054】また、本実施例では、(数13)で表した
ように、変数wとIを規格化した場合の例である。その
他の変数や関数を規格化した場合は、係数乗算器を挿入
する場所を変える必要があると思われるが、取り扱いは
同様である。
Further, the present embodiment is an example in which the variables w and I are standardized as represented by (Equation 13). When other variables and functions are standardized, it is necessary to change the place where the coefficient multiplier is inserted, but the handling is the same.

【0055】以上の説明よりわかるように、本プロセッ
サは、計算式の変数や関数を規格化し、規格化された変
数や関数を用いて変換した計算式の計算が行えるような
構成になっている。その結果、変数や関数がオーバーフ
ローを起こすのを防ぐことができ、また、それぞれの変
数や関数に割り当てられた語長を十分に活かすことがで
きるようになり、高精度の計算を行うことができる。
As can be seen from the above description, the present processor is configured to standardize the variables and functions of the calculation formulas and perform the calculation of the calculation formulas converted using the standardized variables and functions. .. As a result, variables and functions can be prevented from overflowing, and the word length assigned to each variable and function can be fully utilized, enabling high-precision calculation. ..

【0056】[0056]

【発明の効果】以上の実施例から明かなように、本発明
によれば、計算式の変数や関数を規格化し、規格化され
た変数や関数を用いて変換した計算式の計算が行えるよ
うな構成になっている。その結果、変数や関数がオーバ
ーフローするのを防ぐことができ、また、それぞれの変
数や関数に割り当てられた語長を十分に活かすことがで
きるので、ニューラルネットワークの前向きの伝搬や、
バックプロパゲーション・アルゴリズムによる学習の計
算を高精度に行うことができるニューロプロセッサを提
供できる。
As is apparent from the above embodiments, according to the present invention, it is possible to standardize variables and functions of calculation formulas and perform calculation of calculation formulas that are converted using the standardized variables and functions. It has a simple structure. As a result, variables and functions can be prevented from overflowing, and the word length assigned to each variable and function can be fully utilized, so that forward propagation of the neural network,
It is possible to provide a neuroprocessor capable of highly accurately performing learning calculation by the back propagation algorithm.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例のニューロプロセッサの前向
きの伝搬の計算の場合のデータの流れの図。
FIG. 1 is a data flow diagram for the calculation of forward propagation of a neuroprocessor according to an embodiment of the present invention.

【図2】本発明の一実施例のニューロプロセッサの中間
層のデルタの計算の場合のデータの流れの図。
FIG. 2 is a data flow diagram for the calculation of the middle layer delta of the neuroprocessor of one embodiment of the present invention.

【図3】階層構造ニューラルネットワークの図FIG. 3 Diagram of hierarchical neural network

【図4】ニューロンの働きを示した図FIG. 4 is a diagram showing the function of neurons.

【符号の説明】[Explanation of symbols]

1 積和演算器 2,7 係数乗算器 3 ニューロン特性関数回路 4,8,11 乗算器 5,9 加算器 6 デルタ計算回路 10 ニューロン特性関数微分係数回路 101 ニューロン 102 シナプス 103 入力層 104 中間層 105 出力層 106 ニューロンの特性関数 107−109 ニューロン 1 product-sum operator 2,7 coefficient multiplier 3 neuron characteristic function circuit 4,8,11 multiplier 5,9 adder 6 delta calculation circuit 10 neuron characteristic function differential coefficient circuit 101 neuron 102 synapse 103 input layer 104 intermediate layer 105 Output layer 106 Neuron characteristic function 107-109 neurons

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】固定小数点演算を行なう演算回路を備え、
前記演算回路が、各変数や各関数の規格化によって変換
された計算式の計算を実行できる構成になっていること
を特徴とするニューロプロセッサ。
1. An arithmetic circuit for performing fixed-point arithmetic is provided,
A neuroprocessor characterized in that the arithmetic circuit is configured to execute a calculation of a calculation formula converted by standardization of each variable and each function.
【請求項2】係数乗算器を備え、バックプロバゲーショ
ン・アルゴリズムによって学習する階層構造のニューラ
ルネットワークの、前向きの伝搬と学習の計算の機能を
有し、中間層のニューロンの誤差に対応した値を計算す
る場合に、通常の計算結果を前記係数乗算器に入力し、
その係数乗算器の出力を、中間層のニューロンの誤差に
対応した値とすることを特徴とするニューロプロセッ
サ。
2. A hierarchical neural network having a coefficient multiplier and learning by a backpropagation algorithm, having forward propagation and learning calculation functions, and a value corresponding to an error of a neuron in an intermediate layer. When calculating, input the usual calculation result to the coefficient multiplier,
A neuroprocessor characterized in that an output of the coefficient multiplier is set to a value corresponding to an error of a neuron in an intermediate layer.
JP3291196A 1991-11-07 1991-11-07 Neuro-processor Pending JPH05128284A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3291196A JPH05128284A (en) 1991-11-07 1991-11-07 Neuro-processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3291196A JPH05128284A (en) 1991-11-07 1991-11-07 Neuro-processor

Publications (1)

Publication Number Publication Date
JPH05128284A true JPH05128284A (en) 1993-05-25

Family

ID=17765704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3291196A Pending JPH05128284A (en) 1991-11-07 1991-11-07 Neuro-processor

Country Status (1)

Country Link
JP (1) JPH05128284A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10187648A (en) * 1996-12-19 1998-07-21 Nec Corp Neural unit operation system and its device
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
WO2023068489A1 (en) * 2021-10-18 2023-04-27 삼성전자 주식회사 Electronic device comprising npu supporting different data types, and control method thereof
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10187648A (en) * 1996-12-19 1998-07-21 Nec Corp Neural unit operation system and its device
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11461614B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. Data driven quantization optimization of weights and input data in an artificial neural network
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
WO2023068489A1 (en) * 2021-10-18 2023-04-27 삼성전자 주식회사 Electronic device comprising npu supporting different data types, and control method thereof

Similar Documents

Publication Publication Date Title
Chen et al. Stability and synchronization of fractional-order memristive neural networks with multiple delays
Xu et al. A maximizing consensus approach for alternative selection based on uncertain linguistic preference relations
JPH07121495A (en) Construction method of expert system by using one or more neural networks
Long et al. Finite-time stabilization of complex-valued neural networks with proportional delays and inertial terms: A non-separation approach
EP3671572A1 (en) Information processing apparatus, neural network program, and processing method for neural network
JP2747104B2 (en) neural network
JP6942900B1 (en) Information processing equipment, information processing methods and programs
Igel et al. Rprop using the natural gradient
EP0384709B1 (en) Learning Machine
JPH05128284A (en) Neuro-processor
Dai et al. An intelligent fuzzy robustness ZNN model with fixed‐time convergence for time‐variant Stein matrix equation
Gou Quick multiple test procedures and p-value adjustments
EP0646878A1 (en) Method for converting an existing expert system into one utilizing one or more neural networks
WO2023151201A1 (en) Fast and flexible holomorphic embedding type neural network wide-area optimization training method
JP3354593B2 (en) Learning system for network type information processing equipment
EP0442120B1 (en) Data processing device with neural network and adaptive learning method
JPH07210534A (en) Neural network
JP2813567B2 (en) Inference rule determination apparatus and inference rule determination method
US20230186149A1 (en) Machine learning based stabilizer for numerical methods
KR102541462B1 (en) Apparatus and method for inferring capsule network with 0heterogeneous core architecture
US5528729A (en) Neural network learning apparatus and learning method
CN115760426A (en) Stock selection information recommendation method and system based on fractional order BP neural network
JPH0635881A (en) Neural network
JP3328953B2 (en) Nonlinear synaptic neuron, device thereof and prediction method using the same
JPH11134314A (en) Simplified quasi-newton projection method arithmetic system, neural network learning system, recording medium, and signal processor