JPH0784984A - Neural network circuit - Google Patents

Neural network circuit

Info

Publication number
JPH0784984A
JPH0784984A JP5226956A JP22695693A JPH0784984A JP H0784984 A JPH0784984 A JP H0784984A JP 5226956 A JP5226956 A JP 5226956A JP 22695693 A JP22695693 A JP 22695693A JP H0784984 A JPH0784984 A JP H0784984A
Authority
JP
Japan
Prior art keywords
neural network
input
output
selection signal
network circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5226956A
Other languages
Japanese (ja)
Other versions
JP3082530B2 (en
Inventor
Hiroyuki Nakahira
博幸 中平
Shiro Sakiyama
史朗 崎山
Masakatsu Maruyama
征克 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP05226956A priority Critical patent/JP3082530B2/en
Priority to US08/281,683 priority patent/US5621862A/en
Priority to EP94111798A priority patent/EP0636991A3/en
Publication of JPH0784984A publication Critical patent/JPH0784984A/en
Application granted granted Critical
Publication of JP3082530B2 publication Critical patent/JP3082530B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To obtain a circuit which not only easily expands a network scale, but also obtains a high processing speed by providing a 1st select signal for selecting an input and an output and a 2nd select signal for selecting an input and an output differently from the 1st select signal. CONSTITUTION:When input data are supplied, the 1st select signal 103 is asserted and feature data are inputted to the neural network circuit 100. When the input ends, the 1st select signal 103 is negated. To obtain a process result corresponding to the feature data, the 2nd select signal 104 is asserted and the process result 102 is outputted from the neural network 100. Thus, the input and output of the data are performed with the two kind of select signals 103 and 104 and, for example, while the 1st select signal 103 is made common to all neural network circuits 100, the 2nd select signal 104 is made to characteristic signals to easily expand the network scale and load the input data to the respective neural network circuits 100 at the same time.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像の認識処理などを
行うニューラルネットワーク回路に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network circuit for recognizing an image.

【0002】[0002]

【従来の技術】近年、情報処理のニューラルネットワー
クの分野に大きな関心が集まってきているが、これらの
ニューラルネットワークは人の生体の神経信号処理を模
倣して実現している。現在、様々なニューラルネットワ
ークが提案されているが、その中の一つである量子化ニ
ューロンのネットワークによる画像認識について、文献
(『機能別階層ネットワークを用いた文字認識システ
ム』平成2年度画像電子通信学会全国大会予稿77〜8
0頁、または『Multi-Functional Layered Networkusin
g Quantizer Neurons』Computer World '90, November
1990)を例にとって説明する。
2. Description of the Related Art In recent years, much attention has been paid to the field of neural networks for information processing, and these neural networks are realized by imitating neural signal processing of the human body. At present, various neural networks have been proposed, but one of them is image recognition by a network of quantized neurons. National Conference Proceedings 77-8
Page 0, or "Multi-Functional Layered Networkusin
g Quantizer Neurons 』Computer World '90, November
1990) as an example.

【0003】図5に量子化ニューロンのネットワークを
示す。このネットワークは、最下段から第一層、第二
層、および第三層にて図中○印で示す量子化ニューロン
を多層ネットワーク状に連結するとともに、第四層を教
師入力層とし、第五層(最上段の最終層)に多入力1出
力の通常の人工神経細胞を連結した構成となっている。
FIG. 5 shows a network of quantized neurons. In this network, from the bottom to the first layer, the second layer, and the third layer, the quantized neurons indicated by circles in the figure are connected in a multilayer network, and the fourth layer is the teacher input layer and the fifth layer It has a structure in which normal artificial nerve cells with multiple inputs and one output are connected to the layer (the last layer of the uppermost stage).

【0004】このネットワークの各層に与える特徴デー
タとしては、その一例として、画像を縦8個、横8個の
64個に区分した画素値、その8×8個の画素値間の横
方向の差分値、およびその8×8個の画素値の縦方向の
差分値としている。
As an example of the characteristic data given to each layer of this network, pixel values obtained by dividing an image into eight vertically and eight horizontally, and a horizontal difference between the 8 × 8 pixel values are divided. Value and the difference value in the vertical direction of the 8 × 8 pixel values.

【0005】同図に示すように、第一層は8×8画素数
に相当する64個の量子化ニューロンからなり、これら
の量子化ニューロンは、各々量子化信号入力端子Sを有
し(図6参照)、この各量子化信号端子Sには、特徴デ
ータとしての画素値が図示の如く入力される。
As shown in the figure, the first layer consists of 64 quantized neurons corresponding to the number of 8 × 8 pixels, and each of these quantized neurons has a quantized signal input terminal S (see FIG. 6), the pixel value as the characteristic data is input to each quantized signal terminal S as shown in the figure.

【0006】また、第二層の量子化ニューロンの量子化
信号入力端子Sには特徴データとして画素値の横方向の
差分値が入力され、第三層の量子化ニューロンの量子化
信号入力端子Sには特徴データとして画素値の縦方向の
差分値が入力される。第四層の教師入力層は、教師信号
によって最終層の各ニューロンのシナプシスの結合係数
を変化させるものである。
A horizontal difference value of pixel values is input as feature data to the quantized signal input terminal S of the quantized neuron of the second layer, and the quantized signal input terminal S of the quantized neuron of the third layer is input. A vertical difference value of pixel values is input as the feature data. The teacher input layer, which is the fourth layer, changes the synaptic coupling coefficient of each neuron in the final layer according to the teacher signal.

【0007】最終層は解答の出力層であって、例えば、
解答が英数字62文字に対するものである場合には、6
2個の通常の多入力1出力の人工神経細胞からなる。こ
こで、通常の多入力1出力の人工神経細胞とは、各入力
とその入力のシナプスの重みとの積和をとり、その総和
を出力するものである。
The final layer is an output layer of the answer, and for example,
6 if the answer is for 62 alphanumeric characters
It consists of two normal multi-input, one-output artificial nerve cells. Here, a normal multi-input / single-output artificial nerve cell is one that takes the product sum of each input and the synaptic weight of that input and outputs the sum.

【0008】出力層のニューロンは、図9に示すよう
に、それぞれの入力データに対して、学習により決定さ
れている重みWn(nは入力の番号)を掛けた後、それ
らの総和を出力する。
As shown in FIG. 9, each neuron in the output layer multiplies each input data by a weight Wn (n is an input number) determined by learning, and then outputs the sum of them. .

【0009】量子化ニューロンは、図6に示すように、
量子化信号入力端子Sの他に、選択信号入力端子Rと、
複数の出力とを有している。選択信号入力端子Rより入
力された信号は、量子化信号入力端子Sからの入力値x
によって、例えば(1)式にしたがった重みτが掛けら
れて各出力に出力される。
The quantized neuron, as shown in FIG.
In addition to the quantized signal input terminal S, a selection signal input terminal R,
And a plurality of outputs. The signal input from the selection signal input terminal R is the input value x from the quantized signal input terminal S.
Then, for example, the weight τ according to the equation (1) is applied and the result is output to each output.

【0010】 τj=1−β(|j−x|) ・・・(1) ここで、|j−x|はj−xの絶対値を、jは量子化ニ
ューロンの出力番号を表す。
Τj = 1-β (| j−x |) (1) where | j−x | represents the absolute value of j−x, and j represents the output number of the quantized neuron.

【0011】図7の量子化ニューロンは、量子化信号入
力端子Sから入力された特徴データの入力レベルが8種
のレベルであり、出力数が8つのものである。例えば、
1−βの関数を図10で示すものとするならば、量子化
信号入力端子Sからの入力の値が0であったときには、
量子化ニューロンの8つの出力に現れる値は、選択信号
入力端子Rに与えられる値に、図7(a)で示される結
合係数を掛け合わせたものである。
In the quantized neuron of FIG. 7, the feature data input from the quantized signal input terminal S has eight input levels and eight output levels. For example,
Assuming that the function of 1-β is shown in FIG. 10, when the value of the input from the quantized signal input terminal S is 0,
The value appearing at the eight outputs of the quantized neuron is the value given to the selection signal input terminal R multiplied by the coupling coefficient shown in FIG.

【0012】また、選択信号入力端子Rに与えられる値
に拘らず、量子化信号入力端子Sの入力値が3であった
ときには、それぞれの結合係数は図7(b)に示すよう
に、上記図に示す結合係数を3つ右へスライドしたもの
と同様になる。すなわち、図7(a)の出力番号に3を
加えることで、量子化信号の入力値が3の場合の結合係
数を得ることができる。ただし、7を越えた場合は結合
係数を0にする。
Regardless of the value given to the selection signal input terminal R, when the input value at the quantized signal input terminal S is 3, the respective coupling coefficients are, as shown in FIG. This is the same as when the coupling coefficient shown in the figure is slid to the right by three. That is, by adding 3 to the output number in FIG. 7A, the coupling coefficient when the input value of the quantized signal is 3 can be obtained. However, when it exceeds 7, the coupling coefficient is set to 0.

【0013】第一層の量子化ニューロンの選択信号入力
端子Rに与えられる入力は、最大の値が与えられる。例
えば、量子化ニューロンでの演算を8ビットの演算で行
うとするならば、第一層について、図の結合係数とし、
量子化信号入力端子Sに与えられる値がレベル0の場合
は、 選択信号入力=FF 出力番号0=FF 出力番号1=7F 出力番号2=0 出力番号3=FF 出力番号4=0 出力番号5=0 出力番号6=FF 出力番号7=0 (16進表現) となる。
The maximum value is given to the input given to the selection signal input terminal R of the quantization neuron of the first layer. For example, if the operation in the quantized neuron is to be performed by an 8-bit operation, the coupling coefficient in the figure is used for the first layer,
When the value given to the quantized signal input terminal S is level 0, selection signal input = FF output number 0 = FF output number 1 = 7F output number 2 = 0 output number 3 = FF output number 4 = 0 output number 5 = 0 output number 6 = FF output number 7 = 0 (hexadecimal notation).

【0014】図6に示したように、量子化信号入力端子
Sに与えられる入力のレベルが8レベル、出力数が8つ
の量子化ニューロンでネットワークを構成する場合、第
一層の量子化ニューロンの8つの出力のそれぞれに、第
二層の量子化ニューロンの選択信号入力端子Rが接続さ
れ、この第二層の量子化ニューロンの8つの出力のそれ
ぞれに第三層の量子化ニューロンの選択信号入力端子R
が接続される。すなわち、このネットワークでは、第一
層の量子化ニューロン1個から第二層の各量子化ニュー
ロンを経由してツリー状に分岐する第三層の量子化ニュ
ーロンの総出力数は512となる。
As shown in FIG. 6, when a network is constituted by quantized neurons having 8 input levels and 8 output levels, the quantized signal input terminal S is connected to the quantized neuron of the first layer. The selection signal input terminal R of the second layer quantization neuron is connected to each of the eight outputs, and the selection signal input of the third layer quantization neuron is connected to each of the eight outputs of the second layer quantization neuron. Terminal R
Are connected. That is, in this network, the total number of outputs of the quantized neurons in the third layer, which branches from one quantized neuron in the first layer to each quantized neuron in the second layer in a tree shape, is 512.

【0015】第一層の量子化ニューロンの8つの出力に
接続される第二層の8個の量子化ニューロンの量子化信
号入力、およびその第二層の量子化ニューロンの8つの
出力に接続される8個の第三層の量子化ニューロンの量
子化信号入力は、第一層の量子化ニューロンの量子化信
号入力端子Sに入力される特徴データとしての画素値と
同位置にある横方向差分値、および縦方向差分値がそれ
ぞれ与えられる。
Connected to the quantized signal inputs of the eight quantized neurons of the second layer, which are connected to the eight outputs of the quantized neurons of the first layer, and to the eight outputs of the quantized neurons of the second layer. The quantized signal inputs of the eight third-layer quantized neurons are the horizontal difference at the same position as the pixel value as the feature data input to the quantized signal input terminal S of the first-layer quantized neuron. A value and a vertical difference value are given respectively.

【0016】また、第二層および第三層の量子化ニュー
ロンの選択信号入力端子に入力される信号は、それぞれ
第一層および第二層の各量子化ニューロンの出力であ
る。
The signals input to the selection signal input terminals of the quantized neurons of the second and third layers are the outputs of the quantized neurons of the first and second layers, respectively.

【0017】したがって、第三層の量子化ニューロンの
出力は、第一層のニューロンの結合係数、第二層のニュ
ーロンの結合係数、および第三層のニューロンの結合係
数の3つの結合係数と、第一層の量子化ニューロンの選
択信号入力値とを掛け合わせたものとなる。
Therefore, the output of the quantized neuron of the third layer has three coupling coefficients, that is, the coupling coefficient of the neurons of the first layer, the coupling coefficient of the neurons of the second layer, and the coupling coefficient of the neurons of the third layer. It is the product of the selection signal input values of the quantized neurons of the first layer.

【0018】最終層の多入力1出力ニューロン1個は、
第三層の量子化ニューロン64×512の数の出力と、
その各々に与えられる第四層(教師入力層)の結合係数
とを掛け合わせたものを入力とする。
One multi-input one-output neuron in the final layer is
Output of the number of quantized neurons 64 × 512 in the third layer,
An input is obtained by multiplying each of them with the coupling coefficient of the fourth layer (teacher input layer).

【0019】次にこのニューラルネットワークでの学習
であるが、ここではヘブの学習則について説明する。ヘ
ブの学習則ではニューロンのシナプスの重みの変更量と
して入力信号の大きさに比例したものを与える。すなわ
ち、入力信号が大きい経路は学習の結果、より入力信号
が通り易くなる。上記のニューラルネットワークでは最
終層の多入力1出力ニューロンに対してヘブの学習則が
適用される。
Next, regarding learning by this neural network, the Hebb's learning rule will be described here. In Hebb's learning rule, the amount of change in the synaptic weight of a neuron is given in proportion to the magnitude of the input signal. That is, as a result of learning, a path having a large input signal can more easily pass the input signal. In the above neural network, the Hebb's learning rule is applied to the final input multi-input single-output neuron.

【0020】上記説明したニューラルネットワークをハ
ードウェア化、例えば、LSI、あるいはブレッドボー
ドで実現する場合、物理的な制約条件から入出力数が決
定される。ここでは、図5のような64×3入力、62
出力のニューラルネットワークを1つの単位のニューラ
ルネットワーク回路とする。
When the above-described neural network is implemented by hardware, for example, by an LSI or a breadboard, the number of inputs / outputs is determined from physical constraints. Here, as shown in FIG. 5, 64 × 3 inputs, 62
The output neural network is a unit of neural network circuit.

【0021】従来のニューラルネットワーク回路の構成
の一例を図11に示す。200は、図5のような量子化
ニューロンを用いた多層のニューラルネットワークモデ
ルで構成するニューラルネットワーク回路である。20
1はニューラルネットワーク回路200に入力する特徴
データ、202はニューラルネットワーク回路200か
ら得られる処理の出力結果、203はニューラルネット
ワーク回路200のデータ入出力を制御する選択信号、
250はニューラルネットワーク回路200のニューロ
ンのシナプスの重みを記憶する荷重メモリである。な
お、図中で同一番号は同一のものとする。
FIG. 11 shows an example of the configuration of a conventional neural network circuit. Reference numeral 200 is a neural network circuit configured by a multilayer neural network model using quantized neurons as shown in FIG. 20
1 is characteristic data to be input to the neural network circuit 200, 202 is an output result of processing obtained from the neural network circuit 200, 203 is a selection signal for controlling data input / output of the neural network circuit 200,
Reference numeral 250 is a weight memory for storing synapse weights of neurons of the neural network circuit 200. In the figure, the same numbers are the same.

【0022】このニューラルネットワーク回路に入力デ
ータを供給するとき、選択信号をアサートにして特徴デ
ータをニューラルネットワーク回路に入力する。入力が
終了すれば、選択信号をネゲートする。また、その特徴
データに対する処理結果を得る場合には、再び選択信号
をアサートしてニューラルネットワーク回路より処理結
果を出力する。このようにして、入出力の制御は単一の
選択信号で行われる。
When supplying input data to this neural network circuit, the selection signal is asserted to input the characteristic data to the neural network circuit. When the input is completed, the selection signal is negated. When the processing result for the characteristic data is obtained, the selection signal is asserted again and the processing result is output from the neural network circuit. In this way, input / output control is performed with a single select signal.

【0023】従来のニューラルネットワーク回路の拡張
方式の一例を図12に示す。200Aおよび200B
は、ニューラルネットワーク回路200と同一ものであ
る。204および205はそれぞれニューラルネットワ
ーク回路200Aおよび200Bのデータ入出力を制御
する選択信号、250Aおよび250Bは250と同一
のものである。
FIG. 12 shows an example of a conventional neural network circuit expansion method. 200A and 200B
Is the same as the neural network circuit 200. Reference numerals 204 and 205 are selection signals for controlling data input / output of the neural network circuits 200A and 200B, and 250A and 250B are the same as 250.

【0024】これは、入力数を2倍にしたものである。
選択信号はそれぞれのニューラルネットワーク回路に固
有のものであるから、入力および出力ともに選択信号に
よって選択されたニューラルネットワーク回路ただ1つ
だけに対して行われる。
This is the number of inputs doubled.
Since the selection signal is unique to each neural network circuit, it is applied to only one neural network circuit selected by the selection signal for both input and output.

【0025】上記量子化ニューロンを用いたニューラル
ネットワーク回路では、入力数を拡張する場合には、異
なる入力データを異なるニューラルネットワーク回路に
入力し、各ニューラルネットワーク回路の同一番号を持
つ出力ニューロンの出力値を加算し、最大値をもつ出力
ニューロンを答とする。
In the neural network circuit using the quantized neuron, when expanding the number of inputs, different input data are input to different neural network circuits, and the output value of the output neuron having the same number in each neural network circuit. Is added and the output neuron with the maximum value is taken as the answer.

【0026】一方、出力数を拡張する場合には、同一の
入力データをすべてのニューラルネットワーク回路に入
力し、各ニューラルネットワーク回路の最大出力値を持
つ出力ニューロン同士を比較し、大きい方を答とする。
On the other hand, when expanding the number of outputs, the same input data is input to all neural network circuits, the output neurons having the maximum output value of each neural network circuit are compared, and the larger one is answered. To do.

【0027】[0027]

【発明が解決しようとする課題】ニューラルネットワー
クをハードウェアで実現しようとする場合、もっとも問
題になるのは、その物理的な制限からくるネットワーク
規模である。ニューラルネットワークで処理の対象が複
雑になればなるほど、必要とされるネットワーク規模も
大きなものが要求される。
When a neural network is to be realized by hardware, the biggest problem is the network scale due to its physical limitation. The more complex the processing target of the neural network, the larger the required network scale.

【0028】一方で、ハードウェアで実現できるネット
ワーク規模には常に制限があるので、それを解決するた
めに、通常、同一のニューラルネットワーク回路を複数
個並べてネットワーク規模を拡張し、並列処理を行うこ
とで性能向上を図る。
On the other hand, since there is always a limit to the network scale that can be realized by hardware, in order to solve this, it is usually necessary to arrange a plurality of identical neural network circuits to expand the network scale and perform parallel processing. To improve performance.

【0029】しかしながら、従来のニューラルネットワ
ーク回路には選択信号がひとつしかなく、ニューラルネ
ットワーク回路を複数個並べて拡張する場合、拡張され
たすべてのニューラルネットワーク回路に同一データを
入力すること、あるいは、すべてのニューラルネットワ
ーク回路から同時に出力することが不可能なため、ひと
つずつニューラルネットワーク回路を選択してから入出
力しなければならず、処理性能の低下などの問題が発生
する。
However, the conventional neural network circuit has only one selection signal, and when a plurality of neural network circuits are arranged and expanded, the same data is input to all the expanded neural network circuits, or all the expanded neural network circuits are input. Since it is impossible to simultaneously output from the neural network circuit, it is necessary to select the neural network circuits one by one and then input / output, which causes a problem such as deterioration of processing performance.

【0030】本発明は、以上のような従来のニューラル
ネットワーク回路およびその拡張方式の欠点について研
究した結果によりなされたものであり、ニューラルネッ
トワークのネットワーク規模を容易に拡張できるだけで
なく、処理能力の点でも従来以上の高速の処理速度が得
られるニューラルネットワーク回路を提供することにあ
る。
The present invention has been made as a result of researching the drawbacks of the conventional neural network circuit and its expansion method as described above. The network scale of the neural network can be easily expanded, and the processing capacity is not limited. However, it is to provide a neural network circuit that can achieve a higher processing speed than ever before.

【0031】[0031]

【課題を解決するための手段】上記の目的を達成するた
めに本願の請求項1記載のニューラルネットワーク回路
は、与えられた特徴データをネットワークの演算の実行
によって認識処理した結果を出力する多層のニューラル
ネットワーク回路であって、該ニューラルネットワーク
回路の入出力を選択する第1選択信号と、該第1選択信
号とは異なる該ニューラルネットワーク回路の入出力を
選択する第2選択信号とを備えたことを特徴とするもの
である。
In order to achieve the above object, a neural network circuit according to claim 1 of the present application has a multi-layered structure that outputs a result of recognition processing of given feature data by executing a network operation. A neural network circuit, comprising: a first selection signal for selecting an input / output of the neural network circuit; and a second selection signal for selecting an input / output of the neural network circuit different from the first selection signal. It is characterized by.

【0032】請求項2記載のニューラルネットワーク回
路は、請求項1記載のニューラルネットワーク回路を拡
張するものであって、ニューラルネットワーク回路を複
数個備え、すべてのニューラルネットワーク回路の第1
選択信号を共通とし、それぞれのニューラルネットワー
ク回路の第2選択信号はそれぞれ固有のものとすること
で入出力数を拡張することを特徴とするものである。
A neural network circuit according to a second aspect is an extension of the neural network circuit according to the first aspect, and is provided with a plurality of neural network circuits, and the first of all neural network circuits is provided.
The number of inputs and outputs is expanded by making the selection signal common and making the second selection signal of each neural network circuit unique.

【0033】請求項3記載のニューラルネットワーク回
路は、請求項1記載のニューラルネットワーク回路を拡
張するものであって、ニューラルネットワーク回路を複
数個備え、すべてのニューラルネットワーク回路の第1
選択信号を共通とし、それぞれのニューラルネットワー
ク回路の第2選択信号はそれぞれ固有のものとし、それ
ぞれのニューラルネットワーク回路の出力を加算する加
算手段とを有することで入力数を拡張することを特徴と
するものである。
A neural network circuit according to a third aspect is an extension of the neural network circuit according to the first aspect, and is provided with a plurality of neural network circuits, and the first of all neural network circuits is provided.
The selection signal is common, the second selection signal of each neural network circuit is unique, and the number of inputs is expanded by having addition means for adding the outputs of the respective neural network circuits. It is a thing.

【0034】請求項4記載のニューラルネットワーク回
路は、 請求項1記載のニューラルネットワーク回路を
拡張するものであって、ニューラルネットワーク回路を
複数個備え、すべてのニューラルネットワーク回路の第
1選択信号を共通とし、それぞれのニューラルネットワ
ーク回路の第2選択信号はそれぞれ固有のものとし、そ
れぞれのニューラルネットワーク回路の出力を比較する
比較手段とを有することで出力数を拡張することを特徴
とするものである。
A neural network circuit according to a fourth aspect is an extension of the neural network circuit according to the first aspect, wherein a plurality of neural network circuits are provided, and the first selection signal of all neural network circuits is common. The second selection signal of each neural network circuit is unique, and the number of outputs is expanded by having a comparison means for comparing the outputs of the neural network circuits.

【0035】[0035]

【作用】請求項1記載のニューラルネットワーク回路
は、上述の構成により、第1選択信号と第2選択信号に
それぞれ異なる入出力を制御するための信号を入力する
ことでネットワーク規模の拡張を容易に図ることができ
る。
In the neural network circuit according to the first aspect of the present invention, with the above-mentioned configuration, the first selection signal and the second selection signal are respectively supplied with signals for controlling different input / output, so that the network scale can be easily expanded. Can be planned.

【0036】請求項2記載のニューラルネットワーク回
路は、上述の構成により、請求項1のニューラルネット
ワーク回路を用いることにより、第1選択信号をすべて
のニューラルネットワーク回路に共通のものとし、第2
選択信号を各ニューラルネットワーク回路固有のものを
供給することで、ネットワーク規模の拡張を容易に実現
できる。
According to the neural network circuit of the second aspect, by using the neural network circuit of the first aspect with the above configuration, the first selection signal is common to all the neural network circuits, and the second selection signal is used.
By supplying a selection signal specific to each neural network circuit, the network scale can be easily expanded.

【0037】請求項3記載のニューラルネットワーク回
路は、上述の構成により、請求項1のニューラルネット
ワーク回路を用いることにより、ネットワークの入力数
を容易に拡張できる。
According to the neural network circuit of the third aspect, the number of inputs of the network can be easily expanded by using the neural network circuit of the first aspect with the above configuration.

【0038】請求項4記載のニューラルネットワーク回
路は、上述の構成により、請求項1のニューラルネット
ワーク回路を用いることにより、ネットワークの出力数
を容易に拡張できる。
According to the neural network circuit of the fourth aspect, the number of outputs of the network can be easily expanded by using the neural network circuit of the first aspect with the above configuration.

【0039】[0039]

【実施例】【Example】

(実施例1)本発明の請求項1記載のニューラルネット
ワーク回路の一実施例の構成を図1に示す。100は、
例えば、図5のような量子化ニューロンを用いた多層の
ニューラルネットワークモデルからなるニューラルネッ
トワーク回路である。101はニューラルネットワーク
回路100に入力する特徴データ、102はニューラル
ネットワーク回路100から得られる処理の出力結果、
103はニューラルネットワーク回路100のデータ入
出力を制御する第1選択信号、104は103とは異な
るニューラルネットワーク回路100の第2選択信号、
150はニューラルネットワーク回路100のニューロ
ンのシナプスの重みを記憶する荷重メモリである。な
お、図中で同一符号のものは同一機能を有するものであ
る。
(Embodiment 1) FIG. 1 shows the configuration of an embodiment of the neural network circuit according to claim 1 of the present invention. 100 is
For example, it is a neural network circuit composed of a multilayer neural network model using quantized neurons as shown in FIG. 101 is characteristic data input to the neural network circuit 100, 102 is an output result of processing obtained from the neural network circuit 100,
103 is a first selection signal for controlling data input / output of the neural network circuit 100, 104 is a second selection signal of the neural network circuit 100 different from 103,
A weight memory 150 stores the synapse weights of the neurons of the neural network circuit 100. In the drawings, the same reference numerals have the same functions.

【0040】ニューラルネットワーク回路100に入力
データを供給するとき、第1選択信号103をアサート
にして特徴データをニューラルネットワーク回路に入力
する。入力が終了すれば、第1選択信号103をネゲー
トする。また、その特徴データに対する処理結果を得る
場合には第2選択信号104をアサートしてニューラル
ネットワーク回路100より処理結果102を出力す
る。
When supplying the input data to the neural network circuit 100, the first selection signal 103 is asserted to input the characteristic data to the neural network circuit. When the input is completed, the first selection signal 103 is negated. When the processing result for the characteristic data is obtained, the neural network circuit 100 outputs the processing result 102 by asserting the second selection signal 104.

【0041】ニューラルネットワークをハードウェアで
実現しようとする場合、もっとも問題になるのは、その
物理的な制限からくるネットワーク規模である。ニュー
ラルネットワークで処理の対象が複雑になればなるほ
ど、必要とされるネットワーク規模も大きなものが要求
される。
When the neural network is to be realized by hardware, the biggest problem is the network scale due to its physical limitation. The more complex the processing target of the neural network, the larger the required network scale.

【0042】一方で、ハードウェアで実現できるネット
ワーク規模には常に制限があるので、それを解決するた
めに、通常、同一のニューラルネットワーク回路を複数
個並べてネットワーク規模を拡張し、並列処理を行うこ
とで性能向上を図る。
On the other hand, since the network scale that can be realized by hardware is always limited, in order to solve it, it is usually necessary to arrange a plurality of the same neural network circuits to expand the network scale and perform parallel processing. To improve performance.

【0043】そこで、上記のように、データの入出力の
制御を2種類の選択信号で行うことにより、例えば、す
べてのニューラルネットワーク回路の第1選択信号を共
通とし、第2選択信号を固有のものと設定すれば、容易
にネットワーク規模の拡張が実現できるだけでなく、入
力データの、各ニューラルネットワーク回路へのロード
もすべて同時に行うことができるので、処理性能も向上
する。
Therefore, as described above, by controlling the input / output of data with two kinds of selection signals, for example, the first selection signal of all neural network circuits is made common and the second selection signal is made unique. If it is set to "1", not only the network scale can be easily realized, but also input data can be loaded into each neural network circuit all at the same time, so that the processing performance is improved.

【0044】なお、この発明のニューラルネットワーク
回路は量子化ニューロンだけではなく、図9に示すよう
な入力とそのシナプスの重みの積和の総和を出力する単
純パーセプトロンを用いたニューラルネットワークにお
いても適用できる。
The neural network circuit of the present invention can be applied not only to the quantized neuron, but also to a neural network using a simple perceptron for outputting the sum of sums of products of inputs and their synapse weights as shown in FIG. .

【0045】(実施例2)本願の請求項2記載のニュー
ラルネットワーク回路の一実施例を図2に示す。ここで
は出力数が2倍のネットワーク規模に拡張する場合の方
式について説明する。
(Embodiment 2) FIG. 2 shows an embodiment of the neural network circuit according to claim 2 of the present application. Here, a method for expanding the number of outputs to double the network scale will be described.

【0046】100A、100Bはニューラルネットワ
ーク回路100と同一もの、102はニューラルネット
ワーク回路100Aおよび100Bの出力、105はニ
ューラルネットワーク回路100Aおよび100B共通
の第1選択信号、106はニューラルネットワーク回路
100Aの第2選択信号、107はニューラルネットワ
ーク回路100Bの第2選択信号、150Aおよび15
0Bは150と同一のものである。
Reference numerals 100A and 100B are the same as those of the neural network circuit 100, 102 is an output of the neural network circuits 100A and 100B, 105 is a first selection signal common to the neural network circuits 100A and 100B, and 106 is a second of the neural network circuit 100A. The selection signal, 107 is the second selection signal of the neural network circuit 100B, 150A and 15
OB is the same as 150.

【0047】まず、ニューラルネットワークへの特徴デ
ータの入力について説明する。100Aおよび100B
共通の第1選択信号105で両方のニューラルネットワ
ーク回路を選択し、特徴データをニューラルネットワー
ク回路100Aおよび100Bに同時に入力する。
First, the input of characteristic data to the neural network will be described. 100A and 100B
Both neural network circuits are selected by the common first selection signal 105, and the feature data are simultaneously input to the neural network circuits 100A and 100B.

【0048】次に出力であるが、認識処理した後、10
0Aの第2選択信号106を用いてニューラルネットワ
ーク回路100Aよりニューラルネットワーク回路10
0Aでの認識結果102を出力する。つづいて100B
の第2選択信号107を用いてニューラルネットワーク
回路100Bよりニューラルネットワーク回路100B
での認識結果102を出力する。これらの2つの値を比
較し、ネットワーク全体の認識結果としての答を得る。
Next, regarding the output, after recognition processing, 10
Using the second selection signal 106 of 0A, the neural network circuit 10A
The recognition result 102 at 0A is output. Continued 100B
From the neural network circuit 100B using the second selection signal 107 of
The recognition result 102 is output. These two values are compared and the answer as the recognition result of the entire network is obtained.

【0049】もし、結果が間違っていた場合は、ニュー
ラルネットワーク100Aと100Bのうちの発火させ
るべき出力番号のニューロンをもつニューラルネットワ
ーク回路のみヘブの学習則を用いて学習を行い、他方の
ニューラルネットワーク回路については行わない。この
方式により、出力数を2倍とすることができる。
If the result is wrong, only the neural network circuit of the neural networks 100A and 100B having the neuron having the output number to be fired is trained using the Hebb's learning rule, and the other neural network circuit is trained. Will not be done. With this method, the number of outputs can be doubled.

【0050】なお、ここでは出力数を2倍にする場合に
ついて説明したが、k倍の場合にも同様に、実施例1の
ニューラルネットワーク回路をk個使用することによっ
て容易に、この発明は適用できる。また、学習について
もヘブの学習則だけでなく最急降下法を用いても同様
に、この発明は適用できる。
Although the case of doubling the number of outputs has been described here, the present invention can be easily applied to the case of k times by using k neural network circuits of the first embodiment. it can. The present invention can also be applied to learning by using not only Hebb's learning rule but also the steepest descent method.

【0051】(実施例3)本願の請求項3のニューラル
ネットワーク回路の一実施例を図3に示す。N入力M出
力のニューラルネットワーク回路を2N入力M出力のネ
ットワーク規模に拡張する場合の方式について説明す
る。
(Embodiment 3) FIG. 3 shows an embodiment of the neural network circuit according to claim 3 of the present application. A method for expanding an N-input M-output neural network circuit to a 2N-input M-output network scale will be described.

【0052】100A、100Bはニューラルネットワ
ーク回路100と同一もの、105はニューラルネット
ワーク回路100Aおよび100Bの第1選択信号、1
06はニューラルネットワーク回路100Aの第2選択
信号、107はニューラルネットワーク回路100Bの
第2選択信号、108はニューラルネットワーク回路1
00Aの出力、109はニューラルネットワーク回路1
00Bの出力、110は108および109を入力と
し、それらを加算する加算器、111は加算器110の
出力である。
Reference numerals 100A and 100B are the same as those of the neural network circuit 100, and 105 is the first selection signal of the neural network circuits 100A and 100B.
Reference numeral 06 is the second selection signal of the neural network circuit 100A, 107 is the second selection signal of the neural network circuit 100B, and 108 is the neural network circuit 1
The output of 00A, 109 is the neural network circuit 1
00B is an output, 110 is an adder that inputs 108 and 109, and adds them, and 111 is an output of the adder 110.

【0053】まず、ニューラルネットワークへの特徴デ
ータの入力について説明する。100Aの第2選択信号
106でニューラルネットワーク回路100Aを選択
し、2Nだけの入力データのうち、半数だけ100Aに
入力する。つづいて、100Bの第2選択信号107で
ニューラルネットワーク回路100Bを選択し、2Nの
入力データのうち、残りの半数を100Bに供給する。
First, the input of feature data to the neural network will be described. The neural network circuit 100A is selected by the second selection signal 106 of 100A, and half of the input data of 2N is input to 100A. Subsequently, the neural network circuit 100B is selected by the second selection signal 107 of 100B, and the remaining half of the 2N input data is supplied to 100B.

【0054】次に出力であるが、ニューラルネットワー
ク回路100Aおよび100Bの出力ニューロンの番号
を同一の番号とみなす。認識処理を実行した後、ニュー
ラルネットワーク回路100Aおよび100Bの出力ニ
ューロンの同一番号同士を加算器110で加算し、最も
大きい値を持つ出力ニューロンの番号を認識結果とす
る。もし、結果が間違っていた場合は、ニューラルネッ
トワーク回路100Aと100Bの両方の発火させるべ
き同じ出力番号のニューロンに対してヘブの学習則を用
いて学習を行う。この方式により、入力数を2Nとする
ことができる。
Next, regarding the output, the numbers of the output neurons of the neural network circuits 100A and 100B are regarded as the same number. After the recognition processing is executed, the same numbers of the output neurons of the neural network circuits 100A and 100B are added by the adder 110, and the number of the output neuron having the largest value is used as the recognition result. If the result is wrong, learning is performed using the Hebb's learning rule for the neurons of the same output number to be fired in both the neural network circuits 100A and 100B. With this method, the number of inputs can be set to 2N.

【0055】なお、ここでは入力数を2倍にする場合に
ついて説明したが、k倍の場合にも同様に、実施例1の
ニューラルネットワーク回路をk個使用することによっ
て容易に、この発明は適用できる。また、学習について
もヘブの学習則だけでなく最急降下法を用いても同様
に、この発明は適用できる。
Although the case of doubling the number of inputs has been described here, the present invention can be easily applied to the case of k times by using k neural network circuits of the first embodiment. it can. The present invention can also be applied to learning by using not only Hebb's learning rule but also the steepest descent method.

【0056】(実施例4)本願の請求項4のニューラル
ネットワーク回路の一実施例を図4に示す。N入力M出
力のニューラルネットワーク回路をN入力2M出力のネ
ットワーク規模に拡張する場合の方式について説明す
る。
(Embodiment 4) FIG. 4 shows an embodiment of the neural network circuit according to claim 4 of the present application. A method for expanding the N-input M-output neural network circuit to the N-input 2M-output network scale will be described.

【0057】100A、100Bはニューラルネットワ
ーク回路100と同一もの、105はニューラルネット
ワーク回路100Aおよび100Bの第1選択信号、1
06はニューラルネットワーク回路100Aの第2選択
信号、107はニューラルネットワーク回路100Bの
第2選択信号、108はニューラルネットワーク回路1
00Aの出力、109はニューラルネットワーク回路1
00Bの出力、110は108および109を入力と
し、それらを比較する比較器、113は比較器112の
出力である。
Reference numerals 100A and 100B are the same as those of the neural network circuit 100, reference numeral 105 is the first selection signal of the neural network circuits 100A and 100B, and 1
Reference numeral 06 is the second selection signal of the neural network circuit 100A, 107 is the second selection signal of the neural network circuit 100B, and 108 is the neural network circuit 1
The output of 00A, 109 is the neural network circuit 1
00B is an output, 110 is a comparator that receives 108 and 109 as inputs, and 113 is an output of the comparator 112.

【0058】まず、ニューラルネットワークへの特徴デ
ータの入力について説明する。100Aおよび100B
の共通の第1選択信号105で両方のニューラルネット
ワーク回路を選択し、特徴データをニューラルネットワ
ーク回路100Aおよび100Bに同時に入力する。
First, the input of feature data to the neural network will be described. 100A and 100B
Both of the neural network circuits are selected by the common first selection signal 105, and the feature data are simultaneously input to the neural network circuits 100A and 100B.

【0059】次に出力であるが、認識処理を実行した
後、ニューラルネットワーク回路100Aおよび100
Bの出力ニューロンで、最も大きい値を持つ出力ニュー
ロンの番号をそれぞれ、出力108および109とし
て、比較器112に入力する。そして、2つの値のう
ち、大きい方を認識の処理結果113として出力され
る。もし、結果が間違っていた場合は、ニューラルネッ
トワーク回路100Aと100Bのうちの発火させるべ
き出力番号の出力ニューロンをもつニューラルネットワ
ーク回路のみヘブの学習則を用いてを行い、他方のニュ
ーラルネットワーク回路については行わない。この方式
により、出力数を2Mとすることができる。
Next, regarding the output, after the recognition processing is executed, the neural network circuits 100A and 100
The numbers of the output neurons having the largest value among the output neurons of B are input to the comparator 112 as the outputs 108 and 109, respectively. Then, the larger one of the two values is output as the recognition processing result 113. If the result is wrong, only the neural network circuit of the neural network circuits 100A and 100B having the output neuron of the output number to be fired is used by using Heb's learning rule, and the other neural network circuit is Not performed. With this method, the number of outputs can be set to 2M.

【0060】なお、ここでは出力数を2倍にする場合に
ついて説明したが、k倍の場合にも同様に、実施例1の
ニューラルネットワーク回路をk個使用することによっ
て容易に、この発明は適用できる。また、学習について
もヘブの学習則だけでなく最急降下法を用いても同様
に、この発明は適用できる。
Although the case of doubling the number of outputs has been described here, the present invention can be easily applied to the case of k times by using k neural network circuits of the first embodiment. it can. The present invention can also be applied to learning by using not only Hebb's learning rule but also the steepest descent method.

【0061】[0061]

【発明の効果】以上、詳細に説明したように、本願発明
によれば、N入力M出力のニューラルネットワーク回路
において、Nよりも大きい入力数を取り扱う場合に、N
入力M出力のニューラルネットワーク回路を複数個用い
て構成することにより、ニューラルネットワークのネッ
トワーク規模を容易に拡張できるだけでなく、処理能力
の点でも従来以上の高速の処理速度が得られるニューラ
ルネットワーク回路を実現できるものである。
As described above in detail, according to the present invention, when a number of inputs larger than N is handled in a N-input M-output neural network circuit, N
By using a plurality of input M-output neural network circuits, it is possible to easily expand the network scale of the neural network and realize a neural network circuit that has a processing speed faster than the conventional one. It is possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例1のニューラルネットワーク回
路の構成図
FIG. 1 is a configuration diagram of a neural network circuit according to a first embodiment of the present invention.

【図2】本発明の実施例2のニューラルネットワーク回
路の構成図
FIG. 2 is a configuration diagram of a neural network circuit according to a second embodiment of the present invention.

【図3】本発明の実施例3のニューラルネットワーク回
路の構成図
FIG. 3 is a configuration diagram of a neural network circuit according to a third embodiment of the present invention.

【図4】本発明の実施例4のニューラルネットワーク回
路の構成図
FIG. 4 is a configuration diagram of a neural network circuit according to a fourth embodiment of the present invention.

【図5】量子化ニューロンによる多層ニューラルネット
ワークの構成図
FIG. 5 is a block diagram of a multilayer neural network with quantized neurons.

【図6】量子化ニューロンの構成図FIG. 6 is a block diagram of a quantized neuron.

【図7】結合係数の設定例の説明図FIG. 7 is an explanatory diagram of a setting example of a coupling coefficient.

【図8】結合係数の設定例の説明図FIG. 8 is an explanatory diagram of a setting example of a coupling coefficient.

【図9】通常の多入力1出力のニューロンの構成図FIG. 9 is a block diagram of a normal multi-input / single-output neuron.

【図10】結合係数の設定例の説明図FIG. 10 is an explanatory diagram of an example of setting a coupling coefficient.

【図11】従来のニューラルネットワーク回路の構成図FIG. 11 is a configuration diagram of a conventional neural network circuit.

【図12】従来のニューラルネットワーク回路拡張方式
の構成図
FIG. 12 is a configuration diagram of a conventional neural network circuit expansion method.

【符号の説明】[Explanation of symbols]

100、100A、100B ニューラルネットワーク
回路 101 特徴データの入力 102 処理結果の出力 103、105 第1選択信号 104、106、107 第2選択信号 108、109 出力 110 加算器 111 加算器の出力 112 比較器 113 比較器の出力 150、150A、150B 荷重メモリ 200、200A、200B ニューラルネットワーク
回路 201 特徴データの入力 202 処理結果の出力 203、204 選択信号 250、250A、250B 荷重メモリ
100, 100A, 100B Neural network circuit 101 Input of feature data 102 Output of processing result 103, 105 First selection signal 104, 106, 107 Second selection signal 108, 109 Output 110 Adder 111 Output of adder 112 Comparator 113 Output of comparator 150, 150A, 150B Weight memory 200, 200A, 200B Neural network circuit 201 Input of feature data 202 Output of processing result 203, 204 Selection signal 250, 250A, 250B Weight memory

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】与えられた特徴データをネットワークの演
算の実行によって認識処理した結果を出力する多層のニ
ューラルネットワーク回路であって、 該ニューラルネットワーク回路の入出力を選択する第1
選択信号と、 該第1選択信号とは異なる、該ニューラルネットワーク
回路の入出力を選択する第2選択信号とを備えたことを
特徴とするニューラルネットワーク回路。
1. A multi-layer neural network circuit for outputting a result of recognition processing of given feature data by executing a network operation, wherein the input / output of the neural network circuit is selected.
A neural network circuit, comprising: a selection signal; and a second selection signal that is different from the first selection signal and that selects an input / output of the neural network circuit.
【請求項2】請求項1に記載のニューラルネットワーク
回路を複数個備え、前記複数のニューラルネットワーク
回路の第1選択信号を共通とし、前記複数のニューラル
ネットワーク回路のそれぞれの第2選択信号はそれぞれ
に固有のものとすることで入出力数が拡張されたことを
特徴とするニューラルネットワーク回路。
2. A plurality of neural network circuits according to claim 1, wherein the plurality of neural network circuits share a first selection signal, and each of the plurality of neural network circuits has a respective second selection signal. Neural network circuit characterized by expanding the number of inputs and outputs by making it unique.
【請求項3】請求項1に記載のニューラルネットワーク
回路を複数個備え、前記複数のニューラルネットワーク
回路の第1選択信号を共通とし、前記複数のニューラル
ネットワーク回路のそれぞれの第2選択信号はそれぞれ
に固有のものとし、それぞれのニューラルネットワーク
回路の出力を加算する加算手段を具備することにより入
力数が拡張されたことを特徴とするニューラルネットワ
ーク回路。
3. A plurality of neural network circuits according to claim 1, wherein the plurality of neural network circuits share a first selection signal, and the plurality of neural network circuits each have a second selection signal. A neural network circuit, which is unique and has the number of inputs expanded by including an adding means for adding the outputs of the respective neural network circuits.
【請求項4】請求項1に記載のニューラルネットワーク
回路を複数個備え、前記複数のニューラルネットワーク
回路の第1選択信号を共通とし、前記複数のニューラル
ネットワーク回路のそれぞれの第2選択信号はそれぞれ
に固有のものとし、それぞれのニューラルネットワーク
回路の出力を比較する比較手段を具備することにより出
力数が拡張されたことを特徴とするニューラルネットワ
ーク回路。
4. A plurality of neural network circuits according to claim 1, wherein the plurality of neural network circuits share a first selection signal, and each of the plurality of neural network circuits has a respective second selection signal. A neural network circuit, which is unique and has an expanded number of outputs by including a comparison means for comparing the outputs of the respective neural network circuits.
JP05226956A 1993-07-29 1993-09-13 Neural network circuit Expired - Fee Related JP3082530B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP05226956A JP3082530B2 (en) 1993-09-13 1993-09-13 Neural network circuit
US08/281,683 US5621862A (en) 1993-07-29 1994-07-28 Information processing apparatus for implementing neural network
EP94111798A EP0636991A3 (en) 1993-07-29 1994-07-28 Information processing apparatus for implementing neural network.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05226956A JP3082530B2 (en) 1993-09-13 1993-09-13 Neural network circuit

Publications (2)

Publication Number Publication Date
JPH0784984A true JPH0784984A (en) 1995-03-31
JP3082530B2 JP3082530B2 (en) 2000-08-28

Family

ID=16853258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05226956A Expired - Fee Related JP3082530B2 (en) 1993-07-29 1993-09-13 Neural network circuit

Country Status (1)

Country Link
JP (1) JP3082530B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020512633A (en) * 2017-03-22 2020-04-23 マイクロン テクノロジー,インク. Device and method for operating neural network
US11341398B2 (en) 2016-10-03 2022-05-24 Hitachi, Ltd. Recognition apparatus and learning system using neural networks

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11341398B2 (en) 2016-10-03 2022-05-24 Hitachi, Ltd. Recognition apparatus and learning system using neural networks
JP2020512633A (en) * 2017-03-22 2020-04-23 マイクロン テクノロジー,インク. Device and method for operating neural network
US11222260B2 (en) 2017-03-22 2022-01-11 Micron Technology, Inc. Apparatuses and methods for operating neural networks
US11769053B2 (en) 2017-03-22 2023-09-26 Micron Technology, Inc. Apparatuses and methods for operating neural networks

Also Published As

Publication number Publication date
JP3082530B2 (en) 2000-08-28

Similar Documents

Publication Publication Date Title
US4994982A (en) Neural network system and circuit for use therein
US5131072A (en) Neurocomputer with analog signal bus
EP0327817B1 (en) Associative pattern conversion system and adaptation method thereof
US5799134A (en) One dimensional systolic array architecture for neural network
KR0170505B1 (en) Learning method of multi-layer perceptrons with n-bit data precision
US5452402A (en) Neural network circuit for adaptively controlling the coupling of neurons
JP3172352B2 (en) Neural network circuit
US5384896A (en) Learning machine
US5636327A (en) Neural network circuit
JPH0784984A (en) Neural network circuit
CN111027457A (en) Independent circulation neural network based on gate control and skeleton action identification method
Smith et al. A modular neural network architecture with additional generalization abilities for large input vectors
JP3172278B2 (en) Neural network circuit
JPH05101028A (en) Integral decision method for plural feature quantity
JPH076146A (en) Parallel data processing system
Kuroe et al. A learning method of nonlinear mappings by neural networks with considering their derivatives
Osana Improved chaotic associative memory using distributed patterns for image retrieval
JPH04237388A (en) Neuro processor
JPH1055346A (en) Neural network circuit
JP3224831B2 (en) Neural network device
KR19980074455A (en) Neural network and implementation method
JPH0451385A (en) Neural network
Duong et al. Cascade error projection: a new learning algorithm
JPH11175494A (en) Neural network
JP3463890B2 (en) Neural circuit mimic element

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees