JPH07191951A - Neural network circuit - Google Patents

Neural network circuit

Info

Publication number
JPH07191951A
JPH07191951A JP5329246A JP32924693A JPH07191951A JP H07191951 A JPH07191951 A JP H07191951A JP 5329246 A JP5329246 A JP 5329246A JP 32924693 A JP32924693 A JP 32924693A JP H07191951 A JPH07191951 A JP H07191951A
Authority
JP
Japan
Prior art keywords
output
neural network
layer
memory
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5329246A
Other languages
Japanese (ja)
Other versions
JP3172352B2 (en
Inventor
Masakatsu Maruyama
征克 丸山
Shiro Sakiyama
史朗 崎山
Hiroyuki Nakahira
博幸 中平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP32924693A priority Critical patent/JP3172352B2/en
Publication of JPH07191951A publication Critical patent/JPH07191951A/en
Application granted granted Critical
Publication of JP3172352B2 publication Critical patent/JP3172352B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To execute the processing at a high speed in a small-scale circuit and to easily extend the scale with respect to the neural network circuit for recognition processing or pictures or the like. CONSTITUTION:This multilayeted neural network circuit is provided with plural layers of networks where plural singleinput and multi-output quantized neurons are vertically branched and arranged like trees and the network in the last layer having a multi-input and single-output output neuron arranged on the top layer of these plural layers and executes the operation of networks of given feature data to perform the recognition processing. The output neuron of the network in the mast layer has the input terminal to which the output or the output neuron in the mast layer or the adjacent neural network having the same constitution is inputted as external data. Consequently, plural neural network circuits are only simply connected to present a neural network circuit whose scale can be flexibly extended, and the processing capability is improved.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像認識処理等を行う
ニューラルネットワーク回路の改良に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an improvement of a neural network circuit for performing image recognition processing and the like.

【0002】[0002]

【従来の技術】情報処理のニューラルネットワークの分
野に最近大きな関心が集まってきている。これらのニュ
ーラルネットワークは生物のニューロンの構造を模倣し
て考えられており、これらのニューラルネットワークの
処理の多くは、従来のフォン・ノイマン型の逐次計算機
で実現されているため、処理速度はきわめて遅い。そこ
で、専用の電子回路での構成の試みがなされている。
2. Description of the Related Art Recently, much attention has been paid to the field of neural networks for information processing. These neural networks are thought to imitate the structure of biological neurons, and most of the processing of these neural networks is realized by conventional von Neumann type sequential computers, so the processing speed is extremely slow. . Therefore, an attempt has been made to construct a dedicated electronic circuit.

【0003】専用の電子回路で構成したニューラルネッ
トワークは色々あるが、その中の1つのニューラルネッ
トワークである量子化ニューロン(量子化セル)のネッ
トワークによる画像認識は、例えば文献:『機能別階層
ネットワークを用いた文字認識システム』平成2年度画
像電子通信学会全国大会予稿ページ77〜80、又は『Mult
i-Functional Layered Network using Quantizer Neuro
ns』ComputerWorld '90,November 1990 )に開示され
る。以下、このニューラルネットワークによる画像認識
について説明する。
There are various neural networks composed of dedicated electronic circuits, but image recognition by a network of quantized neurons (quantized cells), which is one neural network among them, is described in, for example, the literature: "Functional hierarchical network. "Character recognition system used", Annual Conference of the Institute of Image Electronics and Communication Engineers, 1990, pages 77-80, or "Mult
i-Functional Layered Network using Quantizer Neuro
ns ”ComputerWorld '90, November 1990). Image recognition by this neural network will be described below.

【0004】図12に量子化ニューロンのネットワーク
を示す。このネットワークは、量子化ニューロンを多層
ネットワーク状に連結し、最終層は多入力1出力の通常
の人工神経細胞を連結した構成となっている。このネッ
トワークに与える画像の特徴データは、その1例とし
て、8×8の画素値、8×8の画素値の横方向の差分
値、及び8×8の画素値の縦方向の差分値である。図1
2に示すように、第1層は、8×8画素数に相当する6
4個の量子化ニューロンからなり、これらの量子化ニュ
ーロンの量子化信号入力端子には特徴データ入力1とし
て画素値を入力する。第2層では、量子化ニューロンの
量子化信号入力端子に特徴データ入力2として画素値の
横方向の差分値を入力する。第3層では、量子化ニュー
ロンの量子化信号入力端子に特徴データ入力3として画
素値の縦方向の差分値を入力する。第4層は教師入力層
であって、教師入力によって最終層の各ニューロンのシ
ナプシスの結合係数を変化させる。最終層は解答の出力
層であって、例えば、英数字62文字に対する62個の
通常の人工神経細胞からなる。
FIG. 12 shows a network of quantized neurons. In this network, quantized neurons are connected in a multilayer network, and the final layer has a structure in which ordinary artificial nerve cells with multiple inputs and one output are connected. The characteristic data of an image given to this network is, for example, an 8 × 8 pixel value, a horizontal difference value of 8 × 8 pixel values, and a vertical difference value of 8 × 8 pixel values. . Figure 1
As shown in FIG. 2, the first layer has 6 pixels corresponding to 8 × 8 pixels.
It consists of four quantized neurons, and pixel values are input as feature data input 1 to the quantized signal input terminals of these quantized neurons. In the second layer, the horizontal difference value of pixel values is input as the feature data input 2 to the quantized signal input terminal of the quantized neuron. In the third layer, a vertical difference value of pixel values is input as the feature data input 3 to the quantized signal input terminal of the quantized neuron. The fourth layer is a teacher input layer, and changes the synaptic coupling coefficient of each neuron in the final layer by teacher input. The final layer is the output layer of the answer, and consists of, for example, 62 ordinary artificial nerve cells for 62 alphanumeric characters.

【0005】前記出力層のニューロンは、図15に示す
ように、それぞれの入力データに対し、各々、学習で決
定されている重みWn (n は入力の番号)を掛けて、そ
れらの総和を出力する。
As shown in FIG. 15, each neuron in the output layer multiplies each input data by a weight Wn (n is an input number) determined by learning, and outputs the sum of them. To do.

【0006】前記量子化ニューロン(量子化セル)は、
図13に示すように、量子化信号入力端子S及び選択入
力端子Rと、複数の出力とを有している。選択入力端子
Rより入力された信号は、量子化信号入力端子Sから入
力される値x によって、例えば、(式1)に従った重み
τが掛けられ各出力に出力される。
The quantized neuron (quantized cell) is
As shown in FIG. 13, it has a quantized signal input terminal S, a selection input terminal R, and a plurality of outputs. The signal input from the selection input terminal R is multiplied by the value x input from the quantized signal input terminal S, for example, by a weight τ according to (Equation 1), and output to each output.

【0007】 τj =1−β(|j-x |) …(式1) |a |:a の絶対値 ここで、j は量子化ニューロンの出力番号を示す。Τ j = 1−β (│j-x │) (Equation 1) absolute value of │a │: a where j represents the output number of the quantized neuron.

【0008】前記図13の量子化ニューロンは、量子化
信号入力端子Sからの入力レベルが8レベルであって、
出力数が8ケのものである。例えば、関数(1−β)を
図16で示すものとするならば、量子化信号入力が値0
であったとき、量子化ニューロンのそれぞれの出力に現
れる値は、選択信号入力に与えられる値に図14(a)
で示される対応する重みτ(n)を掛けた値となる。
In the quantized neuron of FIG. 13, the input level from the quantized signal input terminal S is 8 levels,
The number of outputs is 8. For example, if the function (1-β) is as shown in FIG. 16, the quantized signal input has a value 0.
Then, the values appearing at the respective outputs of the quantized neuron are the values given to the selection signal input as shown in FIG.
Is a value multiplied by the corresponding weight τ (n).

【0009】図13で示したような量子化信号入力レベ
ルSが8レベル、出力数が8ケの量子化ニューロンでネ
ットワークを構成する場合、第1層の量子化ニューロン
の8つの出力それぞれに、第2層の量子化ニューロンの
選択信号入力が接続される。更に、この8つの第2層の
量子化ニューロンの各々の8つの出力それぞれに第3層
の量子化ニューロンの選択信号入力が接続される。この
ように、第1層の量子化ニューロン1個から、量子化ニ
ューロンを経由し、ツリー状に分岐すると、第3層の量
子化ニューロンの出力数(第4層)は512となる。
When a quantized neuron having eight quantized signal input levels S and eight outputs as shown in FIG. 13 is used to form a network, each of the eight outputs of the first layer quantized neuron is The selection signal inputs of the quantized neurons of the second layer are connected. Further, the selection signal input of the third-layer quantized neuron is connected to each of the eight outputs of each of the eight second-layer quantized neurons. In this way, when one quantized neuron in the first layer passes through the quantized neuron and branches in a tree shape, the output number (fourth layer) of the quantized neuron in the third layer becomes 512.

【0010】第1層の量子化ニューロンの8つの出力に
接続される8個の第2層の量子化ニューロンの量子化信
号入力は、第1層の特徴データ入力1である画素値と同
位置の横方向差分値が与えられる。
The quantized signal inputs of the eight second-layer quantized neurons connected to the eight outputs of the first-layer quantized neurons have the same position as the pixel value which is the first-layer feature data input 1. The lateral difference value of is given.

【0011】8個ある第2層の量子化ニューロンの各8
つの出力に接続される64個の第3層の量子化ニューロ
ンの量子化信号入力は、第1層の特徴データ入力1であ
る画素値、および第2層の特徴データ入力2である横方
向差分値と同位置の縦方向差分値が与えられる。
Each of the eight second layer quantized neurons
The quantized signal inputs of the 64 third-layer quantized neurons connected to one output are the pixel value that is the feature data input 1 of the first layer and the lateral difference that is the feature data input 2 of the second layer. A vertical difference value at the same position as the value is given.

【0012】図12に示した量子化ニューロンの画像認
識ネットワークは、第1層の1個の量子化ニューロンを
元として、第3層の量子化ニューロンの数が64個とな
る第4層までのツリー状のネットワークを構成し、それ
に最終層のネットワークを付して構成されている。
The image recognition network of quantized neurons shown in FIG. 12 is based on one quantized neuron in the first layer and has four quantized neurons in the third layer up to the fourth layer. It consists of a tree-like network and a final layer network.

【0013】先ず、量子化ニューロンの一層について説
明する。図13で説明したように、量子化ニューロン
は、下層のニューロンの出力、又は選択信号(通常は1
か最大の値)が与えられる選択信号入力Rと、特徴デー
タが与えられる量子化信号入力Sとがある。ここでは、
特徴データを0〜7までの8レベルとして説明する。こ
の時、量子化ニューロンの出力は出力0〜7の8つあ
る。
First, one layer of the quantized neuron will be described. As described with reference to FIG. 13, the quantized neuron is the output or selection signal (normally 1
Or a maximum value) and a quantized signal input S to which feature data is applied. here,
The characteristic data will be described as 8 levels from 0 to 7. At this time, the quantized neuron has eight outputs 0 to 7.

【0014】量子化信号入力Sが値0であったとき、そ
れぞれの出力に現れる値は、選択信号入力Rに与えられ
る値に図14(a)で示された対応する結合係数を掛け
たものとなる。量子化信号入力Rが値3であれば、それ
ぞれの結合係数は、図14(b)となる。図14(b)
は、同図(a)を出力番号方向に3つスライドしたのと
同様である。また、量子化信号入力Rが値7であれば、
それぞれの結合係数は、出力番号方向に7つスライドし
たのと同様で図14(c)のようになる。
When the quantized signal input S has the value 0, the value appearing at each output is the value given to the selection signal input R multiplied by the corresponding coupling coefficient shown in FIG. 14 (a). Becomes When the quantized signal input R has the value 3, the respective coupling coefficients are as shown in FIG. FIG. 14 (b)
Is the same as sliding (3) in the same figure in the output number direction. If the quantized signal input R has the value 7,
The respective coupling coefficients are as shown in FIG. 14C, which is the same as sliding seven in the output number direction.

【0015】第1層の量子化ニューロンの選択信号入力
Rは、最大の値が与えられている。例えば、量子化ニュ
ーロンを8ビットの演算で行うとするならば、第1層
で、量子化信号入力が0の場合は、 選択信号入力=FF 出力番号0=FF 出力番号1=7F 出
力番号2=0 出力番号3=0 出力番号4=0 出
力番号5=0 出力番号6=0 出力番号7=7F (16進
表現) となる。
The maximum value is given to the selection signal input R of the quantized neuron of the first layer. For example, if the quantized neuron is operated by 8-bit operation, when the quantized signal input is 0 in the first layer, selection signal input = FF output number 0 = FF output number 1 = 7F output number 2 = 0 Output number 3 = 0 Output number 4 = 0 Output number 5 = 0 Output number 6 = 0 Output number 7 = 7F (hexadecimal notation)

【0016】第2層の量子化ニューロンの選択信号入力
は、第1層の量子化ニューロンの出力が与えられる。ま
た、第3層の量子化ニューロンの選択信号入力は、第2
層の量子化ニューロンの出力が与えられる。
The selection signal input of the quantized neuron of the second layer is given the output of the quantized neuron of the first layer. The selection signal input to the quantized neuron of the third layer is the second signal.
The output of the quantized neuron of the layer is given.

【0017】従って、第3層の量子化ニューロンの出力
は、第1層の量子化ニューロンの結合係数、第2層の量
子化ニューロンの結合係数、第3層の量子化ニューロン
の結合係数の3つと第1層の量子化ニューロンの選択信
号入力を掛け合わせたものになっている。
Therefore, the output of the quantized neuron of the third layer is 3 of the coupling coefficient of the quantized neuron of the first layer, the coupling coefficient of the quantized neuron of the second layer, and the coupling coefficient of the quantized neuron of the third layer. And the selection signal input of the quantized neuron of the first layer.

【0018】このニューラルネットワークを高速に計算
するために図11に示す構成が提案されており(出願番
号03-237674 )、以下に説明する。
A configuration shown in FIG. 11 has been proposed for high-speed calculation of this neural network (application number 03-237674), and will be described below.

【0019】図11示す従来回路は、特徴データを特徴
データメモリ107〜109に与え、その特徴データを
認識するニューラルネットワーク回路である。すなわ
ち、特徴データについてネットワークの演算を行うもの
である。
The conventional circuit shown in FIG. 11 is a neural network circuit which gives characteristic data to the characteristic data memories 107 to 109 and recognizes the characteristic data. That is, the network is calculated for the characteristic data.

【0020】図11において、特徴データメモリ107
〜109は、それぞれ第1層〜第3層の量子化ニューロ
ンの量子化信号入力に与えるデータが保持されている。
係数メモリ101〜103は、それぞれ第1層〜第3層
の量子化ニューロンの結合係数が保持されている。テー
ブルメモリ112は、係数メモリ101〜103の出力
J,K,Hを入力とし、それらの掛け合わせた値を出力
する。重みメモリ118は量子化ニューロンのネットワ
ークの最終層のニューロンの重みを保持する。累積乗算
器113は、テーブルメモリ112の出力と重みメモリ
118の出力とを入力とし、その両値の累積乗算を行
う。
In FIG. 11, the characteristic data memory 107
Up to 109 hold data to be given to the quantized signal inputs of the quantized neurons of the first to third layers, respectively.
The coefficient memories 101 to 103 hold the coupling coefficients of the quantized neurons in the first to third layers, respectively. The table memory 112 receives the outputs J, K, and H of the coefficient memories 101 to 103, and outputs a value obtained by multiplying them. The weight memory 118 holds the weights of the neurons in the final layer of the quantized neuron network. The cumulative multiplier 113 receives the output of the table memory 112 and the output of the weight memory 118 as input, and performs cumulative multiplication of both values.

【0021】制御回路117は、ニューラルネットワー
ク回路1を制御し、スタート入力によって処理を開始
し、クロック信号によって動作する。前記制御回路11
7は、第1層〜第3層の各結合係数の零以外のデータの
数Wj,Wk,Whをアドレス発生器119とアドレス
変換器104〜106に与える。アドレス変換器104
〜106は、アドレス発生器119と対応する特徴デー
タメモリ107〜109との各データを受け取り、それ
ぞれ対応する係数メモリ101〜103のアドレス入力
の変換と重みメモリ118へのアドレス入力の変換を行
う。
The control circuit 117 controls the neural network circuit 1, starts processing by a start input, and operates by a clock signal. The control circuit 11
Reference numeral 7 gives the number of non-zero data Wj, Wk, Wh of the coupling coefficients of the first to third layers to the address generator 119 and the address converters 104 to 106. Address translator 104
To 106 receive respective data of the address generator 119 and the corresponding characteristic data memories 107 to 109, and perform conversion of address input of the corresponding coefficient memories 101 to 103 and conversion of address input to the weight memory 118.

【0022】前記アドレス発生器119は、図8に示す
ように、5つのカウンタ121〜124で構成されてい
る。第1層カウンタ120、第2層カウンタ121及び
第3層カウンタ122は、キャリ入力が1のとき、零か
ら幅入力の値−1までカウントアップする。例えば、幅
入力が値3であれば0、1、2とカウントし、その後に
0に戻り、再び1、2とカウントする。特徴データカウ
ンタ123は、特徴データ数をカウントするカウンタで
あり、出力層カウンタ124は、出力数をカウントする
カウンタである。
The address generator 119 is composed of five counters 121 to 124, as shown in FIG. When the carry input is 1, the first layer counter 120, the second layer counter 121, and the third layer counter 122 count up from zero to the width input value −1. For example, if the width input is the value 3, it is counted as 0, 1, 2, then returns to 0, and is again counted as 1, 2. The characteristic data counter 123 is a counter that counts the number of characteristic data, and the output layer counter 124 is a counter that counts the number of outputs.

【0023】また、図11において、出力メモリ114
は、前記アドレス発生器119の出力カウンタ124の
出力Pのアドレスに累積演算器113の値が書き込まれ
るものである。
Further, in FIG. 11, the output memory 114
The value of the accumulator 113 is written in the address of the output P of the output counter 124 of the address generator 119.

【0024】次に、前記従来回路の動作について説明す
る。
Next, the operation of the conventional circuit will be described.

【0025】特徴データメモリ107、108、109
には、認識すべき画像の特徴データが書き込まれてい
る。
Characteristic data memory 107, 108, 109
The characteristic data of the image to be recognized is written in.

【0026】アドレス発生器119の特徴データカウン
ター123の出力iにより特徴データメモリ107、1
08、109から各層に与えられる特徴データj,k,
hが読み出される。
The output i of the characteristic data counter 123 of the address generator 119 causes the characteristic data memories 107, 1
The feature data j, k, given to each layer from 08, 109,
h is read.

【0027】アドレス変換器104は、第1層の特徴デ
ータj、アドレス発生器119の第1層カウンター12
0の出力x、第1層の結合係数の零以外のデータの数W
jを入力としている。ここで、例えば、第1層の結合係
数を図16に示したものとするならば、Wjは3とな
る。前記アドレス変換器104は、第1層の量子化ニュ
ーロンの結合係数を保持している係数メモリ101のア
ドレスと、最終層のニューロンの結合係数を記憶してい
る重みメモリ118のアドレスの一部とに変換する。
The address converter 104 includes the first layer characteristic data j and the first layer counter 12 of the address generator 119.
Output x of 0, number W of non-zero data of the coupling coefficient of the first layer W
j is input. Here, for example, if the coupling coefficient of the first layer is as shown in FIG. 16, Wj is 3. The address converter 104 has an address of the coefficient memory 101 holding the coupling coefficient of the first layer quantized neuron and a part of the address of the weight memory 118 storing the coupling coefficient of the final layer neuron. Convert to.

【0028】前記アドレス変換器104によるアドレス
の変換式を次に示す。
The address conversion formula by the address converter 104 is shown below.

【0029】重みメモリ119のアドレスへの出力jj
は、 jj=j−wj/2+x で示され、係数メモリ101のアドレスへの出力jjj
は、 jjj=−wj/2+x で示される。ここで、量子化ニューロン出力数を8、量
子化信号入力のレベルを0〜7とした場合、それの変数
の範囲は0〜7である。jjj、jjの結果の下位より
3ビットを出力とする。
Output jj to address of weight memory 119
Is represented by jj = j-wj / 2 + x, and the output to the address of the coefficient memory 101 is jjj.
Is represented by jjj = -wj / 2 + x. Here, when the number of quantized neuron outputs is 8 and the level of the quantized signal input is 0 to 7, the range of the variables is 0 to 7. The lower 3 bits of the result of jjj and jj are output.

【0030】同様に、アドレス変換器105は、第2層
の量子化ニューロンの結合係数を保持している係数メモ
リ102のアドレスと、最終層のニューロンの係数を記
憶している重みメモリ119のアドレスの一部とに変換
し、出力する。同様に、アドレス変換器106は、第3
層の量子化ニューロンの結合係数を保持している係数メ
モリ103のアドレスと、最終層のニューロンの係数を
記憶している重みメモリ119のアドレスの一部とに変
換し、出力する。
Similarly, the address converter 105 has the address of the coefficient memory 102 holding the coupling coefficient of the quantized neuron of the second layer and the address of the weight memory 119 storing the coefficient of the neuron of the final layer. It is converted into a part of and output. Similarly, the address translator 106 uses the third
It is converted into an address of the coefficient memory 103 holding the coupling coefficient of the quantized neuron of the layer and a part of the address of the weight memory 119 storing the coefficient of the neuron of the final layer, and output.

【0031】前記係数メモリ101〜103は、それぞ
れ第1層〜第3層の量子化ニューロンの結合係数が保持
されており、入力されたデータのアドレスの結合係数を
出力する。
The coefficient memories 101 to 103 hold the coupling coefficients of the quantized neurons of the first to third layers, respectively, and output the coupling coefficient of the address of the input data.

【0032】テーブルメモリ112は、係数メモリ10
1〜103からの出力を入力とし、それらの掛け合わせ
た値を出力する。すなわち、第3層の量子化ニューロン
の出力となる。
The table memory 112 is the coefficient memory 10
The outputs from 1 to 103 are input, and a value obtained by multiplying them is output. That is, it becomes the output of the quantized neuron in the third layer.

【0033】量子化ニューロンのネットワークの最終層
のニューロンの重みを保持する重みメモリ118は、3
個のアドレス変換器104、105、106からの入力
と、アドレス発生器119の特徴データカウンター12
3の出力iと、アドレス発生器119の出力層カウンタ
ー124の出力pからの入力とによって、テーブルメモ
リ112の出力データ(すなわち、第3層の量子化ニュ
ーロンの出力)に一致する出力ニューロンの重みデータ
を出力する。
The weight memory 118 holding the weights of the neurons in the final layer of the network of quantized neurons is 3
Input from each of the address converters 104, 105, 106 and the feature data counter 12 of the address generator 119.
3 and the input from the output p of the output layer counter 124 of the address generator 119, the weight of the output neuron that matches the output data of the table memory 112 (that is, the output of the quantization neuron of the third layer). Output the data.

【0034】累積演算器113は、テーブルメモリ11
2の出力と重みメモリ118の出力を掛け合わせ、累積
する。
The accumulator 113 has a table memory 11
The output of 2 and the output of the weight memory 118 are multiplied and accumulated.

【0035】以上の動作を、アドレス発生器119のカ
ウントアップに従って実行する。アドレス発生器119
の出力層カウンタ124が変化するときに、そのアドレ
スに累積演算器113の値を書き込み、累積演算器11
3の値を0にする。
The above operation is executed according to the count up of the address generator 119. Address generator 119
When the output layer counter 124 of the cumulative arithmetic unit 11 changes, the value of the cumulative arithmetic unit 113 is written to the address.
Set the value of 3 to 0.

【0036】アドレス発生器119のカウントアップが
終了すれば、認識の演算が終了しており、出力メモリ1
14には量子化ニューロンのネットワークの解答出力が
得られる。
When the count up of the address generator 119 is completed, the recognition operation is completed and the output memory 1
At 14, the solution output of the quantized neuron network is obtained.

【0037】[0037]

【発明が解決しようとする課題】しかしながら、前記従
来のハードウェアで構成したニューラルネットワーク回
路では、処理する入力特徴データの数とネットワークの
規模を予め決めて構成する必要があり、このため、処理
内容の複雑化に伴いネットワーク規模を拡大することが
困難であった。
However, in the above-mentioned conventional neural network circuit composed of hardware, it is necessary to predetermine the number of input characteristic data to be processed and the scale of the network. It has been difficult to expand the network scale due to the complexity of.

【0038】本発明は、以上のような問題点を解決する
ためになされたものであり、その目的は、柔軟に規模の
拡張可能なニューラルネットワーク回路を提供すること
にある。
The present invention has been made to solve the above problems, and an object thereof is to provide a neural network circuit which can be flexibly expanded in scale.

【0039】[0039]

【課題を解決するための手段】上記目的を達成するため
に、本発明では、ニューラルネットワークを一定の規模
のハードウェアで構築して複数設け、それ等を簡易に接
続して演算結果を利用できる構成とする。
In order to achieve the above object, in the present invention, a neural network is constructed by hardware of a certain scale and a plurality of neural networks are provided, and these can be easily connected to use the operation result. The configuration.

【0040】すなわち、請求項1記載の発明のニューラ
ルネットワーク回路は、1入力複数出力の量子化ニュー
ロンを上下に複数個ツリー状に分岐配置した複数層のネ
ットワークと、その最上層の更に上方に配置された複数
入力1出力の出力ニューロンを有する最終層のネットワ
ークとを有し、与えられた特徴データのネットワークの
演算を実行することで認識処理を行う多層のニューラル
ネットワーク回路を対象として、前記最終層のネットワ
ークの出力ニューロンは、外部データが入力される入力
端子を有する構成である。
That is, the neural network circuit according to the first aspect of the invention is a network of a plurality of layers in which a plurality of quantized neurons each having one input and a plurality of outputs are branched vertically to form a tree, and the network is arranged further above the uppermost layer. And a final layer network having output neurons with a plurality of inputs and one output, and a final layer for a multi-layer neural network circuit that performs recognition processing by executing an operation of a network of given feature data. The output neuron of the network has a configuration having an input terminal to which external data is input.

【0041】また、請求項2記載の発明のニューラルネ
ットワーク回路は、前記請求項1記載の発明の複数層の
ネットワーク及び最終層のネットワークを特定し、これ
等を、計算すべきネットワークの回数を出力する制御回
路と、前記制御回路の出力により計算すべきネットワー
クの回数を順次カウントするアドレス発生器と、前記ア
ドレス発生器によって読み出される特徴データを記憶し
ている特徴データメモリと、最終層の出力ニューロンの
重みを記憶する重みメモリと、最終層以外のニューロン
の結合係数を記憶する最終層以外の層別の結合係数メモ
リと、前記制御回路、特徴データメモリ及びアドレス発
生器の出力を、前記重みメモリに与えるアドレス、及び
前記結合係数メモリに与えるアドレスに変換するアドレ
ス変換器と、前記層別の結合係数メモリの出力を入力と
して各入力を乗算した値を出力するテーブルメモリと、
前記テーブルメモリの出力と前記重みメモリの出力とを
累積加算する累積演算器と、前記アドレス発生器の出力
アドレスに前記累積演算器の結果を保持する出力メモリ
とにより構成したものである。
The neural network circuit according to the second aspect of the present invention specifies the network of the plurality of layers and the network of the last layer of the first aspect of the invention, and outputs the number of networks to be calculated. Control circuit, an address generator that sequentially counts the number of networks to be calculated by the output of the control circuit, a characteristic data memory that stores characteristic data read by the address generator, and an output neuron of the final layer Of the control circuit, the feature data memory and the address generator, the weight memory for storing the weights of the And an address converter for converting into an address given to the coupling coefficient memory, and And table memory which outputs a value obtained by multiplying each input as an input the output of another of the coupling coefficient memory,
It is configured by an accumulator that cumulatively adds the output of the table memory and the output of the weight memory, and an output memory that holds the result of the accumulator at the output address of the address generator.

【0042】更に、請求項3記載の発明のニューラルネ
ットワーク回路では、外部データを入力する素子を限定
し、累積演算器に対して、アドレス発生器の信号により
外部データの加算を実行する機能を持たせる構成として
いる。
Further, in the neural network circuit according to the third aspect of the present invention, the elements for inputting the external data are limited, and the accumulator has a function of executing the addition of the external data by the signal of the address generator. It is designed to let you.

【0043】加えて、請求項4記載の発明のニューラル
ネットワーク回路では、更に、テーブルメモリと外部デ
ータとを入力として何れか一方を選択する選択回路を設
けるとともに、重みメモリは、前記選択回路が外部デー
タを選択したとき所定の重みを出力するものであり、累
積演算器は、前記選択回路により選択された外部データ
と前記重みメモリの所定の重みとを累積加算して外部に
出力する機能を持たせる構成としている。
In addition, in the neural network circuit according to a fourth aspect of the present invention, a selection circuit for selecting either one of the table memory and the external data as an input is further provided, and the weight memory has an external selection circuit. A predetermined weight is output when data is selected, and the accumulator has a function of cumulatively adding the external data selected by the selection circuit and the predetermined weight of the weight memory and outputting the result to the outside. It is designed to let you.

【0044】[0044]

【作用】以上の構成により、請求項1ないし請求項4記
載の発明のニューラルネットワーク回路では、最終層の
出力ニューロンに別途設けた入力端子に外部データを入
力できる構成,即ち累積演算器が外部データの加算を実
行する構成であるので、このニューラルネットワーク回
路を複数設け、ニューラルネットワーク回路で得た解答
出力を他のニューラルネットワーク回路の最終層で加算
利用できるようにそれ等を簡易に接続すれだけで、柔軟
に規模の拡張したニューラルネットワーク回路を提供で
きる。従って、各ニューラルネットワーク回路別に異な
る分別能力を持たせれば、簡易に処理能力の向上を図る
ことができる。
With the above construction, in the neural network circuit of the present invention according to any one of claims 1 to 4, the external data can be input to the input terminal separately provided in the output neuron of the final layer, that is, the accumulator is the external data. Since it is a configuration that executes addition of, it is only necessary to simply connect them so that multiple neural network circuits are provided and the answer output obtained by the neural network circuit can be used for addition in the final layer of other neural network circuits. It is possible to provide a neural network circuit whose scale is flexibly expanded. Therefore, if each neural network circuit has a different classification capability, the processing capability can be easily improved.

【0045】[0045]

【実施例】【Example】

(実施例1)本発明の第1の実施例を図1に示す。同図
の実施例は、最終層の出力ニューロンを図6に示すよう
に従来での最終層の出力ニューロンより1入力多く、増
加した入力の重みを1としている。これにより、図5に
示すように、隣りのニューラルネットワークの出力を最
終層の出力ニューロンに与えることで拡張性に優れたニ
ューラルネットワーク回路となる。
(Embodiment 1) A first embodiment of the present invention is shown in FIG. In the embodiment shown in the figure, the output neurons in the final layer are one input more than the output neurons in the conventional final layer as shown in FIG. 6, and the increased input weight is 1. As a result, as shown in FIG. 5, the output of the adjacent neural network is given to the output neuron of the final layer, whereby the neural network circuit is excellent in expandability.

【0046】同図の実施例は、特徴データを特徴データ
メモリ107〜109に与え、そのデータについて処理
するニューラルネットワーク回路である。
The embodiment shown in the figure is a neural network circuit which gives characteristic data to the characteristic data memories 107 to 109 and processes the data.

【0047】係数メモリ101〜103には、それぞれ
第1層〜第3層の量子化ニューロンの結合係数が保持さ
れている。テーブルメモリ112は、3個の係数メモリ
101〜103の出力J,K,Hを入力とし、それらの
掛け合わせた値を出力する。重みメモリ118は量子化
ニューロンのネットワークの最終層のニューロンの重み
を保持する。
The coefficient memories 101 to 103 hold the coupling coefficients of the quantized neurons of the first to third layers, respectively. The table memory 112 receives the outputs J, K, and H of the three coefficient memories 101 to 103 as inputs, and outputs a value obtained by multiplying them. The weight memory 118 holds the weights of the neurons in the final layer of the quantized neuron network.

【0048】そして、累積乗算器130は、切替入力が
LOWのとき、テーブルメモリ112の出力と、重みメ
モリ118の出力とを入力として累積乗算を行い、一
方、切替入力がHIGHのとき、外部加算入力より入っ
た信号を加算する。特徴データメモリ107〜109に
は、それぞれ第1層〜第3層の量子化ニューロンの量子
化信号入力Sに与えるデータが保持されている。
Then, the cumulative multiplier 130 receives the output of the table memory 112 and the output of the weight memory 118 when the switching input is LOW and performs cumulative multiplication. On the other hand, when the switching input is HIGH, external addition is performed. Add the signals input from the input. The characteristic data memories 107 to 109 hold data to be given to the quantized signal inputs S of the quantized neurons of the first to third layers, respectively.

【0049】制御回路132は、ニューラルネットワー
ク回路10を制御し、スタート入力によって処理を開始
し、クロック信号によって動作する。
The control circuit 132 controls the neural network circuit 10, starts processing by a start input, and operates according to a clock signal.

【0050】また、制御回路132のスタート出力は、
スタート入力を1クロック遅らせたものである。
The start output of the control circuit 132 is
The start input is delayed by one clock.

【0051】前記制御回路132は、第1層〜第3層の
各結合係数の零以外のデータの数Wj,Wk,Whをア
ドレス発生器131とアドレス変換器104〜106と
に与える。前記アドレス変換器104〜106は、アド
レス発生器110と特徴データメモリ107〜109と
の両データを受け取り、それぞれ係数メモリ101〜1
03のアドレス入力の変換と、重みメモリ118へのア
ドレス入力の変換を行う。
The control circuit 132 supplies the address generator 131 and the address converters 104 to 106 with the numbers Wj, Wk, and Wh of the non-zero data of the coupling coefficients of the first to third layers. The address converters 104 to 106 receive both data of the address generator 110 and the characteristic data memories 107 to 109, and the coefficient memories 101 to 1 respectively.
The conversion of the address input No. 03 and the conversion of the address input to the weight memory 118 are performed.

【0052】図2に示すように、アドレス発生器131
は、6つのカウンタで構成されている。第1層カウンタ
120、第2層カウンタ121及び第3層カウンタ12
2は、キャリ入力が1のとき、零から幅入力の値−1ま
でカウントアップする。例えば、幅入力が値3であれば
0、1、2とカウントし、その後に0に戻り、再び1、
2とカウントする。特徴データカウンタ123は特徴デ
ータ数をカウントするカウンタであり、出力層カウンタ
124は出力数をカウントするカウンタである。
As shown in FIG. 2, the address generator 131
Is composed of six counters. First layer counter 120, second layer counter 121 and third layer counter 12
When the carry input is 1, 2 counts up from 0 to the width input value -1. For example, if the width input is a value of 3, it counts as 0, 1, 2, then returns to 0, and then 1,
Count as 2. The characteristic data counter 123 is a counter that counts the number of characteristic data, and the output layer counter 124 is a counter that counts the number of outputs.

【0053】そして、133は外部アクセスカウンタで
あって、この外部アクセスカウンタ133は、特徴デー
タカウンタ123の出力を1クロック遅らせて出力カウ
ンタ124に与えて、累積演算器130の外部入力の計
算サイクルをカウントするカウンタである。
Reference numeral 133 denotes an external access counter. The external access counter 133 delays the output of the characteristic data counter 123 by one clock and supplies it to the output counter 124 to calculate the calculation cycle of the external input of the accumulator 130. It is a counter that counts.

【0054】次に、本発明の実施例の動作について説明
する。
Next, the operation of the embodiment of the present invention will be described.

【0055】特徴データメモリ107、108、109
には、処理すべき特徴データが書き込まれている。
Characteristic data memory 107, 108, 109
The characteristic data to be processed is written in.

【0056】アドレス発生器131の特徴データカウン
ター123の出力iにより特徴データメモリ107、1
08、109から各層に与えられる特徴データj,k,
hが読み出される。
The output i of the characteristic data counter 123 of the address generator 131 causes the characteristic data memories 107, 1
The feature data j, k, given to each layer from 08, 109,
h is read.

【0057】アドレス変換器104は、第1層の特徴デ
ータj、アドレス発生器131の第1層カウンター12
0の出力x、第1層の結合係数の零以外のデータの数W
jを入力としている。ここで、例えば、第1層の結合係
数を図16に示したものとするならば、Wjは3とな
る。
The address converter 104 includes the first layer characteristic data j and the first layer counter 12 of the address generator 131.
Output x of 0, number W of non-zero data of the coupling coefficient of the first layer W
j is input. Here, for example, if the coupling coefficient of the first layer is as shown in FIG. 16, Wj is 3.

【0058】アドレス変換器104は、第1層の量子化
ニューロンの結合係数を保持している係数メモリ101
のアドレスと、最終層のニューロンの結合係数を記憶し
ている重みメモリ118のアドレスの一部とに変換す
る。
The address converter 104 is a coefficient memory 101 holding the coupling coefficient of the first layer quantized neuron.
Address and a part of the address of the weight memory 118 storing the coupling coefficient of the neuron in the final layer.

【0059】前記アドレス変換器104のアドレスの変
換式を次に示す。
The address conversion formula of the address converter 104 is shown below.

【0060】重みメモリ118のアドレスへの出力jj
は、 jj=j−wj/2+x で示され、係数メモリ101のアドレスへの出力jjj
は、 jjj=−wj/2+x で示される。ここで、量子化ニューロン出力数を8、量
子化信号入力のレベルを0〜7とした場合、それの変数
の範囲は0〜7である。jjj、jjの結果の下位より
3ビットを出力とする。
Output jj to address of weight memory 118
Is represented by jj = j-wj / 2 + x, and the output to the address of the coefficient memory 101 is jjj.
Is represented by jjj = -wj / 2 + x. Here, when the number of quantized neuron outputs is 8 and the level of the quantized signal input is 0 to 7, the range of the variables is 0 to 7. The lower 3 bits of the result of jjj and jj are output.

【0061】同様に、アドレス変換器105は、第2層
の量子化ニューロンの結合係数を保持している係数メモ
リ102のアドレスと、最終層のニューロンの係数を記
憶している重みメモリ118のアドレスの一部とに変換
し、出力する。同様に、アドレス変換器106は、第3
層の量子化ニューロンの結合係数を保持している係数メ
モリ103のアドレスと、最終層のニューロンの係数を
記憶している重みメモリ118のアドレスの一部とに変
換し、出力する。
Similarly, the address converter 105 addresses the coefficient memory 102 holding the coupling coefficient of the quantized neuron of the second layer and the address of the weight memory 118 storing the coefficient of the final layer neuron. It is converted into a part of and output. Similarly, the address translator 106 uses the third
The address of the coefficient memory 103 holding the coupling coefficient of the quantized neuron of the layer and the part of the address of the weight memory 118 storing the coefficient of the neuron of the final layer are converted and output.

【0062】係数メモリ101〜103には、それぞれ
対応する第1層〜第3層の量子化ニューロンの結合係数
が保持されており、入力されたデータのアドレスの結合
係数を出力する。
The coefficient memories 101 to 103 hold the coupling coefficients of the corresponding quantized neurons of the first to third layers, respectively, and output the coupling coefficient of the address of the input data.

【0063】テーブルメモリ112は、3個の係数メモ
リ101〜103からの出力を入力として、それらの掛
け合わせた値を出力する。すなわち、第3層の量子化ニ
ューロンの出力となる。
The table memory 112 receives the outputs from the three coefficient memories 101 to 103 and outputs a value obtained by multiplying them. That is, it becomes the output of the quantized neuron in the third layer.

【0064】量子化ニューロンのネットワークの最終層
のニューロンの重みを保持する重みメモリ118は、ア
ドレス変換器104、105、106からの入力と、ア
ドレス発生器131の特徴データカウンター123の出
力iと、出力層カウンター124の出力pからの入力に
よって、テーブルメモリ112の出力データ(すなわ
ち、第3層の量子化ニューロンの出力)に一致する出力
ニューロンの重みデータを出力する。
The weight memory 118, which holds the weights of the neurons in the final layer of the quantized neuron network, receives the inputs from the address converters 104, 105 and 106 and the output i of the feature data counter 123 of the address generator 131. By the input from the output p of the output layer counter 124, the output neuron weight data that matches the output data of the table memory 112 (that is, the output of the quantization neuron of the third layer) is output.

【0065】累積演算器130はテーブルメモリ112
の出力と重みメモリ118の出力とを掛け合わせ、累積
する。
The accumulator 130 is a table memory 112.
And the output of the weight memory 118 are multiplied and accumulated.

【0066】以上の動作を、図4の波形図に示すよう
に、アドレス発生器131のカウントアップに従って実
行する。
The above operation is executed in accordance with the count up of the address generator 131, as shown in the waveform diagram of FIG.

【0067】アドレス発生器131の外部アクセスカウ
ンタ133の出力がHIGHになったとき、特徴データ
カウンタ123のキャリ出力Cにより累積演算器130
の入力が外部加算入力に切り替えられて、外部のデータ
の加算を行う。
When the output of the external access counter 133 of the address generator 131 becomes HIGH, the carry operation C of the characteristic data counter 123 causes the accumulator 130 to operate.
Is switched to the external addition input to add external data.

【0068】その後、アドレス発生器131の出力層カ
ウンタ124の出力Pが変化するときに、そのアドレス
に累積演算器130の値を出力メモリ114に書き込
み、累積演算器130の値を0にする。そして、特徴デ
ータカウンタ123、第3層カウンタ122、第2層カ
ウンタ121、及び第1層カウンタ120がリセットさ
れる。
After that, when the output P of the output layer counter 124 of the address generator 131 changes, the value of the accumulator 130 is written to the output memory 114 at that address, and the value of the accumulator 130 is set to 0. Then, the characteristic data counter 123, the third layer counter 122, the second layer counter 121, and the first layer counter 120 are reset.

【0069】アドレス発生器131のカウントアップが
終了すれば、認識の演算が終了しており、出力メモリ1
14には量子化ニューロンのネットワークの解答出力が
得られる。
When the count-up of the address generator 131 is completed, the recognition operation is completed and the output memory 1
At 14, the solution output of the quantized neuron network is obtained.

【0070】本ニューラルネットワーク回路10を、図
3のように、例えば2つ設け、一方の回路10Aには外
部データとして0を入力すると共に、他の回路10Bに
は、前記一方の回路10Aの累積演算器130の累積演
算結果を外部データとして入力するように接続すること
により、図5に示すようなネットワークの拡張ができ
る。ここで、前記累積演算器130の累積演算結果を外
部データとして入力する側の回路10Bは、図4の波形
図に示すように、その累積演算結果を外部データとして
出力する側の回路10Aより1クロック遅れて動作演算
する。
As shown in FIG. 3, for example, two neural network circuits 10 are provided, one circuit 10A receives 0 as external data, and the other circuit 10B accumulates the one circuit 10A. By connecting so that the cumulative calculation result of the calculator 130 is input as external data, the network as shown in FIG. 5 can be expanded. Here, as shown in the waveform diagram of FIG. 4, the circuit 10B on the side for inputting the cumulative calculation result of the cumulative calculation unit 130 as external data has a circuit 1A on the side for outputting the cumulative calculation result as external data. Operation is calculated with a clock delay.

【0071】尚、図5に示すネットワークは、入力特徴
データが各層128データ、すなわち2倍の拡張とした
場合であるが、3倍以上の拡張とする場合も同様であ
る。
In the network shown in FIG. 5, the input characteristic data is 128-layer data of each layer, that is, the extension is twice, but the same is true when the extension is three times or more.

【0072】(実施例2)本発明の第2の実施例を図7
に示す。同図の実施例は、最終層の出力ニューロンを図
10のような従来での最終層の出力ニューロンより1入
力多く、その増加した入力に対し重みWsを有してい
る。これにより、図9に示すように隣りのニューラルネ
ットワークの出力を最終層の出力ニューロンに与えるこ
とで拡張性に優れたニューラルネットワーク回路とな
る。
(Embodiment 2) A second embodiment of the present invention is shown in FIG.
Shown in. The embodiment shown in the figure has one more output neuron in the final layer than the conventional output neuron in the final layer as shown in FIG. 10, and has a weight Ws for the increased input. As a result, as shown in FIG. 9, the output of the adjacent neural network is given to the output neuron of the final layer, so that the neural network circuit is excellent in expandability.

【0073】図7の実施例は、特徴データを特徴データ
メモリ107〜109に与えたデータを処理する回路で
ある。
The embodiment shown in FIG. 7 is a circuit for processing the data given to the characteristic data memories 107 to 109.

【0074】制御回路132、アドレス発生器131、
係数メモリ101〜103、テーブルメモリ112、特
徴データメモリ107〜109、アドレス変換器104
〜106、出力メモリ114は、前記実施例1と同様の
ものである。
The control circuit 132, the address generator 131,
Coefficient memories 101 to 103, table memory 112, characteristic data memories 107 to 109, address converter 104
To 106 and the output memory 114 are the same as those in the first embodiment.

【0075】重みメモリ134は、アドレス変換器10
4〜106の出力hh,kk,jjとアドレス発生器1
31の出力c,i,pとをアドレス信号とし、量子化ニ
ューロンのネットワークの最終層のニューロンの重みを
保持する。
The weight memory 134 is used for the address converter 10
4 to 106 outputs hh, kk, jj and address generator 1
The outputs c, i and p of 31 are used as address signals, and the weights of the neurons in the final layer of the network of quantized neurons are held.

【0076】136はマルチプレクサであって、このマ
ルチプレクサ136は、外部累積入力とテーブルメモリ
112の出力との2つを入力とし、アドレス発生器13
1からの切り替え信号cによって、切替入力がLOWの
ときはテーブルメモリ112を、切り替え入力がHIG
Hのときは外部累積入力を出力する。累積乗算器113
は、マルチプレクサ136の出力と、重みメモリ134
の出力を入力とし、累積乗算を行う。
Reference numeral 136 denotes a multiplexer. The multiplexer 136 has two inputs, that is, an external accumulative input and an output of the table memory 112, and receives the address generator 13.
When the switching input is LOW, the table memory 112 is switched by the switching signal c from 1 and the switching input is HIG.
When it is H, the external cumulative input is output. Cumulative multiplier 113
Is the output of the multiplexer 136 and the weight memory 134.
The output of is input, and cumulative multiplication is performed.

【0077】前記実施例1と同様に、図4の波形図に示
すようにアドレス発生器131のカウントアップに従っ
て実行する。アドレス発生器131の外部アクセスカウ
ンタ133の出力がHIGHになったとき、その出力カ
ウンタ124の出力Cによりマルチプレクサ136は外
部累算入力を選択し、累積乗算器113に外部累算入力
データの値を出力する。累積乗算器113は、外部累算
入力データの値と、重みメモリ134から読み出された
値との累積を計算する。この時、重みメモリ134から
読み出された値は、図9での重みWsの値である。その
後、アドレス発生器131の出力層カウンタ124の出
力Pが変化するときに、そのアドレスに累積演算器11
3の値を出力メモリ114に書き込み、累積演算器11
3の値を0にする。そして、その後、特徴データカウン
タ123、第3層カウンタ122、第2層カウンタ12
1、第1層カウンタ120がリセットされる。
Similar to the first embodiment, it is executed according to the count up of the address generator 131 as shown in the waveform diagram of FIG. When the output of the external access counter 133 of the address generator 131 becomes HIGH, the multiplexer 136 selects the external accumulation input by the output C of the output counter 124, and outputs the value of the external accumulation input data to the accumulation multiplier 113. Output. The cumulative multiplier 113 calculates the cumulative value of the external cumulative input data and the value read from the weight memory 134. At this time, the value read from the weight memory 134 is the value of the weight Ws in FIG. After that, when the output P of the output layer counter 124 of the address generator 131 changes, the accumulator 11 is assigned to the address.
The value of 3 is written to the output memory 114, and the accumulator 11
Set the value of 3 to 0. Then, after that, the characteristic data counter 123, the third layer counter 122, and the second layer counter 12
1, the first layer counter 120 is reset.

【0078】アドレス発生器131のカウントアップが
終了すれば、認識の演算が終了しており、出力メモリ1
14には量子化ニューロンのネットワークの解答出力が
得られる。
When the count-up of the address generator 131 is completed, the recognition operation is completed and the output memory 1
At 14, the solution output of the quantized neuron network is obtained.

【0079】本ニューラルネットワーク回路11を図3
と同様に接続することで図9に示すネットワークの拡張
ができる。図9に示すネットワークは、入力特徴データ
が各層64データであるが、左右それぞれのニューラル
ネットワークに違った分別能力持たせ、それぞれの結果
を重み付け加算することで、最終的な解答出力とし、こ
れによりニューラルネットワークの能力の向上を実現で
きる。
This neural network circuit 11 is shown in FIG.
By connecting in the same manner as above, the network shown in FIG. 9 can be expanded. In the network shown in FIG. 9, the input feature data is 64 data for each layer, but the left and right neural networks are provided with different classification capabilities, and the respective results are weighted and added to obtain the final answer output. The ability of the neural network can be improved.

【0080】尚、以上の説明では、量子化ニューロンを
用いたネットワークを、1層の特徴データを8×8の6
4ヶ、3層の特徴データ、64解答出力として説明した
がこの限りではない。
In the above description, the network using the quantized neuron is used for the feature data of one layer of 8 × 8 6
Although it has been described as the feature data of 4 layers and 3 layers, and the output of 64 answers, the present invention is not limited to this.

【0081】[0081]

【発明の効果】以上説明したように、本発明によれば、
量子化ニューロンを用いたニューラルネットワーク回路
において、ニューラルネットワークを一定の規模のハー
ドウェアで構築し、それを外部入力可能な構成としたの
で、そのニューラルネットワークを複数設けてそれ等を
簡易に接続するだけで柔軟に規模の拡張可能なニューラ
ルネットワーク回路を提供でき、処理能力の向上が図れ
るニューラルネットワーク回路が実現できる。
As described above, according to the present invention,
In the neural network circuit using the quantized neuron, the neural network was constructed with hardware of a certain scale and configured so that it could be externally input, so it is only necessary to provide multiple neural networks and simply connect them. It is possible to provide a neural network circuit whose scale can be flexibly expanded, and to realize a neural network circuit with improved processing capability.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例におけるニューラルネッ
トワーク回路の構成図である。
FIG. 1 is a configuration diagram of a neural network circuit according to a first embodiment of the present invention.

【図2】本発明の第1の実施例におけるアドレス発生器
の構成図である。
FIG. 2 is a configuration diagram of an address generator according to the first embodiment of the present invention.

【図3】本発明の第1の実施例におけるニューラルネッ
トワーク回路を複数用いる場合の接続図である。
FIG. 3 is a connection diagram when a plurality of neural network circuits according to the first embodiment of the present invention are used.

【図4】図3の接続における各部の波形図である。FIG. 4 is a waveform diagram of each part in the connection of FIG.

【図5】本発明の第1の実施例におけるニューラルネッ
トワーク回路図3の接続におけるニューラルネットワー
クモデルの説明図である。
FIG. 5 is an explanatory diagram of a neural network model in the connection of the neural network circuit FIG. 3 according to the first embodiment of the present invention.

【図6】本発明の第1の実施例におけるニューラルネッ
トワーク回路のモデルの最終層のニューロンの説明図で
ある。
FIG. 6 is an explanatory diagram of neurons in the final layer of the model of the neural network circuit according to the first embodiment of the present invention.

【図7】本発明の第2の実施例におけるニューラルネッ
トワーク回路の構成図である。
FIG. 7 is a configuration diagram of a neural network circuit according to a second embodiment of the present invention.

【図8】従来例におけるニューラルネットワーク回路に
おけるアドレス発生器の構成図である。
FIG. 8 is a configuration diagram of an address generator in a neural network circuit in a conventional example.

【図9】本発明の第2の実施例におけるニューラルネッ
トワーク回路の図3の接続におけるニューラルネットワ
ークモデルの説明図である。
9 is an explanatory diagram of a neural network model in the connection of FIG. 3 of the neural network circuit according to the second embodiment of the present invention.

【図10】本発明の第2の実施例におけるニューラルネ
ットワーク回路のモデルの最終層のニューロンの説明図
である。
FIG. 10 is an explanatory diagram of neurons in the final layer of the model of the neural network circuit according to the second embodiment of the present invention.

【図11】従来例におけるニューラルネットワーク回路
の構成図である。
FIG. 11 is a configuration diagram of a neural network circuit in a conventional example.

【図12】従来例における量子化ニューロンによるニュ
ーラルネットワークの構造の説明図である。
FIG. 12 is an explanatory diagram of a structure of a neural network including quantized neurons in a conventional example.

【図13】量子化ニューロンの説明図である。FIG. 13 is an explanatory diagram of a quantized neuron.

【図14】量子化ニューロン結合係数の説明図である。FIG. 14 is an explanatory diagram of quantized neuron coupling coefficients.

【図15】量子化ニューロンによるニューラルネットワ
ークの最終層のニューロンの説明図である。
FIG. 15 is an explanatory diagram of neurons in the final layer of the neural network using quantized neurons.

【図16】量子化ニューロン結合係数の説明図である。FIG. 16 is an explanatory diagram of quantized neuron coupling coefficients.

【符号の説明】[Explanation of symbols]

101〜103 係数メモリ 104〜106 アドレス変換器 107〜109 特徴データメモリ 112 テーブルメモリ 113、130 累積演算器 118、134 重みメモリ 117、132 制御回路 119、131 アドレス発生器 120 第1層カウンタ 121 第2層カウンタ 122 第3層カウンタ 123 特徴データカウンタ 124 出力層カウンタ 133 外部アクセスカウンタ 136 マルチプレクサ 101-103 Coefficient memory 104-106 Address converter 107-109 Characteristic data memory 112 Table memory 113,130 Cumulative calculator 118,134 Weight memory 117,132 Control circuit 119,131 Address generator 120 First layer counter 121 Second Layer counter 122 Third layer counter 123 Characteristic data counter 124 Output layer counter 133 External access counter 136 Multiplexer

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 1入力複数出力の量子化ニューロンを上
下に複数個ツリー状に分岐配置した複数層のネットワー
クと、その最上層の更に上方に配置された複数入力1出
力の出力ニューロンを有する最終層のネットワークとを
有し、与えられた特徴データのネットワークの演算を実
行することで認識処理を行う多層のニューラルネットワ
ーク回路であって、前記最終層のネットワークの出力ニ
ューロンは、外部データが入力される入力端子を有する
ことを特徴とするニューラルネットワーク回路。
1. A final network having a multi-layer network in which a plurality of one-input multi-output quantized neurons are vertically branched and arranged in a tree shape, and a multi-input one-output output neuron arranged further above the uppermost layer. And a network of layers, which is a multilayer neural network circuit for performing recognition processing by executing an operation of a network of given feature data, wherein external neurons are input to output neurons of the network of the final layer. A neural network circuit having an input terminal according to claim 1.
【請求項2】 複数層のネットワーク及び最終層のネッ
トワークは、計算すべきネットワークの回数を出力する
制御回路と、前記制御回路の出力により計算すべきネッ
トワークの回数を順次カウントするアドレス発生器と、
前記アドレス発生器によって読み出される特徴データを
記憶している特徴データメモリと、最終層の出力ニュー
ロンの重みを記憶する重みメモリと、最終層以外のニュ
ーロンの結合係数を記憶する最終層以外の層別の結合係
数メモリと、前記制御回路、特徴データメモリ及びアド
レス発生器の出力を、前記重みメモリに与えるアドレ
ス、及び前記結合係数メモリに与えるアドレスに変換す
るアドレス変換器と、前記層別の結合係数メモリの出力
を入力として各入力を乗算した値を出力するテーブルメ
モリと、前記テーブルメモリの出力と前記重みメモリの
出力とを累積加算する累積演算器と、前記アドレス発生
器の出力アドレスに前記累積演算器の結果を保持する出
力メモリとから成ることを特徴とする請求項1記載のニ
ューラルネットワーク回路。
2. The multi-layer network and the final layer network each include a control circuit that outputs the number of networks to be calculated, and an address generator that sequentially counts the number of networks to be calculated by the output of the control circuit.
A feature data memory that stores the feature data read by the address generator, a weight memory that stores the weight of the output neuron of the final layer, and a layer other than the final layer that stores the coupling coefficient of neurons other than the final layer. Coupling coefficient memory, an address converter for converting the outputs of the control circuit, the feature data memory and the address generator into an address given to the weight memory and an address given to the coupling coefficient memory, and the coupling coefficient for each layer. A table memory that outputs a value obtained by multiplying each input by using the output of the memory as an input, an accumulator that cumulatively adds the output of the table memory and the output of the weight memory, and the accumulator at the output address of the address generator. The neural network according to claim 1, further comprising an output memory for holding a result of the arithmetic unit. Circuit.
【請求項3】 累積演算器は、アドレス発生器の信号に
より外部データの加算を実行する機能を有することを特
徴とする請求項2記載のニューラルネットワーク回路。
3. The neural network circuit according to claim 2, wherein the accumulator has a function of executing addition of external data according to a signal from the address generator.
【請求項4】 テーブルメモリと外部データとを入力と
して何れか一方を選択する選択回路を有するとともに、
重みメモリは、前記選択回路が外部データを選択したと
き所定の重みを出力するものであり、累積演算器は、前
記選択回路により選択された外部データと前記重みメモ
リの所定の重みとを累積加算して外部に出力するもので
あることを特徴とする請求項2記載のニューラルネット
ワーク回路。
4. A selection circuit having a table memory and an external data as an input and selecting one of them,
The weight memory outputs a predetermined weight when the selection circuit selects external data, and the cumulative calculator cumulatively adds the external data selected by the selection circuit and the predetermined weight of the weight memory. 3. The neural network circuit according to claim 2, wherein the neural network circuit outputs it to the outside.
【請求項5】 請求項3記載のニューラルネットワーク
回路又は請求項4記載のニューラルネットワーク回路を
複数備え、相い隣る2つのニューラルネットワーク回路
は、その一方のニューラルネットワーク回路の累積演算
器の累積結果が外部データとして他方のニューラルネッ
トワーク回路に出力されることを特徴とするニューラル
ネットワーク回路。
5. A neural network circuit according to claim 3 or a plurality of neural network circuits according to claim 4, wherein two adjacent neural network circuits are cumulative results of a cumulative computing unit of one of the neural network circuits. Is output as external data to the other neural network circuit.
【請求項6】 累積演算器の累積結果が外部データとし
て入力される側のニューラルネットワーク回路の演算
は、前記累積演算器の累積結果が出力される側のニュー
ラルネットワーク回路の演算よりも1クロック遅れるこ
とを特徴とする請求項5記載のニューラルネットワーク
回路
6. The operation of the neural network circuit on the side where the cumulative result of the cumulative operator is input as external data is delayed by one clock from the operation of the neural network circuit on the side where the cumulative result of the cumulative operator is output. 6. The neural network circuit according to claim 5, wherein
JP32924693A 1993-12-27 1993-12-27 Neural network circuit Expired - Fee Related JP3172352B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32924693A JP3172352B2 (en) 1993-12-27 1993-12-27 Neural network circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32924693A JP3172352B2 (en) 1993-12-27 1993-12-27 Neural network circuit

Publications (2)

Publication Number Publication Date
JPH07191951A true JPH07191951A (en) 1995-07-28
JP3172352B2 JP3172352B2 (en) 2001-06-04

Family

ID=18219295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32924693A Expired - Fee Related JP3172352B2 (en) 1993-12-27 1993-12-27 Neural network circuit

Country Status (1)

Country Link
JP (1) JP3172352B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3660746A1 (en) 2018-11-27 2020-06-03 Fujitsu Limited Optimization device and control method of optimization device
JP2020517005A (en) * 2017-04-04 2020-06-11 ハイロ テクノロジーズ リミテッド Neural network processor incorporating multi-layer hierarchically aggregated computational and memory elements
CN111340200A (en) * 2016-01-20 2020-06-26 中科寒武纪科技股份有限公司 Apparatus and method for performing artificial neural network forward operations
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11544545B2 (en) 2017-04-04 2023-01-03 Hailo Technologies Ltd. Structured activation based sparsity in an artificial neural network
US11551028B2 (en) 2017-04-04 2023-01-10 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network
US11615297B2 (en) 2017-04-04 2023-03-28 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network compiler
US11715003B2 (en) 2018-02-06 2023-08-01 Fujitsu Limited Optimization system, optimization apparatus, and optimization system control method for solving optimization problems by a stochastic search
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111340200A (en) * 2016-01-20 2020-06-26 中科寒武纪科技股份有限公司 Apparatus and method for performing artificial neural network forward operations
CN111340200B (en) * 2016-01-20 2024-05-03 中科寒武纪科技股份有限公司 Apparatus and method for performing artificial neural network forward operations
US11461615B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. System and method of memory access of multi-dimensional data
US11461614B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. Data driven quantization optimization of weights and input data in an artificial neural network
JP2020517005A (en) * 2017-04-04 2020-06-11 ハイロ テクノロジーズ リミテッド Neural network processor incorporating multi-layer hierarchically aggregated computational and memory elements
US11238331B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method for augmenting an existing artificial neural network
US11675693B2 (en) 2017-04-04 2023-06-13 Hailo Technologies Ltd. Neural network processor incorporating inter-device connectivity
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11263512B2 (en) 2017-04-04 2022-03-01 Hailo Technologies Ltd. Neural network processor incorporating separate control and data fabric
US11354563B2 (en) 2017-04-04 2022-06-07 Hallo Technologies Ltd. Configurable and programmable sliding window based memory access in a neural network processor
US11615297B2 (en) 2017-04-04 2023-03-28 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network compiler
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11514291B2 (en) 2017-04-04 2022-11-29 Hailo Technologies Ltd. Neural network processing element incorporating compute and local memory elements
US11551028B2 (en) 2017-04-04 2023-01-10 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network
US11544545B2 (en) 2017-04-04 2023-01-03 Hailo Technologies Ltd. Structured activation based sparsity in an artificial neural network
US11715003B2 (en) 2018-02-06 2023-08-01 Fujitsu Limited Optimization system, optimization apparatus, and optimization system control method for solving optimization problems by a stochastic search
US11521049B2 (en) 2018-11-27 2022-12-06 Fujitsu Limited Optimization device and control method of optimization device
EP3660746A1 (en) 2018-11-27 2020-06-03 Fujitsu Limited Optimization device and control method of optimization device
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor

Also Published As

Publication number Publication date
JP3172352B2 (en) 2001-06-04

Similar Documents

Publication Publication Date Title
US4994982A (en) Neural network system and circuit for use therein
US5095457A (en) Digital multiplier employing CMOS transistors
US5617512A (en) Triangular scalable neural array processor
US6151594A (en) Artificial neuron and method of using same
JPH07191951A (en) Neural network circuit
JPH03131965A (en) Two-dimensional contraction array and method for neural network
US5781702A (en) Hybrid chip-set architecture for artificial neural network system
JPH04232562A (en) Computer apparatus
JP4579798B2 (en) Arithmetic unit
EP0525543B1 (en) Neural processor device
US5636327A (en) Neural network circuit
JPH06161981A (en) Neural network circuit
JP3172278B2 (en) Neural network circuit
JPH07271748A (en) Neural processor containing means for normalization of data
JP3082530B2 (en) Neural network circuit
JPH0440581A (en) Neuroprocessor
Kuroe et al. A learning method of nonlinear mappings by neural networks with considering their derivatives
JPH04237388A (en) Neuro processor
JPH01114899A (en) Dynamic neural network
JPH1055346A (en) Neural network circuit
Nakahira et al. A digital neuroprocessor using quantizer neurons
JP3523325B2 (en) Neural network, signal processing device using the same, autonomous system, autonomous robot, and mobile system
Chung et al. Novel pipelining and processor allocation strategy for monoid computations on unshuffle-exchange networks
Prange et al. Cascadable digital emulator IC for 16 biological neurons
JPH04237364A (en) Neuro computer

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010306

LAPS Cancellation because of no payment of annual fees