JPH04295976A - Neural network circuit - Google Patents

Neural network circuit

Info

Publication number
JPH04295976A
JPH04295976A JP3060384A JP6038491A JPH04295976A JP H04295976 A JPH04295976 A JP H04295976A JP 3060384 A JP3060384 A JP 3060384A JP 6038491 A JP6038491 A JP 6038491A JP H04295976 A JPH04295976 A JP H04295976A
Authority
JP
Japan
Prior art keywords
circuit
neuron
input
neural network
circuits
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3060384A
Other languages
Japanese (ja)
Inventor
Yoshihito Amamiya
好仁 雨宮
Kuniharu Uchimura
内村 国治
Osamu Saito
修 斉藤
Atsushi Iwata
穆 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP3060384A priority Critical patent/JPH04295976A/en
Priority to KR1019910011546A priority patent/KR950001601B1/en
Priority to US07/727,065 priority patent/US5166539A/en
Priority to DE69119172T priority patent/DE69119172T2/en
Priority to EP91111435A priority patent/EP0477486B1/en
Priority to US07/909,993 priority patent/US5353383A/en
Publication of JPH04295976A publication Critical patent/JPH04295976A/en
Priority to US08/266,691 priority patent/US5467429A/en
Pending legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)

Abstract

PURPOSE:To obtain a function equivalent to the one using a multiplication circuit and to reduce a circuit scale and power consumption by performing a logical operation based on a size decision result between an input signal and a load coefficient. CONSTITUTION:When an identification area of arbitrary shape is formed in each circuit, input signals are inputted from (n)(n : integer >=1) input terminals 1. A size decision means 2 is provided with proper first load coefficient and second load coefficient for respective input terminal 1. The size decision means 2 performs size decision on the (n) input signal and the first load coefficient and the second load coefficient in accordance with those input signals, and outputs prescribed decision results. A logical operation means 3 performs a prescribed logical operation based on (n) size decision results from the size decision means 2. The computed result of the logical operation means 3 is outputted from an output terminal 4. In such a way, the identification area can be formed without using the multiplication circuit using large quantity of hardware.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明はニューラルネットワーク
回路に係り、特に、LSI化する場合に適する小規模の
ニューロン回路で高い性能が得られるニューラルネット
ワーク回路に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network circuit, and more particularly to a neural network circuit that can achieve high performance with a small-scale neuron circuit suitable for LSI implementation.

【0002】ニューラルネットワーク回路は生物の神経
回路網をモデル化して、従来のノイマン形計算機では難
しかった文字認識や音声認識などのパターン認識処理、
最適化問題、ロボット制御等を実現するものである。従
来のノイマン形計算機ではプログラムに従って逐次処理
を行うため、計算時間が膨大だったのに対して、ニュー
ラルネットワーク回路はニューロン回路が演算を並列に
実行できるので、処理速度が極めて高速になる特徴があ
る。
[0002] Neural network circuits model biological neural networks to perform pattern recognition processes such as character recognition and voice recognition, which were difficult to perform with conventional Neumann type computers.
It realizes optimization problems, robot control, etc. Conventional Neumann-type computers perform sequential processing according to a program, which takes an enormous amount of calculation time, whereas neural network circuits have neuron circuits that can perform operations in parallel, resulting in extremely high processing speeds. .

【0003】また、ニューラルネットワーク回路の機能
は学習によってニューロン間の接続情報を変えることに
よって実現される。このため、処理手順がルール化しに
くい問題でも学習教材さえあれば機能を実現できる特徴
がある。学習を常に行いながら動作させると、環境の変
化によって時間とともに望ましい機能が変化してもそれ
に追従することができるなどの柔軟なシステムが構築で
きるものである。
[0003]Furthermore, the functions of neural network circuits are realized by changing connection information between neurons through learning. For this reason, it has the characteristic that even problems whose processing procedures are difficult to formulate into rules can be implemented as long as there are learning materials. If the system is operated while constantly learning, a flexible system can be constructed that can follow changes in desirable functions over time due to changes in the environment.

【0004】さらに、ニューラルネットワーク回路の構
成は同一のニューロン回路を多数接続して、ネットワー
クを構成するため、故障した回路があっても他の正常な
回路に簡単に置き換えて動作できるのでLSI化する場
合などに高い欠陥耐性を実現できるものである。
[0004] Furthermore, since neural network circuits are configured by connecting many identical neuron circuits to form a network, even if there is a faulty circuit, it can be easily replaced with another normal circuit and operated, so it is implemented as an LSI. This makes it possible to achieve high defect tolerance in many cases.

【0005】[0005]

【従来の技術】ニューラルネットワーク回路は神経細胞
に相当するニューロン回路を単位として、ニューロン回
路を多数接続して構成される。図6はニューロン回路の
記号を示す。1個のニューロン回路51は複数の入力端
子x1,x2,xnからの入力信号を受けて、それぞれ
の入力信号に対して荷重係数を有し、荷重係数に応じて
結合の強さを変えたり、入力との誤差を計算し、その結
果を全て加算して出力を決定し、出力端子yより出力す
る。このニューロン回路の接続によりニューラルネット
ワーク回路の構造が決まる。
2. Description of the Related Art A neural network circuit is constructed by connecting a large number of neuron circuits, each having a neuron circuit corresponding to a nerve cell as a unit. FIG. 6 shows the symbol of a neuron circuit. One neuron circuit 51 receives input signals from a plurality of input terminals x1, x2, xn, has a weighting coefficient for each input signal, and changes the strength of coupling according to the weighting coefficient. The error with the input is calculated, all the results are added together to determine the output, and the output is output from the output terminal y. The structure of the neural network circuit is determined by the connections of these neuron circuits.

【0006】図7は2層構造のニューラルネットワーク
回路を示す。この構造は最も簡単な構造である。同図に
おいて、入力端子x1,x2,xnの層を入力層または
、第1層、ニューロン回路の層を第2層71または、出
力層という。それぞれの入力端子の信号は全てのニュー
ロン回路に並列に入力されており、それぞれにニューロ
ン回路は並列に入力信号を処理できるようになっている
。入力信号が加えられると、特定のニューロン回路が反
応して認識などの処理が実現される。しかし、この2層
構造のニューラルネットワーク回路では処理能力はあま
り大きくないので、一般的には、3層構造のニューラル
ネットワーク回路を使用する場合が多い。
FIG. 7 shows a two-layer neural network circuit. This structure is the simplest structure. In the figure, the layer of input terminals x1, x2, and xn is called an input layer, or a first layer, and the layer of neuron circuits is called a second layer 71, or an output layer. Signals from each input terminal are input to all neuron circuits in parallel, so that each neuron circuit can process input signals in parallel. When an input signal is applied, specific neuron circuits respond to perform processing such as recognition. However, since the processing capacity of this two-layer neural network circuit is not very large, a three-layer neural network circuit is generally used.

【0007】図8は3層構造のニューラルネットワーク
回路を示す。3層構造のニューラルネットワーク回路の
場合には、図7の第2層71のニューロン回路の層を中
間層あるいは隠れ層、図8の第3層72のニューロン回
路の層を出力層と呼んでいる。この第3層72は第2層
71のニューロン回路の出力を入力として、第2層71
と全く同じ構造を持つ場合と異なる構造をもつ場合があ
る。先ず、第2層71と第3層72が全く同じ構造を持
つ場合には、それぞれの中間層71の出力信号は全ての
出力層72のニューロン回路に入力される。一方、第2
層71と第3層72が異なる構造を持つ場合には出力層
72のニューロン回路を単に論理和回路(この例ではO
R回路)とすることもできる。この場合、中間層71の
出力は1個の出力層72のニューロン回路に接続される
だけなので、回路規模は大幅に低減され、しかもパター
ン認識等に使用するのには十分な能力を維持している。
FIG. 8 shows a three-layer neural network circuit. In the case of a neural network circuit with a three-layer structure, the neuron circuit layer in the second layer 71 in FIG. 7 is called an intermediate layer or hidden layer, and the neuron circuit layer in the third layer 72 in FIG. 8 is called an output layer. . This third layer 72 uses the output of the neuron circuit of the second layer 71 as input, and the second layer 71
It may have exactly the same structure as , or it may have a different structure. First, when the second layer 71 and the third layer 72 have exactly the same structure, the output signal of each intermediate layer 71 is input to the neuron circuits of all the output layers 72. On the other hand, the second
If the layer 71 and the third layer 72 have different structures, the neuron circuit of the output layer 72 is simply an OR circuit (in this example, O
R circuit). In this case, since the output of the intermediate layer 71 is only connected to one neuron circuit of the output layer 72, the circuit scale is significantly reduced, and at the same time, sufficient performance is maintained for use in pattern recognition, etc. There is.

【0008】図9は従来のニューロン回路の楕円体識別
形の基本構成を示す。また、図10は従来のニューロン
回路の多面体識別形の基本構成を示す。さらに、図11
は閾値回路85、95の伝達特性を示す。図9の構成は
、複数の入力端子と演算回路81、2乗回路82、演算
回路83、加算回路84、閾値回路85と出力端子86
からなり、図10の構成は複数の入力端子と減算回路9
1と絶対値回路92、乗算回路93、加算回路94、閾
値回路95、出力端子96よりなる。
FIG. 9 shows the basic configuration of an ellipsoidal discrimination type of a conventional neuron circuit. Further, FIG. 10 shows the basic configuration of a polyhedral discrimination type of a conventional neuron circuit. Furthermore, Figure 11
represents the transfer characteristics of the threshold circuits 85 and 95. The configuration of FIG. 9 includes a plurality of input terminals, an arithmetic circuit 81, a square circuit 82, an arithmetic circuit 83, an adder circuit 84, a threshold circuit 85, and an output terminal 86.
The configuration shown in FIG. 10 includes a plurality of input terminals and a subtraction circuit 9.
1, an absolute value circuit 92, a multiplication circuit 93, an addition circuit 94, a threshold circuit 95, and an output terminal 96.

【0009】図9、図10の構成は共に、n個(nは1
以上の整数)の入力端子を有する。各入力端子毎に第1
荷重係数(wi)と第2荷重係数(whi)があり、ニ
ューロン回路全体では合計2n個の荷重係数がある。減
算回路81、91は入力信号x1と第1荷重係数(wi
)との差(xi−wi)を求め、その減算結果を2乗回
路82、あるいは絶対値回路92で正数に変換する。 次に、乗算回路83、93でこの正数に第2荷重係数(
whi)を乗じる。それぞれの入力と荷重係数に対する
演算結果を加算回路84、94によって累積し、その結
果を閾値回路85、95に与えて出力を決定し、出力端
子85、95より結果を出力する。
The configurations shown in FIGS. 9 and 10 both have n (n is 1)
(integer greater than or equal to) input terminals. 1st for each input terminal
There are a weighting factor (wi) and a second weighting factor (whi), and there are a total of 2n weighting factors in the entire neuron circuit. The subtraction circuits 81 and 91 input the input signal x1 and the first weighting coefficient (wi
), and the subtraction result is converted into a positive number by the square circuit 82 or the absolute value circuit 92. Next, multiplier circuits 83 and 93 add a second weight coefficient (
multiply by wh). Addition circuits 84 and 94 accumulate calculation results for the respective inputs and weight coefficients, apply the results to threshold circuits 85 and 95 to determine the output, and output the results from output terminals 85 and 95.

【0010】また、閾値回路85、95は図11に示す
ような伝達特性を有する。例えば、入力数が2個の場合
について説明する。図12は従来のニューロン回路の2
入力の場合の識別領域を示す。同図(A)は図9に示し
た楕円体識別形の識別領域であり、同図(B)は図10
に示した多面体識別形の識別領域である。荷重係数w1
とw2がつくるベクトルwは識別領域の中心を表す。閾
値回路85、95の特性が図10の(A),(B)のど
ちらであるかによって、識別領域が図12の閉領域(影
で示す部分)となるか、或いはその外側領域となるかが
決まる。図9の回路では、識別領域の形状が図11の(
A)に示すような楕円であり、閾値回路85の閾値をh
とすれば、その半径は入力x1の方向に
Further, the threshold circuits 85 and 95 have transfer characteristics as shown in FIG. For example, a case where the number of inputs is two will be explained. Figure 12 shows two conventional neuron circuits.
Indicates the identification area for input. The same figure (A) shows the identification area of the ellipsoidal identification shape shown in FIG.
This is the identification area of the polyhedral identification shape shown in . Load factor w1
The vector w created by and w2 represents the center of the identification area. Depending on whether the characteristics of the threshold circuits 85 and 95 are as shown in (A) or (B) in FIG. 10, the identification area will be the closed area (shaded area) in FIG. 12 or the outside area. is decided. In the circuit of FIG. 9, the shape of the identification area is (
It is an ellipse as shown in A), and the threshold of the threshold circuit 85 is h.
Then, its radius is in the direction of input x1

【数1】 また、入力x2の方向に[Math 1] Also, in the direction of input x2

【数2】 となる。入力数が4以上のとき、識別領域は超楕円体と
なるので、この方式は楕円体識別形と呼ばれる。
[Math. 2] When the number of inputs is four or more, the identification region becomes a superellipsoid, so this method is called an ellipsoid identification type.

【0011】一方、図10の回路は識別領域の形状が図
11の(B)に示すように菱形となり、その寸法は入力
x1方向にh/wh1、入力x2方向にh/wh2であ
る。入力数が4以上のとき、識別領域は超多面体となる
ので、この方式は超多面体識別形と呼ばれる。
On the other hand, in the circuit of FIG. 10, the shape of the identification area is a rhombus as shown in FIG. 11(B), and its dimensions are h/wh1 in the input x1 direction and h/wh2 in the input x2 direction. When the number of inputs is four or more, the identification area becomes a superpolyhedron, so this method is called a superpolyhedron identification form.

【0012】また、図13は従来のニューロン回路の第
2荷重係数が等しく且つ、2入力の場合の識別領域を示
す。同図(A)は球面識別形を示し、(B)は正多面体
識別形を示す。ニューロン回路のn個の入力に対して第
2荷重係数が同一値(wh)であるときは、図9の回路
の識別領域は球面識別形となり、図10の回路は正多面
体識別形となる。これにより、入力数が2個ならば、図
9の識別領域の形状は図13(A)のようになり、図1
0の識別領域の形状は(B)のようになる。
Furthermore, FIG. 13 shows a discrimination area in a case where the second weight coefficients of a conventional neuron circuit are equal and there are two inputs. 3A shows a spherical discriminant, and FIG. 2B shows a regular polyhedral discriminant. When the second weighting coefficients have the same value (wh) for n inputs of the neuron circuit, the discrimination area of the circuit in FIG. 9 becomes a spherical discrimination type, and the circuit in FIG. 10 becomes a regular polyhedral discrimination type. As a result, if the number of inputs is two, the shape of the identification area in FIG. 9 becomes as shown in FIG. 13(A), and
The shape of the identification area of 0 is as shown in (B).

【0013】[0013]

【発明が解決しようとする課題】しかしながら、図9、
図10のニューロン単位回路を多数組み合わせてニュー
ラルネットワーク回路を構成する場合、ニューロン回路
数が多いほど、複雑な識別領域が設定できる。任意の形
状の識別領域を表すには、図8のように出力層72で論
理和処理を行うことにより、識別領域を複数の超楕円体
や超多面体の集まりとして形成する。図14は複数の従
来のニューロン回路による2入力の場合の識別領域の形
成例を示す。同図中、実線で示す部分は目標識別領域a
であり、点線で示す部分はニューロン回路の識別領域b
である。同図(A),(B)はそれぞれ、複数のニュー
ロン回路を用いて与えられた形状の目標識別領域を近似
したときの例を示している。同図(A)は楕円体識別形
を示し、(B)は多面体識別形を示す。同図から任意の
一般形状の目標識別領域aにニューロン回路の識別領域
bを精度良く合致させるためには隙間をなくすように、
極めて多数のニューロン回路が必要であることがわかる
。このため、ニューラルネットワーク回路を構成するた
めの回路規模(ハードウェア量)が極めて大きくなり、
その結果装置が大型化したり、消費電力が極めて大きく
なるという問題が生ずる。従って、構成単位のニューロ
ン回路の回路規模をなるべく小さくすることが不可欠で
ある。しかし、従来のニューロン回路では図9、図10
から明らかなように、入力数に対応する多数の減算回路
81、91、2乗回路82、絶対値回路92、乗算回路
83、93、加算回路84、94が必要である。特にデ
ィジタル回路でニューラルネットワーク回路を実現する
場合には乗算回路83とそれを用いる2乗回路82の回
路規模が大きいのでハードウェア量が膨大になり、多数
のニューロン回路をLSI化できないという問題がある
。また、乗算回路は消費電力も大きい回路であるため、
多数の乗算回路が同時に動作することによって、全体の
消費電力は極めて大きくなるという問題もある。
[Problem to be solved by the invention] However, FIG.
When constructing a neural network circuit by combining a large number of neuron unit circuits shown in FIG. 10, the more neuron circuits there are, the more complex identification regions can be set. In order to express an arbitrary-shaped identification region, the identification region is formed as a collection of a plurality of hyperellipsoids or hyperpolyhedra by performing logical sum processing in the output layer 72 as shown in FIG. FIG. 14 shows an example of forming an identification area in the case of two inputs using a plurality of conventional neuron circuits. In the figure, the part indicated by the solid line is the target identification area a.
The part indicated by the dotted line is the identification area b of the neuron circuit.
It is. (A) and (B) of the figure each show an example of approximating a target identification region of a given shape using a plurality of neuron circuits. 3A shows an ellipsoid identification shape, and FIG. 2B shows a polyhedral identification shape. From the same figure, in order to accurately match the identification area b of the neuron circuit to the target identification area a of an arbitrary general shape, it is necessary to eliminate the gap.
It can be seen that an extremely large number of neuron circuits are required. For this reason, the circuit scale (amount of hardware) required to configure a neural network circuit becomes extremely large.
As a result, problems arise in that the device becomes larger and the power consumption becomes extremely large. Therefore, it is essential to reduce the circuit scale of the neuron circuit as a constituent unit as much as possible. However, in conventional neuron circuits,
As is clear from the figure, a large number of subtraction circuits 81, 91, squaring circuits 82, absolute value circuits 92, multiplication circuits 83, 93, and addition circuits 84, 94 are required corresponding to the number of inputs. In particular, when implementing a neural network circuit using a digital circuit, the circuit scale of the multiplier circuit 83 and the squaring circuit 82 that uses it is large, resulting in an enormous amount of hardware, and there is a problem that a large number of neuron circuits cannot be integrated into LSI. . In addition, since the multiplication circuit consumes a large amount of power,
There is also the problem that the overall power consumption becomes extremely large due to the simultaneous operation of a large number of multiplier circuits.

【0014】本発明は上記の点に鑑みなされたもので、
従来の乗算回路を使用していたニューロン回路で構成さ
れたニューラルネットワーク回路と同等の機能を持ち、
回路規模と消費電力の低減を図ったニューラルネットワ
ーク回路を提供することを目的とする。
The present invention has been made in view of the above points, and
It has the same functionality as a neural network circuit composed of neuron circuits that used conventional multiplication circuits,
The purpose is to provide a neural network circuit that reduces circuit size and power consumption.

【0015】[0015]

【課題を解決するための手段】図1は本発明の原理構成
図を示す。多数のニューロン回路の入出力端子間を接続
することにより構成されるニューラルネットワーク回路
に入力された複数の入力信号に対応して各ニューロン回
路が演算を実行し、ニューラルネットワーク回路内の全
てあるいは一部のニューロン回路の出力値をニューラル
ネットワーク回路の出力信号とし、各ニューロン回路の
荷重係数の大きさにより識別領域形状を可変にしてニュ
ーラルネットワーク回路の機能を制御するニューラルネ
ットワーク回路において、ニューロン回路の各々は任意
形状の識別領域を形成する場合に入力信号を入力するn
(nは1以上の整数)個の入力端子(1)と、それぞれ
の入力端子(1)に対応してそれぞれ独自の第1の荷重
係数と第2の荷重係数を持ち、n個の入力信号と入力信
号に対応する第1の荷重係数と第2の荷重係数の大小判
定を行い、所定の判定結果を出力する大小判定手段(2
)と、大小判定手段(2)からのn個の大小判定結果に
より所定の論理演算を行う論理演算手段(3)と、論理
演算手段(3)の演算結果を出力する出力端子(4)と
を有する。
[Means for Solving the Problems] FIG. 1 shows a diagram of the basic configuration of the present invention. Each neuron circuit executes calculations in response to multiple input signals input to the neural network circuit, which is constructed by connecting the input and output terminals of a large number of neuron circuits, and all or part of the neural network circuit is In a neural network circuit that uses the output value of the neuron circuit as the output signal of the neural network circuit, and controls the function of the neural network circuit by changing the shape of the discrimination region depending on the size of the weighting coefficient of each neuron circuit, each of the neuron circuits Inputting an input signal when forming an arbitrary-shaped identification area
(n is an integer greater than or equal to 1) input terminals (1) and each input terminal (1) has its own first weighting coefficient and second weighting coefficient, and n input signals. and a magnitude determination means (2) for determining the magnitude of the first load coefficient and the second load coefficient corresponding to the input signal and outputting a predetermined determination result.
), a logical operation means (3) that performs a predetermined logical operation based on the n size determination results from the size determination means (2), and an output terminal (4) that outputs the operation result of the logical operation means (3). has.

【0016】[0016]

【作用】ニューラルネットワーク回路を構成する複数の
ニューロン回路において、ニューロン回路の各々は入力
信号とそれに対応する荷重係数を有し、その荷重係数と
入力信号の大小関係を判定し、その結果により所定の論
理演算を行い、論理演算結果を出力するという構成のニ
ューロン回路を構成することにより、ハードウェア量が
膨大である乗算回路を用いなくとも識別領域を形成する
ことができる。ニューラルネットワーク回路を構成する
場合にはニューロン回路数が多いほど目標識別領域に近
似する。従って、乗算回路を用いないため、多くのニュ
ーロン回路を用いてもハードウェア量が大きくなること
がなく、また、ハードウェア量に比例して大きくなる消
費電力も削減される。
[Operation] In a plurality of neuron circuits constituting a neural network circuit, each neuron circuit has an input signal and a corresponding weighting coefficient, determines the magnitude relationship between the weighting coefficient and the input signal, and uses the result to determine a predetermined value. By configuring a neuron circuit that performs logical operations and outputs the results of logical operations, it is possible to form an identification area without using a multiplication circuit that requires an enormous amount of hardware. When configuring a neural network circuit, the larger the number of neuron circuits, the closer the target identification area will be. Therefore, since no multiplication circuit is used, the amount of hardware does not increase even if many neuron circuits are used, and power consumption, which increases in proportion to the amount of hardware, is also reduced.

【0017】[0017]

【実施例】図2は本発明の一実施例のニューロン回路の
基本構成を示す。同図のニューロン回路は複数の入力端
子と、減算回路11、絶対値回路12、大小判定回路1
3、論理積回路14及び出力端子15より構成される。 このニューロン回路はn個の入力(x1,x2,…xn
)に対してn個の第1荷重係数(w1,w2,…wn)
とn個の第2荷重係数(wh1,wh2,…whn)を
有する。先ず、減算回路11は入力信号(x1,x2,
…xn)と荷重係数の差を求め、その結果を絶対値回路
12に入力する。絶対値回路12は減算回路11の結果
を正数に変換し、大小判定回路13に入力する。 大小判定回路13は入力された正数と、第2荷重係数の
値の大小判定を行い、結果を出力端子15に出力する。
Embodiment FIG. 2 shows the basic configuration of a neuron circuit according to an embodiment of the present invention. The neuron circuit in the figure has multiple input terminals, a subtraction circuit 11, an absolute value circuit 12, and a magnitude determination circuit 1.
3. Consists of an AND circuit 14 and an output terminal 15. This neuron circuit has n inputs (x1, x2,...xn
) for n first loading coefficients (w1, w2,...wn)
and n second load coefficients (wh1, wh2,...whn). First, the subtraction circuit 11 receives input signals (x1, x2,
...xn) and the weighting coefficient, and input the result to the absolute value circuit 12. The absolute value circuit 12 converts the result of the subtraction circuit 11 into a positive number and inputs it to the magnitude determination circuit 13. The magnitude determination circuit 13 determines the magnitude of the input positive number and the value of the second weighting coefficient, and outputs the result to the output terminal 15.

【0018】以上のことを例えば、入力信号x1につい
て説明する。入力をx1とすると、先ず、x1を減算回
路11に入力する。減算回路11はx1−w1の減算を
行い、絶対値回路12に出力する。絶対値回路12は入
力された減算結果を|x1−w1|とし、大小判定回路
13に出力する。大小判定回路13は絶対値回路12の
出力を   |x1−w1|≦wh1のとき1   |x1−w1|>wh1のとき0        
                        …
(1) とし、最後に論理積回路14において全ての大
小判定回路13の出力の論理積ををとり、ニューロン回
路の出力とする。
The above will be explained with respect to the input signal x1, for example. Assuming that the input is x1, first, x1 is input to the subtraction circuit 11. The subtraction circuit 11 subtracts x1-w1 and outputs the result to the absolute value circuit 12. The absolute value circuit 12 sets the input subtraction result to |x1-w1|, and outputs it to the magnitude determination circuit 13. The magnitude judgment circuit 13 outputs the output of the absolute value circuit 12: 1 when |x1-w1|≦wh1; 0 when |x1-w1|>wh1

(1) Finally, the outputs of all the magnitude judgment circuits 13 are ANDed in the AND circuit 14, and the result is taken as the output of the neuron circuit.

【0019】また、大小判定回路13の出力を  |x
1−w1|≦wh1のとき0   |x1−w1|>wh1のとき1        
                        …
(2) とした構成も可能である。また、大小判定回路
13の出力の論理積をとる代わりに論理和NOR,NA
ND等の論理をとってもよい。これは、ニューロン回路
にどのような識別領域範囲を持たせたいかに関係する。
[0019] Also, the output of the magnitude determination circuit 13 is expressed as |x
1 - w1 | 0 when ≦ wh1 | x1 - w1 | 1 when > wh1

(2) The following configuration is also possible. Also, instead of taking the logical product of the outputs of the magnitude determination circuit 13, the logical sum NOR,NA
You may use logic such as ND. This is related to what kind of identification region range the neuron circuit should have.

【0020】図3は本発明の一実施例のニューロン回路
の識別領域を示す。同図(A)は一般のニューロン回路
の入力と第2荷重係数の値が異なる場合を示す。この場
合イニューロン回路が形成する識別領域の形状は入力数
が2個の場合(w1,w2)には(A)に示すように長
方形となる。また、入力数が3個の場合(w1,w2,
w3)には直方体となり、入力数が4個以上では超直方
体となる。大小判定回路13の出力の論理積をとって、
ニューロン回路の出力とする場合(図3)にはその識別
領域範囲は超直方体に囲まれた閉領域となる。
FIG. 3 shows an identification area of a neuron circuit according to an embodiment of the present invention. FIG. 5A shows a case where the input of a general neuron circuit and the value of the second weighting coefficient are different. In this case, when the number of inputs is two (w1, w2), the shape of the identification area formed by the inneuron circuit becomes a rectangle as shown in (A). Also, when the number of inputs is 3 (w1, w2,
w3) becomes a rectangular parallelepiped, and when the number of inputs is 4 or more, it becomes a hypercuboid. Taking the AND of the outputs of the magnitude determination circuit 13,
When the output is the output of a neuron circuit (FIG. 3), the identification area range is a closed area surrounded by a hypercuboid.

【0021】また、大小判定回路13の出力が論理積回
路14でNAND論理をとるなら、識別領域範囲は超直
方体に囲まれた閉領域の外部となる。
Further, if the output of the magnitude determination circuit 13 is subjected to NAND logic in the AND circuit 14, the identification area range is outside the closed area surrounded by the hypercuboid.

【0022】もし、大小判定回路13の出力を上記に示
す(2) のように、(1) と逆の出力とし、且つ論
理積回路14の論理を大小判定回路13の出力のNOR
論理をとるなら、識別領域範囲は超直方体に囲まれた閉
領域になる。従って、この例は直方体識別形と呼ぶこと
ができる。
If the output of the magnitude determination circuit 13 is the opposite of (1) as shown in (2) above, and the logic of the AND circuit 14 is NOR of the output of the magnitude determination circuit 13,
If logic is followed, the identification area range becomes a closed area surrounded by a hypercuboid. Therefore, this example can be called a rectangular parallelepiped discrimination form.

【0023】また、ニューロン回路の全入力に対して第
2荷重係数が同一値のとき、立方体識別形と呼ぶべきも
のになり、入力数が2個(w1,w2)であれば、図3
(B)に示すような正方形の識別領域形状となる。入力
数が3個(w1,w2,w3)であれば、立方体となり
、入力数が4個以上では超立方体となる。この立方体識
別形は直方体識別形に較べて回路規模が小さくなるとい
う利点がある。
Further, when the second weighting coefficient has the same value for all inputs of the neuron circuit, it becomes what can be called a cube discriminative type, and if the number of inputs is two (w1, w2), the result shown in FIG.
The identification area has a square shape as shown in (B). If the number of inputs is three (w1, w2, w3), it becomes a cube, and if the number of inputs is four or more, it becomes a hypercube. This cubic discrimination type has the advantage that the circuit scale is smaller than that of the rectangular parallelepiped discrimination type.

【0024】本発明のニューロン回路を従来のニューロ
ン回路と比較すると、図9に示す乗算回路83が大小判
定回路13に置き変わり、2乗回路82は無く、加算回
路84とそれに続く閾値回路95も設定されていない。
Comparing the neuron circuit of the present invention with the conventional neuron circuit, the multiplier circuit 83 shown in FIG. Not set.

【0025】また、図4は本発明の他の実施例のニュー
ロン回路の基本構成を示す。同図のニューロン回路は第
1の大小判定回路31、第2の大小判定回路32、論理
積回路33及び、出力端子34により構成される。第1
の大小判定回路31の出力をxi≦w1+wh1のとき
1、xi>w1+wh1のとき0(但し、i=1,2,
3…n)とし、第2の大小判定回路32の出力をx1≧
wi−whiのとき1、xi<wi−whiのとき0(
但し、i=1,2,3,…n)とし、その判定した値を
論理積回路33に入力する。論理積回路33は第1の大
小判定回路31、第2の大小判定回路32各々のの判定
結果により論理積をとり、出力する。
FIG. 4 shows the basic configuration of a neuron circuit according to another embodiment of the present invention. The neuron circuit in the figure is composed of a first magnitude determination circuit 31, a second magnitude determination circuit 32, an AND circuit 33, and an output terminal 34. 1st
The output of the magnitude determination circuit 31 is 1 when xi≦w1+wh1, and 0 when xi>w1+wh1 (however, i=1, 2,
3...n), and the output of the second magnitude determination circuit 32 is x1≧
1 when wi-whi, 0 when xi<wi-whi (
However, i=1, 2, 3, . . . n), and the determined value is input to the AND circuit 33. The AND circuit 33 performs an AND operation based on the determination results of the first magnitude determination circuit 31 and the second magnitude determination circuit 32, and outputs the result.

【0026】以上のことをを入力信号x1について説明
する。入力信号x1が入力されると、第1の大小判定回
路31は第1荷重係数(w1)と第2荷重係数(wh1
)を加算した値(w1+wh1)と入力信号x1を比較
する。ここで、加算値がx1≦w1+wh1であったと
すると、第1の大小判定回路31の出力は1となる。 次に、第2の大小判定回路32は第1荷重係数(w1)
と第2荷重係数(wh1)の差(w1−wh1)と入力
信号x1を比較する。ここで、その差がx1≧w1−w
h1であったとすると、第2の大小判定回路32の出力
は1となる。これら各入力に対する第1の大小判定回路
31、第2の大小判定回路32の出力を論理積回路33
で求め、出力端子34よりニューロン回路の出力として
出力する。この実施例での方法は前述の実施例と同様の
動作となることがわかる。
The above will be explained regarding the input signal x1. When the input signal x1 is input, the first magnitude determination circuit 31 determines the first weight coefficient (w1) and the second weight coefficient (wh1).
) is compared with the input signal x1 (w1+wh1). Here, if the added value is x1≦w1+wh1, the output of the first magnitude determination circuit 31 is 1. Next, the second magnitude determination circuit 32 calculates the first weight coefficient (w1).
The difference (w1-wh1) between the second load coefficient (wh1) and the input signal x1 are compared. Here, the difference is x1≧w1−w
If it is h1, the output of the second magnitude determination circuit 32 will be 1. The outputs of the first magnitude determination circuit 31 and the second magnitude determination circuit 32 for each of these inputs are outputted to an AND circuit 33.
and outputs it from the output terminal 34 as the output of the neuron circuit. It can be seen that the method in this embodiment operates similarly to the previously described embodiment.

【0027】本発明のニューロン回路と従来のニューロ
ン回路の識別機能を比較した場合、識別領域の形状が異
なっている点を除くと全く同じ機能を持っている。図5
は本発明の複数のニューロン回路による2入力の場合の
識別領域の形成例を示す。実線は目標識別領域aを示し
、点線は各ニューロン回路の識別領域bを示す。本発明
は任意の形状の識別領域に対応するため図5のように、
任意の形状の識別領域に対応するために複数のニューロ
ン回路を使うことは従来と同じである。
When comparing the identification functions of the neuron circuit of the present invention and the conventional neuron circuit, it is found that they have exactly the same functions except for the difference in the shape of the identification area. Figure 5
1 shows an example of forming an identification area in the case of two inputs using a plurality of neuron circuits of the present invention. The solid line indicates the target identification area a, and the dotted line indicates the identification area b of each neuron circuit. As shown in FIG. 5, the present invention is compatible with identification areas of arbitrary shapes.
The use of multiple neuron circuits to correspond to an arbitrary-shaped identification region is the same as in the conventional method.

【0028】従来のニューロン回路でも、本発明のニュ
ーロン回路でも各ニューロンの識別領域を互いに接する
ように並べるのでは隙間ができるため、相互に重なりを
作る必要がある。重なった部分については両者のニュー
ロン回路の識別領域の形状の差はあまりなくなる。つま
り、任意の形状の凸凹形状が異なるに過ぎないので2種
類のニューロン回路の識別領域の形状の違いによる性能
の差は殆どない。また、本発明のニューロン回路による
ニューラルネットワーク回路は従来のニューロン回路と
同等の機能を持っている。
In both the conventional neuron circuit and the neuron circuit of the present invention, if the identification areas of each neuron are arranged so as to be in contact with each other, gaps will be created, so it is necessary to create mutual overlap. In the overlapping portion, there is little difference in the shapes of the identification regions of both neuron circuits. In other words, there is almost no difference in performance due to the difference in the shape of the identification area of the two types of neuron circuits, since only the irregular shapes of the arbitrary shapes are different. Further, the neural network circuit using the neuron circuit of the present invention has the same function as the conventional neuron circuit.

【0029】[0029]

【発明の効果】上記のように本発明によれば、ニューロ
ン回路を構成するためのハードウェア量が少ないことに
ある。次に数値例をもってこれを説明する。
As described above, according to the present invention, the amount of hardware for constructing the neuron circuit is small. Next, this will be explained using a numerical example.

【0030】ここで、ディジタル信号のビット数をNと
すると、各回路を構成するのに、必要なトランジスタ数
は次式で概算できることが知られている。先ず、減算回
路のトランジスタ数Naは次式で概算できる。2入力加
算回路、大小判定回路、閾値回路も同等とみなしてよい
。 減算回路    Na=28N 乗算回路のトランジスタ数Nmは次式で概算できる。2
乗回路のトランジスタ数Nsはその2倍である。 乗算回路  Nm=26N2  2乗回路  Ns=2(26N2 ) 絶対値回路のトランジスタ数Nzは次式で概算できる。 絶対値回路  Nz=16N必要なトランジスタ数を8
ビット、16ビットの場合を例として示すと、次のよう
になる。
Here, it is known that if the number of bits of a digital signal is N, the number of transistors required to configure each circuit can be approximately estimated by the following equation. First, the number of transistors Na in the subtraction circuit can be roughly estimated using the following equation. A two-input addition circuit, a magnitude determination circuit, and a threshold circuit may also be considered equivalent. Subtraction circuit Na=28N The number of transistors Nm in the multiplication circuit can be roughly estimated by the following formula. 2
The number of transistors Ns in the multiplier circuit is twice that number. Multiplier circuit Nm=26N2 Square circuit Ns=2 (26N2) The number of transistors Nz in the absolute value circuit can be approximately estimated by the following equation. Absolute value circuit Nz=16N The number of transistors required is 8
As an example, the case of 16 bits is as follows.

【0031】N=8  (8ビット)の場合、    
      Na=224,Nm=1664,Ns=3
328,Nz=128N=16  (16ビット)の場
合           Na=448,Nm=6656,
Ns=13312,Nz=256ビット数が大きくなる
に伴い、乗算回路が加算回路や絶対値回路に較べて、極
めて大きな回路規模になることが明らかである。ここで
、ディジタル信号を8ビットで入力数を100として、
従来のニューロン回路と、本発明のニューロン回路を構
成するのに必要なトランジスタ数を概算し、比較する。 従来のニューロン回路(図9の楕円体識別形)    
      544000 従来のニューロン回路(図10の多面体識別形)   
     224000 本発明のニューロン回路(図2の直方体識別形)   
       57600 このように、乗算回路を使用しない本発明のニューロン
回路では、従来のニューロン回路より、かなり少ないト
ランジスタの数で構成できることにより回路規模を大幅
に低減できる。さらに、消費電力もほぼ回路規模に比例
して増加するので、本発明によれば、大幅な回路規模低
減により、消費電力を削減できる。
[0031] In the case of N=8 (8 bits),
Na=224, Nm=1664, Ns=3
328, Nz=128 When N=16 (16 bits) Na=448, Nm=6656,
Ns=13312, Nz=256 It is clear that as the number of bits increases, the circuit scale of the multiplication circuit becomes extremely large compared to the addition circuit and the absolute value circuit. Here, assuming that the digital signal is 8 bits and the number of inputs is 100,
The number of transistors required to configure the conventional neuron circuit and the neuron circuit of the present invention will be estimated and compared. Conventional neuron circuit (ellipsoid discrimination form in Figure 9)
544000 Conventional neuron circuit (polyhedral discrimination form in Figure 10)
224000 Neuron circuit of the present invention (rectangular parallelepiped type in Figure 2)
57600 As described above, the neuron circuit of the present invention, which does not use a multiplication circuit, can be configured with a considerably smaller number of transistors than the conventional neuron circuit, and thus can significantly reduce the circuit scale. Furthermore, since power consumption also increases approximately in proportion to the circuit scale, according to the present invention, power consumption can be reduced by significantly reducing the circuit scale.

【0032】また、ニューラルネットワーク回路をハー
ド化するとき、必要なニューロン回路数は応用によって
異なるが、一般的にはニューロン回路数が大きいほど処
理能力は向上する。そのため、LSI化によって多数の
ニューロン回路数が大きいほど処理能力は向上する。こ
れにより、LSI化により多数のニューロン回路を搭載
したニューラルネットワーク回路の実現が期待されてい
る。しかし、チップサイズの制限により、1チップに搭
載できる回路規模は限られている。さらに、放熱や実装
の問題から1ップで消費できる電力も制限がある。従っ
て、LSI化されたニューラルネットワーク回路が実用
的な性能を発揮するたに、ニューロン回路を用いること
により、ニューラルネットワーク回路が実用的なレベル
まで性能が向上する効果は極めて大きい。
Furthermore, when making a neural network circuit hardware, the number of necessary neuron circuits varies depending on the application, but in general, the larger the number of neuron circuits, the better the processing power. Therefore, the processing power improves as the number of neuron circuits increases due to LSI integration. As a result, it is expected that a neural network circuit equipped with a large number of neuron circuits will be realized through LSI integration. However, due to chip size limitations, the circuit scale that can be mounted on one chip is limited. Furthermore, there is a limit to the power that can be consumed in one chip due to heat dissipation and mounting issues. Therefore, while LSI neural network circuits exhibit practical performance, the use of neuron circuits has an extremely large effect in improving the performance of neural network circuits to a practical level.

【図面の簡単な説明】[Brief explanation of drawings]

【図1】本発明の原理構成図である。FIG. 1 is a diagram showing the principle configuration of the present invention.

【図2】本発明の一実施例のニューロン回路の基本構成
図である。
FIG. 2 is a basic configuration diagram of a neuron circuit according to an embodiment of the present invention.

【図3】本発明の一実施例のニューロン回路の識別領域
を示す図である。
FIG. 3 is a diagram showing identification areas of a neuron circuit according to an embodiment of the present invention.

【図4】本発明の他の実施例のニューロン回路の基本構
成図である。
FIG. 4 is a basic configuration diagram of a neuron circuit according to another embodiment of the present invention.

【図5】本発明の複数のニューロン回路による2入力の
場合の識別領域の形成例を示す図である。
FIG. 5 is a diagram illustrating an example of forming an identification area in the case of two inputs using a plurality of neuron circuits of the present invention.

【図6】ニューロン回路の記号を示す図である。FIG. 6 is a diagram showing symbols of neuron circuits.

【図7】2層構造のニューラルネットワーク回路を示す
図である。
FIG. 7 is a diagram showing a neural network circuit with a two-layer structure.

【図8】3層構造のニューラルネットワーク回路を示す
図である。
FIG. 8 is a diagram showing a neural network circuit with a three-layer structure.

【図9】従来のニューロン回路の楕円体識別形の基本構
成を示す図である。
FIG. 9 is a diagram showing the basic configuration of an ellipsoid discrimination type of a conventional neuron circuit.

【図10】従来のニューロン回路の多面体識別形の基本
構成図である。
FIG. 10 is a basic configuration diagram of a polyhedral discrimination type of a conventional neuron circuit.

【図11】閾値回路の伝達特性を示す図である。FIG. 11 is a diagram showing transfer characteristics of a threshold circuit.

【図12】従来のニューロン回路の2入力の場合の識別
領域を示す図である。
FIG. 12 is a diagram showing identification areas in the case of two inputs of a conventional neuron circuit.

【図13】従来のニューロン回路の第2荷重係数が等し
く且つ2入力の場合の識別領域を示す図である。
FIG. 13 is a diagram illustrating identification regions in a conventional neuron circuit in which the second weighting coefficients are equal and there are two inputs.

【図14】従来の複数のニューロン回路による2入力の
場合の識別領域の形成例を示す図である。
FIG. 14 is a diagram showing an example of forming an identification area in the case of two inputs using a plurality of conventional neuron circuits.

【符号の説明】[Explanation of symbols]

1  入力端子 2  大小判定手段 3  論理演算手段 4  出力端子 11  減算回路 12  絶対値回路 13  大小判定回路 14  論理積回路 15  出力端子 31  第1の大小判定回路 32  第2の大小判定回路 33  論理積回路 1 Input terminal 2 Size determination means 3 Logical operation means 4 Output terminal 11 Subtraction circuit 12 Absolute value circuit 13 Size determination circuit 14. AND circuit 15 Output terminal 31 First size determination circuit 32 Second size determination circuit 33. AND circuit

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】  多数のニューロン回路の入出力端子間
を接続することにより構成されるニューラルネットワー
ク回路に入力された複数の入力信号に対応して各ニュー
ロン回路が演算を実行し、ニューラルネットワーク回路
内の全てあるいは一部のニューロン回路の出力値をニュ
ーラルネットワーク回路の出力信号とし、各ニューロン
回路の荷重係数の大きさにより識別領域形状を可変にし
てニューラルネットワーク回路の機能を制御するニュー
ラルネットワーク回路おいて、前記ニューロン回路の各
々は任意形状の識別領域を形成する場合に入力信号を入
力するn(nは1以上の整数)個の入力端子と、それぞ
れの前記入力端子に対応してそれぞれ独自の第1の荷重
係数と第2の荷重係数を持ち、n個の前記入力信号と前
記入力信号に対応する該第1の荷重係数と該第2の荷重
係数の大小判定を行い、所定の判定結果を出力する大小
判定手段と、前記大小判定手段からのn個の大小判定結
果により所定の論理演算を行う論理演算手段と、前記論
理演算手段の演算結果を出力する出力端子とを有するこ
とを特徴とするニューラルネットワーク回路。
Claim 1: Each neuron circuit executes calculations in response to a plurality of input signals input to a neural network circuit configured by connecting input and output terminals of a large number of neuron circuits, and In a neural network circuit, the output values of all or some of the neuron circuits are used as output signals of the neural network circuit, and the shape of the identification region is varied depending on the size of the weighting coefficient of each neuron circuit to control the function of the neural network circuit. , each of the neuron circuits has n (n is an integer of 1 or more) input terminals into which input signals are input when forming an arbitrary-shaped identification region, and a unique terminal corresponding to each of the input terminals. 1 and a second load coefficient, and determines the magnitude of the first load coefficient and the second load coefficient corresponding to the n input signals and the input signal, and obtains a predetermined determination result. It is characterized by having a magnitude determination means for outputting an output, a logic operation means for performing a predetermined logical operation based on the n magnitude determination results from the magnitude determination means, and an output terminal for outputting the operation result of the logic operation means. neural network circuit.
JP3060384A 1990-07-09 1991-03-25 Neural network circuit Pending JPH04295976A (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP3060384A JPH04295976A (en) 1991-03-25 1991-03-25 Neural network circuit
KR1019910011546A KR950001601B1 (en) 1990-07-09 1991-07-08 Neural network circuit
US07/727,065 US5166539A (en) 1990-07-09 1991-07-08 Neural network circuit
DE69119172T DE69119172T2 (en) 1990-07-09 1991-07-09 Neural network circuit
EP91111435A EP0477486B1 (en) 1990-07-09 1991-07-09 Neural network circuit
US07/909,993 US5353383A (en) 1990-07-09 1992-07-07 Neural network circuit
US08/266,691 US5467429A (en) 1990-07-09 1994-06-28 Neural network circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3060384A JPH04295976A (en) 1991-03-25 1991-03-25 Neural network circuit

Publications (1)

Publication Number Publication Date
JPH04295976A true JPH04295976A (en) 1992-10-20

Family

ID=13140603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3060384A Pending JPH04295976A (en) 1990-07-09 1991-03-25 Neural network circuit

Country Status (1)

Country Link
JP (1) JPH04295976A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018112961A (en) * 2017-01-13 2018-07-19 Necプラットフォームズ株式会社 Pattern recognition apparatus, method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018112961A (en) * 2017-01-13 2018-07-19 Necプラットフォームズ株式会社 Pattern recognition apparatus, method and program

Similar Documents

Publication Publication Date Title
CN107256424B (en) Three-value weight convolution network processing system and method
US5467429A (en) Neural network circuit
CN110705703B (en) Sparse neural network processor based on systolic array
Kean et al. Configurable hardware: two case studies of micro-grain computation
JPH05242065A (en) Information processor and its system
US5742741A (en) Reconfigurable neural network
JPH04295976A (en) Neural network circuit
US5751913A (en) Reconfigurable neural network and difference-square neuron
Herrmann et al. A dynamic associative processor for machine vision applications
JPH04182769A (en) Digital neuro processor
CN115167815A (en) Multiplier-adder circuit, chip and electronic equipment
Paasio et al. An analog array processor hardware realization with multiple new features
KR19980042174A (en) Learning method of binary system
Evmorfopoulos et al. An Adaptive Digital Fuzzy Architecture for Application‐Specific Integrated Circuits
JP2542107B2 (en) Neural network circuit
CN112801276A (en) Data processing method, processor and electronic equipment
JPH0467258A (en) Neural network circuit
McGinnity et al. Novel architecture and synapse design for hardware implementations of neural networks
Roche et al. Signalling techniques and their effect on neural network implementation sizes
JPH04112354A (en) Neural network circuit
EP0420254A2 (en) Data processing system
US5958001A (en) Output-processing circuit for a neural network and method of using same
JPH04112362A (en) Accumulation circuit
Biederman et al. Design of a neural network-based digital multiplier
JPH0243665A (en) Neural network device