JPH07262292A - Constitution of neuron and neural network - Google Patents

Constitution of neuron and neural network

Info

Publication number
JPH07262292A
JPH07262292A JP6052305A JP5230594A JPH07262292A JP H07262292 A JPH07262292 A JP H07262292A JP 6052305 A JP6052305 A JP 6052305A JP 5230594 A JP5230594 A JP 5230594A JP H07262292 A JPH07262292 A JP H07262292A
Authority
JP
Japan
Prior art keywords
circuit
neuron
mos
cmos
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6052305A
Other languages
Japanese (ja)
Inventor
Mamoru Tanaka
衞 田中
Konka Fuamu
コンカ フアム
Toshiro Watanabe
寿郎 渡辺
Katsufusa Shono
克房 庄野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP6052305A priority Critical patent/JPH07262292A/en
Publication of JPH07262292A publication Critical patent/JPH07262292A/en
Pending legal-status Critical Current

Links

Landscapes

  • Metal-Oxide And Bipolar Metal-Oxide Semiconductor Integrated Circuits (AREA)

Abstract

PURPOSE:To give integration an advantage and to prevent local minimum in an associative operation from generating by connecting the outputs of plural CMOS inverter circuits in common and generating the result of a product -sum operation weighted for the input of each circuit at a common node. CONSTITUTION:The CMOS circuits composed of the series connection of P-MOS transistors and C-MOS transistors are connected in cascade, each of the outputs of the P-MOS and C-MOS are connected in common, it is defined as common node and it is connected with the input of one of comparators. The other input of the comparator is the analog input of a threshold. By using a fact that the voltage Vout of the common node of the P-MOS and an N-MOS is determined so that the current flowing in the P-MOS and the current flowing in the N-MOS may be equal, a product -sum operation is formed. An equivalent conductance is proportional to the ratio of W/L of the width and length of a channel, drain current can be changed by the process control of the mask and learning becomes possible.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ニューロンとニューラ
ルネットワークの構成に関し、特に、CMOSニューロ
ン回路とセルラーニューラルネットワークによる連想モ
デルの構成に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the construction of neurons and neural networks, and more particularly to the construction of associative models using CMOS neuron circuits and cellular neural networks.

【0002】[0002]

【従来の技術】神経伝達物質の伝達機能をすべて考慮に
入れて、電気的なニューロン回路を作ることは非常にむ
つかしい。そこで、入力信号の重み付けされた総和があ
るしきい値を越えると電気的な2値信号を発生させると
いうニューロン的機能を集積回路として実現することを
考える。一般に、ニューロンの出力信号は、入力の非線
型関数で表現される。
2. Description of the Related Art It is extremely difficult to make an electrical neuron circuit in consideration of all the transmission functions of neurotransmitters. Therefore, it is considered to realize, as an integrated circuit, a neuron-like function of generating an electrical binary signal when the weighted sum of input signals exceeds a certain threshold value. Generally, the output signal of the neuron is represented by a nonlinear function of the input.

【0003】yi=f(wij xj+T) ここで、yiはi番目の出力、xjは、j番目の入力信
号、wij は、シナプスの重み, Tはしきい値となる定
数である。
Yi = f (wij xj + T) where yi is the i-th output, xj is the j-th input signal, wij is the synapse weight, and T is a threshold value.

【0004】非線形関数は、連続時間系では、電気的な
2値信号に飽和する単調増加な微分可能な連続関数が使
用される。離散時間系では、不連続にジャンプする階段
関数が使用される。
As the non-linear function, in a continuous time system, a monotonically increasing differentiable continuous function that saturates an electric binary signal is used. In discrete time systems, a step function that jumps discontinuously is used.

【0005】集積回路の中で、ニューロンモデルの電子
回路をたくさん接続してニューラルネットを形成すれ
ば、脳のように働くニューロコンピュータが構築される
可能性がある。そのためには、まず、たくさんのニュー
ロンを一つの集積回路に形成しなくてはならない。
If a large number of electronic circuits of a neuron model are connected in an integrated circuit to form a neural net, there is a possibility that a neurocomputer that functions like a brain will be constructed. To do so, first, many neurons have to be formed in one integrated circuit.

【0006】MOSトランジスタは、ソースとドレイン
間にチャネルという経路に負の電荷を持った電子が流れ
るN−MOSトランジスタと正の電荷を持った正孔が流
れるP−MOSトランジスタとがある。これらのMOS
トランジスタ、特に、P−MOSトランジスタとN−M
OSトランジスタの直列接続からなるCMOSインバー
タ回路は、今日の小型なデジタルコンピュータを作り上
げた最大の技術である。そこで、この技術を一歩前進さ
せ、アナログとデジタルを混在させたCMOS技術を使
って、一つのニューロンを形成することが重要となる。
The MOS transistors include an N-MOS transistor in which electrons having a negative charge flow and a P-MOS transistor in which holes having a positive charge flow in a channel called a channel between a source and a drain. These MOS
Transistors, especially P-MOS transistors and NM
The CMOS inverter circuit, which consists of OS transistors connected in series, is the largest technology that has made today's small digital computers. Therefore, it is important to take this technology one step further and form one neuron by using CMOS technology in which analog and digital are mixed.

【0007】従来のニューロンは、差動増幅器やカレン
トミラーなどを組み合わせ構成され、ニューロン単体が
複雑であり、しかも、バックプロパゲーションなどのア
ルゴリズムで学習し、連想動作等を行なう階層型ニュー
ラルネットは完全結合であり、フィードバックのあるニ
ューラルネットも完全結合であった。
A conventional neuron is constructed by combining a differential amplifier, a current mirror, etc., and a single neuron is complicated. Moreover, a hierarchical neural network that performs learning by an algorithm such as backpropagation and performs associative operation is perfect. The neural network with feedback was also fully connected.

【0008】[0008]

【発明が解決しようとする課題】本発明は、CMOSイ
ンバータ回路のみの組み合わせで簡単に構成できるニュ
ーロンと、連想動作等を行なうネットも疎結合であるた
め、集積化に極めて有利となり、しかも、局所記憶方式
であるから連想動作においてローカルミニマムが発生し
ないようなニューラルネットを提供する。
The present invention is extremely advantageous for integration because the neuron that can be simply constructed by combining only CMOS inverter circuits and the net that performs associative operation are also loosely coupled, and it is extremely advantageous for integration. A neural network that does not generate a local minimum in associative motion because it is a memory system.

【0009】[0009]

【課題を解決するための手段】本発明は、P−MOSト
ランジスタとN−MOSトランジスタの直列接続からな
る複数のCMOSインバータ回路のそれぞれの出力を共
通に接続し、それを共通節点として、それぞれのCMO
Sインバータ回路の入力に対して重み付けられた積和演
算の結果を前記共通節点に発生する手段を有する。ま
た、重みは、チャネルの幅と長さの比W/Lを変えるこ
とにより、学習することを特徴とする。
According to the present invention, the outputs of a plurality of CMOS inverter circuits each consisting of a P-MOS transistor and an N-MOS transistor connected in series are connected in common, and the outputs are used as a common node. CMO
It has means for generating a result of the weighted sum of products operation with respect to the input of the S inverter circuit at the common node. The weight is learned by changing the ratio W / L of the width and length of the channel.

【0010】そして、そのCMOS回路の積和演算部分
の出力に比較器や非線形関数fの特性に対応するCMO
S回路を結合してニューロンを形成している。また、3
つのCMOSインバータ結合と、その最終段に結合され
るサンプリングホールド回路と、前記サンプリングホー
ルド回路の出力を前記3のCMOSインバータ結合の入
力に帰環させてインバータ・リングを構成して、分岐現
象を発生するようにしている。また、素子が近傍の素子
と結合されているセルラーニューラルネットワークから
出力される協調情報のうち最も確からしい情報を選択す
るニューロンのみを競合ネットワークの抑制動作を使っ
て発火させることを特徴とするニューラルネットワーク
を提供している。
Then, a CMO corresponding to the characteristic of the comparator or the non-linear function f is provided at the output of the product-sum operation part of the CMOS circuit.
The S circuits are connected to form a neuron. Also, 3
Two CMOS inverter couplings, a sampling and holding circuit coupled to the final stage thereof, and an output of the sampling and holding circuit are returned to the input of the three CMOS inverter couplings to form an inverter ring to generate a branching phenomenon. I am trying to do it. Further, a neural network characterized in that only the neuron that selects the most probable information among the cooperation information output from the cellular neural network in which the elements are connected to the neighboring elements is fired by using the suppression operation of the competitive network. Are offered.

【0011】そして、前記セルラーニューラルネットワ
ークは擬似逆行列に基づく演算を実行し、前記セルラー
ニューラルネットワークから出力される協調情報のうち
最も確からしい情報を選択するニューロンのみを前記競
合ネットワークの抑制動作を使って発火させることによ
り連想動作を行なうようにしている。
Then, the cellular neural network executes an operation based on a pseudo-inverse matrix, and uses only the neuron that selects the most probable information among the cooperation information output from the cellular neural network by using the suppression operation of the competitive network. The associative action is performed by igniting.

【0012】[0012]

【作用】P−MOSとN−MOSの共通節点の電圧Vo
utがP−MOSに流れる電流とN−MOSに流れる電
流が等しくなるように決定されることを利用して積和演
算を形成している。等価コンダクタンスはW/Lに比例
し、そのマスクのプロセス制御でドレイン電流を変える
ことができ学習が可能となる。
Function: Voltage Vo at the common node of P-MOS and N-MOS
The sum of products operation is formed by utilizing the fact that ut is determined so that the current flowing through the P-MOS and the current flowing through the N-MOS are equal. The equivalent conductance is proportional to W / L, and the drain current can be changed by the process control of the mask to enable learning.

【0013】積和演算部分の出力に関数fの特性に対応
するCMOS回路を結合すれば、例えば、シグモイド関
数や区分線形関数によるニューロンが形成できる。3の
CMOSインバータリング結合は、それぞれがデバイス
パラーメタの制御で適当な非線形関数を形成できのでカ
オスを発生できる。素子が近傍の素子と結合されている
セルラーニューラルネットワークから出力される協調情
報のうち最も確からしい情報を選択するニューロンのみ
を発火させるため競合ネットワークの抑制動作を使って
いる。
If a CMOS circuit corresponding to the characteristic of the function f is coupled to the output of the product-sum operation part, for example, a neuron with a sigmoid function or a piecewise linear function can be formed. The three CMOS inverter ring couplings can generate chaos because each can form an appropriate non-linear function under the control of device parameters. The suppression operation of the competitive network is used to fire only the neuron that selects the most probable information among the cooperative information output from the cellular neural network in which the elements are connected to the neighboring elements.

【0014】[0014]

【実施例】次に、本発明の実施例を図面を参照して説明
する。MOSトランジスタは、単体でも、入力信号の電
圧がしきい値を越えると電流を流すというニューロン的
な機能を有するので、入力信号がたくさんあるニューロ
ンは、複数個のMOSトランジスタを組み合わせて構築
される。
Embodiments of the present invention will now be described with reference to the drawings. A single MOS transistor has a neuron-like function of passing a current when the voltage of an input signal exceeds a threshold value. Therefore, a neuron having a large number of input signals is constructed by combining a plurality of MOS transistors.

【0015】まず、単体のMOSトランジスタの動作に
ついて説明する。MOSトランジスタは、濃度拡散と電
界によって生ずるチャネルの電流の大きさをゲートの電
圧によって制御できる非線形な能動素子である。電流は
ドレイン電流としてドレイン端子から出力される。しき
い値は、ソースと基板間の電圧によって変化するが、一
般には、一定な値である。
First, the operation of a single MOS transistor will be described. The MOS transistor is a non-linear active element capable of controlling the magnitude of the channel current generated by the concentration diffusion and the electric field by the gate voltage. The current is output as a drain current from the drain terminal. The threshold value varies depending on the voltage between the source and the substrate, but is generally a constant value.

【0016】N−MOSトランジスタのドレイン電流の
特性は、ゲートソース間の電圧パラーメタとして、ドレ
インソース間の電圧によって変化し、飽和する非線形曲
線となる。このMOSデバイスの動作領域は、ドレイン
電流が流れないカットオフ領域、ドレインソース間電圧
にほぼ比例する線形領域、ドレインソース間電圧に無関
係に一定に飽和する飽和領域に分類される。
The characteristic of the drain current of the N-MOS transistor is a non-linear curve which is saturated as the voltage parameter between the gate and the source changes depending on the voltage between the drain and the source. The operating region of this MOS device is classified into a cut-off region where no drain current flows, a linear region that is almost proportional to the drain-source voltage, and a saturation region where the drain current constantly saturates regardless of the drain-source voltage.

【0017】ゲートソース間の電圧がしきい値以下のカ
ットオフ領域では、ドレイン電流は、濃度拡散による電
流のみがわずかに流れる。このカットオフ領域でのドレ
イン電流は、非常に小さいので、消費電力の小さなアナ
ログの四則演算回路やニューロ回路を構成する試みもあ
る。その場合には、このカットオフ領域をサブスレーシ
ョルド領域と呼んでいる。しかし、3つの領域を有効に
使う場合には、ゲートソース間の電圧が小さいので、近
似的には、このカットオフ領域では、ドレイン電流は零
である。
In the cut-off region where the voltage between the gate and the source is below the threshold value, the drain current only slightly flows due to the concentration diffusion. Since the drain current in this cutoff region is very small, there is an attempt to configure an analog four arithmetic operation circuit or a neuro circuit with low power consumption. In that case, this cutoff region is called a subthreshold region. However, when the three regions are effectively used, the voltage between the gate and the source is small, so that the drain current is approximately zero in this cutoff region.

【0018】ゲートソース間の電圧がしきい値以上であ
るが、ドレインソース間電圧が小さい線形領域では、電
界によって、チャネルに電流が流れる。ゲート電圧によ
って生じる電界はシリコン表面に一定量の電子を誘起
し、ソースドレイン間の電位差に基づく電界によって、
その電子を移動させる。この物理現象を微分方程式で表
現し、それを積分すると、2次関数となるが、ソースド
レイン間の電位差が小さいときは、線形関数であると見
なせる。結果として、ドレイン電流は、ソースドレイン
間の電位差とチャネルの幅と長さの比W/Lに比例す
る。そのときの等価コンダクタンスもW/Lに比例し、
そのマスクのプロセス制御でドレイン電流を変えること
ができる。すなわち、学習が可能となる。
In the linear region where the gate-source voltage is equal to or higher than the threshold but the drain-source voltage is small, an electric field causes a current to flow in the channel. The electric field generated by the gate voltage induces a certain amount of electrons on the silicon surface, and the electric field based on the potential difference between the source and drain causes
Move the electron. When this physical phenomenon is expressed by a differential equation and integrated, it becomes a quadratic function, but when the potential difference between the source and drain is small, it can be regarded as a linear function. As a result, the drain current is proportional to the potential difference between the source and the drain and the width / length ratio W / L of the channel. The equivalent conductance at that time is also proportional to W / L,
The drain current can be changed by controlling the process of the mask. That is, learning becomes possible.

【0019】ゲートソース間の電圧がしきい値以上で、
ドレインソース間電圧が大きい飽和領域では、ほぼ一定
な大きなドレイン電流が流れる。この電流もW/Lに比
例する。
When the voltage between the gate and the source is equal to or higher than the threshold value,
In the saturated region where the drain-source voltage is large, a substantially constant large drain current flows. This current is also proportional to W / L.

【0020】また、線形領域と飽和領域では、ドレイン
電流のゲートソース間の入力電圧に対する比、すなわ
ち、相互コンダクタンスもほぼW/Lに比例する。図1
の回路は1ビットの積和演算部分と比較器から構成され
る本発明の形式ニューロンのCMOS回路である。積和
演算部分は、P−MOSトランジスタとN−MOSトラ
ンジスタの直列接続からなるCMOS回路をカスケード
に接続し、P−MOSとN−MOSのそれぞれの出力を
共通に接続し、それを共通節点として比較器の一方の入
力に接続させた構造となっている。比較器の他方の入力
はしきい値のアナログ入力である。端子y1、y2、y
3、...、ynは入力で、他のニューロンの出力から
くる場合もある。この場合、入力は、Vdd(+1)ま
たはVSS(0または−1)に対応する2値信号であ
る。
In the linear region and the saturation region, the ratio of the drain current to the input voltage between the gate and the source, that is, the transconductance is also approximately proportional to W / L. Figure 1
Is a CMOS circuit of the formal neuron according to the present invention, which is composed of a 1-bit product-sum operation part and a comparator. In the product-sum calculation part, CMOS circuits consisting of P-MOS transistors and N-MOS transistors connected in series are connected in a cascade, and the outputs of the P-MOS and N-MOS are connected in common, and the outputs are used as a common node. The structure is such that it is connected to one input of the comparator. The other input of the comparator is a threshold analog input. Terminals y1, y2, y
3 ,. . . , Yn are inputs and may come from the outputs of other neurons. In this case, the input is a binary signal corresponding to Vdd (+1) or VSS (0 or -1).

【0021】この積和演算部分の動作原理は、P−MO
SとN−MOSの共通節点の電圧VoutがP−MOS
に流れる電流とN−MOSに流れる電流が等しくなるよ
うに決定される。
The operating principle of this product-sum operation part is P-MO
The voltage Vout at the common node of S and N-MOS is P-MOS
Is determined so that the current flowing through the N-MOS is equal to the current flowing through the N-MOS.

【0022】今、入力が、Vdd(+1)のとき、一つ
のCMOSの下側のN−MOSトランジスタのドレイン
ソース間電圧は小さく、線形領域で動作する、このと
き、上側のP−MOSトランジスタはカットオフ領域と
なる。もし、一つのCMOSであるならば、ドレイン電
流は流れず、その出力は、零ボルト(GND)となる。
しかし、本発明では、CMOS回路をカスケードに接続
し、P−MOSとN−MOSのそれぞれの出力を共通に
接続し、それを共通節点としてしているので、線形領域
で動作している他のP−MOSトランジスタから電流が
流れ込んでくる。すなわち、入力が、VSS(0ボル
ト)のとき、下側のN−MOSトランジスタカットオフ
領域であるが、上側のP−MOSトランジスタが線形領
域で動作する。
Now, when the input is Vdd (+1), the drain-source voltage of one CMOS lower N-MOS transistor is small and operates in the linear region. At this time, the upper P-MOS transistor is It becomes the cut-off area. If it is a single CMOS, no drain current will flow and its output will be zero volts (GND).
However, in the present invention, the CMOS circuits are connected in cascade, the outputs of the P-MOS and the N-MOS are connected in common, and they are used as a common node. Current flows in from the P-MOS transistor. That is, when the input is VSS (0 volt), the lower N-MOS transistor cut-off region operates, but the upper P-MOS transistor operates in the linear region.

【0023】従って、次に式が成り立つ。Therefore, the following expression holds.

【0024】[0024]

【数1】 [Equation 1]

【0025】ここで、VSS=0(あるいは、−1)
で、DiはVdd(+1)またはVSSに対応する2値
信号に対応する1または0の入力論理である。giは等
価コンダクタンスでW/Lに比例し、そのマスクのプロ
セス制御で変えることができる。
Here, VSS = 0 (or -1)
Here, Di is an input logic of 1 or 0 corresponding to a binary signal corresponding to Vdd (+1) or VSS. gi is an equivalent conductance proportional to W / L and can be changed by process control of the mask.

【0026】上の式から、From the above equation,

【0027】[0027]

【数2】 [Equation 2]

【0028】となる。これは、Vdd(+1)またはV
SS(0または−1)に対応する2値入力信号の反転の
積和の演算が得られることを示している。従って、共通
節点Voutを比較器の一方の入力に他方の入力をしき
い値のアナログ入力uとすれば、形式ニューロンができ
る。この出力は、2値であるから出力に適当なレジスタ
でラッチし、スイッチで伝送の有無を決めれば、いろい
ろな離散時間応用回路が構成できる。ドレイン電流は、
ソースドレイン間の電位差とチャネルの幅と長さの比W
/Lに比例する。そのときの等価コンダクタンスもW/
Lに比例し、そのマスクのプロセス制御でドレイン電流
を変えることができる。すなわち、学習が可能となる。
[0028] This is Vdd (+1) or V
It is shown that the product sum operation of the inversion of the binary input signal corresponding to SS (0 or -1) is obtained. Therefore, if the common node Vout is one input of the comparator and the other input is the threshold analog input u, a formal neuron can be formed. Since this output is binary, various discrete time application circuits can be configured by latching it with an appropriate register for the output and determining the presence or absence of transmission with a switch. The drain current is
Ratio W of the potential difference between the source and drain and the width and length of the channel
Proportional to / L. The equivalent conductance at that time is also W /
The drain current can be changed in proportion to L by controlling the process of the mask. That is, learning becomes possible.

【0029】もし、積和演算部分の出力に関数fの特性
に対応するCMOS回路を結合すれば、例えば、シグモ
イド関数や区分線形関数によるニューロン出力がえられ
る。また、CMOSカオスニューロンも構成できる。図
2は、CMOSカオス回路である。3のCMOSインバ
ータ結合とその最終段にオーバラップしない2相のクロ
ックで制御される4つのパストランジスタとキャパシタ
Cからなるサンプリングホールド回路を介してインバー
タ・リングを構成している。2段目の入力端子は抵抗R
を介してバイアスXに接続されている。出力端子はYと
する。この回路のX−Y特性を図3に示す。明らかに、
クロックによって形成される離散時間で動作するインバ
ータリングの回路モデルにおいて、分岐パラメータによ
り発生するカオス応答及び分岐現象が観察されている。
If a CMOS circuit corresponding to the characteristic of the function f is coupled to the output of the product-sum operation part, a neuron output by a sigmoid function or a piecewise linear function can be obtained, for example. A CMOS chaotic neuron can also be constructed. FIG. 2 is a CMOS chaotic circuit. An inverter ring is configured through a CMOS inverter coupling of 3 and a sampling hold circuit composed of four pass transistors and a capacitor C which are controlled by a two-phase clock that does not overlap with the final stage. The second input terminal is a resistor R
Is connected to the bias X via. The output terminal is Y. The XY characteristic of this circuit is shown in FIG. clearly,
In a circuit model of an inverter ring that operates in discrete time formed by a clock, chaotic response and bifurcation phenomena caused by bifurcation parameters have been observed.

【0030】図4は、先の積和演算部分と図2CMOS
カオス回路との結合で、カオスニューロン回路が構成さ
れている。2段分のみ積和演算部分の共通節点Vout
に接続され、3のCMOSインバータ結合とその最終段
にオーバラップしない2相のクロックで制御される4つ
のパストランジスタとキャパシタCからなるサンプリン
グホールド回路を介してインバータ・リングを構成して
いる。4段目のCMOS入力端子は抵抗Rを介してバイ
アスXに接続されている。数字は、W/Lの相対値であ
る。出力端子はYとする。この回路のX−Y特性を図5
に示す。明らかに、クロックによって形成される離散時
間で動作するインバータリングの回路モデルにおいて、
分岐パラメータにより発生するカオス応答及び分岐現象
が観察されている。すなわち、カオス応答発生領域を制
御する2ビットのディジタル・コードを回路に導入する
ことによって、カオス応答発生領域の制御可能な回路モ
デルに拡張することができる。
FIG. 4 shows the above product-sum operation part and FIG. 2 CMOS.
A chaotic neuron circuit is constructed by coupling with a chaotic circuit. Common node Vout of the product-sum calculation part for only two stages
And a CMOS inverter coupling of 3 and a sampling hold circuit composed of four pass transistors and a capacitor C controlled by two-phase clocks that do not overlap with the final stage of the CMOS inverter coupling to form an inverter ring. The CMOS input terminal of the fourth stage is connected to the bias X via the resistor R. The numbers are relative values of W / L. The output terminal is Y. The XY characteristics of this circuit are shown in FIG.
Shown in. Apparently, in the circuit model of the inverter ring operating in discrete time formed by the clock,
Chaotic responses and bifurcation phenomena caused by bifurcation parameters have been observed. That is, by introducing a 2-bit digital code for controlling the chaotic response generation region into the circuit, it is possible to expand the controllable circuit model of the chaotic response generation region.

【0031】連想記憶は、ニューラルネットワークにお
いて早い時期から研究の対象とされ、数多くの研究がな
されてきた。連想過程は、脳の知的機能を理解する上
で、重要な役割をはたしていると考えられてきたのであ
る。基本的に連想記憶とは、例えば、人が目の前の<リ
ンゴ>を見て<赤い>と考えたり、<ボール>から<丸
い>と考えると同様に、{リンゴ、赤い}、{ボール、
丸い}といったパターンの対が人間の脳の中でなんらか
の方法により記憶され、パターン対のうちどちらか一方
がその記憶されたネットワークに入力されるともう一方
のパターンがネットワークの出力として得られることで
ある。ここで記憶に用いられるネットワークが、もし、
従来のコンピュータにおけるメモリのようにパターン対
がメモリ上に記憶され、検索という作業を行うものであ
るとすると、入力とされるパターン対の一方に雑音が乗
ったりまた一部が欠損した場合やネットワーク(メモ
リ)の一部が破壊された場合にはパターン対のもう一方
を検索(連想)することが出来なくなる。このようなこ
とが人間の脳で行われていないことは明白である。人間
の脳のネットワークでは、入力とされるパターン対の一
方に雑音が乗ったり、一部が欠損した場合においても、
また、ネットワークの一部が破壊されたとしても、連想
想起に対して影響なく、目的のパターン対を出力するこ
とができるのである。
Associative memory has been the subject of research in neural networks from an early stage, and many studies have been conducted. The associative process has been considered to play an important role in understanding the brain's intellectual functions. Basically, associative memory is similar to, for example, a person looking at an <apple> in front of him and thinking that it is <red>, or thinking from <ball> to <round>, that is, {apple, red}, {ball. ,
A pair of patterns such as “round” is stored in the human brain in some way, and when one of the pair of patterns is input to the stored network, the other pattern is obtained as the output of the network. is there. If the network used here for storage is
If a pattern pair is stored in the memory like a memory in a conventional computer and a search operation is performed, noise may be present on one of the input pattern pairs or a part of the pattern pair may be lost or the network may be lost. When a part of the (memory) is destroyed, the other side of the pattern pair cannot be retrieved (associated). It is clear that this is not done in the human brain. In the human brain network, even if one of the input pattern pairs has noise or is partially missing,
Further, even if a part of the network is destroyed, the target pattern pair can be output without affecting the associative recall.

【0032】連想記憶では、上記のような脳のモデルを
工学的、数学的に解析することがなされてきた。数学的
な原理の視点からは、プロトタイプパターンといわれる
記憶するパターンによって計算される相関行列を用いる
連想写像と、直交射影を用いた連想写像等がある。一般
に、後者の方が前者よりも、連想能力や記憶容量から判
断した場合、優れた能力をもっていることが明らかにさ
れている。さて、直交射影による方法とは、プロトタイ
プパターンにより張られる部分空間を考えた場合、入力
されるパターンをその張られた部分空間に直交射影する
方法である。今、n次元の入力パターンをsiとする。
J次元の出力パターンをyiとする。m個の入力パター
ンを列ベクトルとして並べた行列をSとする。対(s
i、yi)のm個をプロトタイプパターンという。直交
射影による連想は、逆行列をINV( )、転置をT
( )とすると、 yi=S[INV(T(S)S)T(S)]si を計算することである。すなわち、擬似逆行列 S″=INV(T(S)S) 求めることである。
In associative memory, the above-described brain model has been analyzed in an engineering and mathematical manner. From the viewpoint of mathematical principles, there are an associative map that uses a correlation matrix that is calculated by a memorized pattern called a prototype pattern, and an associative map that uses orthogonal projection. In general, it has been clarified that the latter has better ability than the former when judged from the associative ability and the memory capacity. By the way, the orthogonal projection method is a method of orthogonally projecting an input pattern onto the extended subspace when the subspace extended by the prototype pattern is considered. Now, let n be the n-dimensional input pattern.
Let the J-dimensional output pattern be yi. Let S be a matrix in which m input patterns are arranged as column vectors. Pair (s
The m pieces of i, yi) are called prototype patterns. The association by orthogonal projection is INV () for the inverse matrix and T for the transpose.
If (), then yi = S [INV (T (S) S) T (S)] si is calculated. That is, the pseudo inverse matrix S ″ = INV (T (S) S) is obtained.

【0033】図6は、提案する連想モデルである。最初
の2層のネットワークは、完全結合であるとすると、 [INV(T(S)S)T(S)]si の計算を、微分方程式 c dx/dt=T(S)si−T(S)Sx の平衡状態dx/dt=0の解として求めている。
FIG. 6 shows the proposed associative model. Assuming that the first two-layer network is completely connected, the calculation of [INV (T (S) S) T (S)] si is performed by the differential equation cdx / dt = T (S) si-T (S ) Sx is obtained as a solution of the equilibrium state dx / dt = 0.

【0034】本発明で提案する連想モデルは、相互に結
合をもった中間層に、さらに相互抑制を促進させるため
に、競合ネットワークを用いた競合ネットワーク型連想
記憶である。
The associative model proposed in the present invention is a competitive network type associative memory that uses a competitive network to further promote mutual inhibition in the intermediate layers having mutual connection.

【0035】あるいくつかの情報がネットワークに入力
され、それらによりネットワークの状態が遷移してい
く。この状態遷移の中で各状態が互いに競合し合い、あ
る1つの状態が強調されるとその他の状態はその強調さ
れた状態によって抑制される。そして、最終的には1つ
の素子だけが興奮してその他は興奮しないというある1
つの状態にネットワークが収束する。この競合作用をモ
デル化したのが競合ネットワークである。
Some information is input to the network, and the state of the network is transited by them. In this state transition, the states compete with each other, and when one state is emphasized, the other states are suppressed by the emphasized state. And in the end, one element is excited and the others are not.
The network converges in one state. The competitive network is modeled on this competitive action.

【0036】入力を受けとり、結合係数w1の自己フィ
ードバック結合をもつ素子と、1個の抑制性素子I(g
で示されているもの)から構成される。抑制性素子は、
各素子の出力から結合係数1の入力を受けとり、その出
力は結合係数w2をもって各素子に結合され、各素子に
抑制作用を与える。fは興奮性素子の出力関数で前に定
義された関数であり、g(v)は抑制性素子の出力関数
である。例えば、g(v)は、v>0のとき、vで、v
<0、v=0のときには、0とする関数である。ただ
し、ネットワークが平衡状態に収束するように結合係数
としきい値パラメータを決定する必要がある。このパラ
メータによって競合ネットワークの平衡状態が保証され
る。まず、すべての素子が興奮しないというネットワー
クの静止状態について考える。静止の状態では、すべて
の素子状態が抑制素子の状態は、零に収束る。
An element which receives an input and has self-feedback coupling with a coupling coefficient w1 and one suppressive element I (g
(Shown in)). The inhibitory element is
The input of the coupling coefficient of 1 is received from the output of each element, and the output is coupled to each element with the coupling coefficient w2, and each element is suppressed. f is the output function of the excitatory element, previously defined, and g (v) is the output function of the inhibitory element. For example, g (v) is v when v> 0, and
When <0 and v = 0, the function is set to 0. However, it is necessary to determine the coupling coefficient and threshold parameter so that the network converges to the equilibrium state. This parameter guarantees the equilibrium state of the competing network. First, consider the stationary state of the network in which all elements are not excited. In the quiescent state, the states of all the element suppression elements converge to zero.

【0037】すべての入力が小さいとき、この場合に限
り、静止の状態はネットワークの安定平衡状態である。
ある一つの素子が興奮し、その他の素子は興奮しないと
仮定すると、この場合、抑制性素子は、興奮して他の素
子を抑制しなければならないという条件が必要である。
ネットワークは安定平衡状態に収束し、そのひつの素子
が興奮し続けてその他の素子を抑制する。
When all inputs are small, and only in this case, the quiescent state is the stable equilibrium state of the network.
Assuming that one element is excited and the other element is not, then the inhibitory element must excite and suppress the other element.
The network converges to a stable equilibrium state, and the elements of the hip continue to excite and suppress other elements.

【0038】二つ以上の素子が興奮した場合には、最大
入力の素子のみが興奮し、その素子の出力によって他の
興奮した素子が抑制されるようになっている。このよう
に競合ネットワークは、興奮性の素子と抑制性の素子の
組み合わせにより制御されるもので、これにより、 e=[INV(T(S)S)T(S)]si の計算で、eの要素の中で、入力が最大となる素子のみ
を興奮するようになる。すなわち、最大検出回路になっ
ている。従って、出力層での計算、 yi=Sx で、最も確からしい出力を連想することができる。
When two or more elements are excited, only the element with the maximum input is excited, and the output of that element suppresses the other excited elements. In this way, the competitive network is controlled by a combination of excitatory and inhibitory elements, so that in the calculation of e = [INV (T (S) S) T (S)] si, e Of the elements of, only the element with the maximum input will be excited. That is, it is a maximum detection circuit. Therefore, the most probable output can be associated with the calculation in the output layer, yi = Sx.

【0039】中間層の素子は、図6では、2層目と離れ
て描かれているが、fの出力を2層目に結合することに
より、T(S)Sの対角成分の重みとw1とを加えて、
一つの層にできる。中間層の素子数はプロトタイプパタ
ーンと同じ個数あるが、完全結合の構成をしているため
にプロトタイプパターンが1つ増加するだけで中間層の
結合数は著しく増加することがわかる。この結合数の増
加は、連想モデルのハードウェア化の際に回路の繁雑さ
をもたらす困難な問題の1つであるといえる。この問題
を解決する方法として、セルラーニューラルネットワー
ク(CNN)モデルを使う。このCNNと競合ネットワ
ークを組み合わせた連想モデルがCNN連想モデルであ
る。CNNとは、ある注目ニューロン素子に対して結合
係数をもち接続するニューロン素子は、その注目素子の
近傍のみとするニューラルネットワークである。つま
り、スパースな結合をもったニューラルネットワークで
ある。CNNは、近年、画像処理やパターン認識といっ
た分野で研究が盛んに行われているものである。CNN
は、一般に、 dx/dt=−x+Af(x)+Bs+T で表現される。
Although the element of the intermediate layer is depicted separately from the second layer in FIG. 6, by combining the output of f with the second layer, the weight of the diagonal component of T (S) S and Add w1 and
Can be one layer. Although the number of elements in the intermediate layer is the same as that of the prototype pattern, it can be seen that the number of coupling in the intermediate layer is remarkably increased only by one increase in the prototype pattern because of the complete coupling configuration. It can be said that this increase in the number of connections is one of the difficult problems that causes circuit complexity when the associative model is implemented as hardware. As a method of solving this problem, a cellular neural network (CNN) model is used. The associative model that combines this CNN and the competitive network is the CNN associative model. The CNN is a neural network in which a neuron element that has a coupling coefficient and is connected to a certain target neuron element is only in the vicinity of the target neuron element. In other words, it is a neural network with sparse connections. In recent years, CNN has been actively researched in fields such as image processing and pattern recognition. CNN
Is generally expressed by dx / dt = -x + Af (x) + Bs + T.

【0040】疑似逆行列を近似的に求める3層構造のC
NNモデルと競合ネットワークを組み合わせたCNN連
想モデルについて述べる。CNN連想モデルでは直接、
相互に接続されていないニューロンがネットワークにお
いて連続時間ダイナミクスの伝達影響により相互作用を
間接的に及ぼし合うことから、ネットワークの能力面
で、完全結合型ネットワークとあまり変わらないものと
なる。CNN連想モデルは、図6の−[T(S)S]N
rで示されていて、これは、中間層の結合が近傍距離の
結合となっていることを示している。すなわち、中間層
の結合係数は、密行列T(S)Sの要素に対応する重み
を有するが、CNN連想モデルでは、その非対角成分に
対応する重みを適当に零とし、それに対応する枝を結合
しないことにより局所結合化している。この枝の重み
は、学習過程に設定する。図6の下には、このCNN連
想モデルを表現する微分方程式が示されている。CNN
は、一般に、 dx/dt=−x+Af(x)+Bs+T で表現されるので、CNN連想モデルは、CNNと競合
ネットワークの結合の一般系で連想動作を行なうように
学習されたものと見なせる。すなわち、その一般系を使
えば、CNNで協調情報を出力し、そのうち最も確から
しいニューロンのみを競合ネットワークの抑制動作で、
発火させることができる。この協調と競合作用は、連想
動作以外にも応用できる基本動作である。本発明の特徴
は、この協調と競合作用を、ある注目素子において、結
合する素子がその注目素子の近傍のみとするCNNを使
用することにあるが、完全結合の場合も従来にはなかっ
た構造となっている。なお、連想記憶におけるパターン
の記憶は中間層での結合により決定されることから、中
間層での結合数の減少はパターンの記憶を減少させるこ
とになりかねないのであるが、CNN連想モデルでは、
連想実験から、完全結合の構造をしている連想モデルと
比較してそれほどかわらない連想能力があることが確か
められる。また、学習は、係数行列の要素を入力から決
めることであり、先のCMOS回路では、W/Lで決め
ることになる。
C having a three-layer structure for approximating a pseudo inverse matrix
The CNN associative model that combines the NN model and the competitive network is described. In the CNN associative model,
Since the neurons that are not connected to each other indirectly influence each other in the network due to the transmission effect of continuous-time dynamics, the capability of the network is not so different from the fully connected network. The CNN associative model is-[T (S) S] N in FIG.
This is indicated by r, which indicates that the bond of the intermediate layer is the bond of the near distance. That is, the coupling coefficient of the hidden layer has a weight corresponding to the element of the dense matrix T (S) S, but in the CNN associative model, the weight corresponding to the off-diagonal component is appropriately set to zero and the corresponding branch is The local binding is achieved by not binding. The weight of this branch is set in the learning process. The lower part of FIG. 6 shows a differential equation expressing this CNN associative model. CNN
Is generally expressed as dx / dt = −x + Af (x) + Bs + T, so that the CNN associative model can be regarded as trained to perform an associative operation in the general system of the coupling of the CNN and the competitive network. That is, if the general system is used, the CNN outputs the cooperation information, and only the most probable neuron among them is subjected to the suppression operation of the competitive network.
Can be ignited. The cooperation and the competitive action are basic actions that can be applied in addition to the associative action. The feature of the present invention resides in the use of the CNN in which, in a certain element of interest, this cooperation and competitive action are coupled to each other only in the vicinity of the element of interest. Has become. Since the memory of the pattern in the associative memory is determined by the coupling in the intermediate layer, the decrease in the number of couplings in the intermediate layer may reduce the memory of the pattern, but in the CNN associative model,
The associative experiment confirms that the associative ability is not so different from that of the associative model having a fully connected structure. Further, learning is to determine the element of the coefficient matrix from the input, and in the above CMOS circuit, it is determined by W / L.

【0041】[0041]

【発明の効果】本発明によれば、ニューロン素子がCM
OSで製造でき、簡単で、そのマスクのプロセス制御で
学習が可能となる。ネットも疎結合であるから集積化に
有利となり、局所記憶方式であるから連想動作において
ローカルミニマムが発生しないような実用的なニューラ
ルネットとなる。
According to the present invention, the neuron element is CM
It can be manufactured with an OS, is simple, and can be learned by controlling the process of the mask. The net is also loosely coupled, which is advantageous for integration, and the local storage method makes it a practical neural network in which no local minimum occurs in the associative operation.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のCMOSニューロン回路を説明する図
である。
FIG. 1 is a diagram illustrating a CMOS neuron circuit of the present invention.

【図2】本発明の分岐現象を発生するCMOS回路を説
明する図である。
FIG. 2 is a diagram illustrating a CMOS circuit that causes a branching phenomenon of the present invention.

【図3】本発明の分岐現象を発生するCMOS回路の分
岐現象を示す図である。
FIG. 3 is a diagram showing a branching phenomenon of a CMOS circuit which causes a branching phenomenon of the present invention.

【図4】本発明の分岐現象を発生するCMOSニューロ
ン回路を説明する図である。
FIG. 4 is a diagram illustrating a CMOS neuron circuit that generates a branching phenomenon according to the present invention.

【図5】本発明の分岐現象を発生するCMOSニューロ
ン回路の分岐現象を示す図である。
FIG. 5 is a diagram showing a branching phenomenon of a CMOS neuron circuit which causes a branching phenomenon of the present invention.

【図6】本発明のセルラーニューラルネットワークを用
いた連想モデルを示すである。
FIG. 6 shows an associative model using the cellular neural network of the present invention.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H01L 27/092 (72)発明者 渡辺 寿郎 東京都千代田区紀尾井町7−1 上智大学 理工学部電気電子工学科内 (72)発明者 庄野 克房 東京都千代田区紀尾井町7−1 上智大学 理工学部電気電子工学科内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification number Internal reference number FI Technical indication location H01L 27/092 (72) Inventor Toshiro Watanabe 7-1 Kioicho, Chiyoda-ku, Tokyo Sophia University Faculty of Science and Engineering Within the Department of Electronic Engineering (72) Inventor Katsufusa Shono 7-1, Kioicho, Chiyoda-ku, Tokyo Sophia University Faculty of Science and Engineering Department of Electrical and Electronic Engineering

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 P−MOSトランジスタとN−MOSト
ランジスタの直列接続からなる複数のCMOSインバー
タ回路のそれぞれの出力を共通に接続し、それを共通節
点として、それぞれのCMOSインバータ回路の入力に
対して重み付けられた積和演算の結果を前記共通節点に
発生することを特徴とするCMOS回路。
1. Outputs of a plurality of CMOS inverter circuits each consisting of a P-MOS transistor and an N-MOS transistor connected in series are connected in common, and the outputs are used as a common node to the input of each CMOS inverter circuit. A CMOS circuit, wherein a result of a weighted sum of products operation is generated at the common node.
【請求項2】 前記重みは、チャネルの幅と長さの比W
/Lを変えることにより、学習することを特徴とする請
求項1記載のCMOS回路。
2. The weight is a ratio W of channel width to length.
2. The CMOS circuit according to claim 1, wherein learning is performed by changing / L.
【請求項3】 請求項1記載のCMOS回路の積和演算
部分の出力に非線形関数fの特性に対応するCMOS回
路を結合してニューロンを形成することを特徴とするC
MOSニューロン回路。
3. A neuron is formed by connecting a CMOS circuit corresponding to the characteristic of the non-linear function f to the output of the product-sum calculation part of the CMOS circuit according to claim 1 to form a neuron.
MOS neuron circuit.
【請求項4】 3つのCMOSインバータ結合と、その
最終段に結合されるサンプリングホールド回路と、前記
サンプリングホールド回路の出力を前記3のCMOSイ
ンバータ結合の入力に帰環させてインバータ・リングを
構成して、分岐現象を発生することを特徴とするCMO
S回路。
4. An inverter ring is formed by returning three CMOS inverter couplings, a sampling and holding circuit coupled to the final stage thereof, and an output of the sampling and holding circuit to an input of the three CMOS inverter couplings. And a branching phenomenon is generated.
S circuit.
【請求項5】 請求項1記載のCMOS回路を結合して
なるニューロン回路。
5. A neuron circuit formed by connecting the CMOS circuits according to claim 1.
【請求項6】 素子が近傍の素子と結合されているセル
ラーニューラルネットワークから出力される協調情報の
うち最も確からしい情報を選択するニューロンのみを競
合ネットワークの抑制動作を使って発火させることを特
徴とするニューラルネットワーク。
6. A method of firing only a neuron that selects the most probable information out of cooperation information output from a cellular neural network in which elements are connected to neighboring elements, by using a suppressing operation of a competitive network. Neural network to do.
【請求項7】 前記セルラーニューラルネットワークは
擬似逆行列に基づく演算を実行し、前記セルラーニュー
ラルネットワークから出力される協調情報のうち最も確
からしい情報を選択するニューロンのみを前記競合ネッ
トワークの抑制動作を使って発火させることにより連想
動作を行なうことを特徴とする請求項5記載のニューラ
ルネットワーク。
7. The cellular neural network executes an operation based on a pseudo-inverse matrix, and uses only the neuron that selects the most probable information among the cooperation information output from the cellular neural network using the suppression operation of the competitive network. The neural network according to claim 5, wherein the associative operation is performed by igniting the neural network.
JP6052305A 1994-03-23 1994-03-23 Constitution of neuron and neural network Pending JPH07262292A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6052305A JPH07262292A (en) 1994-03-23 1994-03-23 Constitution of neuron and neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6052305A JPH07262292A (en) 1994-03-23 1994-03-23 Constitution of neuron and neural network

Publications (1)

Publication Number Publication Date
JPH07262292A true JPH07262292A (en) 1995-10-13

Family

ID=12911081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6052305A Pending JPH07262292A (en) 1994-03-23 1994-03-23 Constitution of neuron and neural network

Country Status (1)

Country Link
JP (1) JPH07262292A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111600595A (en) * 2020-06-08 2020-08-28 苏州大学 Sigmoid function circuit and neuron circuit
JPWO2020196389A1 (en) * 2019-03-28 2020-10-01

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020196389A1 (en) * 2019-03-28 2020-10-01
WO2020196389A1 (en) * 2019-03-28 2020-10-01 日本電気株式会社 Information processing device, information processing method, and recording medium
CN111600595A (en) * 2020-06-08 2020-08-28 苏州大学 Sigmoid function circuit and neuron circuit
CN111600595B (en) * 2020-06-08 2023-07-07 苏州大学 Sigmoid function circuit and neuron circuit

Similar Documents

Publication Publication Date Title
Choi et al. A high-precision VLSI winner-take-all circuit for self-organizing neural networks
Alspector et al. Stochastic learning networks and their electronic implementation
Ramakrishnan et al. Vector-matrix multiply and winner-take-all as an analog classifier
US10671911B2 (en) Current mirror scheme for an integrating neuron circuit
Asai et al. A subthreshold MOS neuron circuit based on the Volterra system
JP2760543B2 (en) Multiple feedback circuit
Tripathi et al. Analog neuromorphic system based on multi input floating gate mos neuron model
JPH07262292A (en) Constitution of neuron and neural network
CN112420841B (en) Negative differential resistance circuit and neuron transistor structure
Khalid et al. Memristor crossbar-based pattern recognition circuit using perceptron learning rule
Danneville et al. Sub-0.3 V CMOS neuromorphic technology and its potential application
Horio et al. An asynchronous spiking chaotic neuron integrated circuit
Bartolozzi et al. Selective attention implemented with dynamic synapses and integrate-and-fire neurons
US20040083193A1 (en) Expandable on-chip back propagation learning neural network with 4-neuron 16-synapse
Meador et al. A low-power CMOS circuit which emulates temporal electrical properties of neurons
JPH076192A (en) Signal synthesizing circuit
Choi et al. Subthreshold MOS implementation of neural networks with on-chip error backpropagation learning
Gupta et al. Artificial neural network hardware implementation: Recent trends and applications
Bartolozzi et al. A neuromorphic selective attention architecture with dynamic synapses and integrate-and-fire neurons
US20240202513A1 (en) Compact CMOS Spiking Neuron Circuit that works with an Analog Memory-Based Synaptic Array
Varshavsky et al. Beta-CMOS artificial neuron and implementability limits
Valle et al. An Experimental Analog VLSI Neural Chip with On-Chip Back-Propagation Learning
KR940005512B1 (en) Nonlinear synapse circuit of neural network
Lau et al. A low-power synapse/neuron cell for artificial neural networks
JPH03144785A (en) Neuro element