JPH02101568A - Network with learning function - Google Patents

Network with learning function

Info

Publication number
JPH02101568A
JPH02101568A JP63255485A JP25548588A JPH02101568A JP H02101568 A JPH02101568 A JP H02101568A JP 63255485 A JP63255485 A JP 63255485A JP 25548588 A JP25548588 A JP 25548588A JP H02101568 A JPH02101568 A JP H02101568A
Authority
JP
Japan
Prior art keywords
gain
learning
cell
network
transfer characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63255485A
Other languages
Japanese (ja)
Inventor
Yukio Kamaya
幸男 釜谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP63255485A priority Critical patent/JPH02101568A/en
Priority to US07/419,768 priority patent/US5083285A/en
Publication of JPH02101568A publication Critical patent/JPH02101568A/en
Priority to US07/739,505 priority patent/US5220641A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To reduce the initial dependency of learning time, and in addition, to quicken convergence by controlling the transmission characteristic of a cell by controlling gain so as to increase it up to the desired gain with the progress of learning. CONSTITUTION:Plural cells are connected complicatedly to a learning functional neutral network 1, and one or plural cells which take the variable load sum of several cell outputs and in addition, receive a difference between the variable load sum and a threshold peculiar to the cell as an input are connected to the same. Learning is continued in a process where load in this cell is updated by quantity depending positively upon the first order differential coefficient of the transmission characteristic. After the learning is started at the gain smaller than the transmission characteristic of the cell, the gain adjusting device 2 of the cell performs the transmission control of the cell by performing the gain control of the cell in the network 1 such as to increase the gain up to the desired gain with the progress of the learning. Thus, the convergence of the learning of the network can be improved without depending upon an initial value.

Description

【発明の詳細な説明】 [発明の目的コ (産業上の利用分野) この発明は、学習機能を有する脳機能を模擬したネット
ワーク(以後、ニューラル・ネットワークの学習能力を
向上させる技術に関する。
DETAILED DESCRIPTION OF THE INVENTION [Objective of the Invention (Field of Industrial Application) This invention relates to a technique for improving the learning ability of a network (hereinafter referred to as a neural network) that simulates a brain function having a learning function.

(従来の技術) 最近、多くの研究機関において各種のニューラル・ネッ
トワークの研究が栄んに行なわれている。
(Prior Art) Recently, many research institutes are actively conducting research on various neural networks.

ニューラル・ネットワークは次のような観点から大きく
2つに分類される。
Neural networks can be broadly classified into two types from the following points of view.

1つは、学習機能を持たないネットワークであり、例え
ばホップフィールド型ネットワーク型等の自動連想型が
属する。
One type is a network that does not have a learning function, and includes an automatic association type such as a Hopfield network type.

他の1つは、学習機能を持つネットワークであり、例え
ばバーセプトロン、多層パーセブトロン等のパターン連
想型が属する。
The other type is a network with a learning function, and includes pattern association types such as a berseptron and a multilayer persebutron.

いずれにしてもニューラル・ネットワークは、人間の脳
の働きに似せて形成したネットワークであって、セルと
セルが互いに結合されてなる。
In any case, a neural network is a network formed to resemble the workings of the human brain, and is made up of interconnected cells.

例えば第2図に示すように1つのセルに着目して考える
と、他のセルの出力が入力(X+ )として伝達され、
各入力XIに対して重みWtを乗じて加算される。この
加算結果と適宜選定されな閾値りとの差を非線形関数に
よってセル出力Zに対応づける。
For example, if we focus on one cell as shown in Figure 2, the outputs of other cells are transmitted as input (X+),
Each input XI is multiplied by a weight Wt and added. The difference between this addition result and an appropriately selected threshold value is associated with the cell output Z using a nonlinear function.

こうした1つのセルにおける入出力の関数を演算式で示
せば次の通りとなる。
The input/output function in one cell can be expressed as an arithmetic expression as follows.

但し、f (x)は、単調増加の非線形関数で、一般に
有界とするものである。
However, f (x) is a monotonically increasing nonlinear function and is generally bounded.

ここで、f <x>として、次の(1)式で示す関数も
用いられることもあり、これは第3図に示すように、 となる。
Here, as f<x>, a function expressed by the following equation (1) may also be used, as shown in FIG.

この(1)式は、単調増加を示しており、(0゜1)を
値域として持つ関数である。
This equation (1) shows a monotonous increase and is a function having a range of (0°1).

また、f (x>として、次の(2)式で示す関数も考
えられ、これは第4図に示すように、となる不連続な関
数である。この関数は(1)式においてθ−+ωとした
関数と考えることもできる。
In addition, as f (x>), a function expressed by the following equation (2) can also be considered, and as shown in Figure 4, this is a discontinuous function such that θ− It can also be considered as a function with +ω.

更に、こうしたニューラル・ネットワークは、第2図に
示す如くのセル及びこのセル相互の結合が、ある規則に
従ってなされることにより、ネットワークを形成するも
のである。特に、学習機能を有するネットワークとは、
何らかの方法あるいは規則に従って、w、、w2・・・
W、なる重みをネットワーク自体が自己形成していくも
のである。
Furthermore, such a neural network forms a network by making cells as shown in FIG. 2 and connections between the cells according to a certain rule. In particular, a network with a learning function is
According to some method or rule, w,, w2...
The network itself creates a weight of W.

その−例がバーセプトロンであり、このパーセプトロン
は第2図に示す関数により考えることができる。バーセ
ブトロンにおいての学習には以下のような問題点があっ
た。
An example of this is the berceptron, which can be thought of in terms of the function shown in FIG. There were the following problems with learning in the Bersebtron.

(発明が解決しようとする課題) 即ち、従来のようにパーセプトロンを単に利用して学習
能力を向上させようとすると、以下の如く不都合が生じ
る。
(Problems to be Solved by the Invention) That is, if an attempt is made to improve the learning ability by simply using the perceptron as in the past, the following disadvantages arise.

今、パーセプトロンの学習規則を考えてみた場合、時系
列のセル入力Xi 、X2.・・・、xlo、・・・に
対し、セル出力を、Vll y2.・・・+3”T・・
・で出力する如く学習させようとすると、例えば次の(
3)式に示す学習方程式に従うように重みWを変化させ
ることになる。
Now, if we consider the perceptron's learning rules, we have time-series cell inputs Xi, X2. ..., xlo, ..., the cell output is Vll y2.・・・+3”T・・
For example, if you try to train it to output with
3) The weight W is changed so as to follow the learning equation shown in equation (3).

W” =aWi+ c[y+  f(W ・X’  h)Lf’ (W−X
’  h) ・X’・・・(3) 但し、a、c:定数 また、 X’  = (Xt  、Xi 、”・、Xh  >”
W’  = (Wt  、W2 、・・・、Wh>Tで
あり、XJ 、WJは第2図の時刻iでの入力XJ、重
みWjをベクトル表示したものである。
W" = aWi+ c[y+ f(W ・X' h) Lf' (W-X
' h) ・X'...(3) However, a, c: constants, and X' = (Xt, Xi, "・, Xh >"
W' = (Wt, W2, . . . , Wh>T, and XJ and WJ are vector representations of the input XJ and weight Wj at time i in FIG. 2.

この(3)式は、時刻iにおいて、実際の出力f(W−
X’−h)と望ましい出力3’tとの差に対し、その微
係数を乗じて、その積に比例した量だけWlにx′方向
の補正を加えることを示す。この学習方程式は、一般に
多層のパーセブトロンの学習にも拡張される。
This equation (3) shows that at time i, the actual output f(W-
This shows that the difference between X'-h) and the desired output 3't is multiplied by its differential coefficient, and Wl is corrected in the x' direction by an amount proportional to the product. This learning equation is generally extended to learning multilayer persebutrons.

このような(3)式に基づく学習にあっては、初期値に
よってその収束時間が大幅に異なることがある。このと
きの初期値と収束時間との関係は、学習前には必ずしも
明らかでないため、学習を開始してみないと分らないも
のである。従って、バーセプトロンを単に利用する従来
の場合においては、ニューラル・ネットワークの初期依
存性が極めて大きく、また収束が遅いということになる
In such learning based on equation (3), the convergence time may vary significantly depending on the initial value. The relationship between the initial value and the convergence time at this time is not necessarily clear before learning, so it cannot be known until learning starts. Therefore, in the conventional case where the berceptron is simply used, the initial dependence of the neural network is extremely large and convergence is slow.

本発明の目的は、上記の学習機能を有するニューラル・
ネッワークの学習時間の初期依存性を大幅に少なくし、
且つ収束を速くすることにある。
The purpose of the present invention is to develop a neural network having the above-mentioned learning function.
The initial dependence of the network learning time is significantly reduced,
Another purpose is to speed up convergence.

[発明の構成] (課題を解決するための手段) 本発明は、上記の目的を達成するなめ、伝達特性が単調
増加性と飽和性とを有するものであって、いくつかのセ
ル出力の可変荷重和を取り且つこの可変荷重和とセル特
有の閾値との差を入力として受けるセルが1ないし複数
結合されており、この1ないし複数結合されたセルにお
ける荷重が当該セルの伝達特性1次微係数に対し陽に依
存する量で更新されていく過程で学習が続行される学習
機能を有するネットワークにおいて、すべてのセルもし
くは適宜選定したセルについて、当該セルの伝達特性の
ゲインよりも小さいゲインで学習を開始後、この学習の
進行に伴って所望のゲインまで増加させるゲイン制御を
行なってセルの伝達特性を制御する伝達特性制御手段を
具備することを要旨としている。
[Structure of the Invention] (Means for Solving the Problems) In order to achieve the above object, the present invention has a transfer characteristic that has monotonically increasing property and saturation property, and has a variation of several cell outputs. One or more cells are combined that take the sum of weights and receive the difference between this variable weight sum and a cell-specific threshold value as input, and the load on the one or more combined cells is the first-order derivative of the transfer characteristic of the cell. In a network with a learning function in which learning is continued in the process of being updated with an amount that explicitly depends on the coefficient, learning is performed with a gain smaller than the gain of the transfer characteristic of the cell for all cells or appropriately selected cells. The gist of the present invention is to include a transfer characteristic control means that controls the transfer characteristic of the cell by controlling the gain to increase the gain to a desired value as the learning progresses after starting the learning process.

(作用) 本発明による学習機能を有するネットワークであれば、
以下説明するように学習時間の初期依存性を大幅に少な
くし、且つ収束を速くすることができる。
(Operation) If the network has a learning function according to the present invention,
As will be explained below, the initial dependence of learning time can be significantly reduced and convergence can be made faster.

今、学習機能を有するネットワークについて収束性の良
くない状況を想定してみる。
Let's now assume a situation where convergence is poor for a network with a learning function.

第5図は、f (u)・f−(u)をθの異なる値に対
して定性的に示している。つまり、θが小さい程f (
u)・f−(u)の形は急峻になり、逆にθが大きいほ
どなだらかになることをしめしている。たとえば、図中
、矢印に示された値が初期入力値として、セルに与えら
れたとすると、θ:小の場合は、はとんどf (u)・
f−(u)は0であるから、(3)式の右辺第2項につ
いて考えると、この項はほとんど0ということになる。
FIG. 5 qualitatively shows f (u)·f−(u) for different values of θ. In other words, the smaller θ is, the more f (
The shape of u)·f−(u) becomes steeper, and conversely, the larger θ is, the more gradual the shape becomes. For example, if the value indicated by the arrow in the figure is given to the cell as the initial input value, if θ is small, then f(u)・
Since f-(u) is 0, considering the second term on the right side of equation (3), this term is almost 0.

すなわち、Wはほどんど更新されない。つまり、たまた
ま初期値の条件が、セルの入力として、f (u)・f
゛(u)がほとんど0になる領域に対応すると、学習の
初めは、はとんど学習が進まず、収束が遅れることにな
る。
That is, W is rarely updated. In other words, the initial value condition happens to be f (u)・f
If ゛(u) corresponds to a region where it is almost 0, learning will hardly progress at the beginning and convergence will be delayed.

それに対し、第5図のθ:大の場合は、矢印の値で、関
数値は0でないので、(3)式の学習は学習のはじめか
ら進められ収束が速くなる。しかしこのままでは所望の
θ:小での収束値は得られないので、学習が進むにつれ
て、θを小さくして、希望のθにする。
On the other hand, when θ is large in FIG. 5, the function value is not 0 as indicated by the arrow, so learning of equation (3) proceeds from the beginning of the learning and converges quickly. However, as it is, it is not possible to obtain the desired convergence value when θ is small, so as learning progresses, θ is reduced to the desired θ.

このようにして、はじめ、θの大きい値から学習を開始
し、徐々に、θを小さくしていくことにより、学習のは
じめにおける学習進行の遅滞を避けることができるので
ある。
In this way, by starting learning with a large value of θ and gradually decreasing θ, it is possible to avoid delays in learning progress at the beginning of learning.

以上の理由により、本発明においては、(課題を解決す
るための手段)に記載した如く、伝達特性制御手段をネ
ットワークに付設し、適宜選定したセルについてゲイン
制御を行なって、学習時間の初期依存性を大幅に少なく
し、且つ収束を速くする伝達特性制御を行なうものにし
た。
For the above reasons, in the present invention, as described in (Means for Solving the Problems), a transfer characteristic control means is attached to the network, gain control is performed for appropriately selected cells, and the initial dependence of the learning time is The present invention is designed to control transfer characteristics to significantly reduce the loss of energy and speed up convergence.

(実施例) 第1図は、本発明が適用された学習機能を有するネット
ワークの全体の概略を示すブロック図である。
(Embodiment) FIG. 1 is a block diagram schematically showing an entire network having a learning function to which the present invention is applied.

本発明にあっては、学習機能的ニューラルネッワーク1
に対して、セルの伝達特性を制御するためにセルのゲイ
ン調整装置2を付設している。
In the present invention, the learning functional neural network 1
In contrast, a cell gain adjustment device 2 is attached to control the cell transfer characteristics.

学習機能的ニューラルネッワーク1は、システム全体の
伝達特性が単調増加性と飽和性とを有するものであって
、第2図に基づき説明した如くセルが複数複雑に接続し
合ったものである。これにより、いくつかのセル出力の
可変荷重和をとり且つこの可変荷重和とセル特有の閾値
との差を入力として受けるセルが1ないし複数結合され
ており、この1ないし複数結合されたセルにおける荷重
が当該セルの伝達特性の1次微係数に対して陽に依存す
る量で更新されていく過程で学習が続行されるようにな
されている。
The learning functional neural network 1 has a monotonically increasing and saturating transfer characteristic of the entire system, and is composed of a plurality of cells connected to each other in a complicated manner as explained based on FIG. As a result, one or more cells are combined that take a variable weighted sum of several cell outputs and receive the difference between this variable weighted sum and a cell-specific threshold as input, and the one or more combined cells Learning is continued in the process of updating the load with an amount that explicitly depends on the first-order differential coefficient of the transfer characteristic of the cell.

セルのゲイン調整装置2は、学習機能的ニューラルネッ
トワーク1の中のすべてのセルもしくは適合選定したセ
ルについて、当該セルの伝達特性よりも小さいゲインで
学習を開始後、この学習の進行に伴って所望のゲインま
で増加させるゲイン制御を行なってセルの伝達制御を行
なうものであって、第5図の学習における調整項の係数
に従って制御を実行するものである。
The cell gain adjustment device 2 starts learning with a gain smaller than the transfer characteristic of the cell for all cells or adaptively selected cells in the learning functional neural network 1, and then adjusts the gain to a desired value as the learning progresses. Cell transmission control is performed by performing gain control to increase the gain up to the gain of , and the control is executed in accordance with the coefficient of the adjustment term in learning shown in FIG.

このようなセルのゲイン調整装W2として、本発明の一
実施例では、入力インピーダンスの高いノードをセルゲ
イン調整ノードとする素子である場合に対応させて第6
図に示す如くのR−C回路を用いた。これにより、(3
)式のθを学習期間中において指数関数的に所望の伝達
特性の値に収束させることができる。
In one embodiment of the present invention, as such a cell gain adjustment device W2, a sixth cell gain adjustment device W2 is used in accordance with the case where the cell gain adjustment device W2 is an element whose cell gain adjustment node is a node with high input impedance.
An RC circuit as shown in the figure was used. As a result, (3
) can be exponentially converged to the value of the desired transfer characteristic during the learning period.

即ち、第6図において、V 1nit、  :学習初め
のセルのゲインに対応する電圧、VdeSt、  :セ
ルにおける所望のゲインに対応する電圧であるとすると
、学習前には、切換スイッチSを接点Aに投入すること
により静電容量Cの電圧をv 1nitにしておく。
That is, in FIG. 6, assuming that V 1nit, : the voltage corresponding to the gain of the cell at the beginning of learning, and VdeSt, : the voltage corresponding to the desired gain of the cell, before learning, the changeover switch S is set to contact A. The voltage of the capacitance C is set to v 1 nit by supplying the voltage to the capacitor C.

学習が開始されると、同時に切換スイッチSを接点Bに
切換投入して静電容量Cのバイアス電位をVdeSt、
に収束させるものである。
When learning starts, at the same time, changeover switch S is switched to contact B to change the bias potential of capacitance C to VdeSt,
It is intended to converge on the following.

従って、この場合、静電容量Cによる出力バイアス特性
は第7図に示す如くとなり、その結果、(3)式のθが
学習期間中において指数関数的に所望の伝達性の値に収
束されることになる。
Therefore, in this case, the output bias characteristic due to the capacitance C becomes as shown in FIG. 7, and as a result, θ in equation (3) converges to the desired transmissibility value exponentially during the learning period. It turns out.

第8図は、本発明の他実施例の要部を示すブロック図で
あって、第1図におけるセルのゲイン調整装置2に適用
するディジタル回路を示す図である。
FIG. 8 is a block diagram showing a main part of another embodiment of the present invention, and is a diagram showing a digital circuit applied to the cell gain adjustment device 2 in FIG. 1.

この本発明はの他実施例では、初期値として適宜選定し
た値をダウンカウンタ3にセットし、学習過程において
セルの所望のゲインに相当する値にまでダウンカウント
する。そして、ダウンカウンタ3の出力を関数設定器4
に設定されている非減小関数を介して変換し、この変換
出力を第1図の学習機能的ニューラルネットワーク1へ
送出するようになされている。この場合には、ダウンカ
ウンタ3に最低値のクランプ機能があれば、出力バイア
ン特性が第9図に示す如くとなり、その結果、本発明の
一実施例同様に、(3)式のθが学習期間中において指
数関数的に所望の伝達特性の値に収束されることになる
In another embodiment of the present invention, a value suitably selected as an initial value is set in the down counter 3, and the count is down to a value corresponding to the desired gain of the cell during the learning process. Then, the output of the down counter 3 is input to the function setter 4.
The conversion is performed via a non-reducing function set to , and the conversion output is sent to the learning functional neural network 1 shown in FIG. In this case, if the down counter 3 has a minimum value clamping function, the output bias characteristic will be as shown in FIG. During this period, the value of the transfer characteristic is exponentially converged to the desired value.

なお、前述の本発明の各実施例では、セルのゲイン調整
装置によりハード的にゲイン調整する場合に例示したが
、本発明は、ソフトウェアを用いたプログラム制御によ
りゲイン調整する構成で実施してもよい。
In each of the embodiments of the present invention described above, the case where the gain is adjusted by hardware using the gain adjustment device of the cell is exemplified, but the present invention may also be implemented with a configuration in which the gain is adjusted by program control using software. good.

[発明の効果] 以上説明したように、本発明が適用された学習機能を有
するネットワークは、ネットワーク中のすべてのセルも
しくは適宜選定したセルについて、当該セルの伝達特性
のゲインよりも小さいゲインで増加される学習を開始後
、この学習の進行に伴って所望のゲインまで増加させる
ゲイン制御を行なってセルの伝達特性を制御するから、
ネットワークの学習の収束性を初期値に依存することな
く著しく改善することができるという利点を有するもの
である。
[Effects of the Invention] As explained above, a network having a learning function to which the present invention is applied increases the gain of all cells in the network or appropriately selected cells with a gain smaller than the gain of the transfer characteristic of the cell concerned. After starting the learning to be performed, as the learning progresses, gain control is performed to increase the gain to a desired value to control the cell transfer characteristics.
This has the advantage that the convergence of network learning can be significantly improved without depending on the initial value.

4、発明の詳細な説明 第1図は本発明の全体の概略を示すブロック図、第2図
はネットワークを構成するセルモデルを示す図、第3図
はセルの伝達特性を示す図、第4図はセルの伝達特性の
他の例を示す図、第5図は学習における調整項の係数を
示す図、第6図は本発明の一実施例の伝達特性制御手段
を示す回路図、第7図は第6図に示す手段による出力バ
イアス特性を示す図、第8図は本発明の他実施例の伝達
性制御手段を示す回路図、第9図は第8図に示す手段に
よる出力バイアス特性を示す図である。
4. Detailed description of the invention FIG. 1 is a block diagram showing the overall outline of the invention, FIG. 2 is a diagram showing a cell model configuring a network, FIG. 3 is a diagram showing cell transfer characteristics, and FIG. 5 is a diagram showing other examples of cell transfer characteristics, FIG. 5 is a diagram showing coefficients of adjustment terms in learning, FIG. 6 is a circuit diagram showing transfer characteristic control means according to an embodiment of the present invention, and FIG. 6 is a diagram showing the output bias characteristic by the means shown in FIG. 6, FIG. 8 is a circuit diagram showing the transferability control means of another embodiment of the invention, and FIG. 9 is an output bias characteristic by the means shown in FIG. 8. FIG.

1・・・学習機能的ニューラルネットワーク2・・・セ
ルのゲイン調整装置 伏理人弁理士三好保男 第1 図 ×1 \ n 「(X) 第3図 〉 〉
1... Learning functional neural network 2... Cell gain adjustment device Patent attorney Yasuo Miyoshi No. 1 Figure x 1 \ n "(X) Figure 3 〉 〉

Claims (3)

【特許請求の範囲】[Claims] (1)伝達特性が単調増加性と飽和性とを有するもので
あつて、いくつかのセル出力それらの可変荷重和をとり
且つこの可変荷重和とセル特有の閾値との差を入力とし
て受けるセルが1ないし複数結合されており、この1な
いし複数結合されたセルにおける荷重が当該セルの伝達
特性1次微係数に対し陽に依存する量で更新されていく
過程で学習が続行される学習機能を有するネットワーク
において、 前記すべてのセルもしくは適宜選定したセルについて、
当該セルの伝達特性のゲインよりも小さいゲインで学習
を開始後、この学習の進行に伴つて所望のゲインまで増
加させるゲイン制御を行なってセルの伝達特性を制御す
る伝達特性制御手段を具備することを特徴とする学習機
能を有するネットワーク。
(1) A cell whose transfer characteristics have monotonically increasing and saturated characteristics, which takes the variable weighted sum of several cell outputs, and receives as input the difference between this variable weighted sum and a cell-specific threshold value. A learning function in which one or more cells are connected, and learning is continued in the process in which the load in one or more cells is updated with an amount that explicitly depends on the first-order differential coefficient of the transfer characteristic of the cell. In a network with
Transfer characteristic control means for controlling the transfer characteristic of the cell by performing gain control to increase the gain to a desired gain as the learning progresses after starting learning with a gain smaller than the gain of the transfer characteristic of the cell. A network with a learning function characterized by.
(2)伝達特性制御手段は、学習時間に対し、指数関数
的に所望のゲインに漸近させるゲイン制御を行なうもの
であることを特徴とする請求項1記載の学習機能を有す
るネットワーク。
(2) The network having a learning function according to claim 1, wherein the transfer characteristic control means performs gain control to exponentially approach a desired gain with respect to learning time.
(3)前記伝達特性制御手段は、伝達特性のゲインを電
位変化に応じて制御することができるセル回路を用いた
ネットワーク回路に対してゲイン制御値を加える制御機
能であって、ゲインの初期値に対応する電位を発生する
電圧源と、所望のゲインに対応する電位を発生する電圧
源とを、各々抵抗及び切換スイッチを介して共通の静電
容量に接続し、その静電容量の端子電圧をゲイン制御値
として前記ネットワーク回路へ供給することを特徴とす
る請求項1記載の学習機能を有するネットワーク。
(3) The transfer characteristic control means is a control function that adds a gain control value to a network circuit using a cell circuit that can control the gain of the transfer characteristic according to potential changes, and has an initial value of the gain. A voltage source that generates a potential corresponding to the desired gain and a voltage source that generates a potential that corresponds to the desired gain are connected to a common capacitance via a resistor and a changeover switch, respectively, and the terminal voltage of the capacitance is 2. The network having a learning function according to claim 1, wherein the gain control value is supplied to the network circuit as a gain control value.
JP63255485A 1988-10-11 1988-10-11 Network with learning function Pending JPH02101568A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP63255485A JPH02101568A (en) 1988-10-11 1988-10-11 Network with learning function
US07/419,768 US5083285A (en) 1988-10-11 1989-10-11 Matrix-structured neural network with learning circuitry
US07/739,505 US5220641A (en) 1988-10-11 1991-08-02 Multi-layer perceptron circuit device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63255485A JPH02101568A (en) 1988-10-11 1988-10-11 Network with learning function

Publications (1)

Publication Number Publication Date
JPH02101568A true JPH02101568A (en) 1990-04-13

Family

ID=17279414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63255485A Pending JPH02101568A (en) 1988-10-11 1988-10-11 Network with learning function

Country Status (1)

Country Link
JP (1) JPH02101568A (en)

Similar Documents

Publication Publication Date Title
Park et al. Adaptive-critic-based optimal neurocontrol for synchronous generators in a power system using MLP/RBF neural networks
Lozano et al. Redesign of explicit and implicit discrete time model reference adaptive control schemes
CN110262247A (en) The distributed command filtered blurry control method of multi-robot system
John et al. ASIC implementation of fuzzy-PID controller for aircraft roll control
JPH02101568A (en) Network with learning function
Hariri et al. Adaptive-network-based fuzzy logic power system stabilizer
Lin et al. Robust fuzzy-neural sliding-mode controller design via network structure adaptation
Neto et al. An improved fuzzy learning algorithm for motion control applications [PM synchronous motors]
Roy Factors influencing the choice of a learning rate for a backpropagation neural network
Elshafei et al. Power system stabilization via adaptive fuzzy-logic control
Wang et al. Takagi-Sugeno recurrent fuzzy neural networks for identification and control of dynamic systems
Naghizadeh et al. Power system stability enhancement with teaching-learning-based optimization
Ramakrishna et al. RBF identifier and pole-shifting controller for PSS application
Melsa et al. A neural network solution for call routing with preferential call placement
JP3172163B2 (en) Group-based learning adjustment method of connection in neural network
Hariri et al. Self-learning adaptive-network-based fuzzy logic power system stabilizer
Damle et al. Neural network based optimizing controllers for smart structural systems
Mkrttchian et al. Application of neural network in sliding mode control
Pandey et al. A Study on PI and Fuzzy PI Controllers
Talebi et al. A neural network controller for a discrete-time nonlinear non-minimum phase system
Lin et al. Using context‐sensitive neuro‐fuzzy systems for nonlinear system identification
Kurokawa et al. A learning method to control the frequency of the oscillatory neural network
JP3077000B2 (en) Tuning method of fuzzy controller
Jouffroy Design of Oscillatory Recurrent Neural Network Controllers with Gradient based Algorithms.
JPH04130952A (en) Threshold logical network and its learning method