JPH09134338A - Neural network system - Google Patents

Neural network system

Info

Publication number
JPH09134338A
JPH09134338A JP7314652A JP31465295A JPH09134338A JP H09134338 A JPH09134338 A JP H09134338A JP 7314652 A JP7314652 A JP 7314652A JP 31465295 A JP31465295 A JP 31465295A JP H09134338 A JPH09134338 A JP H09134338A
Authority
JP
Japan
Prior art keywords
layer
neural network
layers
equation
changed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7314652A
Other languages
Japanese (ja)
Inventor
Bunichi Sugimoto
文一 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KYB Corp
Original Assignee
Kayaba Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kayaba Industry Co Ltd filed Critical Kayaba Industry Co Ltd
Priority to JP7314652A priority Critical patent/JPH09134338A/en
Publication of JPH09134338A publication Critical patent/JPH09134338A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable executing reconstruction in accordance with an actual condition in a short time by permitting an adaptive part to change self coupling loads in accordance with the input/output relation of a changed learning object without changing the basic part of a plural layer-neural network. SOLUTION: The neural network(NN) is provided with first to k-th layers, the adaptive part 1 consists of only the first layer and the basic part 2 consists of the second to the k-th layers. Then, when new data is given under conditions where the learned NN control object is changed, only the first layer coupling load wij <(1)> being the NN adaptive part 1 and a threshold value θj <(1)> are permitted to execute relearning so as to be adoptive to the new condition without re-deciding the whole coupling loads of NN and a threshold value and the coupling loads wji <(k)> of the second to the k-th layers and the threshold value θj <(k)> are kept to be fixed. Thus, when the initial condition set at the initial NN learning is changed, NN suitable to the actual condition is reconstructed in a short time by partial correction.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、制御対象の変化
にも、容易に適応可能なニューラルネットワークシステ
ムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network system that can easily adapt to changes in the controlled object.

【0002】[0002]

【従来の技術】ある装置の動作出力を制御する場合に、
ニューラルネットワーク(以下NNという)を用いる方
法が有った。NNを用いた動作制御の方法としては、例
えば先ず、NNを用いて制御対象の前向きダイナミクス
を学習しておき、次に、それに様々な条件を与え、これ
らの条件に対する誤差を最小化することによって、目的
の出力を実現する入力値を求めるというものがある。こ
のように、学習したNNを用いれば、求める出力パター
ンに対して、入力すべき入力パターンが決まり、それに
よって、安定した動作出力を得ることができる。しか
し、初期の学習時に与えられた条件が変化した場合に
は、そのままのNNを使用しても、制御対象が適正に動
作しない場合がある。条件の変化とは、初期学習を行っ
た場所と違う環境で使用することになった場合や、制御
対象である装置が使用している間に、変化してしまう場
合、例えば、装置自身の機械的摩耗や、劣化、などがあ
る。このように初期学習条件が変化した場合に、初めか
らNNの学習をやり直すのではなく、初期能力を保持し
つつ実環境に適応できる学習機能を有する安価なNN装
置として、特開平5−290013号に、NN演算装置
の発明が記載されている。この発明の装置は、初期条件
で学習したNNの第1演算部と環境変化により生じる差
分を教師データとして学習するNNの第2演算部とを並
列に接続して、両演算部の演算結果を加算して出力を得
るというものである。
2. Description of the Related Art When controlling the operation output of a device,
There has been a method using a neural network (hereinafter referred to as NN). As a method of motion control using the NN, for example, first, the forward dynamics of the controlled object is learned by using the NN, then various conditions are given to it, and the error with respect to these conditions is minimized. , There is a method of obtaining an input value that realizes a desired output. As described above, if the learned NN is used, the input pattern to be input is determined with respect to the output pattern to be obtained, and thereby a stable operation output can be obtained. However, if the condition given during the initial learning changes, the controlled object may not operate properly even if the NN is used as it is. The change in conditions means that the device is used in an environment different from the place where the initial learning is performed, or changes while the device to be controlled is in use, for example, the machine of the device itself. Wear and deterioration. When an initial learning condition is changed in this way, an inexpensive NN device having a learning function capable of adapting to an actual environment while maintaining the initial ability, rather than redoing learning of the NN from the beginning, is disclosed in Japanese Patent Laid-Open No. 5-290013. The invention of the NN arithmetic unit is described in. The apparatus of the present invention connects the first arithmetic unit of the NN learned under the initial condition and the second arithmetic unit of the NN that learns the difference caused by the environmental change as the teacher data in parallel, and obtains the arithmetic results of both arithmetic units. That is, the output is obtained by adding them.

【0003】[0003]

【発明が解決しようとする課題】上記のような装置で
は、条件の変化による差分について、演算を実施する第
2演算部のNNは、第1演算部のNNに近い構造を持つ
ものである。そのため、第2演算部のNNを学習させる
ためには、すべての結合荷重を更新しなければならず、
学習に時間がかかるうえ、多数の教師データを必要とす
る。差を学習するために別のNNが必要となり、2個の
NNを用いた複雑な全体構成となるため、演算時間が長
いという問題があった。そこで、本発明の課題は、NN
の初期の学習時に設定した初期条件が、変化した場合
に、部分的に修正によって、短時間に、実際の条件にあ
ったNNを再構築することができるようにすることであ
る。また、構成を簡単にして、演算時間を短くすること
である。
In the above-mentioned device, the NN of the second arithmetic unit for performing the arithmetic operation on the difference due to the change of the condition has a structure close to the NN of the first arithmetic unit. Therefore, in order to learn the NN of the second calculation unit, all the connection weights must be updated,
It takes a long time to learn and requires a large amount of teacher data. Another NN is required to learn the difference, and the overall configuration is complicated using two NNs, which causes a problem of long calculation time. Then, the subject of this invention is NN
When the initial condition set at the initial learning of is changed, it is possible to reconstruct the NN that meets the actual condition in a short time by partially correcting. Another object is to simplify the structure and shorten the calculation time.

【0004】[0004]

【課題を解決するための手段】本発明は、複数層のニュ
ーラルネットワークを備えたシステムにおいて、少なく
ともひとつの層からなる適応部とその他の層からなる基
本部とを備え、この適応部は、変化した学習対象の入出
力関係に合せるように、自らの結合荷重を変化させ、基
本部の結合荷重は変化させないことを特徴とする。第2
の発明は、教師データと計算値との誤差関数Eを、
According to the present invention, in a system including a neural network having a plurality of layers, an adaptive unit including at least one layer and a basic unit including other layers are provided. It is characterized in that the connection weight of itself is changed and the connection weight of the basic part is not changed so as to match the input / output relationship of the learning target. Second
Of the invention, the error function E between the teacher data and the calculated value,

【数3】で定義し、この誤差Eを入力値で偏微分した値
をニューラルネットワークを通してバックプロパゲーシ
ョン法を用いることにより求め、適応部を構成する特定
の層の結合荷重を修正することを特徴とする請求項1に
記載のニューラルネットワークシステムである。
It is defined by the following equation, and a value obtained by partially differentiating this error E with an input value is obtained by using a backpropagation method through a neural network, and the coupling weight of a specific layer forming the adaptation unit is corrected. The neural network system according to claim 1.

【0005】[0005]

【発明の実施の形態】図1、図2に示す第1実施例は、
第1層〜第K層を備え、NN適応部1と、NN基本部2
とからなる多数層NNである。そして、適応部1は、第
1層のみからなり、基本部2は、第2層〜第K層からな
っている。既に学習済みのNNの制御対象が変化した状
況のもとで、新たなデータが与えられた時、NNのすべ
ての結合荷重wji (k)や、しきい値θj (k)を決めなおす
のではなく、NN適応部1である第1層の結合荷重wjj
(1)と、しきい値θj (1)のみを、新条件に適応するよう
に再学習させ、第2層〜第K層の結合荷重wji (k)と、
しきい値θj (k)は固定したままにする。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The first embodiment shown in FIGS.
The first to Kth layers are provided, and the NN adaptation unit 1 and the NN basic unit 2 are provided.
It is a multi-layer NN consisting of The adaptation unit 1 is composed of only the first layer, and the basic unit 2 is composed of the second to Kth layers. When new data is given under the situation where the controlled object of the NN that has already been learned has changed, all the connection weights w ji (k) of the NN and the threshold θ j (k) are redetermined. Instead of, the coupling weight w jj of the first layer which is the NN adaptation unit 1
Only (1) and the threshold θ j (1) are re-learned so as to be adapted to the new condition, and the connection weights w ji (k) of the second layer to the Kth layer,
The threshold θ j (k) remains fixed.

【0006】NNの各層は、図2に示すように構成さ
れ、以下のように記号を決める。 K :NNの層数 Nk :第k層の素子数 yj :第1層(入力層)の素子jへの入力(正規化前)(j=1、…、N1) yj (1) :第1層の素子jへの入力 (j=1、…、N1) wjj (1) :j番目の入力から第1層の素子jへの結合荷重 (j=1、…、N1) yj (k) :第k−1層の素子jからの出力 (k=2、…、K+1;j=1、…、Nk) wji (k) :第k−1層の素子iから第k層の素子jへの結合荷重、 (k=2、…、K;i=1、…、Nk-1;j=1、…、Nk) θj (k) :第k層の素子jのしきい値、(k=1、…、K;j=1、…、Nk) uj (k) :第k層の素子jの膜電位(k=1、…、K;j=1、…、Nk) zj :NNの素子jからの出力(逆正規化後) (j=1、…、NK) aIj :j番目の入力に対する正規化係数の除数部 (j=1、…、N1) bIj :j番目の入力に対する正規化係数の偏差部 (j=1、…、N1) aOj :j番目の出力に対する正規化係数の除数部 (j=1、…、NK) bOj :j番目の出力に対する正規化係数の偏差部 (j=1、…、NK
Each layer of the NN is constructed as shown in FIG. 2, and the symbols are determined as follows. K: number of layers of NN N k : number of elements of k-th layer y j : input to element j of first layer (input layer) (before normalization) (j = 1, ..., N 1 ) y j (1 ) : Input to the element j of the first layer (j = 1, ..., N 1 ) w jj (1) : Coupling load from the jth input to the element j of the first layer (j = 1, ..., N) 1 ) y j (k) : output from the element j of the (k-1 ) th layer (k = 2, ..., K + 1; j = 1, ..., N k ) w ji (k) : element of the ( k-1 ) th layer The coupling load from i to the element j of the kth layer, (k = 2, ..., K; i = 1, ..., N k−1 ; j = 1, ..., N k ) θ j (k) : kth , K; j = 1, ..., N k ) u j (k) : film potential (k = 1, ..., K ) of the element j of the k-th layer ; j = 1, ..., N k) z j: output from element j of NN (after inverse normalization) (j = 1, ..., N K) a Ij: the normalization factor for the j-th input Number portion (j = 1, ..., N 1) b Ij: deviation of the normalization factor for the j-th input (j = 1, ..., N 1) a Oj: divisor unit normalization factor for the j-th output (j = 1, ..., N K) b Oj: deviation of the normalization factor for the j-th output (j = 1, ..., N K)

【0007】この時、第1層については、分岐および正
規化の機能のみを持たせ、 yj (1)=(yj−bIj)/aIj (j=1、…、N1) …(1) uj (1)=wjj (1)j (1)−θj (1) (j=1、…、N1) …(2) y1 (2)=uj (1) (j=1、…、N1) …(3) となり、第2層から第K層については、式(4)、
(5)となる。
At this time, the first layer has only the functions of branching and normalization, and y j (1) = (y j -b Ij ) / a Ij (j = 1, ..., N 1 ) ... (1) u j (1) = w jj (1) y j (1) −θ j (1) (j = 1, ..., N 1 ) (2) y 1 (2) = u j (1) (J = 1, ..., N 1 ) (3), and for the second to Kth layers, equation (4),
(5).

【数1】 (Equation 1)

【数2】 また、(6)のように、正規化、逆正規化して、出力す
る。 zj=aOjj (K+1)+bOj (j=1、…、NK) …(6) ここで、小字の{}は小字の添字を表すものとする。な
お、本実施例のNNにおいて、第1層の結合荷重wji
(1)と、しきい値θj (1)は、 wjj (1)=1 (j=1、…、N1) …(7) θj=0 (j=1、…、N1) …(8) のように固定されている。
(Equation 2) Also, as in (6), the data is output after being normalized and denormalized. z j = a Oj y j (K + 1) + b Oj (j = 1, ..., N K ) ... (6) Here, the small character {} represents the subscript of the small character. In addition, in the NN of the present embodiment, the coupling load w ji of the first layer
(1) and the threshold value θ j (1) are: w jj (1) = 1 (j = 1, ..., N 1 ) ... (7) θ j = 0 (j = 1, ..., N 1 ). It is fixed like (8).

【0008】このとき、 yjc :学習するc番目のパタンの素子jへの入力(j=1、…、N1) C :学習するパタンの総数 とおき、誤差関数を式(9)のように定義する。At this time, y jc is the input to the element j of the c-th pattern to be learned (j = 1, ..., N 1 ) C is the total number of patterns to be learned, and the error function is given by equation (9). Define to.

【数3】そして、このEをなるべく小さくするように、
NN適応部1である第1層の結合荷重wjj (1)と、しき
い値θj (1)を式(10)、式(11)のように変化させ
る。
[Equation 3] Then, to make this E as small as possible,
The coupling weight w jj (1) of the first layer, which is the NN adaptation unit 1, and the threshold value θ j (1) are changed as in equations (10) and (11).

【数4】 (Equation 4)

【数5】 ここで、εは十分に小さい正の数であり、このεを適切
に選ぶことによって、Eの極小値に収束する。なお、式
(10)と式(11)とは、その導出方法は基本的に同
じなので、式(10)について示す。
(Equation 5) Here, ε is a sufficiently small positive number, and by properly selecting this ε, the value converges to the minimum value of E. Since the formulas (10) and (11) are basically the same in derivation method, formula (10) will be shown.

【0009】下付き添字cで、c番目のパタンに対応す
る状態量を表すとすれば、合成関数の微分公式によっ
て、
Assuming that the subscript c represents the state quantity corresponding to the c-th pattern, the differential formula of the composite function gives

【数6】 と展開でき、第2項と、第3項については、(Equation 6) Can be expanded, and regarding the second term and the third term,

【数7】 (Equation 7)

【数8】 となるが、第1項に付いては、簡単には求まらない。そ
こで、
(Equation 8) However, the first term cannot be easily obtained. Therefore,

【数9】 (Equation 9)

【数10】 とおけば、誤差Eを出力から入力方向へ逆伝播させるこ
とによって、
(Equation 10) In other words, by propagating the error E from the output to the input direction,

【数11】 [Equation 11]

【数12】 (Equation 12)

【数13】 (Equation 13)

【数14】 のようにkを1づつ減少させ、[Equation 14] Decrease k by 1 like

【数15】 のように求められる。この時式(12)は、(Equation 15) Is required. At this time, equation (12) is

【数16】 となり、式(10)を用いれば、逐次的に、wjj (1)
つまり、第1層の結合荷重が求まる。
(Equation 16) Therefore, using the equation (10), w jj (1) ,
That is, the coupling load of the first layer is obtained.

【0010】しきい値θj (1)については、For the threshold θ j (1) ,

【数17】 と展開でき、第2項と、第3項は、[Equation 17] And the second and third terms are

【数18】 (Equation 18)

【数19】 となる。第1項は、前述した式(18)を式(23)に
代入して、
[Equation 19] Becomes The first term is obtained by substituting the equation (18) into the equation (23),

【数20】 となり、式(11)を用いれば、逐次的にθj (1)が求ま
ることになる。以上のようにして、NN基本部2の、結
合荷重としきい値は、そのままで、第1層の結合荷重と
しきい値だけを求めれば、新しいデータに適応したNN
の再学習が、短時間で終了する。
(Equation 20) Therefore, if Expression (11) is used, θ j (1) can be sequentially obtained. As described above, if the connection weight and threshold value of the NN basic unit 2 are left as they are and only the connection weight and threshold value of the first layer are obtained, the NN adapted to the new data is obtained.
Re-learning of is completed in a short time.

【0011】図3に示す第2実施例は、適応部1となる
第1層が、第1実施例と異なる構成である。第1実施例
では、第1層の個々のニューロンに1個の入力信号のみ
を入力し、分岐する機能をもたせているため、結合荷重
jj (1)が、入力ゲインとなるが、第2実施例では、他
の入力信号からの干渉ゲインも含めて構成されている。
この時、前記式(12)は、
In the second embodiment shown in FIG. 3, the first layer serving as the adaptation section 1 has a structure different from that of the first embodiment. In the first embodiment, since each neuron in the first layer has a function of inputting only one input signal and branching it, the coupling weight w jj (1) becomes the input gain, but In the embodiment, the interference gains from other input signals are also included.
At this time, the formula (12) is

【数21】 のように変更されるが、式(23)は同一である。そし
て、第1実施例と同様に、適応部1である第1層の結合
荷重wji (1)と、しきい値θj (1)を求めることができ
る。この第2実施例では、複数の入信号からの干渉ゲイ
ンも更新することができるので、第1実施例のNNに比
べて、制御対象の基本モデルの変化に対しても、対応可
能になる。
(Equation 21) However, the equation (23) is the same. Then, as in the first embodiment, the connection weight w ji (1) of the first layer, which is the adaptation unit 1, and the threshold value θ j (1) can be obtained. Since the interference gains from a plurality of incoming signals can be updated in the second embodiment, it is possible to cope with changes in the basic model of the controlled object as compared with the NN of the first embodiment.

【0012】図4に示す第3実施例は、適応部1を入力
側ではなく、出力側に構成した以外は、第1実施例と同
様である。また、図5に示す第4実施例は、適応部1を
基本部2と基本部3の間の中間層に構成したNNであ
る。適応部1を第k層が構成するとすれば、式(12)
は、
The third embodiment shown in FIG. 4 is the same as the first embodiment except that the adaptation section 1 is arranged on the output side instead of the input side. The fourth embodiment shown in FIG. 5 is an NN in which the adaptation unit 1 is formed in the intermediate layer between the basic unit 2 and the basic unit 3. Assuming that the k-th layer configures the adaptation unit 1, equation (12)
Is

【数22】 のように変更され、式(23)は、(Equation 22) Equation (23) is changed to

【数23】 のように変更される。第3、第4実施例のようなNN
は、入力層でなく、出力層や中間層の結合荷重としきい
値を変更するので、制御対象の変動が、主に、出力部の
状態量の変動や、内部の状態量の変動によって生じる場
合には、特に、再学習が容易になる。なお、どの実施例
においても、適応部1は、1層だけでなく、複数の層で
構成することができる。また、必ずしも隣り合った層で
なくても良い。適応部1を構成する層数が多いほど、制
御対象の変化に対する適応範囲が広くなるが、再学習時
間は長くなる。径年変化などの、対象の変動の要因が予
想できる場合には、それに応じて適応部1を構成するよ
うにすれば、再学習が、より容易になる。
(Equation 23) Is changed to. NN as in the third and fourth embodiments
Does not change the input layer, but the output layer and intermediate layer coupling weights and threshold values. Especially, re-learning becomes easy. In addition, in any of the embodiments, the adaptation unit 1 can be configured not only by one layer but also by a plurality of layers. Further, the layers do not necessarily have to be adjacent to each other. The larger the number of layers forming the adaptation unit 1, the wider the adaptation range with respect to the change of the controlled object, but the longer the re-learning time. When the factor of the target change such as the change over the years can be predicted, the re-learning becomes easier by configuring the adaptation unit 1 accordingly.

【0013】[0013]

【発明の効果】本発明のNNによれば、初期の学習時に
設定した初期条件が、変化した場合に、部分的に修正に
よって、短時間に、実際の条件にあったNNを再構築で
きるようになった。また、構成が簡単なので、演算時間
が短くなった。
According to the NN of the present invention, when the initial condition set at the time of initial learning is changed, it is possible to reconstruct the NN that matches the actual condition in a short time by partially correcting it. Became. Moreover, since the configuration is simple, the calculation time is shortened.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1実施例の全体構成図である。FIG. 1 is an overall configuration diagram of a first embodiment.

【図2】第1実施例のNNの構成図である。FIG. 2 is a configuration diagram of an NN according to the first embodiment.

【図3】第2実施例のNN構成図である。FIG. 3 is a NN block diagram of a second embodiment.

【図4】第3実施例の全体構成図である。FIG. 4 is an overall configuration diagram of a third embodiment.

【図5】第4実施例の全体構成図である。FIG. 5 is an overall configuration diagram of a fourth embodiment.

【符号の説明】[Explanation of symbols]

1 適応部 2、3 基本部 1 Adaptation part 2, 3 Basic part

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 複数層のニューラルネットワークを備え
たシステムにおいて、少なくともひとつの層からなる適
応部と、その他の層からなる基本部とを備え、この適応
部は、変化した学習対象の入出力関係に合せるように、
自らの結合荷重を変化させ、基本部の結合荷重は変化さ
せないことを特徴とするニューラルネットワークシステ
ム。
1. A system comprising a neural network of a plurality of layers, comprising an adaptation section consisting of at least one layer and a basic section consisting of other layers, the adaptation section changing the input / output relationship of a learning target. To match
A neural network system characterized by changing its own connection weight and not changing the connection weight of the basic part.
【請求項2】 教師データと計算値との誤差関数Eを、 【数3】 で定義し、この誤差Eを入力値で偏微分した値をニュー
ラルネットワークを通してバックプロパゲーション法を
用いることにより求め、適応部を構成する特定の層の結
合荷重を修正することを特徴とする請求項1に記載のニ
ューラルネットワークシステム。
2. The error function E between the teacher data and the calculated value is given by The value obtained by partially differentiating this error E with an input value is obtained by using a backpropagation method through a neural network, and the coupling weight of a specific layer forming the adaptation unit is corrected. The neural network system according to 1.
JP7314652A 1995-11-08 1995-11-08 Neural network system Pending JPH09134338A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7314652A JPH09134338A (en) 1995-11-08 1995-11-08 Neural network system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7314652A JPH09134338A (en) 1995-11-08 1995-11-08 Neural network system

Publications (1)

Publication Number Publication Date
JPH09134338A true JPH09134338A (en) 1997-05-20

Family

ID=18055914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7314652A Pending JPH09134338A (en) 1995-11-08 1995-11-08 Neural network system

Country Status (1)

Country Link
JP (1) JPH09134338A (en)

Similar Documents

Publication Publication Date Title
US7647284B2 (en) Fixed-weight recurrent neural network controller with fixed long-term and adaptive short-term memory
US4914603A (en) Training neural networks
US4912655A (en) Adjusting neural networks
US4912649A (en) Accelerating learning in neural networks
US11308397B2 (en) System and method of training a neural network
JPH0738186B2 (en) Self-expanding neural network
US4912652A (en) Fast neural network training
US4912654A (en) Neural networks learning method
Nguyen Adaptive dynamic programming-based design of integrated neural network structure for cooperative control of multiple MIMO nonlinear systems
US5592589A (en) Tree-like perceptron and a method for parallel distributed training of such perceptrons
US4912653A (en) Trainable neural network
JPH09134338A (en) Neural network system
JP2825939B2 (en) Neural network learning device
JPH11338844A (en) Ignition number control type neural circuit device
JPH04113481A (en) Manufacture of neural network type data processor
JP2699447B2 (en) Signal processing device
JP4586420B2 (en) Multilayer neural network learning apparatus and software
JP2606317B2 (en) Learning processing device
JP4258268B2 (en) Multi-layer neural network learning method
JPH0991264A (en) Method and device for optimizing neural network structure
JPH05159088A (en) Neural network device and learning method for it
JPH0635889A (en) Neural network device and learning method therefor
Lee et al. Error Backpropagation with Attention Control to Learn Imbalanced Data for Regression
EP0577694A4 (en) A neural network
JPH05242063A (en) Neural network system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051017

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051115