JPH0713745A - Neural network type pattern learning method and pattern processor - Google Patents
Neural network type pattern learning method and pattern processorInfo
- Publication number
- JPH0713745A JPH0713745A JP5157603A JP15760393A JPH0713745A JP H0713745 A JPH0713745 A JP H0713745A JP 5157603 A JP5157603 A JP 5157603A JP 15760393 A JP15760393 A JP 15760393A JP H0713745 A JPH0713745 A JP H0713745A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- pattern
- differential value
- neural network
- cost function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、入力パターンに対応し
た望ましい出力パターンを与えるだけで自動的に学習す
る神経回路網型パターン学習方法およびパターン処理装
置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network type pattern learning method and a pattern processing device for automatically learning by giving a desired output pattern corresponding to an input pattern.
【0002】[0002]
【従来の技術】従来のバックプロパゲーション学習法
は、図3に示すような多層の神経回路網において、以下
のように行なわれる。なお、図3は3層の神経回路網を
示し、丸印は非線形しきいユニットを示し、直線はユニ
ット間の重みを示す。2. Description of the Related Art A conventional back propagation learning method is carried out as follows in a multilayer neural network as shown in FIG. It should be noted that FIG. 3 shows a three-layer neural network, in which circles represent non-linear threshold units, and straight lines represent weights between units.
【0003】m層の多層神経回路網を考え、k層の第i
番目のユニットへの入力の総和をi 、これらの変数の関係は以下のようになる。Considering an m-layer multilayer neural network, the k-th i-th layer
The sum of the inputs to the th unit is i , The relation of these variables is as follows.
【0004】[0004]
【数1】 ここでコスト関数として次のようなものを考える。[Equation 1] Consider the following as a cost function.
【0005】[0005]
【数2】 但し、jについての和は最終層mに存在するユニットの
数だけとる。すると、重みの変更は次のようになる。[Equation 2] However, the sum for j is the number of units existing in the final layer m. Then, the weight change is as follows.
【0006】[0006]
【数3】 [Equation 3]
【数4】 このように重みを変化させ、学習を行なう。[Equation 4] In this way, the weight is changed and learning is performed.
【0007】[0007]
【発明が解決しようとする課題】学習パターンが例えば
図4に示すように分布していたとき、上述した学習法の
コスト関数では、与えた学習パターンの点を通れば学習
したことになるのだが、学習が進むにつれて、図5に示
すように過学習の状態が発生するという問題がある。When the learning pattern is distributed as shown in FIG. 4, for example, the cost function of the learning method described above has learned if it passes through the points of the given learning pattern. As the learning progresses, there is a problem that an over-learning state occurs as shown in FIG.
【0008】本発明は、上記に鑑みてなされたもので、
その目的とするところは、学習が進むにつれて発生する
過学習を抑制し、学習パターンが急峻に変化しても学習
可能な神経回路網型パターン学習方法およびパターン処
理装置を提供することにある。The present invention has been made in view of the above,
An object of the invention is to provide a neural network type pattern learning method and a pattern processing device capable of suppressing over-learning that occurs as learning progresses and capable of learning even when a learning pattern sharply changes.
【0009】[0009]
【課題を解決するための手段】上記目的を達成するた
め、本発明の神経回路網型パターン学習方法は、非線形
しきいユニットからなる多層の神経回路網を備えた神経
回路網型パターン学習方法であって、入力パターンに対
する出力パターンの微分値を計算し、前記微分値の大き
さに応じて該微分値を学習コスト関数に加えることによ
り過学習を抑制し、学習パターンが急峻に変化する場合
に該学習パターンの分布を基に前記学習コスト関数を変
化させることを要旨とする。In order to achieve the above object, the neural network pattern learning method of the present invention is a neural network pattern learning method provided with a multilayer neural network composed of nonlinear threshold units. Therefore, when the differential value of the output pattern with respect to the input pattern is calculated and the differential value is added to the learning cost function according to the magnitude of the differential value, overlearning is suppressed, and when the learning pattern changes abruptly. The gist is to change the learning cost function based on the distribution of the learning pattern.
【0010】また、本発明の神経回路網型パターン処理
装置は、非線形しきいユニットからなる多層の神経回路
網を備えた神経回路網型パターン処理装置であって、入
力パターンに対する出力パターンの微分値を計算する手
段と、前記微分値の大きさに応じて該微分値を学習コス
ト関数に加える割合を計算する手段とを有することを要
旨とする。The neural network type pattern processing apparatus of the present invention is a neural network type pattern processing apparatus provided with a multilayered neural network composed of non-linear threshold units, the differential value of the output pattern with respect to the input pattern. And a means for calculating a ratio of adding the differential value to the learning cost function according to the magnitude of the differential value.
【0011】[0011]
【作用】本発明の神経回路網型パターン学習方法では、
入力パターンに対する出力パターンの微分値を計算し、
微分値の大きさに応じて微分値を学習コスト関数に加え
ることにより過学習を抑制し、学習パターンが急峻に変
化する場合に学習パターンの分布を基に学習コスト関数
を変化させる。In the neural network pattern learning method of the present invention,
Calculate the differential value of the output pattern with respect to the input pattern,
Over-learning is suppressed by adding the differential value to the learning cost function according to the magnitude of the differential value, and when the learning pattern changes abruptly, the learning cost function is changed based on the distribution of the learning pattern.
【0012】また、本発明の神経回路網型パターン処理
装置では、入力パターンに対する出力パターンの微分値
を計算し、微分値の大きさに応じて微分値を学習コスト
関数に加える割合を計算する。Further, in the neural network type pattern processing apparatus of the present invention, the differential value of the output pattern with respect to the input pattern is calculated, and the ratio of adding the differential value to the learning cost function is calculated according to the magnitude of the differential value.
【0013】[0013]
【実施例】以下、図面を用いて本発明の実施例を説明す
る。Embodiments of the present invention will be described below with reference to the drawings.
【0014】図1は、本発明の一実施例に係わる神経回
路網型パターン処理装置の構成を示すブロック図であ
る。同図に示す神経回路網型パターン処理装置は、パタ
ーンを入力するパターン入力回路1、2乗誤差を計算す
る2乗誤差計算回路2、入力パターンに対する出力パタ
ーンの微分値を計算する微分計算回路3、係数を計算す
る係数計算回路4、結合係数を修正する結合係数修正回
路5を有する。FIG. 1 is a block diagram showing the arrangement of a neural network type pattern processing apparatus according to an embodiment of the present invention. The neural network type pattern processing apparatus shown in the figure includes a pattern input circuit 1 for inputting a pattern, a square error calculation circuit 2 for calculating a squared error, and a differential calculation circuit 3 for calculating a differential value of an output pattern with respect to an input pattern. , A coefficient calculation circuit 4 for calculating coefficients, and a coupling coefficient correction circuit 5 for correcting coupling coefficients.
【0015】今、m層の多層神経回路網を考え、k層の
第i番目のユニットへの入力の総和 ると、これらの変数の関係は以下のようになる。Now, considering a multilayer neural network of m layers, the sum of inputs to the i-th unit of k layers is summed up. Then, the relation of these variables is as follows.
【0016】[0016]
【数5】 ここでコスト関数として次のような2乗誤差コスト関数
を考える。[Equation 5] Consider the following squared error cost function as the cost function.
【0017】[0017]
【数6】 但し、ε2 は定数で、jについての和は最終層mに存在
するユニットの数だけ する微分であり、回路が実現する関数を滑らかにし、過
学習を押えるためのペナルティであるが、このペナルテ
ィを入れたままのコスト関数では、学習パターンが急峻
に変化するところでは滑らかさを押えることができな
い。そこで、(1−ρj )という滑らかさのペナルティ
に掛けた項でペナルティをどの程度効果を持たせるかと
いうことを決める。ρj =1の場合は学習パターンが急
峻に変化するところであり、滑らかさのペナルティをコ
スト関数に含めない。また、ρj =0のときは、滑らか
さのペナルティをコスト関数に含める。[Equation 6] However, ε 2 is a constant, and the sum for j is the number of units existing in the final layer m. It is a differentiation that makes the function realized by the circuit smooth and suppresses over-learning, but with the cost function with this penalty put, smoothness is suppressed where the learning pattern changes sharply. I can't. Therefore, how much the penalty is effective is determined by the term multiplied by the smoothness penalty of (1-ρ j ). When ρ j = 1, the learning pattern changes abruptly, and the penalty of smoothness is not included in the cost function. When ρ j = 0, the smoothness penalty is included in the cost function.
【0018】学習である重みの変更は、次のようにな
る。The change of weight, which is learning, is as follows.
【0019】[0019]
【数7】 [Equation 7]
【数8】 [Equation 8]
【数9】 ρj を決めるには、例えば、次のような方法がある。[Equation 9] For example, the following method can be used to determine ρ j .
【0020】ある拘束条件を最適化するのに一般的によ
く用いられるホップフィールド型神経回路網を考え、そ
のコスト関数としてE’を考える。Consider a Hopfield neural network that is commonly used to optimize certain constraints, and consider E'as its cost function.
【0021】[0021]
【数10】 V(ρj )は、ρj =1になった場合のペナルティで、
次のように与える。[Equation 10] V (ρ j ) is the penalty when ρ j = 1 and
Give as follows.
【0022】[0022]
【数11】 但し、C1 ,B1 ,B2 ,B3 ,B4 は定数とする。第
1,2項はρj =1となることに対するペナルティで、
第3項はρが0か1に収束するための項である。ここ
で、Gは次のような関数とする。[Equation 11] However, C 1 , B 1 , B 2 , B 3 , and B 4 are constants. The first and second terms are the penalties for ρ j = 1 and
The third term is a term for ρ to converge to 0 or 1. Here, G is the following function.
【0023】[0023]
【数12】 但し、λは定数である。[Equation 12] However, λ is a constant.
【0024】ここで、ρj を決める方程式として、次の
式を考える。Here, the following equation is considered as an equation for determining ρ j .
【0025】[0025]
【数13】 但し、ε3 は定数とする。[Equation 13] However, ε 3 is a constant.
【0026】また、E’の時間微分は次の式より、必ず
0以下になる。The time derivative of E'is always 0 or less according to the following equation.
【0027】[0027]
【数14】 E’の時間微分が0になれば、すべてのρj について次
のようになり、ρj は必ず収束する。[Equation 14] When the time derivative of E ′ becomes 0, the following holds for all ρ j , and ρ j always converges.
【0028】 dρj /dt=0 (27) 次に、図2に示すフローチャートを参照して、パターン
学習方法について説明する。上述したように、入力に対
する出力の微分値を微分計算回路3で計算し(ステップ
110)、この計算した微分値よりコスト関数の中にど
の程度効かせるかを別のホップフィールド型神経回路網
を用いて計算する。すなわち、ホップフィールド型神経
回路網による係数を決定する(ステップ120)。それ
から、このコスト関数で多層の神経回路網を学習させる
(ステップ130)。以上の手順を繰り返すことによ
り、過学習を抑えつつ、学習パターンが急峻に変化して
いるところでも学習が可能となる。Dρ j / dt = 0 (27) Next, the pattern learning method will be described with reference to the flowchart shown in FIG. As described above, the differential value of the output with respect to the input is calculated by the differential calculation circuit 3 (step 110), and another Hopfield neural network is used to determine how effective the calculated differential value is in the cost function. Calculate using. That is, the coefficient by the Hopfield neural network is determined (step 120). Then, a multilayer neural network is trained with this cost function (step 130). By repeating the above procedure, it is possible to learn even while the learning pattern is changing sharply while suppressing over-learning.
【0029】[0029]
【発明の効果】以上説明したように、本発明によれば、
入力パターンに対する出力パターンの微分値を計算し、
微分値の大きさに応じて微分値を学習コスト関数に加え
ることにより過学習を抑制し、学習パターンが急峻に変
化する場合に学習パターンの分布を基に学習コスト関数
を変化させるので、過学習を抑えることができるととも
に、学習パターンが急峻に変化していても学習が可能に
なり、従来の方法では実現できなかったパターン認識、
分類等の処理が可能となる。As described above, according to the present invention,
Calculate the differential value of the output pattern with respect to the input pattern,
Over-learning is suppressed by adding the differential value to the learning cost function according to the magnitude of the differential value, and when the learning pattern changes sharply, the learning cost function is changed based on the distribution of the learning pattern. In addition to suppressing the above, learning is possible even when the learning pattern changes sharply, pattern recognition that could not be realized by conventional methods,
Processing such as classification becomes possible.
【図1】本発明の一実施例に係わる神経回路網型パター
ン処理装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a neural network type pattern processing apparatus according to an embodiment of the present invention.
【図2】本発明の一実施例に係わる神経回路網型パター
ン学習方法の手順を示すフローチャートである。FIG. 2 is a flowchart showing a procedure of a neural network pattern learning method according to an embodiment of the present invention.
【図3】多層神経回路網の一例である3層神経回路網を
示す図である。FIG. 3 is a diagram showing a three-layer neural network which is an example of a multilayer neural network.
【図4】学習パターンの点(入力、出力とも1次元)と
神経回路網が実現した関数を示す図である。FIG. 4 is a diagram showing points (both input and output are one-dimensional) of a learning pattern and a function realized by a neural network.
【図5】学習パターンの点(入力、出力とも1次元)と
過学習した神経回路網が実現した関数を示す図である。FIG. 5 is a diagram showing points (both input and output are one-dimensional) of a learning pattern and a function realized by an overlearned neural network.
1 パターン入力回路 2 2乗誤差計算回路 3 微分計算回路 4 係数計算回路 5 結合係数修正回路 1 pattern input circuit 2 square error calculation circuit 3 differential calculation circuit 4 coefficient calculation circuit 5 coupling coefficient correction circuit
───────────────────────────────────────────────────── フロントページの続き (72)発明者 曽根原 登 東京都千代田区内幸町1丁目1番6号 日 本電信電話株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Noboru Sonehara 1-1-6 Uchisaiwaicho, Chiyoda-ku, Tokyo Nihon Telegraph and Telephone Corporation
Claims (2)
経回路網を備えた神経回路網型パターン学習方法であっ
て、 入力パターンに対する出力パターンの微分値を計算し、 前記微分値の大きさに応じて該微分値を学習コスト関数
に加えることにより過学習を抑制し、 学習パターンが急峻に変化する場合に該学習パターンの
分布を基に前記学習コスト関数を変化させることを特徴
とする神経回路網型パターン学習方法。1. A neural network type pattern learning method comprising a multilayer neural network composed of non-linear threshold units, wherein a differential value of an output pattern with respect to an input pattern is calculated, and the differential value is calculated according to the magnitude of the differential value. Neural network characterized by suppressing the over-learning by adding the differential value to the learning cost function, and changing the learning cost function based on the distribution of the learning pattern when the learning pattern changes abruptly. Type pattern learning method.
経回路網を備えた神経回路網型パターン処理装置であっ
て、 入力パターンに対する出力パターンの微分値を計算する
手段と、 前記微分値の大きさに応じて該微分値を学習コスト関数
に加える割合を計算する手段とを有することを特徴とす
る神経回路網型パターン処理装置。2. A neural network pattern processing apparatus comprising a multilayer neural network composed of non-linear threshold units, comprising means for calculating a differential value of an output pattern with respect to an input pattern, and a magnitude of the differential value. And a means for calculating a ratio of adding the differential value to the learning cost function according to the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15760393A JP3412700B2 (en) | 1993-06-28 | 1993-06-28 | Neural network type pattern learning method and pattern processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15760393A JP3412700B2 (en) | 1993-06-28 | 1993-06-28 | Neural network type pattern learning method and pattern processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0713745A true JPH0713745A (en) | 1995-01-17 |
JP3412700B2 JP3412700B2 (en) | 2003-06-03 |
Family
ID=15653338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP15760393A Expired - Fee Related JP3412700B2 (en) | 1993-06-28 | 1993-06-28 | Neural network type pattern learning method and pattern processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3412700B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020241009A1 (en) * | 2019-05-31 | 2020-12-03 | 株式会社エヌ・ティ・ティ・データ | Prediction device, learning device, prediction method, and program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102063640B (en) * | 2010-11-29 | 2013-01-30 | 北京航空航天大学 | Robot behavior learning model based on utility differential network |
-
1993
- 1993-06-28 JP JP15760393A patent/JP3412700B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020241009A1 (en) * | 2019-05-31 | 2020-12-03 | 株式会社エヌ・ティ・ティ・データ | Prediction device, learning device, prediction method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP3412700B2 (en) | 2003-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20080172349A1 (en) | Neural network controller with fixed long-term and adaptive short-term memory | |
KR920006793B1 (en) | Learning machine | |
JP3247803B2 (en) | Fuzzy neural network system | |
JP3412700B2 (en) | Neural network type pattern learning method and pattern processing device | |
JPH0451384A (en) | Neural network and its construction method | |
JP2699447B2 (en) | Signal processing device | |
Figueiredo et al. | Adaptive neuro-fuzzy modeling | |
JP3276035B2 (en) | A sequential accelerated learning method for neural network models | |
JPH07104848B2 (en) | Neural network learning efficiency method | |
JPH06175998A (en) | Time series prediction method | |
JPH0981535A (en) | Learning method for neural network | |
CN114742212A (en) | Electronic digital information resampling rate estimation method | |
JPH04264664A (en) | Neural circuit-type pattern processor | |
Takanashi et al. | Image Classification Using l 1-fidelity Multi-layer Convolutional Sparse Representation | |
JPH05101209A (en) | Learning method for hierarchical neural network | |
JPH05324598A (en) | Learning system in neural network learning device | |
JPH0675935A (en) | Multivariable system construction method and its device | |
JPH0233655A (en) | Nerve circuit network type pattern processor | |
JPH03218559A (en) | Stochastic learning system for neural network | |
JPH04230569A (en) | System for learning neural network | |
JPH0367358A (en) | Learning machine | |
JPH04662A (en) | Learning machine | |
JPH04149662A (en) | Neuro-computer containing converting function of learning signal | |
JPH04102163A (en) | Learning processing system for network constitutive data processor | |
JPH064506A (en) | Neural network learning method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090328 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090328 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100328 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110328 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110328 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120328 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130328 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |