JPH10198646A - Method and device for successively learning neural network - Google Patents
Method and device for successively learning neural networkInfo
- Publication number
- JPH10198646A JPH10198646A JP415097A JP415097A JPH10198646A JP H10198646 A JPH10198646 A JP H10198646A JP 415097 A JP415097 A JP 415097A JP 415097 A JP415097 A JP 415097A JP H10198646 A JPH10198646 A JP H10198646A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- data
- input
- neural network
- eigenvectors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Feedback Control In General (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、与えられたデータ
を逐次に学習する神経回路網型逐次学習方法および装置
に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network type sequential learning method and apparatus for sequentially learning given data.
【0002】[0002]
【従来の技術】従来の神経回路網型逐次学習機械は、一
般に入力されるデータから時間的に近傍なデータをある
数だけ格納し、それらを用いて学習を行なっている。こ
の時、用いられなくなったデータに関しては、逐次型学
習装置から忘れ去られる現象が起こる。この忘れ去られ
る現象を回避するための方法としては、学習後の重みだ
けを格納し、次の学習時に格納しておいた重みを用いる
ことによって、忘却を抑制することが考えられるが、こ
の方法は、限られた学習対象のみに効果的に働き、より
汎用的な方法論として確立されていない。2. Description of the Related Art A conventional neural network type sequential learning machine stores a certain number of temporally neighboring data from input data and performs learning using the data. At this time, a phenomenon occurs in which the data that is no longer used is forgotten from the sequential learning device. As a method for avoiding this phenomenon of being forgotten, it is conceivable to store only the weights after learning and use the weights stored at the next learning to suppress forgetting. It works effectively only on limited learning targets and has not been established as a more versatile methodology.
【0003】[0003]
【発明が解決しようとする課題】本発明の目的は、従来
の神経回路網型逐次学習機械における忘却の抑制を、神
経回路網のよりよい近似により、多くの学習対象に適用
できるようにすることにある。SUMMARY OF THE INVENTION An object of the present invention is to make it possible to apply the suppression of forgetting in a conventional neural network type sequential learning machine to a large number of learning objects by a better approximation of a neural network. It is in.
【0004】[0004]
【課題を解決するための手段】本発明における学習の処
理とは、与えられた入出力データに合うように、神経回
路網内の重みを修正することを指す。この場合、本発明
の第1の形態では、重みの修正は誤差と修正の速さを加
速するための慣性項と過去の学習後の重みだけを用いる
のではなく、過去の学習後の固有値・固有ベクトルを考
慮することを加えた学習手段と学習後の重みと誤差関数
の2階微分行列の固有値・固有ベクトルを計算・格納す
る手段を利用して行うことを特徴とする。また、本発明
の第2の形態では、学習後の誤差関数の2階微分行列の
固有値・固有ベクトルを計算する手段と該計算された固
有ベクトルを慣性項へ変換する手段を利用して行うこと
を特徴とする。The learning process in the present invention refers to modifying weights in a neural network to match given input / output data. In this case, in the first embodiment of the present invention, the correction of the weight does not use only the error and the inertia term for accelerating the speed of the correction and the weight after the past learning. The method is characterized in that learning is performed by taking account of eigenvectors, and means for calculating and storing eigenvalues / eigenvectors of a second-order differential matrix of weights and error functions after learning is used. Further, the second embodiment of the present invention is characterized in that means for calculating eigenvalues / eigenvectors of a second-order differential matrix of an error function after learning and means for converting the calculated eigenvectors to inertia terms are used. And
【0005】[0005]
【発明の実施の形態】以下、本発明の実施の形態の実施
例を図面により詳細に説明する。Embodiments of the present invention will be described below in detail with reference to the drawings.
【0006】〈実施例1〉図1は、本発明の第1の実施
例を示す逐次型学習装置の構成図である。図1におい
て、1は学習するデータを入力する入力部、2は入力部
1で入力されたデータを格納するデータ格納部、3は後
述のヒント格納部5で格納されている重みと固有値・固
有ベクトルを用いて、データ格納部2で格納されている
データを学習する学習部、4は学習部3の学習後の誤差
関数の2階微分行列の固有値・固有ベクトルを計算する
固有値・固有ベクトル計算部、5は学習部3の学習後の
重みと、固有値・固有ベクトル計算部4で計算された固
有値・固有ベクトルを格納するヒント格納部、6は学習
した結果を出力する出力部、7は全体を制御する制御部
である。<First Embodiment> FIG. 1 is a block diagram of a sequential learning apparatus showing a first embodiment of the present invention. In FIG. 1, 1 is an input unit for inputting data to be learned, 2 is a data storage unit for storing data input by the input unit 1, and 3 is a weight and eigenvalue / eigenvector stored in a hint storage unit 5 described later. , A learning unit 4 for learning data stored in the data storage unit 2, and an eigenvalue / eigenvector calculation unit 5 for calculating eigenvalues / eigenvectors of a second order differential matrix of the error function after learning by the learning unit 3. Is a hint storage unit that stores the weight after learning by the learning unit 3 and the eigenvalue / eigenvector calculated by the eigenvalue / eigenvector calculation unit 4, 6 is an output unit that outputs the learning result, and 7 is a control unit that controls the whole. It is.
【0007】本逐次型学習装置の動作概要は、以下の通
りである。入力部1において入力されたデータが、デー
タ格納部2で格納される。データ格納部2では、格納し
ておけるデータ数に制限があるので、時間的に近傍であ
る数に制限して格納する。学習部3は、このデータ格納
部2に格納されているデータを入力し、ヒント格納部5
に格納されている過去の学習後の重みと固有値・固有ベ
クトルを用いて学習を行う。固有値・固有ベクトル計算
部4は、学習部3での学習後の誤差関数の2階微分行列
の固有値・固有ベクトルを計算する。学習部3において
学習の終了条件を満たした後の重みと、固有値・固有ベ
クトル計算部4において計算された固有値・固有ベクト
ルは、ヒント格納部5に保存される。The outline of the operation of the sequential learning apparatus is as follows. Data input at the input unit 1 is stored in the data storage unit 2. The data storage unit 2 has a limitation on the number of data that can be stored. The learning unit 3 inputs the data stored in the data storage unit 2 and inputs the data into the hint storage unit 5.
The learning is performed using the weights and the eigenvalues / eigenvectors after the learning stored in the past. The eigenvalue / eigenvector calculation unit 4 calculates the eigenvalue / eigenvector of the second order differential matrix of the error function after learning by the learning unit 3. The weight after the learning unit 3 satisfies the condition for terminating the learning and the eigenvalue / eigenvector calculated by the eigenvalue / eigenvector calculation unit 4 are stored in the hint storage unit 5.
【0008】次に、この実施例における学習部3の動作
について、一つ前の過去の重みを考慮する場合を例に以
下に詳述する。Next, the operation of the learning section 3 in this embodiment will be described in detail below taking as an example a case where the previous weight is considered.
【0009】学習部3は、図2のような入力層31、中
間層32、出力層33からなる多層の人工の神経回路網
で構成される。多層内は、多入力−多出力の人工神経ユ
ニット30で構成される。この人工神経回路は、人工神
経ユニット間の重みとして、与えられる入力(I)と出
力(T)の関係を学習する。The learning section 3 is composed of a multilayer artificial neural network including an input layer 31, an intermediate layer 32, and an output layer 33 as shown in FIG. The inside of the multilayer is composed of a multi-input / multi-output artificial neural unit 30. This artificial neural network learns the relationship between an input (I) and an output (T) given as weights between artificial neural units.
【0010】いま、データ格納部2において格納される
データをNow, the data stored in the data storage unit 2 is
【0011】[0011]
【外1】 [Outside 1]
【0012】とし、ヒント格納部5で格納されている重
みと固有値・固有ベクトルをThe weight and the eigenvalue / eigenvector stored in the hint storage unit 5 are
【0013】[0013]
【外2】 [Outside 2]
【0014】とする。また、従来の誤差逆伝搬法などで
修正される重みの修正量をIt is assumed that In addition, the amount of weight correction that is corrected by the conventional back propagation method
【0015】[0015]
【外3】 [Outside 3]
【0016】とすると、本実施例における各人工神経ユ
ニットにおいて修正される重みの修正量Then, the correction amount of the weight corrected in each artificial neural unit in the present embodiment
【0017】[0017]
【外4】 [Outside 4]
【0018】は、次の式(1)で表される。Is represented by the following equation (1).
【0019】[0019]
【数1】 (Equation 1)
【0020】λ,αは定数である。なお、誤差逆伝搬法
については、例えば文献「D.E.Rumelhart,G.
E.Hinton and R.J Williams(1986).“Le
arninginternal representations by error propagatio
n”,in ParallelDistributed Processing:Explor
ations in the Microstructure ofCognition,Vol.
1,D.E.Rumelhard and J.L.McClelland(ed
s)MIT Press Cambridge MA.」に記載されてい
る。Λ and α are constants. The error back-propagation method is described in, for example, the document "DE Rumelhart, G.
E. FIG. Hinton and R.S. J Williams (1986). “Le
arninginternal representations by error propagatio
n ”, in ParallelDistributed Processing: Explor
ations in the Microstructure of Cognition, Vol.
1, D. E. FIG. Rumelhard and J.M. L. McClelland (ed
s) MIT Press Cambridge MA. "It is described in.
【0021】人工神経回路網の入出力関係をThe input / output relationship of the artificial neural network is
【0022】[0022]
【数2】 (Equation 2)
【0023】で表すと、重み修正後の人工神経回路網の
出力と与えられたデーテの誤差関数Eは、次の式(3)
で表される。In this case, the output of the artificial neural network after weight correction and the error function E of the given data are expressed by the following equation (3).
It is represented by
【0024】[0024]
【数3】 (Equation 3)
【0025】学習部3での学習は、式(1)を繰り返し
行ない、式(3)と重み|dW/dt|がある条件を満
たした時に終了する。The learning in the learning section 3 is performed by repeatedly performing the equation (1), and ends when the equation (3) and the weight | dW / dt | satisfy certain conditions.
【0026】その後、固有値・固有ベクトル計算部4に
おいて、誤差関数式(3)の重みによる2階微分行列
(ヘシアン行列)を求め、その行列の固有値と固有ベク
トルを求める。その終了後、重みと固有値、固有ベクト
ルThereafter, the eigenvalue / eigenvector calculation unit 4 obtains a second-order differential matrix (Hessian matrix) based on the weights of the error function equation (3), and obtains eigenvalues and eigenvectors of the matrix. After that, weights and eigenvalues, eigenvectors
【0027】[0027]
【外5】 [Outside 5]
【0028】がヒント格納部5に格納される。学習終了
後に、出力が知りたいデータを人工神経回路網へ入力
し、出力を調べる。さらに、学習データが入力されれ
ば、上記学習を繰り返す。Are stored in the hint storage unit 5. After the learning is completed, data whose output is desired to be known is input to the artificial neural network, and the output is examined. Further, when learning data is input, the above learning is repeated.
【0029】図3に、本実施例における一連の処理のフ
ローチャートを示す。図3において、太線で囲った31
0,320が本実施例で特徴とする処理である。FIG. 3 shows a flowchart of a series of processing in this embodiment. In FIG. 3, 31 surrounded by a thick line
Processes 0 and 320 are the features of this embodiment.
【0030】実際に、従来効果のなかったSin関数の
学習において、本実施例を適用した場合の性能について
図6に示す。図6より、従来手法に比べて本実施例の場
合、早期に全体の誤差が減少していることがわかる。図
6において、本発明では、全体の誤差の振動が小さくな
り、また、速く減少しているので、過去のデータについ
て、良く覚えていることを示しており、従来手法の忘却
の減少を抑制していることがわかる。また、この例で
は、単に格納するデータを単純に時間的に近接するデー
タに限って学習を行なっているので、格納するデータの
選別に多くの計算を用いなくても、効果的に忘却の影響
を軽減できることがわかる。FIG. 6 shows the performance when the present embodiment is applied to the learning of the Sin function, which had no effect in the prior art. From FIG. 6, it can be seen that in the present embodiment, the overall error is reduced earlier in the present embodiment than in the conventional method. In FIG. 6, in the present invention, since the oscillation of the entire error decreases and decreases rapidly, it is shown that the past data is well remembered, and the decrease in forgetting of the conventional method is suppressed. You can see that it is. Also, in this example, learning is performed only on data to be stored, which is simply data that is close in time, so that the effect of forgetting can be effectively achieved without using many calculations to select the data to be stored. It can be seen that can be reduced.
【0031】〈実施例2〉図4は、本発明の第2の実施
例を示す逐次型学習装置の構成図である。本実施例は、
学習部3の学習後の誤差関数の2階微分行列の固有値・
固有ベクトルを計算する固有値・固有ベクトル計算部4
と、該計算部4で計算された固有値・固有ベクトルを慣
性項へ変換する変換部8を設け、慣性項を学習部3へ与
えるようにしたものである。<Embodiment 2> FIG. 4 is a block diagram of a sequential learning apparatus showing a second embodiment of the present invention. In this embodiment,
The eigenvalue of the second derivative matrix of the error function after learning by the learning unit 3
Eigenvalue / eigenvector calculator 4 for calculating eigenvectors
And a conversion unit 8 for converting the eigenvalue / eigenvector calculated by the calculation unit 4 into an inertia term, and providing the inertia term to the learning unit 3.
【0032】本逐次型学習装置の動作概要は、以下の通
りである。入力部1において入力されたデータが、デー
タ格納部2で格納される。図1の第1の実施例と同様
に、データ格納部2では、格納しておけるデータ数に制
限があるので、時間的に近傍である数に制限して格納す
る。学習部3において、データ格納部2で格納されてい
るデータの学習が行なわれたのち、固有値・固有ベクト
ル計算部4にて誤差関数の2階微分行列(ヘシアン行
列)の固有値・固有ベクトルを計算する。変換部8は、
固有値にしたがって、固有ベクトルを慣性項へ変換す
る。The outline of the operation of the present sequential learning apparatus is as follows. Data input at the input unit 1 is stored in the data storage unit 2. As in the first embodiment of FIG. 1, the data storage unit 2 limits the number of data that can be stored, so that the data is limited to a number that is close in time. After the learning unit 3 learns the data stored in the data storage unit 2, the eigenvalue / eigenvector calculation unit 4 calculates the eigenvalue / eigenvector of the second derivative matrix (Hessian matrix) of the error function. The conversion unit 8
The eigenvector is transformed into an inertia term according to the eigenvalue.
【0033】次に、本実施例における学習部3の動作に
ついて、一つ前の過去の学習データを考慮する場合を例
に以下に詳述する。Next, the operation of the learning section 3 in the present embodiment will be described in detail below, taking as an example a case where previous learning data is considered.
【0034】学習部3は、図2に示したように、入力
層、中間層、出力層からなる多層の人工の神経回路網で
構成され、各層内は、多入力−多出力の人工神経ユニッ
トで構成される。人工神経回路網は、人工神経ユニット
間の重みとして、与えられる入力(I)と出力(T)の
関係を学習する。As shown in FIG. 2, the learning section 3 is composed of a multilayer artificial neural network composed of an input layer, an intermediate layer, and an output layer. Each layer has a multi-input / multi-output artificial neural unit. It consists of. The artificial neural network learns a relationship between an input (I) and an output (T) given as a weight between the artificial neural units.
【0035】いま、データ格納部2において格納されて
いるデータをNow, the data stored in the data storage unit 2 is
【0036】[0036]
【外6】 [Outside 6]
【0037】とする。人工神経回路網の入出力関係をAssume that: The input / output relationship of the artificial neural network
【0038】[0038]
【数4】 (Equation 4)
【0039】で表すと、人工神経回路網の出力と与えら
れたデータの誤差関数Eは、次の式(5)で表される。In this case, the error function E between the output of the artificial neural network and the given data is represented by the following equation (5).
【0040】[0040]
【数5】 (Equation 5)
【0041】従来の誤差逆伝搬法などで修正される重み
の修正量は、次の式(6)で表される。The weight correction amount corrected by the conventional error back propagation method or the like is expressed by the following equation (6).
【0042】[0042]
【数6】 (Equation 6)
【0043】学習部3での学習は、式(6)を繰り返し
行ない、式(5)と、|dW|がある条件を満たした時
に終了する。その後、固有値・固有ベクトル計算部4に
おいて、誤差関数式(5)の重みによるヘシアン行列を
求め、その行列の固有値と固有ベクトルThe learning in the learning section 3 is performed by repeatedly performing the equation (6), and ends when the equation (5) and | dW | satisfy certain conditions. Thereafter, the eigenvalue / eigenvector calculation unit 4 obtains a Hessian matrix based on the weight of the error function expression (5), and calculates the eigenvalue and eigenvector of the matrix.
【0044】[0044]
【外7】 [Outside 7]
【0045】を求める。この終了後、変換部8におい
て、次のように、固有値の絶対値がある定数eよりも小
さい固有ベクトルの和を慣性項へ変換する。Is obtained. After this, the conversion unit 8 converts the sum of the eigenvectors whose absolute value of the eigenvalue is smaller than a certain constant e into an inertia term as follows.
【0046】[0046]
【数7】 (Equation 7)
【0047】学習終了後に、出力が知りたいデータを人
工神経回路網へ入力し、出力を調べる。さらに、学習デ
ータが入力されれば、上記学習を繰り返す。After the learning is completed, data whose output is desired to be known is input to the artificial neural network, and the output is examined. Further, when learning data is input, the above learning is repeated.
【0048】図5に、本実施例における一連の処理フロ
ーチャートを示す。図5において、太線で囲った51
0、520が本実施例で特徴とする処理である。FIG. 5 shows a flow chart of a series of processing in this embodiment. In FIG. 5, 51 surrounded by a thick line
Processes 0 and 520 are features of the present embodiment.
【0049】実際に、従来効果のなかったSin関数の
学習において、本実施例を適用した場合の性能について
図7に示す。図6と同様に、図7より、従来手法に比べ
て本実施例の場合、早期に全体の誤差が減少しているこ
とがわかる。FIG. 7 shows the performance when the present embodiment is applied to the learning of the Sin function, which had no effect in the prior art. As in FIG. 6, it can be seen from FIG. 7 that the overall error is reduced earlier in this embodiment than in the conventional method.
【0050】以上、各本実施例の説明では、データ格納
部2において格納するデータを時間的に近傍なものに限
定したが、ある規則にしたがって選別する処理を含ませ
ることも可能である。As described above, in the description of each embodiment, the data stored in the data storage unit 2 is limited to data that is close in time, but it is also possible to include a process of selecting according to a certain rule.
【0051】[0051]
【発明の効果】以上説明したように、本発明によれば、
過去の学習した重みを保存し、過去の重みと誤差関数の
2階微分行列の固有ベクトル・固有値を考慮することに
よって、逐次に入力されるデータを学習する場合に、従
来手法よりも多くの学習対象に適用でき、忘却の影響が
抑制できる。具体的には、本発明は、逐次にデータが入
力されるようなオンライン学習・予測などの装置に効果
的に用いることができ、気象、交通、株価予測など幅広
い応用が考えられる。As described above, according to the present invention,
By learning past weights and considering the eigenvectors and eigenvalues of the second order differential matrix of the error function and the past weights, when learning data to be sequentially input, more learning targets And the effect of forgetting can be suppressed. Specifically, the present invention can be effectively used for devices such as online learning and prediction in which data is sequentially input, and has a wide range of applications such as weather, traffic, and stock price prediction.
【図1】本発明の第1の実施例を示す逐次学習型装置の
構成図である。FIG. 1 is a configuration diagram of a sequential learning type device according to a first embodiment of the present invention.
【図2】学習部の多層人工神経回路網の構成例を示す図
である。FIG. 2 is a diagram illustrating a configuration example of a multilayer artificial neural network of a learning unit.
【図3】本発明の第1の実施例の全体の処理フローチャ
ートである。FIG. 3 is an overall processing flowchart of the first embodiment of the present invention.
【図4】本発明の第2の実施例を示す逐次型学習装置の
構成図である。FIG. 4 is a configuration diagram of a sequential learning device according to a second embodiment of the present invention.
【図5】本発明の第2の実施例の全体の処理フローチャ
ートである。FIG. 5 is an overall processing flowchart of a second embodiment of the present invention.
【図6】本発明の第1の実施例による処理例である。FIG. 6 is a processing example according to the first embodiment of the present invention.
【図7】本発明の第2の実施例による処理例である。FIG. 7 is a processing example according to a second embodiment of the present invention.
1 入力部 2 データ格納部 3 学習部 4 ヒント格納部 5 固有値・固有ベクトル計算部 6 出力部 7 制御部 8 変換部 Reference Signs List 1 input unit 2 data storage unit 3 learning unit 4 hint storage unit 5 eigenvalue / eigenvector calculation unit 6 output unit 7 control unit 8 conversion unit
Claims (4)
神経回路網内の重みを修正する神経回路網型逐次学習方
法であって、 学習後の誤差関数の2階微分行列の固有値・固有ベクト
ルを計算し、学習後の重みと前記固有値・固有ベクトル
を保持し、前記保持されている重みと固有値・固有ベク
トルを用いて、与えられたデータを学習することを特徴
とする神経回路網型逐次学習方法。1. To match given input / output data,
A neural network-type sequential learning method for correcting weights in a neural network, comprising calculating eigenvalues / eigenvectors of a second-order differential matrix of an error function after learning, and holding the weights after learning and the eigenvalues / eigenvectors. And learning the given data using the held weights and eigenvalues / eigenvectors.
する入力手段と、 前記入力手段の入力データを格納するデータ格納手段
と、 学習後の重みと固有値・固有ベクトルを格納するヒント
格納手段と、 前記ヒント格納手段で格納されている重みと固有値・固
有ベクトルを用いて、前記データ格納手段で格納されて
いるデータを学習し、学習後の重みを前記ヒント格納手
段に格納する学習手段と、 前記学習手段の学習後の誤差関数の2階微分行列の固有
値・固有ベクトルを計算し、前記ヒント格納手段に格納
する固有値・固有ベクトル計算手段と、 前記学習手段での学習した結果を出力する出力手段と、 前記各手段を制御する制御手段と、からなることを特徴
とする神経回路網型逐次学習装置。2. Input means for inputting a set of input and output of data to be learned, data storage means for storing input data of the input means, and hint storage means for storing weights after learning and eigenvalues / eigenvectors. Learning means for learning data stored in the data storage means using the weights and eigenvalues / eigenvectors stored in the hint storage means, and storing the learned weights in the hint storage means; An eigenvalue / eigenvector calculating means for calculating an eigenvalue / eigenvector of a second order differential matrix of the error function after learning by the learning means, and storing the eigenvalue / eigenvector in the hint storage means; A neural network type sequential learning apparatus, comprising: a control unit for controlling each of the units.
神経回路網内の重みを修正する神経回路網型逐次学習方
法であって、 学習後の誤差関数の2階微分行列の固有値・固有ベクト
ルを計算し、該固有値・固有ベクトルを慣性項へ変換
し、該慣性項を用いて、与えられたデータを学習するこ
とを特徴とする神経回路網型逐次学習方法。3. Matching given input / output data,
A neural network-type sequential learning method for correcting weights in a neural network, comprising calculating eigenvalues / eigenvectors of a second-order differential matrix of an error function after learning, converting the eigenvalues / eigenvectors into inertial terms, A neural network type sequential learning method characterized by learning given data using an inertia term.
する入力手段と、 前記入力手段の入力データを格納するデータ格納手段
と、 前記データ格納手段で格納されているデータを学習する
学習手段と、 前記学習手段の学習後の誤差関数の2階微分行列の固有
値・固有ベクトルを計算する固有値・固有ベクトル計算
手段と、 前記固有値・固有ベクトル計算手段で計算された固有値
・固有ベクトルを慣性項へ変換し、前記学習手段へ与え
る変換手段と、 前記学習手段での学習した結果を出力する出力手段と、 前記各手段を制御する制御手段と、からなることを特徴
とする神経回路網型逐次学習装置。4. Input means for inputting a set of input and output of data to be learned, data storage means for storing input data of the input means, and learning means for learning data stored in the data storage means. Eigenvalue / eigenvector calculation means for calculating eigenvalues / eigenvectors of a second-order differential matrix of the error function after learning by the learning means, and converting the eigenvalue / eigenvector calculated by the eigenvalue / eigenvector calculation means into an inertia term, A neural network type sequential learning apparatus, comprising: conversion means for giving to the learning means; output means for outputting a result learned by the learning means; and control means for controlling each of the means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP415097A JPH10198646A (en) | 1997-01-13 | 1997-01-13 | Method and device for successively learning neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP415097A JPH10198646A (en) | 1997-01-13 | 1997-01-13 | Method and device for successively learning neural network |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10198646A true JPH10198646A (en) | 1998-07-31 |
Family
ID=11576748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP415097A Pending JPH10198646A (en) | 1997-01-13 | 1997-01-13 | Method and device for successively learning neural network |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH10198646A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6289321B1 (en) * | 1998-11-10 | 2001-09-11 | Shigeru Suganuma | Device to detect stock names having the highest current value and its methods for use |
US6532449B1 (en) * | 1998-09-14 | 2003-03-11 | Ben Goertzel | Method of numerical times series prediction based on non-numerical time series |
-
1997
- 1997-01-13 JP JP415097A patent/JPH10198646A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6532449B1 (en) * | 1998-09-14 | 2003-03-11 | Ben Goertzel | Method of numerical times series prediction based on non-numerical time series |
US6289321B1 (en) * | 1998-11-10 | 2001-09-11 | Shigeru Suganuma | Device to detect stock names having the highest current value and its methods for use |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10692018B2 (en) | Machine learning device and machine learning method for learning optimal object grasp route | |
KR102413028B1 (en) | Method and device for pruning convolutional neural network | |
CN111260020B (en) | Convolutional neural network calculation method and device | |
JPH04262453A (en) | Neurolearning control method and equipment | |
KR920006792B1 (en) | A learning machine having connection of layered multi input-output circuit | |
JPH10198646A (en) | Method and device for successively learning neural network | |
Lavaei et al. | Dynamic analysis of structures using neural networks | |
TW202328983A (en) | Hybrid neural network-based object tracking learning method and system | |
US20140006321A1 (en) | Method for improving an autocorrector using auto-differentiation | |
JP7310927B2 (en) | Object tracking device, object tracking method and recording medium | |
JP3040901B2 (en) | Control method by neural network and built-in control device | |
JP3308630B2 (en) | Plant control apparatus and method | |
CN113485099A (en) | Online learning control method of nonlinear discrete time system | |
JPH1173405A (en) | Neural network type sequential learning method, its device and record medium recorded with neural network type sequential learning program | |
JP3597341B2 (en) | Globally accelerated learning method for neural network model and its device | |
JPH0490076A (en) | Method for extracting feature of medical image | |
JPH1055347A (en) | Neural network type sequential learning method and device therefor | |
JP3047914B2 (en) | Learning processing device | |
JP3276035B2 (en) | A sequential accelerated learning method for neural network models | |
TWI789042B (en) | Neural network construction method and apparatus having average quantization mechanism | |
JPH09101944A (en) | Neural network circuit | |
Strefezza et al. | Radial basis neural network adaptive controller for servomotor | |
JPH0981535A (en) | Learning method for neural network | |
JPH07175771A (en) | Neural network and signal processor, autonomous system, autonomous robot and moving system using the same | |
Hahnloser | Generating network trajectories using gradient descent in state space |