JP2000112914A - Learning method for neural circuit network - Google Patents

Learning method for neural circuit network

Info

Publication number
JP2000112914A
JP2000112914A JP10287839A JP28783998A JP2000112914A JP 2000112914 A JP2000112914 A JP 2000112914A JP 10287839 A JP10287839 A JP 10287839A JP 28783998 A JP28783998 A JP 28783998A JP 2000112914 A JP2000112914 A JP 2000112914A
Authority
JP
Japan
Prior art keywords
data
learning
neural network
value
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10287839A
Other languages
Japanese (ja)
Inventor
Toshiaki Hatano
寿昭 波田野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP10287839A priority Critical patent/JP2000112914A/en
Publication of JP2000112914A publication Critical patent/JP2000112914A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To attain improvement in predictive accuracy by enabling the correction of only one of a bias value and a load value without interlocking them by separately learning the load value and bias value and executing the learning of load value and bias value while successively switching them. SOLUTION: An intermediate layer LM adds up inputs from a lot of neural circuit elements E11-E1m composing of an input layer LI after applying respectively different prescribed weighting processing, applies prescribed processing to this result and outputs it from an output layer LO. This learning method for neural circuit network can execute three modes of (1) correcting processing of a load value only to individual neural circuit elements E11-E1m, (2) correcting processing of a bias component and (3) correcting processing of both the load value and the bias component. While using at least two of these three correcting processing modes, correcting processing is executed while switching the modes so as to provide the scheduled output data by inputting prepared learning data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、過去に学習した内
容を大きく破壊することなく、効果的に微調整を実施す
ることを可能にした神経回路網の学習方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for learning a neural network which enables effective fine adjustment without significantly destroying the contents learned in the past.

【0002】[0002]

【従来の技術】神経回路網は、高度な情報処理機能を人
工的に実現するための技術として、開発されたコンピュ
ータ技術である。すなわち、この神経回路網は、コンピ
ュータを使用しての、脳の神経回路などを模擬した人工
知能の技術であり、情報を入力する入力層、この入力か
ら答がどれに当たるかを判断する出力層、およびそれら
の層の中間にある中間層から構成され、各層は多くの結
合によって連結しあっている。
2. Description of the Related Art A neural network is a computer technology developed as a technology for artificially realizing advanced information processing functions. In other words, this neural network is an artificial intelligence technology that simulates a neural circuit of the brain using a computer, and has an input layer for inputting information, and an output layer for determining which answer corresponds to the input. , And an intermediate layer intermediate those layers, each layer being connected by many bonds.

【0003】このような回路網によって脳の情報処理機
能の実現を試みる場合、まず、その基本単位である神経
細胞をモデル化する必要がある。通常、単一の神経細胞
は図5に示す如く、多入力‐1出力のアナログ素子とし
てモデル化される。
When attempting to realize the information processing function of the brain by using such a network, it is necessary to first model a nerve cell as a basic unit. Usually, a single nerve cell is modeled as a multi-input / 1-output analog element as shown in FIG.

【0004】すなわち、入力をINP 1 ,INP 2 ,INP
3 ,…INP n 、シナプス荷重をw1 ,w2 ,w3 ,…
n 、閾値(バイアス)をθ、Σwi INP i +θ(但
し、iは1,2,3,…)をyとして、出力OUT は OU
T =f(y) で与えられる。なお、関数fは飽和特性
を持つ例えば単調関数である。
That is, inputs are INP 1 , INP 2 , INP
3 ,... INP n , and the synapse loads as w 1 , w 2 , w 3 ,.
w n, threshold (bias) θ, Σw i INP i + θ ( however, i is 1, 2, 3, ...) as y, the output OUT OU
T = f (y). The function f is, for example, a monotone function having a saturation characteristic.

【0005】神経細胞には、複数ある入力端子それぞれ
に、別の入力が与えられる。例えば、第1の入力端子に
は入力INP 1 が、第2の入力端子には入力INP 2 が、第
3の入力端子には入力INP 3 が、…そして、第nの入力
端子には入力INP n が、と云った具合に入力される。神
経細胞では、これら入力に対して、それぞれの入力系統
独自のシナプス荷重w1 ,w2 ,w3 ,…wn を乗じて
補正を加え、これらの補正された入力w1 INP 1 ,w2
INP 2 ,w3 INP 3 ,…,wn INP n について加算し、
さらに閾値(バイアス)θを付加する。こうして得た値
Σwi INP i +θを飽和特性を持つ所定の単調関数で演
算することで、出力OUT を得る。
[0005] To a nerve cell, another input is given to each of a plurality of input terminals. For example, the input INP 1 is input to the first input terminal, the input INP 2 is input to the second input terminal, the input INP 3 is input to the third input terminal, and the input INP is input to the n-th input terminal. n is input as follows. In the nerve cell, these inputs are multiplied by synaptic loads w 1 , w 2 , w 3 ,..., W n unique to the respective input systems to make corrections, and these corrected inputs w 1 INP 1 , w 2
INP 2, w 3 INP 3, ..., is added for w n INP n,
Further, a threshold (bias) θ is added. The output OUT is obtained by calculating the value Σw i INP i + θ thus obtained by a predetermined monotone function having a saturation characteristic.

【0006】このように、神経細胞モデルにおいてはシ
ナプス荷重およびバイアスと云うパラメータを持ってい
ることから、これらパラメータを調整することで、複数
の入力から任意の写像を作り上げることができる。
As described above, since a nerve cell model has parameters such as synaptic load and bias, an arbitrary mapping can be created from a plurality of inputs by adjusting these parameters.

【0007】[0007]

【発明が解決しようとする課題】神経回路網を構成する
素子は、神経細胞をモデル化したものであるが、この素
子には荷重値(シナプス荷重)およびバイアスと呼ばれ
るパラメータがあり、これらパラメータを調整すること
で任意の写像を作り上げることができる。
The elements constituting a neural network are modeled on nerve cells. These elements have parameters called load values (synaptic loads) and biases. Any mapping can be created by adjusting.

【0008】(計算式Oi =f(Σwijj +hi )。
ただし、wijが荷重値であり、hiがバイアス値であ
る。また、fは出力関数である。) バイアス値は素子iへの入力が零であった場合の素子i
の出力を保証するものであるが、通常は他の荷重値と同
様に学習が行われる。プログラム上は常に“1”を出力
するダミー素子を付加し、ダミー素子の荷重値をバイア
スとして扱うことも行われている。
(Calculation formula O i = f (Σw ij O j + h i )).
Here, w ij is a load value, and h i is a bias value. F is an output function. The bias value is the value of the element i when the input to the element i is zero.
, But learning is normally performed in the same manner as other load values. In a program, a dummy element that always outputs “1” is added, and the load value of the dummy element is treated as a bias.

【0009】バイアスは荷重値と比較して、学習中に不
適切な値になってしまう可能性が高く、また、不適切な
値になってしまうと、神経回路網全体の学習効率を低下
させる。
The bias is more likely to become an inappropriate value during learning than the weight value, and if it becomes inappropriate, the learning efficiency of the entire neural network is reduced. .

【0010】また、神経回路網により時系列データ処理
を行う場合、一般に過去の時系列データを学習データと
して将来のデータの予測を行うが、時系列データに長い
周期の変動成分があるときには、その変動成分を補正す
る必要がある。
When performing time series data processing using a neural network, prediction of future data is generally performed using past time series data as learning data. The fluctuation component needs to be corrected.

【0011】しかし、従来においては、神経回路網シス
テムに対する補正が必要な場合に、 (1)神経回路網の出力に一律に数値を加算あるいは減
算する (2)予測時刻近傍のデータにより神経回路網全体を再
学習する という方法を採っており、このような従来方法では、次
のような問題が残る。
However, conventionally, when correction to the neural network system is required, (1) a numerical value is uniformly added to or subtracted from the output of the neural network, and (2) the neural network is calculated based on data near the predicted time. The method of re-learning the whole is adopted. In such a conventional method, the following problems remain.

【0012】すなわち、上記(1)の方法では変動成分
が定数でない場合には補正が不足であり、また、上記
(2)の方法では神経回路網全体の特性が近傍データに
よって変えられてしまうために、いわば補正が過剰にな
ってしまうと云うことである。
That is, in the above method (1), the correction is insufficient when the fluctuation component is not a constant, and in the above method (2), the characteristics of the entire neural network are changed by the neighboring data. In other words, the correction becomes excessive.

【0013】従って、過去の時系列データを学習データ
として将来のデータの予測を行うにあたり、時系列デー
タに長い周期の変動成分があるときに、その変動成分を
最適に補正することができるようにする技術の開発が嘱
望されている。
Therefore, in predicting future data using past time-series data as learning data, when time-series data has a long-period fluctuation component, the fluctuation component can be optimally corrected. It is hoped that the development of technologies that will do this will work.

【0014】そこで、この発明の目的とするところは、
バイアス値と荷重値とを連動させることなく一方のみを
修正することができるようにして予測精度の向上を図る
ことができるようにした神経回路網の学習方法を提供す
ることにある。
Therefore, the object of the present invention is to
It is an object of the present invention to provide a method for learning a neural network in which only one of a bias value and a load value can be corrected without being linked, thereby improving prediction accuracy.

【0015】[0015]

【課題を解決するための手段】上記目的を達成するた
め、本発明は次のように構成する。すなわち、入力デー
タに対して所要の処理をして出力する複数の神経回路素
子を多段接続してなる神経回路網に対し、入力データと
当該入力データに対する望ましい出力データを与えるこ
とにより、入力データ入力時での出力値が前記望ましい
出力データに一致させるようデータに対して付加する神
経回路素子の荷重値およびバイアス成分を段階的に修正
する神経回路網の学習方法において、個別の神経回路素
子に対する荷重値のみの修正処理と、個別の神経回路素
子に対するバイアス成分のみの修正処理と、個別の神経
回路素子に対する荷重値とバイアス成分の双方の修正処
理と、を可能にすると共に、これら修正処理のうち、少
なくとも2つを用い、用意した学習データの入力により
予定の出力データ得られるよう、修正処理を切り替えて
実施することを特徴とする。また、更には、学習が終了
している神経回路網に対し、既学習データに類似した新
規データを与えて、再学習を行うと共に、この再学習の
際に、バイアス値のみの修正あるいは荷重値のみの修正
をするようにする。
In order to achieve the above object, the present invention is configured as follows. That is, input data and desired output data for the input data are given to a neural network formed by connecting a plurality of neural circuit elements that perform required processing and output on the input data in a multi-stage manner. A neural network learning method for correcting a weight value and a bias component of a neural circuit element added to data so that an output value at the time coincides with the desired output data. It is possible to perform a correction process of only a value, a correction process of only a bias component for an individual neural circuit element, and a correction process of both a load value and a bias component for an individual neural circuit element. , Using at least two, switching the correction process so that the expected output data can be obtained by inputting the prepared learning data. Which comprises carrying out. Furthermore, new data similar to the already-learned data is given to the neural network for which learning has been completed, and re-learning is performed. At the time of this re-learning, only the bias value is corrected or the weight value is changed. Only make corrections.

【0016】神経回路網システムに対する補正が必要な
場合に、従来手法では、 [ i] 神経回路網の出力に一律に数値を加算あるいは
減算する。 [ii] 予測時刻近傍のデータにより神経回路網全体を再
学習する。 という方法が採られていた。
When a correction to the neural network system is required, in the conventional method, [i] a numerical value is uniformly added to or subtracted from the output of the neural network. [ii] Re-learn the entire neural network with data near the predicted time. That method was adopted.

【0017】しかしながら、上記[ i] の方法では変動
成分が定数でない場合には補正が不足であり、また、上
記[ii]の方法では神経回路網全体の特性が近傍データに
よって変えられてしまうために、いわば補正が過剰にな
ってしまう。
However, in the above method [i], correction is insufficient when the fluctuation component is not a constant, and in the above method [ii], the characteristics of the entire neural network are changed by the neighboring data. In addition, the correction becomes excessive.

【0018】本発明では荷重値とバイアス値の学習を別
々に実施できるようにし、荷重値とバイアス値の学習を
随時切り替えることができるようにしたことにより、学
習効率を向上させることができるようになることと、学
習が終了している神経回路網に対し、既学習データに類
似した新規データを加えて、再学習を行う際に、バイア
ス値のみの修正あるいは荷重値のみの修正をすることに
より、神経回路網が実現している写像の特性を大きく破
壊すること無く、写像の微調整ができる。
In the present invention, the learning of the load value and the bias value can be performed separately, and the learning of the load value and the bias value can be switched at any time, so that the learning efficiency can be improved. By adding new data similar to the already learned data to the neural network for which learning has been completed, and performing re-learning, by correcting only the bias value or correcting only the weight value Fine adjustment of the mapping can be performed without greatly destroying the characteristics of the mapping realized by the neural network.

【0019】従って、本発明によれば、バイアス値と荷
重値とを連動させることなく一方のみを修正することが
できるようになり、従って、予測精度の向上を図ること
ができるようになる神経回路網の学習方法を提供するこ
とができる。
Therefore, according to the present invention, it is possible to correct only one of the bias value and the load value without interlocking the bias value and the load value, and therefore, it is possible to improve the prediction accuracy. A method of learning a net can be provided.

【0020】[0020]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照して説明する。ここでは、三角関数によ
り模擬的に時系列を生成し、時系列予測を行う事例によ
り、本発明の実施例を説明する。予測に用いる神経回路
網は図1に示す通りである。すなわち、図1において、
LIは情報を入力する入力層であって、複数の神経回路
素子E11,E12,E13,〜,E1m(mは任意の正の整
数)からなる。また、LMは中間層であって、入力層L
Iを構成する多数の神経回路素子E11,E12,E13,
〜,E1mからの入力に対してそれぞれ異なる所定の重み
付け処理を施してから合算し、これに所定の処理を施し
て出力するものである。また、LOは出力層であって、
中間層LMから与えられる情報から答がどれに当たるか
を判断して結果を出力するものである。
Embodiments of the present invention will be described below with reference to the drawings. Here, an embodiment of the present invention will be described with an example in which a time series is simulated by using a trigonometric function and time series prediction is performed. The neural network used for the prediction is as shown in FIG. That is, in FIG.
LI is an input layer for inputting information, and is composed of a plurality of neural circuit elements E11, E12, E13,..., E1m (m is any positive integer). LM is an intermediate layer, and the input layer L
A number of neural circuit elements E11, E12, E13,
, E1m are subjected to different predetermined weighting processes and then added together, and then subjected to predetermined processing and output. LO is an output layer,
This is to determine which answer corresponds to from the information given from the intermediate layer LM and output the result.

【0021】具体的には、前記入力層LIは、複数の神
経回路素子E11,E12,E13,〜,E1mを備えており、
また、中間層LMは神経回路素子E21,E22,E23,
〜,E2n(nは任意の正の整数)を備えていて、入力層
LIの各神経回路素子E11,E12,E13,〜,E1mの出
力は自己に入力される情報に対してそれぞれ所要の重み
付け処理をしてから中間層LMを構成する神経回路素子
E21,E22,E23,〜,E2nそれぞれに対して、それぞ
れ入力する構成となっている。
More specifically, the input layer LI includes a plurality of neural circuit elements E11, E12, E13,.
Further, the intermediate layer LM includes neural circuit elements E21, E22, E23,
, E2n (n is an arbitrary positive integer), and the outputs of the neural network elements E11, E12, E13,. After the processing, the neural network elements E21, E22, E23,..., And E2n constituting the intermediate layer LM are respectively inputted.

【0022】また、中間層LMを構成する神経回路素子
E21,E22,E23,〜,E2nそれぞれは、入力に対して
所要の処理を施した後、出力層LOを構成する神経回路
素子E3 に対して出力し、神経回路素子E3 はこれら神
経回路素子E21,E22,E23,〜,E2nからの出力をも
とに最終的な答としての情報を、出力するものである。
尚、出力層LOは1つの神経回路素子E3 からなる。
Each of the neural circuit elements E21, E22, E23,..., E2n constituting the intermediate layer LM performs necessary processing on the input, and then, with respect to the neural circuit element E3 constituting the output layer LO. The neural circuit element E3 outputs information as a final answer based on the outputs from these neural circuit elements E21, E22, E23,..., E2n.
The output layer LO is composed of one neural circuit element E3.

【0023】このような構成の本システムの作用を次の
例に従い、説明する。図2に、関数F(t)=0.7 sin
(t/π)+0.2 cos (4πt)(但し、πは円周率)
により、生成される時系列を示す。図2に示すように、
この関数F(t)は大きなうねりの上に、小さなうねり
が乗ったような変化特性を示す関数である。いま、時系
列区間が“0”から“9”の範囲でこれを100分割す
れば分解能として一応満足のいくものとなると仮定す
る。また、説明を簡単化するために、対象とする神経回
路網は入力層LIがE11〜E15までの5素子、中間層L
MはE21,〜E210 の10素子構成であるとする。
The operation of the present system having such a configuration will be described with reference to the following example. FIG. 2 shows the function F (t) = 0.7 sin
(T / π) +0.2 cos (4πt) (where π is pi)
Shows the time series generated. As shown in FIG.
This function F (t) is a function that exhibits a change characteristic such that a small undulation is placed on a large undulation. Now, it is assumed that if the time series section is divided into 100 in the range of “0” to “9”, the resolution will be satisfactory. For simplicity of description, the target neural network has five input elements LI of E11 to E15 and an intermediate layer L
It is assumed that M has a ten-element configuration of E21 to E210.

【0024】関数F(t)について、その区間0 ≦
t ≦ 9を100等分し、100個の時系列データx
1 ,〜x100 を作成する(xt =F(0.9 ×(t−
1))。入力層LIが5素子構成であるので、この例で
は、これら100個の時系列データx1 ,〜x100 のう
ち、最初の30個分の時系列データx1 ,〜,x30を学
習データとし、残りのx31,〜,x100 の予測を行うよ
うにするものとする。
For the function F (t), the interval 0 ≦
t ≦ 9 is divided into 100 equal parts, and 100 time-series data x
1, to create a ~x100 (x t = F (0.9 × (t-
1)). Since the input layer LI has a five-element configuration, in this example, the time series data x1,..., X30 for the first 30 of these 100 pieces of time series data x1,. It is assumed that x31,..., x100 are predicted.

【0025】このケースの場合、予測に用いる神経回路
網は図3に示す通りとなる。すなわち、図3において、
LIは情報を入力する入力層であって、複数の神経回路
素子E11,E12,E13,E14,E15からなる。また、L
Mは中間層であって、入力層LIを構成する5個の神経
回路素子E11,E12,E13,E14,E15からの入力に対
してそれぞれ異なる所定の重み付け処理を施してから合
算し、これに所定の処理を施して出力するものである。
また、LOは出力層であって、中間層LMから与えられ
る情報から答がどれに当たるかを判断して結果を出力す
るものである。
In this case, the neural network used for prediction is as shown in FIG. That is, in FIG.
LI is an input layer for inputting information, and is composed of a plurality of neural circuit elements E11, E12, E13, E14 and E15. Also, L
M is an intermediate layer. The input from the five neural circuit elements E11, E12, E13, E14 and E15 constituting the input layer LI is subjected to different predetermined weighting processes and then added together. A predetermined process is performed and output.
LO is an output layer, which determines which answer corresponds from information given from the intermediate layer LM and outputs the result.

【0026】中間層LMは10個の神経回路素子E21,
E22,E23,E24,E25,E26,E27,E28,E29,E
210 を備えていて、これら神経回路素子E21,E22,E
23,E24,E25,E26,E27,E28,E29,E210 それ
ぞれには入力層LIの各神経回路素子E11,E12,E1
3,E14,E15の出力が自己に入力されるようにしてあ
る。
The intermediate layer LM includes ten neural network elements E21,
E22, E23, E24, E25, E26, E27, E28, E29, E
210, and these neural circuit elements E21, E22, E
23, E24, E25, E26, E27, E28, E29, E210 respectively include the neural circuit elements E11, E12, E1 of the input layer LI.
The output of 3, E14, E15 is input to itself.

【0027】なお、神経回路素子E21,E22,E23,E
24,E25,E26,E27,E28,E29,E210 それぞれに
は自己に入力される情報に対してそれぞれ所要の重み付
け処理をしたものが入力される構成となっている。
The neural network elements E21, E22, E23, E
24, E25, E26, E27, E28, E29, and E210 are configured to receive information obtained by subjecting the information input thereto to a required weighting process.

【0028】また、中間層LMを構成する神経回路素子
E21,E22,E23,〜E27,E28,E29,E210 それぞ
れは、入力に対して所要の処理を施した後、出力層LO
を構成する神経回路素子E3 に対して出力し、神経回路
素子E3 はこれら神経回路素子E21,E22,E23,〜E
27,E28,E29,E210 からの出力をもとに最終的な答
としての情報を、出力するものである。尚、出力層LO
は1つの神経回路素子E3 からなる。
The neural network elements E21, E22, E23 to E27, E28, E29 and E210 constituting the intermediate layer LM are each subjected to a required processing for the input and then to the output layer LO.
Are output to the neural circuit element E3 which constitutes the neural network elements E21, E22, E23,.
Information as a final answer is output based on the outputs from E27, E28, E29 and E210. The output layer LO
Consists of one neural circuit element E3.

【0029】このような構成の本神経回路網の学習を先
ず行うが、これは入力層LIに対して、入力情報として
5時刻前までの時系列を入力し、現時刻の時系列を推定
させることで行うが、入力に対して出力が同じとなるよ
うに処理されるよう荷重値とバイアス値を調整すれば良
い。
Learning of the neural network having such a configuration is first performed. In this learning, a time series up to five times before is input to the input layer LI as input information, and the time series at the current time is estimated. However, the load value and the bias value may be adjusted so that the input is processed so that the output becomes the same.

【0030】本実施例では、100個の時系列データx
1 ,x2 ,x3 , 〜 x98,x99,x100 のうち、x
1 ,〜x30までの30個分を学習データとして用い、残
りの70個分であるx31,〜x100 について予測を行う
ものとするので、入力情報として5時刻前までの時系列
を取り込むようにすると、学習データとしては (x1 ,x2 ,x3 ,x4 ,x5 )→x6 (x2 ,x3 ,x4 ,x5 ,x6 )→x7 (x3 ,x4 ,x5 ,x6 ,x7 )→x8 (x4 ,x5 ,x6 ,x7 ,x8 )→x9 ・ ・ ・ ・ (x24,x25,x26,x27,x28)→x29 (x25,x26,x27,x28,x29)→x30 と云う具合に計25個が作成される。
In this embodiment, 100 time-series data x
1, x2, x3, to x98, x99, x100, x
Since 1 to 30 are used as learning data and the remaining 70 x31 to x100 are predicted, the time series up to 5 hours before is taken as input information. The learning data is (x1, x2, x3, x4, x5) → x6 (x2, x3, x4, x5, x6) → x7 (x3, x4, x5, x6, x7) → x8 (x4, x5, x6). , X7, x8) → x9... (X24, x25, x26, x27, x28) → x29 (x25, x26, x27, x28, x29) → x30.

【0031】すなわち、時系列データx1 ,x2 ,x3
,x4 ,x5 は並列データ化されて入力層Iの神経回
路素子E11,E12,E13,E14,E15の対応する一つに
入力され、中間層LMで処理されて出力層LOから時系
列データx6 となって出力される。
That is, the time series data x1, x2, x3
, X4, x5 are converted into parallel data, input to the corresponding one of the neural circuit elements E11, E12, E13, E14, E15 of the input layer I, processed by the intermediate layer LM, and processed by the output layer LO to obtain the time series data x6. Is output as

【0032】つまり、時系列データx1 は神経回路素子
E11に入力され、時系列データx2は神経回路素子E12
に入力され、時系列データx3 は神経回路素子E13に入
力され、時系列データx4 は神経回路素子E14に入力さ
れ、時系列データx5 は神経回路素子E15に入力されて
それぞれの素子から中間層LMの神経回路素子の対応す
る素子に入力され、処理される結果、時系列データx5
の次の時点での時系列データであるx6 が求められ、出
力層LOから出力される。
That is, the time series data x1 is input to the neural network element E11, and the time series data x2 is input to the neural circuit element E12.
, The time-series data x3 is input to the neural circuit element E13, the time-series data x4 is input to the neural circuit element E14, and the time-series data x5 is input to the neural circuit element E15. Is input to the corresponding element of the neural circuit element and processed, as a result, time-series data x5
X6, which is time series data at the next time point, is obtained and output from the output layer LO.

【0033】次に、時系列データx2 ,x3 ,x4 ,x
5 ,x6 が並列データ化されて入力層Iの神経回路素子
E11,E12,E13,E14,E15の対応する一つに入力さ
れ、中間層LMで処理されて出力層LOから時系列デー
タx6 となって出力される。
Next, the time series data x2, x3, x4, x
5 and x6 are converted into parallel data and input to the corresponding one of the neural circuit elements E11, E12, E13, E14 and E15 of the input layer I, processed by the intermediate layer LM, and time-series data x6 from the output layer LO. Is output.

【0034】つまり、時系列データx2 は神経回路素子
E11に入力され、時系列データx3は神経回路素子E12
に入力され、時系列データx4 は神経回路素子E13に入
力され、時系列データx5 は神経回路素子E14に入力さ
れ、時系列データx6 は神経回路素子E15に入力されて
それぞれの素子から中間層LMの神経回路素子の対応す
る素子に入力され、処理される結果、時系列データx6
の次の時点での時系列データであるx7 が求められ、出
力層LOから出力される。
That is, the time series data x2 is inputted to the neural network element E11, and the time series data x3 is inputted to the neural network element E12.
, The time-series data x4 is input to the neural circuit element E13, the time-series data x5 is input to the neural circuit element E14, and the time-series data x6 is input to the neural circuit element E15. Is input to the corresponding element of the neural circuit element and processed, as a result, time-series data x6
X7, which is time series data at the next time point, is obtained and output from the output layer LO.

【0035】次に、時系列データx3 ,x4 ,x5 ,x
6 ,x7 が並列データ化されて入力層Iの神経回路素子
E11,E12,E13,E14,E15の対応する一つに入力さ
れ、中間層LMで処理されて出力層LOから時系列デー
タx8 となって出力される。
Next, the time series data x3, x4, x5, x
6, x7 are converted into parallel data, input to the corresponding one of the neural circuit elements E11, E12, E13, E14, E15 of the input layer I, processed by the intermediate layer LM, and output from the output layer LO as time-series data x8. Is output.

【0036】つまり、時系列データx3 は神経回路素子
E11に入力され、時系列データx4は神経回路素子E12
に入力され、時系列データx5 は神経回路素子E13に入
力され、時系列データx6 は神経回路素子E14に入力さ
れ、時系列データx7 は神経回路素子E15に入力されて
それぞれの素子から中間層LMの神経回路素子の対応す
る素子に入力され、処理される結果、時系列データx7
の次の時点での時系列データであるx8 が求められ、出
力層LOから出力される。
That is, the time series data x3 is input to the neural network element E11, and the time series data x4 is input to the neural circuit element E12.
, The time-series data x5 is input to the neural circuit element E13, the time-series data x6 is input to the neural circuit element E14, and the time-series data x7 is input to the neural circuit element E15. Is input to the corresponding element of the neural circuit element and processed, as a result, time-series data x7
X8, which is time series data at the next time point, is obtained and output from the output layer LO.

【0037】同様にして、時系列データx25,x26,x
27,x28,x29については、これら時系列データx25,
x26,x27,x28,x29が並列データ化されて入力層I
の神経回路素子E11,E12,E13,E14,E15の対応す
る一つに入力され、中間層LMで処理されて出力層LO
から時系列データx30となって出力される。
Similarly, the time series data x25, x26, x
27, x28, x29, these time series data x25,
x26, x27, x28, x29 are converted into parallel data and input layer I
Is input to a corresponding one of the neural circuit elements E11, E12, E13, E14, and E15, processed by the intermediate layer LM, and output to the output layer LO.
Is output as time series data x30.

【0038】つまり、時系列データx25は神経回路素子
E11に入力され、時系列データx26は神経回路素子E12
に入力され、時系列データx27は神経回路素子E13に入
力され、時系列データx28は神経回路素子E14に入力さ
れ、時系列データx29は神経回路素子E15に入力されて
それぞれの素子から中間層LMの神経回路素子の対応す
る素子に入力され、処理される結果、時系列データx29
の次の時点での時系列データであるx30が求められ、出
力層LOから出力される。
That is, the time series data x25 is input to the neural network element E11, and the time series data x26 is input to the neural circuit element E12.
, The time-series data x27 is input to the neural circuit element E13, the time-series data x28 is input to the neural circuit element E14, and the time-series data x29 is input to the neural circuit element E15. Is input to the corresponding element of the neural circuit element and processed, and the time series data x29
X30, which is time series data at the next time point, is obtained and output from the output layer LO.

【0039】従って、既知データであるx1 からx30ま
でのデータを学習データとして用い、x1 から順番に5
個一組として各組毎に時系列的に1データ分ずつシフト
させた25組分について自己の組の1データ分未来のデ
ータを求めると、x6 からx30の25種の出力が得られ
るので、これらx6 からx30の25種の出力の値が学習
に用いた既知データx6 〜x30の値になるように荷重値
やバイアス成分を修正することで神経回路網に対する学
習を実施することができる。
Therefore, data from x1 to x30, which are known data, are used as learning data, and 5 data are sequentially assigned from x1.
When the future data for one data of the own set is obtained for 25 sets which are shifted by one data in time series for each set as one set, 25 kinds of outputs from x6 to x30 are obtained. Learning to the neural network can be performed by correcting the load values and bias components so that the values of the 25 types of outputs x6 to x30 become the values of the known data x6 to x30 used for learning.

【0040】学習にあたってはこのように、神経回路網
に対し、既知の入力データを与え、当該入力データに対
する望ましい出力データが得られるように、神経回路素
子の荷重値およびバイアス成分を段階的に修正する。
In learning, as described above, known input data is given to the neural network, and the weight value and the bias component of the neural circuit element are corrected stepwise so that desired output data corresponding to the input data is obtained. I do.

【0041】入力データ入力時での出力値が前記望まし
い出力データに一致させるようデータに対して付加する
神経回路素子の荷重値およびバイアス成分を段階的に修
正するが、ここでの学習方法は、( 1) 個別の神経回
路素子に対する荷重値のみの修正処理、 ( 2) 個別の
神経回路素子に対するバイアス成分のみの修正処理、(
3) 個別の神経回路素子に対する荷重値とバイアス成分
の双方の修正処理、の3つのモードが実施可能であると
共に、これら修正処理のモードのうち、少なくとも2つ
のモードを用い、用意した学習データの入力により予定
の出力データ得られるよう、モードを切り替えて修正処
理を実施する。
The weight value and bias component of the neural circuit element added to the data are corrected stepwise so that the output value at the time of inputting the input data coincides with the desired output data. (1) Correction processing of only the weight value for individual neural circuit elements, (2) Correction processing of only bias components for individual neural circuit elements, (
3) Correction processing of both the weight value and bias component for each neural circuit element can be performed, and at least two of these correction processing modes are used to prepare the prepared learning data. The mode is switched and the correction processing is performed so that expected output data can be obtained by input.

【0042】学習はバックプロパゲーションを行う。す
なわち、神経回路素子Ei の出力値をoi 、神経回路素
子Ei のバイアス値をhi 、神経回路素子Ei への入力
値の総和をui 、神経回路素子Ej から神経回路素子E
i へ向かう連結の荷重値をwij、学習データを(I:
T)(但し、Iは入力、Tは望ましい出力を指す)、荷
重値wijの修正量をΔwij、神経回路素子Ei のバイア
ス値hi の修正量をΔhi 、神経回路素子Ei の誤差を
δi 、出力関数をf(x)としたときに、神経回路素子
Ei の出力値oi は神経回路素子Ei が入力素子の場合
では oi =Ii …(1) 神経回路素子Ei が入力素子でない場合では oi =f(ui ) …(2) となる。ここで、神経回路素子Ei への入力値の総和u
i と表される。また、神経回路素子Ei の誤差δi は、神
経回路素子Ei が出力素子の場合には 神経回路素子Ei が出力素子でない場合には と表され、荷重値wijの修正量Δwijは Δwij=−αδij +βΔwij …(6) 神経回路素子Ei のバイアス値hi の修正量Δhi は Δhi =−αδi +βΔhi …(7) (但し、α,βは正の定数)で表されるので、これらの
式を用いて条件対応に演算処理することにより、神経回
路素子Ej から神経回路素子Ei へ向かう連結の荷重値
ijに対する荷重値修正量Δwijと、神経回路素子Ei
のバイアス値hi に対するバイアス値修正量Δhi を求
める。そして、その後に、この求めた荷重値修正量Δw
ijと、バイアス値修正量Δhを使用して wij ← wij+Δwij …(8) hi ← hi +Δhi …(9) なる処理を施すことにより、神経回路素子Ej から神経
回路素子Ei へ向かう連結の荷重値wijや、神経回路素
子Ei のバイアス値hi を更新する。このような処理を
誤差Err
In the learning, back propagation is performed. You
That is, the output value of the neural circuit element Ei is represented by oi , Neural circuit element
The bias value of child Ei is hi , Input to neural circuit element Ei
U is the sum of the valuesi From the neural circuit element Ej to the neural circuit element E
The load value of the connection toward iij, Learning data (I:
T) (where I is the input, T is the desired output), load
Weight wijΔwijThe via of the neural circuit element Ei
Value hi Δhi And the error of the neural circuit element Ei
δi , When the output function is f (x), the neural circuit element
Output value o of Eii Is when the neural circuit element Ei is an input element
Then oi = Ii ... (1) When the neural circuit element Ei is not an input element, oi = F (ui ) (2) Here, the sum u of the input values to the neural circuit element Ei
i Is It is expressed as Also, the error δ of the neural circuit element Eii The god
When the transit element Ei is an output elementIf the neural circuit element Ei is not an output elementAnd the load value wijCorrection amount ΔwijIs Δwij= −αδi oj + ΒΔwij ... (6) Bias value h of neural circuit element Eii Correction amount Δhi Is Δhi = −αδi + ΒΔhi ... (7) (where α and β are positive constants)
By performing arithmetic processing on the condition using the equation,
Load value of the connection from the road element Ej to the neural circuit element Ei
wijLoad correction amount Δw forijAnd the neural circuit element Ei
Bias value hi Correction amount Δh fori Seeking
Confuse. Then, thereafter, the obtained load value correction amount Δw
ijAnd the bias value correction amount Δhij ← wij+ Δwij … (8) hi ← hi + Δhi (9) By performing the following processing, the neural circuit element Ej
The load value w of the connection toward the circuit element EiijOr neural circuit
The bias value h of the child Eii To update. Such processing
Error Err

【0043】[0043]

【数1】 が十分に小さくなるまで処理を繰り返す。これがバック
プロパゲーションによる学習である。
(Equation 1) Is repeated until is sufficiently small. This is learning by back propagation.

【0044】このようにして、神経回路網の各神経回路
素子Ei について、個別に荷重値wijや、バイアス値h
i を学習することができる。ここで注目すべきは、上記
各式からわかるように、神経回路網の各神経回路素子E
i について、個別に荷重値wijと、バイアス値hi とを
学習することができると云う点であり、荷重値wijのみ
の学習や、バイアス値hi のみの学習が可能であると云
う点である。
Thus, for each neural circuit element Ei of the neural network, the weight value w ij and the bias value h
i can learn. It should be noted here that, as can be seen from the above equations, each neural network element E of the neural network
For i, refers the load value w ij individually, and a point referred to be able to learn the bias value h i, learning and load value w ij only, it is possible to learn only the bias values h i Is a point.

【0045】これにより、個々の神経回路素子はそれぞ
れ単独で、しかも、バイアス値hと荷重値wとを連動さ
せることなく、一方のみを修正することもできるように
なり、従って、修正の影響を他に与えることなく、所望
の神経回路素子のバイアス値hや荷重値wを修正でき、
微妙な修正ができるようになって、予測精度の向上を図
ることができるようになる。
As a result, each of the neural network elements can be corrected independently, and only one of them can be corrected without interlocking the bias value h and the load value w. The bias value h and the weight value w of the desired neural circuit element can be corrected without giving otherwise,
Subtle corrections can be made, and the prediction accuracy can be improved.

【0046】神経回路網の各神経回路素子について、学
習が終わったならば、次に、時系列予測に移るが、それ
に先立ち、神経回路網に対し、既学習データに類似した
新規データを与えて、再学習を行うと共に、この再学習
の際に、バイアス値のみの修正あるいは荷重値のみの修
正をする。
After learning is completed for each neural network element of the neural network, the process proceeds to time series prediction. Prior to that, new data similar to the learned data is given to the neural network. In addition, re-learning is performed, and in this re-learning, only the bias value or only the load value is corrected.

【0047】すなわち、本発明では、上述のようなバッ
クプロパゲーションによる学習が終了した神経回路網に
対し、既学習データに類似した新規データを加えて、再
学習を行った後、時系列予測を行う。
That is, according to the present invention, new data similar to the already-learned data is added to the neural network which has been trained by the back propagation as described above, and re-learning is performed. Do.

【0048】再学習は、学習が終了している神経回路網
に対し、既学習データに類似した新規データを与えて行
うと共に、この再学習の際に、バイアス値のみの修正あ
るいは荷重値のみの修正をする。
The re-learning is performed by giving new data similar to the already-learned data to the neural network for which learning has been completed, and at the time of the re-learning, only the bias value is corrected or only the weight value is changed. Make corrections.

【0049】再学習と時系列予測の処理手順を説明す
る。 [step1] まずはじめに、t←31(tに31
を代入)とする。これは30時点分を学習用に使用して
いるためであり、測定はその後の時点のデータを使用し
て行うからである。
The processing procedure of re-learning and time series prediction will be described. [Step 1] First, t ← 31 (31 for t)
Is substituted). This is because 30 points of time are used for learning, and the measurement is performed using the data at the subsequent points in time.

【0050】[step2] 次に、時系列データの
うち、以下の5つを微調整用データとする。 (xt-10,xt-9 ,xt-8 ,xt-7 ,xt-6 :xt-5 ) (xt-9 ,xt-8 ,xt-7 ,xt-6 ,xt-5 :xt-4 ) (xt-8 ,xt-7 ,xt-6 ,xt-5 ,xt-4 :xt-3 ) (xt-7 ,xt-6 ,xt-5 ,xt-4 ,xt-3 :xt-2 ) (xt-6 ,xt-5 ,xt-4 ,xt-3 ,xt-2 :xt-1 ) [step3] 次に、このような5種の微調整用デ
ータに対し、バイアス値hのみの修正を行う。これは、
式(1),式(2),式(3),式(4),式(5),
式(7)を用いてバイアス値hの修正量Δhを算出し、
式(9)によりバイアス値hのみを当該求めた修正量Δ
h分、修正すると云う処理であって、ここでの処理は、
先の学習の際に用いたデータの近傍のデータを用いての
再学習による微調整処理である。
[Step 2] Next, the following five of the time-series data are used as fine adjustment data. ( Xt-10 , xt-9 , xt-8 , xt-7 , xt-6 : xt-5 ) ( xt-9 , xt-8 , xt-7 , xt- 6 , xt-5 : xt-4 ) ( xt-8 , xt-7 , xt-6 , xt-5 , xt-4 : xt-3 ) ( xt-7 , x t-6 , xt-5 , xt-4 , xt-3 : xt-2 ) ( xt-6 , xt-5 , xt-4 , xt-3 , xt-2 : x t-1 ) [step 3] Next, only the bias value h is corrected for such five types of fine adjustment data. this is,
Equations (1), (2), (3), (4), (5),
The correction amount Δh of the bias value h is calculated using Expression (7),
Only the bias value h is calculated by the equation (9) to obtain the correction amount Δ
h, which is a process of correcting, and the process here is
This is a fine adjustment process by re-learning using data near the data used in the previous learning.

【0051】[step4] 次に、このような微調
整済の神経回路網に対し、先の微調整データ(xt-5
t-4 ,xt-3 ,xt-2 ,xt-1)を入力し、時刻tで
の予測値xt ′を算出する。
[Step 4] Next, with respect to such a finely adjusted neural network, the fine adjustment data (x t-5 ,
xt-4 , xt-3 , xt-2 , xt-1 ), and calculates a predicted value xt 'at time t.

【0052】[step5] 次に、時刻tでの観測
値xt が得られたならば、これをデータベースに加え
る。 [step6] 予測を続ける場合は、t←t+1と
してstep2の処理へ戻る。そうでなければ終了す
る。
[Step 5] Next, if the observed value x t at the time t is obtained, it is added to the database. [Step 6] When the prediction is continued, the process returns to step 2 with t ← t + 1. Otherwise, end.

【0053】既学習データより選び出された新規データ
を使用した再学習処理に当たっては、現在時点をtとし
た場合に、入力データが時刻t−1までの時系列データ
であり、出力データが時刻t以後のデータ(つまり時系
列予測のデータ)であるときに、過去のデータに対して
は荷重値とバイアス成分の双方を修正する学習方式を採
用し、現在の入力データより将来の時系列を予測する際
には、予測時刻の近傍の過去のデータを用いてバイアス
成分だけを修正する学習方式により、バイアス成分の修
正を行うようにする。このようにすると、学習済み神経
回路網に対して、効率的に微調整ができる。そして、こ
のような再学習を終えた後に、時系列予測に移る。
In the re-learning process using the new data selected from the already-learned data, when the current time is t, the input data is time-series data up to time t-1, and the output data is When the data is after t (that is, data of the time series prediction), a learning method of correcting both the weight value and the bias component is applied to the past data, and a future time series is obtained from the current input data. At the time of prediction, the bias component is corrected by a learning method of correcting only the bias component using past data near the prediction time. In this way, fine adjustment can be efficiently performed on the learned neural network. Then, after completing such re-learning, the process proceeds to time-series prediction.

【0054】以上の方法で、先の時系列データの予測を
行った結果を図3に示す。すなわち、図3に示すよう
に、微調整時バイアス値のみ修正のケースでは、相対誤
差平均は“4.00”[%]で、相対誤差分散は“0.
0062”であり、微調整時荷重値とバイアス値の双方
修正のケースでは、相対誤差平均は“5.17”[%]
で、相対誤差分散は“0.0112”であり、微調整を
しなかったケースでは、相対誤差平均は“18.57”
[%]で、相対誤差分散は“0.0992”であった。
FIG. 3 shows the result of the above-described method for predicting the time-series data. That is, as shown in FIG. 3, in the case where only the bias value at the time of fine adjustment is corrected, the relative error average is “4.00” [%] and the relative error variance is “0.
0062 ”, and in the case of correcting both the load value and the bias value at the time of fine adjustment, the average relative error is“ 5.17 ”[%].
The relative error variance is “0.0112”, and in the case where fine adjustment is not performed, the relative error average is “18.57”.
In [%], the relative error variance was “0.0992”.

【0055】ここで相対誤差は|xi ′−xi |/xi
によって計算している。また、誤差平均が零に近く、か
つ分散が小さいほど、予測精度が高いことになる。従っ
て、本発明で提案した如き、バイアス値と荷重値を連動
せずに修正する方式を採用することで、予測精度が格段
に向上していることがわかる。
Here, the relative error is | x i ′ −x i | / x i
Calculated by Also, the closer the error average is to zero and the smaller the variance, the higher the prediction accuracy. Therefore, it can be understood that the prediction accuracy is remarkably improved by adopting a method of correcting the bias value and the load value without interlocking as proposed in the present invention.

【0056】このように、本発明は、入力データに対し
て所要の処理をして出力する複数の神経回路素子を多段
接続してなる神経回路網に対し、入力データと当該入力
データに対する望ましい出力データを与えることによ
り、入力データ入力時での出力値が前記望ましい出力デ
ータに一致させるようデータに対して付加する神経回路
素子の荷重値およびバイアス成分を段階的に修正する神
経回路網の学習方法において、個別の神経回路素子に対
する荷重値のみの修正処理と、個別の神経回路素子に対
するバイアス成分のみの修正処理と、個別の神経回路素
子に対する荷重値とバイアス成分の双方の修正処理と、
を可能にすると共に、これら修正処理のうち、少なくと
も2つを用い、用意した学習データの入力により予定の
出力データ得られるよう、修正処理を切り替えて実施す
るようにしたものである。更には、本発明は、学習が終
了している神経回路網に対し、既学習データに類似した
新規データを与えて、再学習を行うと共に、この再学習
の際に、バイアス値のみの修正あるいは荷重値のみの修
正をするようにしたものである。
As described above, according to the present invention, the input data and the desired output with respect to the input data are provided for the neural network formed by connecting a plurality of neural circuit elements for performing required processing on the input data and outputting the processed data. A method for learning a neural network, in which, by providing data, a weight value and a bias component of a neural circuit element added to data in a stepwise manner so that an output value at the time of input data input matches the desired output data. In, the correction process of only the load value for the individual neural circuit element, the correction process of only the bias component for the individual neural circuit element, the correction process of both the load value and the bias component for the individual neural circuit element,
In addition, at least two of these correction processes are used, and the correction processes are switched to be performed so that expected output data can be obtained by inputting the prepared learning data. Further, the present invention provides new data similar to the already-learned data to the neural network for which learning has been completed, performs re-learning, and corrects or corrects only the bias value during this re-learning. Only the load value is corrected.

【0057】神経回路網システムに対する補正が必要な
場合に、従来手法では、神経回路網の出力に一律に数値
を加算あるいは減算したり、予測時刻近傍のデータによ
り神経回路網全体を再学習すると云った方法が採られて
おり、このような方法では変動成分が定数でない場合に
は補正が不足であり、また、神経回路網全体の特性が近
傍データによって変えられてしまうために、いわば補正
が過剰になってしまうと云った欠点があったが、本発明
では荷重値とバイアス値の学習を別々に実施できるよう
にし、荷重値とバイアス値の学習を随時切り替えること
ができるようにしたことにより、学習効率を向上させる
ことができるようになり、また、学習が終了している神
経回路網に対し、既学習データに類似した新規データを
加えて、再学習を行い、その際に、バイアス値のみの修
正あるいは荷重値のみの修正をするようにしたことによ
り、神経回路網が実現している写像の特性を大きく破壊
すること無く、写像の微調整ができるようになるもので
ある。
When a correction to the neural network system is necessary, in the conventional method, a numerical value is uniformly added to or subtracted from the output of the neural network, or the entire neural network is re-learned with data near the predicted time. In such a method, if the fluctuation component is not a constant, the correction is insufficient, and the characteristics of the entire neural network are changed by the neighboring data, so to speak, the correction is excessive. However, in the present invention, the learning of the load value and the bias value can be performed separately, and the learning of the load value and the bias value can be switched at any time. Learning efficiency can be improved, and new data similar to the previously learned data is added to the neural network for which learning has been completed, and re-learning is performed. At this time, by correcting only the bias value or correcting only the load value, it is possible to fine-tune the mapping without greatly destroying the characteristics of the mapping realized by the neural network. It becomes something.

【0058】従って、本発明によれば、バイアス値と荷
重値とを連動させることなく一方のみを修正することが
できるようになり、従って、過去に学習した内容を大き
く破壊することなく効果的に微調整ができるようになっ
て、予測精度の向上を図ることができるようになる神経
回路網の学習方法を提供することができる。なお、本発
明は上述した実施形態に限定されるものではなく、種々
変形して実施可能である。
Therefore, according to the present invention, it is possible to correct only one of the bias value and the load value without interlocking the bias value and the load value. It is possible to provide a method for learning a neural network, which allows fine adjustment to be performed, thereby improving prediction accuracy. Note that the present invention is not limited to the above-described embodiment, and can be implemented with various modifications.

【0059】[0059]

【発明の効果】以上、詳述したように、本発明によれ
ば、バイアス値と荷重値とを連動させることなく、一方
のみを修正することができるようになり、従って、過去
に学習した内容を大きく破壊することなく効果的に微調
整ができるようになって、予測精度の向上を図ることが
できるようになる神経回路網システムを提供することが
できる。
As described above, according to the present invention, it is possible to correct only one of the bias value and the load value without interlocking the bias value and the load value. Can be effectively fine-tuned without greatly destroying it, and a neural network system capable of improving prediction accuracy can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に使用する一例として神経回路網の全体
構成を示すブロック図。
FIG. 1 is a block diagram showing an overall configuration of a neural network as an example used in the present invention.

【図2】本発明の実施例に用いる一例として時系列デー
タを示す図。
FIG. 2 is a diagram showing time-series data as an example used in an embodiment of the present invention.

【図3】本発明の具体例を説明するための神経回路網。FIG. 3 is a neural network for explaining a specific example of the present invention.

【図4】本発明の手法を適用した結果、神経回路網で得
られた予測結果を示す図。
FIG. 4 is a diagram showing prediction results obtained by a neural network as a result of applying the method of the present invention.

【図5】神経回路網を構成する神経細胞モデルを説明す
るための図。
FIG. 5 is a diagram for explaining a nerve cell model constituting a neural network.

【符号の説明】[Explanation of symbols]

LI…入力層 LM…中間層 LO…出力層 E11,〜E1m,E21,〜E2n,E3 …神経回路素子 oi …神経回路素子Ei の出力値 hi …神経回路素子Ei のバイアス値 ui …神経回路素子Ei への入力値の総和 wij…神経回路素子Ej から神経回路素子Ei へ向かう
連結の荷重値 Δwij…wijの修正量 Δhi …hi の修正量 δi …神経回路素子iの誤差 f(x)…出力関数
LI ... input layer LM ... intermediate layer LO ... output layer E11, ~E1m, E21, ~E2n, E3 ... bias value u i of the output values h i ... neural elements Ei of neural elements o i ... neural elements Ei ... sum w ij ... load value of the connection from the neural elements Ej towards neural elements Ei Δw ij ... w ij correction amount Δh i ... h i of the correction amount [delta] i ... neural elements of input values to the neural elements Ei Error of i f (x) ... output function

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】入力データに対して所要の処理をして出力
する複数の神経回路素子を多段接続してなる神経回路網
に対し、入力データと当該入力データに対する望ましい
出力データを与えることにより、入力データ入力時での
出力値が前記望ましい出力データに一致させるようデー
タに対して付加する神経回路素子の荷重値およびバイア
ス成分を段階的に修正する神経回路網の学習方法におい
て、 個別の神経回路素子に対する荷重値のみの修正処理と、 個別の神経回路素子に対するバイアス成分のみの修正処
理と、 個別の神経回路素子に対する荷重値とバイアス成分の双
方の修正処理と、を可能にすると共に、これら修正処理
のうち、少なくとも2つを用い、用意した学習データの
入力により予定の出力データ得られるよう、修正処理を
切り替えて実施することを特徴とする神経回路網の学習
方法。
An input data and a desired output data corresponding to the input data are given to a neural network formed by connecting a plurality of neural circuit elements for performing required processing on the input data and outputting the input data. A neural network learning method for gradually correcting a weight value and a bias component of a neural circuit element added to data so that an output value at the time of input data input matches the desired output data. Correction processing of only the load value for the element, correction processing of only the bias component for the individual neural circuit element, and correction processing of both the load value and the bias component for the individual neural circuit element are enabled, and these corrections are performed. Using at least two of the processes, cut the correction process so that the expected output data can be obtained by inputting the prepared learning data. Learning neural network, characterized in that Ete implemented.
【請求項2】請求項1記載の神経回路網の学習方法にお
いて、 学習が終了している神経回路網に対し、既学習データに
類似した新規データを与えて、再学習を行うと共に、こ
の再学習の際に、バイアス値のみの修正あるいは荷重値
のみの修正をすることを特徴とする神経回路網の学習方
法。
2. The neural network learning method according to claim 1, wherein new data similar to the already-learned data is provided to the neural network for which learning has been completed, and re-learning is performed. A method for learning a neural network, comprising correcting only a bias value or correcting only a weight value during learning.
【請求項3】請求項1記載の神経回路網の学習方法にお
いて、 現在時点をtとした場合に、入力データが時刻t−1ま
での時系列データであり、出力データが時刻t以後のデ
ータであるときに、過去のデータに対しては荷重値とバ
イアス成分の双方を修正する学習方式を採用し、現在の
入力データより将来の時系列を予測する際には、予測時
刻の近傍の過去のデータを用いてバイアス成分だけを修
正する学習方式によりバイアス成分の修正を行った後
に、時系列予測に移ることを特徴とする神経回路網の学
習方法。
3. The neural network learning method according to claim 1, wherein when the current time point is t, the input data is time-series data until time t-1, and the output data is data after time t. , A learning method that corrects both the weight value and the bias component is applied to past data, and when predicting a future time series from the current input data, the past time near the prediction time is used. A method for learning a neural network, comprising: correcting a bias component by a learning method of correcting only a bias component using the data of the above;
【請求項4】請求項1記載の神経回路網の学習方法にお
いて、 荷重値およびバイアス成分の修正量計算としてバックプ
ロパゲーションアルゴリズムを用いることを特徴とする
神経回路網の学習方法。
4. The method for learning a neural network according to claim 1, wherein a backpropagation algorithm is used for calculating the amount of correction of the weight value and the bias component.
【請求項5】請求項1記載の神経回路網の学習方法にお
いて、 予め与えられた学習データに対しては荷重値とバイアス
成分双方を修正する方式で学習しておき、新たに与えら
れた入力データxに対する出力を計算する際には、学習
データの中より前記入力データxに類似しているものを
選び出し、これらの類似データによりバイアス値のみ修
正する学習方法により、バイアス値を修正した後、入力
データxに対する出力値を計算することを特徴とする神
経回路網の学習方法。
5. The neural network learning method according to claim 1, wherein learning data given in advance is learned by a method of correcting both a weight value and a bias component, and a new input data is given. When calculating the output with respect to the data x, one that is similar to the input data x is selected from the learning data, and the bias value is corrected by a learning method in which only the bias value is corrected by using the similar data. A method for learning a neural network, comprising calculating an output value for input data x.
JP10287839A 1998-10-09 1998-10-09 Learning method for neural circuit network Pending JP2000112914A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10287839A JP2000112914A (en) 1998-10-09 1998-10-09 Learning method for neural circuit network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10287839A JP2000112914A (en) 1998-10-09 1998-10-09 Learning method for neural circuit network

Publications (1)

Publication Number Publication Date
JP2000112914A true JP2000112914A (en) 2000-04-21

Family

ID=17722449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10287839A Pending JP2000112914A (en) 1998-10-09 1998-10-09 Learning method for neural circuit network

Country Status (1)

Country Link
JP (1) JP2000112914A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7246079B2 (en) * 2000-12-22 2007-07-17 Fujitsu Limited Method of predicting initial input of new product, system for predicting initial input of new product, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7246079B2 (en) * 2000-12-22 2007-07-17 Fujitsu Limited Method of predicting initial input of new product, system for predicting initial input of new product, and recording medium

Similar Documents

Publication Publication Date Title
US7395251B2 (en) Neural networks for prediction and control
US4914603A (en) Training neural networks
US4912655A (en) Adjusting neural networks
JP2001236337A (en) Predicting device using neural network
US4912652A (en) Fast neural network training
US6876989B2 (en) Back-propagation neural network with enhanced neuron characteristics
US5222194A (en) Neural network with modification of neuron weights and reaction coefficient
JP2000112914A (en) Learning method for neural circuit network
JPH0451384A (en) Neural network and its construction method
Mathia et al. Solving nonlinear equations using recurrent neural networks
JP3262340B2 (en) Information processing device
JPH04264664A (en) Neural circuit-type pattern processor
Krawczak Backpropagation versus dynamic programming approach for neural networks learning
JP3083172B2 (en) Pre-compensator and pre-compensation method
JPH0233655A (en) Nerve circuit network type pattern processor
JPH06186064A (en) System modeling device
JP3137996B2 (en) Neural network using membership function and its learning method
JP3288066B2 (en) Learning processing method and system for network configuration data processing device
JPH04353963A (en) Device and method for constructing neural circuit network
JPH0696046A (en) Learning processor of neural network
Gorzalczany Business data modelling and forecasting with the use of fuzzy neural networks
JPH06131482A (en) Analog neural network circuit
JPH05324599A (en) Non-linear synapse neuron, device therefor and predicting method using the device
JPH0635881A (en) Neural network
JPH04323763A (en) Neural network learning method