JPH0635889A - Neural network device and learning method therefor - Google Patents
Neural network device and learning method thereforInfo
- Publication number
- JPH0635889A JPH0635889A JP4214677A JP21467792A JPH0635889A JP H0635889 A JPH0635889 A JP H0635889A JP 4214677 A JP4214677 A JP 4214677A JP 21467792 A JP21467792 A JP 21467792A JP H0635889 A JPH0635889 A JP H0635889A
- Authority
- JP
- Japan
- Prior art keywords
- input signal
- case
- neural network
- area
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Feedback Control In General (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、事例から学習した対応
関係をもとに与えられた入力信号に対応する出力信号を
求めて出力するニューラルネットワーク装置及びその学
習方法に係り、特に、該装置の利用期間中、継続的に事
例の一部分を更新し、再学習する必要がある場合に好適
なニューラルネットワーク装置及びその学習方法に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network apparatus and a learning method for obtaining and outputting an output signal corresponding to an input signal given based on a correspondence learned from a case, and more particularly to the learning method. The present invention relates to a neural network device and a learning method thereof suitable for the case where it is necessary to continuously update a part of cases and re-learn during the use period of.
【0002】[0002]
【従来の技術】ニューラルネットワークは、望まれる入
出力の具体事例を多数与えて学習させると、構成要素で
あるニューロン間の信号の伝達特性が変化し、入出力の
事例に含まれる一般的な対応関係を獲得し、再現するよ
うになる。学習する機械として、この能力が注目され、
さまざまな分野の問題にニューラルネットワークの応用
が試みられつつある。対象とする問題の特性が時間の経
過とともに変化するような場合には、学習で獲得した入
出力の対応関係もこの変化に適応させる工夫が必要にな
る。通常とられる一般的対応策は、事例の集合を問題の
特性変化を反映したものに更新して、すなわち、古い事
例を削除し、新しい事例を追加した上で、ネットワーク
を再度学習し直すという方法である。プロシーディング
ス・オブ・ザ・アイ・ジェー・シー・エヌ・エヌ ’9
0、第1巻(1990年)第1頁から第6頁(Pro
c. IJCNN ’90, Vol.1(199
0), pp.1−6)に記載されている株式市場予測
へのニューラルネットワーク応用例は、この方法を使っ
たものの一例である。本応用例では、経済環境や市況の
変化に適応するため、予測時点直前の一定長の期間から
得た事例のみを学習に使用する。このため、予測を行う
たびに、新たに得られる最新の事例をひとつ追加し、同
時に最旧の事例をひとつ削除して、事例集合が問題の最
新の特性を反映したものに保たれる。2. Description of the Related Art In a neural network, when a large number of desired input / output cases are given and learned, the transfer characteristics of signals between neurons, which are constituent elements, change, and general correspondences included in the input / output cases. Acquire and reproduce relationships. This ability attracts attention as a learning machine,
Applications of neural networks are being tried to solve problems in various fields. If the characteristics of the target problem change with the passage of time, it is necessary to devise a method to adapt the input-output correspondence obtained through learning to this change. The usual general remedy is to update the set of cases to reflect changes in the characteristics of the problem, i.e. delete old cases, add new ones, and then retrain the network. Is. Proceedings of the IJNC N '9
0, Volume 1 (1990), pages 1 to 6 (Pro
c. IJCNN '90, Vol. 1 (199
0), pp. The neural network application example to the stock market forecast described in 1-6) is an example of using this method. In this application example, in order to adapt to changes in the economic environment and market conditions, only cases obtained from a certain length of time immediately before the forecast time are used for learning. Thus, each time we make a prediction, we add one newest case that is newly obtained and at the same time delete one of the oldest cases, keeping the set of cases reflecting the latest characteristics of the problem.
【0003】[0003]
【発明が解決しようとする課題】パラメータの逐次修正
によるニューラルネットワークの学習は、ネットワーク
規模や事例数にもよるが、実際的な問題ではかなりの時
間を必要とする。上記従来技術は、事例のうちのごく一
部分を更新した場合であっても、すべての事例を使って
ネットワークを学習しなおすため、更新のたびに多くの
学習時間が必要になり、更新周期の短い問題には適用で
きなくなるという難点があった。本発明の目的は、利用
期間中、継続的に事例の一部分を更新し、再学習する必
要がある場合に、短時間で再学習可能なニューラルネッ
トワーク装置及びその学習方法を提供することにある。The learning of the neural network by the sequential correction of the parameters requires a considerable amount of time in a practical problem, although it depends on the network scale and the number of cases. Even if only a small part of the cases is updated, the above-mentioned conventional technique re-learns the network using all the cases, so a lot of learning time is required for each update, and the update cycle is short. The problem was that it was not applicable. An object of the present invention is to provide a neural network device and a learning method therefor capable of re-learning in a short time when it is necessary to continuously update a part of cases and re-learn during a use period.
【0004】[0004]
【課題を解決するための手段】上記目的を達成するため
に、ニューラルネットワーク装置の入力信号空間を複数
の入力信号領域に分割し、各領域ごとに対応する部分ニ
ューラルネットワークを設け、この各部分ニューラルネ
ットワークには対応する入力信号領域に属する事例だけ
の初期学習をさせ、事例更新時には更新事例を含む領域
に対応する部分ネットワークのみを再学習させるように
構成する。さらに、パラメータの逐次修正により再学習
を行うとき、再学習直前のパラメータ値を初期値として
使用するように構成する。In order to achieve the above object, the input signal space of a neural network device is divided into a plurality of input signal areas, and a partial neural network corresponding to each area is provided. The network is configured so that only the cases belonging to the corresponding input signal area are initially learned, and only the partial network corresponding to the area including the updated case is relearned at the time of updating the case. Furthermore, when re-learning is performed by sequentially correcting parameters, the parameter value immediately before re-learning is used as an initial value.
【0005】[0005]
【作用】毎回の事例更新では、ごく一部分の事例が更新
されるだけであるから、再学習が必要な部分ネットワー
クはごく限られる。各部分ネットワークは、入力信号空
間のうちある一部の領域の入出力特性を担当するだけで
あるので、ネットワーク規模は小さくてよく、しかも、
担当領域に属する事例数が少なくなり、全領域を単一の
ネットワークでカバーするより、再学習に要する時間の
大幅短縮が可能になる。また、問題によってはパラメー
タを逐次修正した収束点が事例の更新によってさほどず
れず、このような場合、再学習前の値を初期値にすれ
ば、少ない修正回数で収束するため、学習時間を短縮で
きる。With each case update, only a small number of cases are updated, so the number of sub-networks that require re-learning is very limited. Each sub-network only takes charge of the input / output characteristics of a certain area of the input signal space, so the network scale may be small, and
The number of cases that belong to the area in charge is small, and the time required for re-learning can be greatly shortened compared to covering all areas with a single network. In addition, depending on the problem, the convergence point where the parameters are sequentially modified does not shift much due to the update of the case.In such a case, if the value before re-learning is set to the initial value, it will converge with a small number of modifications, thus reducing the learning time. it can.
【0006】[0006]
【実施例】以下、本発明の実施例を図面により詳細に説
明する。図2は、本発明の一実施例のシステム構成図で
ある。202は、ニューラルネットワークに与える事例
(例えば、時系列データの予測問題に適用する場合、説
明変数と被説明変数の既知の実値)や入力信号値(同じ
く、説明変数の実値)、その他各種プログラムの入力デ
ータなどを入力する入力装置である。201は、ニュー
ラルネットワークから得た出力信号値(予測の場合、被
説明変数の予測値)やその他各種プログラムの出力デー
タなどを表示する表示装置である。203は、ニューラ
ルネットワークの学習や適用等の処理や、その他各種プ
ログラムなどを実行する処理装置である。204は、ニ
ューラルネットワークに与える事例等や、その他各種プ
ログラム、データなどを記憶する記憶装置である。20
5、206、207は、それぞれニューラルネットワー
クへの事例や入力信号値などをオンラインで入力するた
めの通信装置、通信回線、データ収集装置である。Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 2 is a system configuration diagram of an embodiment of the present invention. Reference numeral 202 denotes a case to be given to a neural network (for example, when applied to a prediction problem of time series data, known actual values of explanatory variables and explained variables), input signal values (also actual values of explanatory variables), and various other types. It is an input device for inputting program input data and the like. Reference numeral 201 denotes a display device that displays an output signal value (a predicted value of an explained variable in the case of prediction) obtained from a neural network and output data of other various programs. Reference numeral 203 denotes a processing device that executes processing such as learning and application of a neural network and other various programs. Reference numeral 204 denotes a storage device that stores examples given to the neural network and various other programs and data. 20
Reference numerals 5, 206, and 207 denote a communication device, a communication line, and a data collection device for inputting cases and input signal values to the neural network online.
【0007】図1は、本発明の一実施例であるニューラ
ルネットワーク装置のブロック図である。装置は望まれ
る入出力の特性を事例から学習し、適用時は学習した対
応関係をもとに入力信号にふさわしい出力信号を求め、
出力する。入力信号のとり得る値がつくる入力信号空間
は、入力信号領域と呼ぶ複数の領域に分割される。以
下、入力信号領域の数をKとする。学習用入力信号事例
群記憶部102、105、108等、及び、部分ニュー
ラルネットワーク103、106、109等、学習用出
力信号事例群記憶部104、107、110等は、いず
れもこれらK個の入力信号領域にそれぞれ対応して設け
られる。また、事例は入力信号値と出力信号値の対から
なり、入力信号値がどの入力信号領域に属するかで分類
される。装置は適用に先だって初期学習される。学習用
入力信号事例群記憶部102、105、108等は、そ
れぞれ対応する入力信号領域に属する事例の入力信号値
部分を記憶し、学習用出力信号事例群記憶部104、1
07、110等は、同じく事例の出力信号値部分を記憶
する。部分ニューラルネットワーク103、106、1
09等は、それぞれ学習用入力信号事例群記憶部10
2、105、108等と学習用出力信号事例群記憶部1
04、107、110等に記憶された対応する事例を使
い、初期学習する。初期学習の後、装置は学習で得た対
応関係を入出力の決定に適用する。入力信号分類処理部
111は、装置に与えられた入力信号114が属する入
力信号領域を特定し、部分ニューラルネットワーク10
3、106、109等のうち特定された領域に対応する
ネットワークの入力端に信号を供給する。出力信号決定
処理部112は、入力信号分類処理部111により信号
を供給された部分ニューラルネットワークが応答する
と、その出力端から得た値をもとに装置の出力信号11
5を決定する。装置は要求に応じて事例を更新し、その
変更が入出力特性に反映するよう再学習される。入出力
信号事例分類更新処理部101は、追加、削除、修正な
ど入出力信号事例に関する更新要求113が与えられる
と、更新を要求された事例が属する入力信号領域を特定
し、学習用入力信号事例群記憶部102、105、10
8等、及び、学習用出力信号事例群記憶部104、10
7、110等のうち特定された領域に対応する記憶部を
要求に応じて更新する。部分ニューラルネットワーク1
03、106、109等は、それぞれ対応する学習用入
力信号事例群記憶部102、105、108等、及び、
学習用出力信号事例群記憶部104、107、110等
が更新されると、更新後の事例を使い、再学習する。FIG. 1 is a block diagram of a neural network system which is an embodiment of the present invention. The device learns the desired input and output characteristics from the case, and when applying, calculates the output signal suitable for the input signal based on the learned correspondence relationship,
Output. The input signal space formed by the possible values of the input signal is divided into a plurality of areas called input signal areas. Hereinafter, the number of input signal areas is K. The learning input signal case group storage units 102, 105, 108, the partial neural networks 103, 106, 109, and the learning output signal case group storage units 104, 107, 110, etc. all have these K inputs. It is provided corresponding to each signal region. Further, the case is composed of a pair of an input signal value and an output signal value, and is classified by which input signal area the input signal value belongs to. The device is initially learned prior to application. The learning input signal case group storage units 102, 105, 108 and the like store the input signal value portions of the cases belonging to the corresponding input signal areas, and the learning output signal case group storage units 104, 1
07, 110, etc. also store the output signal value portion of the case. Partial neural networks 103, 106, 1
09 and the like are input signal case group storage unit 10 for learning.
2, 105, 108, etc. and learning output signal case group storage unit 1
Initial learning is performed using the corresponding cases stored in 04, 107, 110, etc. After the initial learning, the device applies the correspondence obtained in the learning to the input / output decision. The input signal classification processing unit 111 specifies the input signal region to which the input signal 114 given to the device belongs, and determines the partial neural network 10
A signal is supplied to the input end of the network corresponding to the specified area among 3, 106, 109 and the like. The output signal determination processing unit 112 responds to the partial neural network supplied with the signal by the input signal classification processing unit 111, based on the value obtained from the output end of the output signal 11 of the device.
Determine 5. The device updates the case on demand and is relearned to reflect the change in the I / O characteristics. When the input / output signal case classification update processing unit 101 is given an update request 113 regarding an input / output signal case such as addition, deletion, or correction, the input / output signal case classification update processing unit 101 identifies the input signal area to which the update-requested case belongs, and learns the input signal case. Group storage units 102, 105, 10
8 etc. and learning output signal case group storage units 104, 10
The storage unit corresponding to the specified area of 7, 110, etc. is updated according to the request. Partial neural network 1
03, 106, 109, and the like, respectively, corresponding learning input signal case group storage units 102, 105, 108, and
When the learning output signal case group storage units 104, 107, 110 and the like are updated, the updated cases are used to relearn.
【0008】図3は、入力信号領域の一例として、入力
信号空間(N次元)を矩形状に分割した場合を説明する
図である。 の不等式を満足するかどうかで判別できる。FIG. 3 is a diagram for explaining a case where an input signal space (N dimensions) is divided into rectangular shapes as an example of the input signal area. It can be determined by whether or not the inequality of is satisfied.
【0009】[0009]
【数1】 ただし、入力信号領域301の頂点のうち座標最小の点
302の座標値を 領域境界付近で事例から得られる入出力特性に連続性を
高める必要があるときは、隣あう領域どうしで互いに重
なりあう部分を生じるよう入力信号領域を配置する。例
えば、図3(b)において、領域kに対し座標のxi方
向で座標値の大きい側に隣あう領域をk+1とすると、[Equation 1] However, among the vertices of the input signal area 301, When it is necessary to improve the continuity of the input / output characteristics obtained from the case near the area boundary, the input signal areas are arranged so that adjacent areas overlap each other. For example, in FIG. 3B, if the region adjacent to the region k having a larger coordinate value in the x i direction of the coordinate is k + 1,
【0010】[0010]
【数2】 であれば、両領域には重なりあう部分を生じさせること
ができる。[Equation 2] If so, an overlapping portion can be generated in both regions.
【0011】図4は、入力信号領域定義テーブルの構成
を示す図である。このテーブルは、入出力信号事例分類
更新処理部101が有し、入力信号分類処理部111が
入力信号114の属する入力信号領域を特定する際や、
入出力信号事例分類更新処理部101が更新要求113
のあった事例の属する入力信号領域を特定する際などに
参照される。説明の具体化のためここでも矩形の入力信
号領域を例にとる。入力信号領域定義テーブルは、矩形
領域最小座標値格納欄401と、矩形領域最大座標値格
納欄402と、領域識別番号格納欄403からなる。テ
ーブルに登録された各レコードが、ひとつの入力信号領
域に対応する。矩形領域最小座標値格納欄401には、
入力信号領域の座標最小の頂点の座標値を格納する。矩
形領域最大座標値格納欄402には、同様、座標最大の
頂点の座標値を格納する。領域識別番号格納欄403に
は、領域を識別する番号を格納する。図5は、学習用入
出力信号事例テーブルの構成を示す図である。このテー
ブルは、学習用入力信号事例群記憶部102、105、
108等と学習用出力信号事例群記憶部104、10
7、110等を具体化したもので、入力信号領域に対応
したK個の部分テーブル501、505等からなり、部
分ニューラルネットワーク103、106、109等が
初期学習、及び、再学習する際や、入出力信号事例分類
更新処理部101が要求113のあった事例を更新する
際などに参照される。学習用入出力信号事例テーブルの
各部分テーブルは、事例識別情報格納欄502、506
等と、入力信号値格納欄503、507等と、出力信号
値格納欄504、508等からなる。部分テーブルに登
録された各レコードが、同部分テーブルに対応する入力
信号領域に属するひとつの学習用事例に対応する。事例
識別情報格納欄502、506等には、事例を識別する
情報、例えば、時系列データの事例の場合、時刻情報な
どを格納する。入力信号値格納欄503、507等に
は、事例の入力信号値を、出力信号値格納欄504、5
08等には、事例の出力信号値を格納する。FIG. 4 is a diagram showing the structure of the input signal area definition table. This table is included in the input / output signal case classification update processing unit 101, and when the input signal classification processing unit 111 specifies the input signal area to which the input signal 114 belongs,
The input / output signal case classification update processing unit 101 requests the update request 113.
This is referred to when specifying the input signal area to which the case that has occurred exists. For the sake of concreteness of explanation, a rectangular input signal region is also taken as an example here. The input signal area definition table includes a rectangular area minimum coordinate value storage field 401, a rectangular area maximum coordinate value storage field 402, and an area identification number storage field 403. Each record registered in the table corresponds to one input signal area. In the rectangular area minimum coordinate value storage field 401,
The coordinate value of the minimum vertex of the input signal area is stored. In the rectangular area maximum coordinate value storage field 402, similarly, the coordinate value of the vertex with the maximum coordinate is stored. The area identification number storage field 403 stores a number for identifying an area. FIG. 5 is a diagram showing the structure of the learning input / output signal case table. This table is used for learning input signal case group storage units 102, 105,
108, etc. and learning output signal case group storage units 104, 10
7, 110, etc., which are made up of K partial tables 501, 505, etc. corresponding to the input signal area, when the partial neural networks 103, 106, 109, etc. perform initial learning and re-learning, It is referred to when the input / output signal case classification update processing unit 101 updates the case for which the request 113 is made. Each partial table of the learning input / output signal case table has case identification information storage fields 502 and 506.
Etc., input signal value storage columns 503, 507, etc., and output signal value storage columns 504, 508, etc. Each record registered in the partial table corresponds to one learning case belonging to the input signal area corresponding to the partial table. The case identification information storage fields 502, 506, etc. store information for identifying cases, such as time information in the case of time series data. The input signal value storage fields 503, 507, etc. store the input signal value of the case in the output signal value storage fields 504, 5
The output signal value of the case is stored in 08 and the like.
【0012】図6は、本発明の一実施例の全体的な処理
手順を示すフローチャートを示し、各部分ニューラルネ
ットワークが実行処理するフローである。まず、ステッ
プ601で、対応する事例を使い部分ニューラルネット
ワーク103、106、109等を初期学習し、ステッ
プ602へ進む。ステップ602では、学習済みの部分
ニューラルネットワーク103、106、109等を適
用して、与えられた入力信号114に対応する出力信号
115を求め出力し、ステップ603へ進む。ステップ
603では、装置稼働の終了条件が成立したかどうかを
判定し、未成立であればステップ604へ進み、成立し
ていれば本手順を終了する。ステップ604では、更新
を要求されている事例があるかどうかを判定し、あれば
ステップ605へ進み、なければステップ602に戻っ
て以後上述の手順を繰り返す。ステップ605では、要
求に応じ事例を更新して、部分ニューラルネットワーク
103、106、109等を再学習し、次に、ステップ
602に戻って以後上述の手順を繰り返す。FIG. 6 is a flow chart showing an overall processing procedure of an embodiment of the present invention, and is a flow executed by each partial neural network. First, in step 601, the partial neural networks 103, 106, 109 and the like are initially learned using the corresponding cases, and the process proceeds to step 602. In step 602, the learned partial neural networks 103, 106, 109 and the like are applied to obtain and output the output signal 115 corresponding to the given input signal 114, and the process proceeds to step 603. In step 603, it is determined whether or not the condition for ending the operation of the apparatus is satisfied. If not satisfied, the process proceeds to step 604, and if satisfied, the present procedure is terminated. In step 604, it is determined whether or not there is a case for which updating is requested. If there is a case, the process proceeds to step 605, and if not, the process returns to step 602 and the above procedure is repeated thereafter. In step 605, the case is updated in response to the request, and the partial neural networks 103, 106, 109, etc. are relearned, and then the process returns to step 602 to repeat the above procedure.
【0013】図7は、ネットワーク初期学習処理の手順
を示すフローチャートであり、図6のステップ601で
の処理の詳細を具体化したものである。まず、ステップ
701で、初期登録が未処理の入出力信号事例を入力し
て、入出力信号事例分類更新処理部101に事例の追加
を要求し、ステップ702へ進む。ステップ702で
は、入出力信号事例分類更新処理部101が図4の入力
信号領域定義テーブルの内容と追加要求のあった入出力
信号事例を比較して、事例が属する入力信号領域を特定
し、ステップ703へ進む。ステップ703では、学習
用入力信号事例群記憶部102、105、108等、及
び、学習用出力信号事例群記憶部104、107、11
0等のうちステップ702で特定された入力信号領域に
対応する記憶部、より具体的にいえば、図5の学習用入
出力信号事例テーブルの部分テーブル501、505等
のうち特定された入力信号領域に対応する部分テーブル
に、入出力信号事例を追加し、ステップ704へ進む。
ステップ704では、初期登録が未処理の入出力信号事
例があるかどうかを判定し、なければステップ705へ
進み、あればステップ701に戻って以後上述の手順を
繰り返す。ステップ705では、部分ニューラルネット
ワーク103、106、109等のうち初期学習が未了
のネットワークを、対応する学習用入力信号事例群記憶
部、及び、学習用出力信号事例群記憶部に記憶された事
例、具体的には、図5の学習用入出力信号事例テーブル
の対応する部分テーブルに格納された事例を使って学習
し、ステップ706へ進む。ステップ706では、初期
学習が未処理の部分ニューラルネットワークがあるかど
うかを判定し、あればステップ705に戻って以後上述
の手順を繰り返し、なければ本手順を終了する。FIG. 7 is a flow chart showing the procedure of the network initial learning process, which embodies the details of the process in step 601 of FIG. First, in step 701, an input / output signal case whose initial registration has not been processed is input, the input / output signal case classification update processing unit 101 is requested to add a case, and the process proceeds to step 702. In step 702, the input / output signal case classification update processing unit 101 compares the contents of the input signal area definition table in FIG. 4 with the input / output signal case requested to be added, and specifies the input signal area to which the case belongs, Proceed to 703. In step 703, the learning input signal case group storage units 102, 105, 108, etc., and the learning output signal case group storage units 104, 107, 11
0, etc. corresponding to the input signal area specified in step 702, more specifically, the input signal specified in the partial tables 501, 505, etc. of the learning input / output signal case table in FIG. Input / output signal examples are added to the partial table corresponding to the region, and the process proceeds to step 704.
In step 704, it is determined whether or not there is an input / output signal case for which initial registration has not been processed. If not, the process proceeds to step 705, and if there is, the process returns to step 701 to repeat the above procedure. In step 705, a network in which initial learning is not completed among the partial neural networks 103, 106, and 109 is stored in the corresponding learning input signal case group storage unit and learning output signal case group storage unit. Specifically, learning is performed using the case stored in the corresponding partial table of the learning input / output signal case table of FIG. 5, and the process proceeds to step 706. In step 706, it is determined whether or not there is a partial neural network for which initial learning has not been processed. If there is a partial neural network, the process returns to step 705 and the above procedure is repeated thereafter, and if not, this procedure ends.
【0014】図8は、ネットワーク適用処理の手順を示
すフローチャートであり、図6のステップ602での処
理の詳細を具体化したものである。まず、ステップ80
1で、装置に入力信号114を入力して、入力信号分類
処理部111に供給する。次にステップ802で、入力
信号分類処理部111が図4の入力信号領域定義テーブ
ルの内容と入力信号114を比較して、信号が属する入
力信号領域を特定する。次にステップ803で、部分ニ
ューラルネットワーク103、106、109等のうち
ステップ802で特定された入力信号領域に対応するネ
ットワークの入力端に入力信号を供給する。次にステッ
プ804で、入力信号に応答した部分ニューラルネット
ワークの出力端から得た値をもとに出力信号決定処理部
112が出力信号115を決定する。隣あう入力信号領
域が互いに重なりあうよう入力信号空間に配置されてい
るため、複数の部分ニューラルネットワークから値が得
られる場合は、各入力信号領域への入力信号114の帰
属の程度に応じ、それら値を案分して出力信号115を
決める。最後にステップ805で、出力信号115を装
置から出力して本手順を終了する。FIG. 8 is a flow chart showing the procedure of the network application process, and is a detailed flow of the process in step 602 of FIG. First, step 80
In step 1, the input signal 114 is input to the device and supplied to the input signal classification processing unit 111. Next, in step 802, the input signal classification processing unit 111 compares the contents of the input signal region definition table of FIG. 4 with the input signal 114 to identify the input signal region to which the signal belongs. Next, in step 803, an input signal is supplied to the input terminal of the network corresponding to the input signal region specified in step 802 among the partial neural networks 103, 106, 109 and the like. Next, in step 804, the output signal determination processing unit 112 determines the output signal 115 based on the value obtained from the output terminal of the partial neural network in response to the input signal. Since the adjacent input signal areas are arranged in the input signal space so as to overlap each other, when values can be obtained from a plurality of partial neural networks, those values are obtained according to the degree of attribution of the input signal 114 to each input signal area. The output signal 115 is determined by dividing the values. Finally, in step 805, the output signal 115 is output from the device, and the procedure ends.
【0015】図9は、ネットワーク再学習処理の手順を
示すフローチャートであり、図6のステップ603の処
理の詳細を具体化したものである。まずステップ901
で、未処理の入出力信号事例更新要求113を入力して
入出力信号事例分類更新処理部101に供給し、ステッ
プ902へ進む。ステップ902では、入出力信号事例
分類更新処理部101が図4の入力信号領域定義テーブ
ルの内容と更新要求113のあった入出力信号事例を比
較して、事例が属する入力信号領域を特定し、ステップ
903へ進む。ステップ903では、更新内容を判定
し、事例の追加であればステップ904へ進み、事例の
削除であればステップ905へ進む。なお、ここでは事
例の削除と追加を組み合わせて事例の修正を表すことを
想定したが、事例の修正を独立の機能として設けること
も同様にして可能である。ステップ904では、学習用
出力信号事例群記憶部104、107、110等のうち
ステップ902で特定された入力信号領域に対応する記
憶部、より具体的には、図5の学習用入出力信号事例テ
ーブルの部分テーブル501、505等のうち特定され
た入力信号領域に対応する部分テーブルに入出力信号事
例を追加し、ステップ906へ進む。ステップ905で
は、ステップ904と同じく対応する記憶部ないし部分
テーブルから入出力信号事例を削除し、ステップ906
へ進む。ステップ906では、未処理の入出力信号事例
更新要求があるかどうかを判定し、なければステップ9
07へ進み、あればステップ901に戻って以後上述の
手順を繰り返す。ステップ907では、部分ニューラル
ネットワーク103、106、109等のうち再学習が
未検討のネットワークを選び、対応する学習用入力信号
事例群記憶部、及び、学習用出力信号事例群記憶部に記
憶された事例、ないし、図5の学習用入出力信号事例テ
ーブルの対応する部分テーブルに格納された事例に変更
があったかどうかを判定し、あったのであればステップ
908へ進み、なかったのであればステップ909へ進
む。ステップ908では、対応する事例に変更のあった
部分ニューラルネットワークを変更後の事例を使って学
習し、ステップ909へ進む。ステップ909では、再
学習が未検討の部分ニューラルネットワークがあるかど
うかを判定し、あればステップ907に戻って以後上述
の手順を繰り返し、なければ本手順を終了する。FIG. 9 is a flow chart showing the procedure of the network re-learning process, which embodies the details of the process of step 603 of FIG. First, step 901
Then, the unprocessed input / output signal case update request 113 is input and supplied to the input / output signal case classification update processing unit 101, and the process proceeds to step 902. In step 902, the input / output signal case classification update processing unit 101 compares the contents of the input signal area definition table in FIG. 4 with the input / output signal case for which the update request 113 is made, and specifies the input signal area to which the case belongs. Go to step 903. In step 903, the update content is determined, and if the case is added, the process proceeds to step 904, and if the case is deleted, the process proceeds to step 905. Although it is assumed here that case modification is represented by combining case deletion and addition, case modification can be provided as an independent function. In step 904, the storage unit corresponding to the input signal area specified in step 902 among the learning output signal case group storage units 104, 107, 110, and more specifically, the learning input / output signal case in FIG. The input / output signal case is added to the partial table corresponding to the specified input signal area of the partial tables 501, 505, etc. of the table, and the process proceeds to step 906. In step 905, the input / output signal case is deleted from the storage section or the partial table corresponding to step 904, and step 906 is executed.
Go to. In step 906, it is determined whether or not there is an unprocessed input / output signal case update request.
If so, the process returns to step 901 to repeat the above procedure. In step 907, a network for which re-learning has not been examined is selected from the partial neural networks 103, 106, 109, etc., and stored in the corresponding learning input signal case group storage unit and learning output signal case group storage unit. It is determined whether or not the case or the case stored in the corresponding partial table of the learning input / output signal case table in FIG. 5 is changed. If yes, the process proceeds to step 908, and if not, step 909. Go to. In step 908, the partial neural network in which the corresponding case has been changed is learned using the changed case, and the process proceeds to step 909. In step 909, it is determined whether or not there is a partial neural network for which re-learning has not been examined. If there is any, the procedure returns to step 907, and the above procedure is repeated. If not, this procedure ends.
【0016】図10〜図12では、部分ニューラルネッ
トワークにおける適用と学習の処理の詳細を説明する。
具体的な説明のため、部分ニューラルネットワークの構
造としてフィードフォーワード型層状ネットワーク、そ
の学習法として誤差逆伝播法を例にとる。図10は、フ
ィードフォーワード型層状ニューラルネットワークを説
明する図である。フィードフォーワード型層状ネットワ
ークでは、ネットワークを構成するニューロンが、多段
の層を成すよう配置され、かつ、外部から与えられた信
号が入力側の層1001から出力側の層1003へと一
方向にのみニューロン間を伝達するよう、相互に結合さ
れる。ネットワークの入力数、出力数、層数をそれ ニューロンの閾値と入出力特性関数、及び、ニューロン
間の結合強度で決まる。 10 to 12, details of the application and learning processes in the partial neural network will be described.
For specific explanation, a feedforward type layered network is used as the structure of the partial neural network, and an error backpropagation method is used as its learning method. FIG. 10 is a diagram for explaining a feedforward type layered neural network. In the feed-forward type layered network, neurons constituting the network are arranged so as to form multiple layers, and a signal applied from the outside is unidirectionally from the input side layer 1001 to the output side layer 1003. Connected to each other so as to transmit between neurons. The number of inputs, outputs, and layers of the network It is determined by the threshold value of the neuron, the input / output characteristic function, and the coupling strength between the neurons.
【0017】[0017]
【数3】 [Equation 3]
【0018】[0018]
【数4】 ニューロンの入出力特性関数としては、次式のようなシ
グモイド型関数がよく用いられる。[Equation 4] As the input / output characteristic function of the neuron, a sigmoid type function like the following equation is often used.
【0019】[0019]
【数5】 図11は、部分ネットワークの適用処理の手順を示すフ
ローチャートである。 をネットワークへの入力信号の値に設定する。[Equation 5] FIG. 11 is a flowchart showing a procedure of a partial network application process. Is set to the value of the input signal to the network.
【0020】[0020]
【数6】 次にステップ1102で、次式に従い、第2層1002
から第L層1003まで [Equation 6] Next, in step 1102, the second layer 1002 is
To L-layer 1003
【0021】[0021]
【数7】 [Equation 7]
【0022】[0022]
【数8】 最後にステップ1103で、次式に従い、第L層100
3の各ニューロンの出力 [Equation 8] Finally, in step 1103, the L-th layer 100 is calculated according to the following equation.
Output of each neuron of 3
【0023】[0023]
【数9】 図12は、部分ネットワークの学習処理の手順を示すフ
ローチャートである。 [Equation 9] FIG. 12 is a flowchart showing the procedure of the learning process of the partial network.
【0024】[0024]
【数10】 [Equation 10]
【0025】[0025]
【数11】 [Equation 11]
【0026】[0026]
【数12】 [Equation 12]
【0027】[0027]
【数13】 なお、図9のネットワーク再学習処理のステップ908
に本手順を使用する場合、処理時間の短縮のため、結合
強度と閾値の初期化を省いて再学習前の値をそのまま初
期値としてもよい。ステップ1202では、ネットワー
クの学習用事例群から事例をひとつ選択し、ステップ1
203へ進む。この選択は単に順番に取るの 203では、式(数6)に従い、第1層1001の各ニ
ューロンの出力信号値 では、式(数7)と(数8)に従い、第2層1002か
ら第L層1003まで順 05へ進む。ステップ1205では、次式に従い、第L
層1003の各ニューロ む。[Equation 13] Note that step 908 of the network re-learning process in FIG.
When this procedure is used for initialization, in order to shorten the processing time, it is possible to omit the initialization of the bond strength and the threshold and use the value before re-learning as it is as the initial value. In Step 1202, one case is selected from the learning case group of the network, and Step 1
Go to 203. This choice is simply taken in order In 203, the output signal value of each neuron of the first layer 1001 is calculated according to the equation (Equation 6). Then, in order from the second layer 1002 to the Lth layer 1003 according to the equations (Equation 7) and (Equation 8), Go to 05. In step 1205, the
Each neuron in layer 1003 Mu.
【0028】[0028]
【数14】 る。ステップ1206では、次式に従い、第(L−1)
層から第2層1002ま [Equation 14] It In step 1206, the (L-1) th is calculated according to the following equation.
From layer 2 to layer 1002
【0029】[0029]
【数15】 [Equation 15]
【0030】[0030]
【数16】 [Equation 16]
【0031】[0031]
【数17】 ただし、ηとαは学習の速度や安定度を決めるパラメー
タである。次に次式に従 [Equation 17] However, η and α are parameters that determine the learning speed and stability. Then according to
【0032】[0032]
【数18】 [Equation 18]
【0033】[0033]
【数19】 ステップ1208では、学習の終了条件を判定し、条件
未成立であればステップ1202に戻って以後上述の手
順を繰り返し、成立していれば本手順を終了する。学習
の終了条件としては、例えば、出力信号の事例との誤差
や、事例を学習した回数等が使える。[Formula 19] In step 1208, the learning end condition is determined. If the condition is not satisfied, the process returns to step 1202 and the above procedure is repeated thereafter. If the condition is satisfied, this procedure is terminated. As the learning end condition, for example, an error between the output signal and the case, the number of times the case is learned, or the like can be used.
【0034】図13は、入力信号領域の再構成を含む、
本発明の他の実施例の全体的な処理手順を示すフローチ
ャートである。本実施例によれば、所属事例数に対して
入力信号領域の大きさを常に適切に保つことができる。
ステップ1301から1305までの手順は、図6のス
テップ601から605までの手順と同様である。ステ
ップ1305の次はステップ1306へ進む。ステップ
1306では、事例数に応じ入力信号領域を再構成し
て、部分ニューラルネットワーク103、106、10
9等を再学習し、次にステップ1302に戻って以後上
述の手順を繰り返す。なお、ステップ1301、130
2、1305での処理の詳細は、それぞれ図7、8、9
に示したものと同様である。図14は、入力信号領域再
構成処理の手順を示すフローチャートであり、図13の
ステップ1306の処理の詳細を具体化したものであ
る。まず、ステップ1401で、各入力信号領域に属す
る事例の数を調べ、所属事例数が過大な入力信号領域を
複数の小領域に分割する。次にステップ1402で、所
属事例数が過小な入力信号領域を隣あう領域と統合す
る。最後にステップ1403で、分割・統合後の入力信
号領域に対応するよう部分ニューラルネットワークを構
成し直し、再学習して本手順を終了する。図15は、入
力信号領域分割処理の手順を示すフローチャートであ
り、図14のステップ1401での処理の詳細を具体化
したものである。まず、ステップ1501で、分割処理
が未検討の入力信号領域を選択し、ステップ1502へ
進む。ステップ1502では、学習用入力信号事例群記
憶部102、105、108等、及び、学習用出力信号
事例群記憶部104、107、110等のうちステップ
1501で選択した入力信号領域に対応する記憶部、具
体的には、図5の学習用入出力信号事例テーブルの部分
テーブル501、505等のうち選択した入力信号領域
に対応する部分テーブルに登録されている事例数を所定
の基準値と比較し、事例数が基準値を超過していればス
テップ1503へ進み、基準値以下であればステップ1
508へ進む。ステップ1503では、選択した入力信
号領域のサイズを所定の基準値と比較し、領域サイズが
基準値を超過していればステップ1504へ進み、基準
値以下であればステップ1508へ進む。矩形の入力信
号領域であれば、領域のサイズとして、例えば、矩形の
最小辺の長さを使うことができ、これは図4の入力信号
領域定義テーブルの内容から求められる。ステップ15
04では、領域を分割する軸を決定し、ステップ150
5へ進む。例えば、図4の入力信号領域定義テーブルと
図5の学習用入出力信号事例テーブルの部分テーブルの
内容をもとに、入力信号空間の各座標軸方向に垂直な平
面で入力信号領域を2等分してみて、最も片寄りが少な
く事例が分かれるような分割軸を選ぶ。ステップ150
5では、ステップ1504で選んだ軸に従い分割した後
の事例数のうち少ない方を所定の基準値と比較し、同事
例数が基準値を超過していればステップ1506へ進
み、基準値以下であればステップ1508へ進む。ステ
ップ1506では、ステップ1504で選んだ軸に従っ
て入力信号領域を分割し、新たに得られた子領域を図4
の入力信号領域定義テーブルに登録して、ステップ15
07へ進む。ステップ1507では、ステップ1506
の領域分割に従って事例を分け、子領域に対応し作成し
た図5の学習用入出力信号事例テーブルの新たな部分テ
ーブルに登録して、ステップ1508へ進む。ステップ
1508では、分割処理が未検討の入力信号領域がある
かどうかを判定し、あればステップ1501に戻って以
後上述の手順を繰り返し、なければ本手順を終了する。
図16は、入力信号領域統合処理の手順を示すフローチ
ャートであり、図14のステップ1402での処理の詳
細を具体化したものである。まずステップ1601で、
統合処理が未検討の入力信号領域を選択し、ステップ1
602へ進む。ステップ1602では、学習用入力信号
事例群記憶部102、105、108等、及び、学習用
出力信号事例群記憶部104、107、110等のうち
ステップ1601で選択した入力信号領域に対応する記
憶部、具体的には、図5の学習用入出力信号事例テーブ
ルの部分テーブル501、505等のうち選択した入力
信号領域に対応する部分テーブルに登録されている事例
数を所定の基準値と比較し、事例数が基準値以下であれ
ばステップ1603へ進み、基準値を超過していればス
テップ1605へ進む。ステップ1603では、ステッ
プ1601で選択した入力信号領域を、同領域がかって
図15の入力信号領域分割処理により子領域として生成
されたときの兄弟領域と統合し、図4の入力信号領域定
義テーブルの内容を分割前に復旧して、ステップ160
4へ進む。ステップ1604では、ステップ1603で
の領域統合に従って事例を合わせ、図5の学習用入出力
信号事例テーブルの内容を分割前に復旧して、ステップ
1605へ進む。ステップ1605では、統合処理が未
検討の入力信号領域があるかどうかを判定し、あればス
テップ1601に戻って以後上述の手順を繰り返し、な
ければ本手順を終了する。FIG. 13 includes reconstruction of the input signal domain,
It is a flow chart which shows the whole processing procedure of other examples of the present invention. According to the present embodiment, the size of the input signal area can be always kept appropriate with respect to the number of belonging cases.
The procedure from steps 1301 to 1305 is the same as the procedure from steps 601 to 605 in FIG. After step 1305, the process proceeds to step 1306. In step 1306, the input signal region is reconstructed according to the number of cases, and the partial neural networks 103, 106, 10
9 and the like are relearned, and then the process returns to step 1302 to repeat the above procedure. Note that steps 1301 and 130
Details of the processing in steps 2 and 1305 are shown in FIGS.
Is the same as that shown in. FIG. 14 is a flowchart showing the procedure of the input signal area reconstructing process, which embodies the details of the process of step 1306 of FIG. First, in step 1401, the number of cases belonging to each input signal area is checked, and the input signal area having an excessive number of belonging cases is divided into a plurality of small areas. Next, at step 1402, the input signal area having the excessively small number of belonging cases is integrated with the adjacent area. Finally, in step 1403, the partial neural network is reconfigured so as to correspond to the input signal area after division / integration, and relearning is performed, and this procedure is ended. FIG. 15 is a flow chart showing the procedure of the input signal area division processing, and is the one in which the details of the processing in step 1401 of FIG. 14 are embodied. First, in step 1501, an input signal region that has not been considered for division processing is selected, and the flow advances to step 1502. In step 1502, the learning input signal case group storage units 102, 105, 108 and the like, and the learning output signal case group storage units 104, 107, 110 and the like corresponding to the input signal area selected in step 1501. Specifically, the number of cases registered in the partial table 501, 505, etc. of the learning input / output signal case table shown in FIG. 5 corresponding to the selected input signal area is compared with a predetermined reference value. If the number of cases exceeds the reference value, the process proceeds to step 1503, and if it is less than the reference value, the step 1
Proceed to 508. In step 1503, the size of the selected input signal region is compared with a predetermined reference value. If the region size exceeds the reference value, the process proceeds to step 1504, and if it is less than the reference value, the process proceeds to step 1508. In the case of a rectangular input signal area, for example, the length of the minimum side of the rectangle can be used as the area size, which is obtained from the contents of the input signal area definition table of FIG. Step 15
In 04, the axis dividing the area is determined, and step 150
Go to 5. For example, based on the contents of the input signal area definition table of FIG. 4 and the partial table of the learning input / output signal example table of FIG. 5, the input signal area is divided into two equal parts on a plane perpendicular to each coordinate axis direction of the input signal space. Then, choose the split axis that has the least deviation and divides the cases. Step 150
In step 5, the smaller of the number of cases after division according to the axis selected in step 1504 is compared with a predetermined reference value. If the number of cases exceeds the reference value, the process proceeds to step 1506, and the value is equal to or less than the reference value. If there is, go to step 1508. In step 1506, the input signal area is divided according to the axis selected in step 1504, and the newly obtained child area is set as shown in FIG.
Step 15 in the input signal area definition table of
Proceed to 07. In Step 1507, Step 1506
The cases are divided in accordance with the area division, and registered in a new partial table of the learning input / output signal case table of FIG. 5 created corresponding to the child areas, and the process proceeds to step 1508. In step 1508, it is determined whether or not there is an input signal region for which division processing has not been examined. If there is an input signal region, the process returns to step 1501 to repeat the above procedure, and if not, this procedure ends.
FIG. 16 is a flow chart showing the procedure of the input signal area integration processing, which embodies the details of the processing in step 1402 of FIG. First, in step 1601,
Select an input signal area that has not been examined for integration processing, and
Proceed to 602. In step 1602, the learning input signal case group storage units 102, 105, 108 and the like, and the learning output signal case group storage units 104, 107, 110 and the like corresponding to the input signal area selected in step 1601. Specifically, the number of cases registered in the partial table 501, 505, etc. of the learning input / output signal case table shown in FIG. 5 corresponding to the selected input signal area is compared with a predetermined reference value. If the number of cases is less than or equal to the reference value, the process proceeds to step 1603, and if it exceeds the reference value, the process proceeds to step 1605. In step 1603, the input signal area selected in step 1601 is integrated with the sibling area when the same area is generated as a child area by the input signal area division processing of FIG. 15, and the input signal area definition table of FIG. Restore the contents before splitting, and step 160
Go to 4. In step 1604, cases are combined according to the area integration in step 1603, the contents of the learning input / output signal case table of FIG. 5 are restored before division, and the process proceeds to step 1605. In step 1605, it is determined whether or not there is an input signal region for which integration processing has not been examined. If there is, the process returns to step 1601 and the above procedure is repeated thereafter, and if not, this procedure ends.
【0035】図17は、時系列予測を対象とする、本発
明の別の実施例の処理手順を示すフローチャートであ
る。システム構成は図1と同一である。ある時刻tにお
ける説 の入力信号とし、予測周期Δt後の時刻(t+Δt)に
おける被説明変数の値 を行う。まず、ステップ1701で、説明変数と被説明
変数の既知の実値を事例としてニューラルネットワーク
装置を初期学習し、ステップ1702へ進む。ステップ
1702では、説明変数の現在の実値を入力し、ステッ
プ1703へ進む。ステップ1703では、装置に説明
変数の現在の実値を入力信号として供給し、ステップ1
704へ進む。ステップ1704では、装置から得た出
力信号を被説明変数のΔt後の予測値として出力し、ス
テップ1705へ進む。ステップ1705では、予測終
了の条件が成立したかどうかを判定し、未成立であれば
ステップ1706へ進み、成立していれば本手順を終了
する。ステップ1706では、予測周期Δtの間待ち、
ステップ1707へ進む。ステップ1707では、被説
明変数のΔt後の実値を入力し、ステップ1708へ進
む。ステップ1708では、ステップ1702で得た説
明変数の実値とステップ1707で得た被説明変数の実
値を最新の事例として追加するよう装置に要求し、ステ
ップ1709へ進む。ステップ1709では、装置が保
有する最旧の事例を削除するよう装置に要求し、ステッ
プ1710へ進む。ステップ1710では、装置を再学
習し、次にステップ1702に戻って以後上述の手順を
繰り返す。FIG. 17 is a flow chart showing the processing procedure of another embodiment of the present invention for time series prediction. The system configuration is the same as in FIG. Theory at a certain time t Value of the explained variable at time (t + Δt) after the prediction cycle Δt I do. First, in step 1701, the neural network device is initially learned using known real values of the explanatory variable and the explained variable as examples, and the process proceeds to step 1702. In step 1702, the current actual value of the explanatory variable is input, and the flow advances to step 1703. In step 1703, the device is supplied with the current actual value of the explanatory variable as an input signal, and in step 1
Proceed to 704. In step 1704, the output signal obtained from the device is output as a predicted value after Δt of the explained variable, and the process proceeds to step 1705. In step 1705, it is determined whether or not the condition for ending prediction is satisfied. If not satisfied, the process proceeds to step 1706, and if satisfied, the present procedure is terminated. In step 1706, wait for the prediction cycle Δt,
Proceed to step 1707. In step 1707, the actual value after Δt of the explained variable is input, and the flow advances to step 1708. In step 1708, the apparatus is requested to add the actual value of the explanatory variable obtained in step 1702 and the actual value of the explained variable obtained in step 1707 as the latest case, and the process proceeds to step 1709. In step 1709, the device is requested to delete the oldest case held by the device, and the process proceeds to step 1710. In step 1710, the device is relearned, then step 1702 is returned to and the above procedure is repeated.
【0036】[0036]
【発明の効果】本発明によれば、利用期間中、継続的に
事例の一部分を更新し、再学習する必要があるニューラ
ルネットワーク装置及びその学習方法において、再学習
に必要な時間を短縮する効果がある。すなわち、毎回の
事例更新では、ごく一部分の事例が更新されるだけであ
るから、再学習が必要な部分ネットワークはごく限られ
る。各部分ネットワークは、入力信号空間のうちある一
部の領域の入出力特性を担当するだけであるので、ネッ
トワーク規模は小さくてよく、しかも、担当領域に属す
る事例数が少なくなり、全領域を単一のネットワークで
カバーするより、再学習に要する時間の大幅短縮が可能
になる。また、問題によってはパラメータを逐次修正し
た収束点が事例の更新によってさほどずれず、このよう
な場合、再学習前の値を初期値にすれば、少ない修正回
数で収束するため、学習時間を短縮できる。According to the present invention, in the neural network device and its learning method in which a part of the case needs to be continuously updated and re-learned during the use period, the time required for re-learning is shortened. There is. That is, in each case update, only a small number of cases are updated, so that the number of sub-networks requiring re-learning is very limited. Since each sub-network only handles the input / output characteristics of a certain area of the input signal space, the network scale can be small, and the number of cases belonging to the area in charge is small, and the entire area can be isolated. The time required for re-learning can be greatly shortened compared to the case where one network is used. In addition, depending on the problem, the convergence point where the parameters are sequentially modified does not shift much due to the update of the case.In such a case, if the value before re-learning is set to the initial value, it will converge with a small number of modifications, thus reducing the learning time. it can.
【図1】本発明の一実施例のブロック図である。FIG. 1 is a block diagram of an embodiment of the present invention.
【図2】本発明の一実施例のシステム構成図である。FIG. 2 is a system configuration diagram of an embodiment of the present invention.
【図3】入力信号領域の一例を説明する図である。FIG. 3 is a diagram illustrating an example of an input signal area.
【図4】入力信号領域定義テーブルの構成図である。FIG. 4 is a configuration diagram of an input signal area definition table.
【図5】学習用入出力信号事例テーブルの構成図であ
る。FIG. 5 is a configuration diagram of a learning input / output signal case table.
【図6】本発明の一実施例の処理手順を示すフローチャ
ートである。FIG. 6 is a flowchart showing a processing procedure according to an embodiment of the present invention.
【図7】ネットワーク初期学習処理の手順を示すフロー
チャートである。FIG. 7 is a flowchart showing the procedure of a network initial learning process.
【図8】ネットワーク適用処理の手順を示すフローチャ
ートである。FIG. 8 is a flowchart illustrating a procedure of network application processing.
【図9】ネットワーク再学習処理の手順を示すフローチ
ャートである。FIG. 9 is a flowchart showing a procedure of a network re-learning process.
【図10】フィードフォーワード型層状ニューラルネッ
トワークを説明する図である。FIG. 10 is a diagram illustrating a feedforward layered neural network.
【図11】部分ネットワークの適用処理の手順を示すフ
ローチャートである。FIG. 11 is a flowchart illustrating a procedure of a partial network application process.
【図12】部分ネットワークの学習処理の手順を示すフ
ローチャートである。FIG. 12 is a flowchart showing a procedure of a learning process of a partial network.
【図13】入力信号領域再構成を含む本発明一実施例の
処理手順を示すフローチャートである。FIG. 13 is a flowchart showing a processing procedure of an embodiment of the present invention including input signal area reconstruction.
【図14】入力信号領域再構成処理の手順を示すフロー
チャートである。FIG. 14 is a flowchart showing a procedure of input signal area reconstruction processing.
【図15】入力信号領域分割処理の手順を示すフローチ
ャートである。FIG. 15 is a flowchart showing a procedure of input signal area division processing.
【図16】入力信号領域統合処理の手順を示すフローチ
ャートである。FIG. 16 is a flowchart showing a procedure of input signal area integration processing.
【図17】時系列予測を対象とする本発明一実施例の処
理手順を示すフローチャートである。FIG. 17 is a flowchart showing a processing procedure of an embodiment of the present invention for time series prediction.
201 表示装置 202 入力装置 203 処理装置 204 記憶装置 205 通信装置 206 通信回線 207 データ収集装置 301 矩形入力信号領域 401 入力信号領域定義テーブルの矩形領域最小座標
値格納欄 402 入力信号領域定義テーブルの矩形領域最大座標
値格納欄 403 入力信号領域定義テーブルの領域識別番号格納
欄 502 学習用入出力信号事例テーブルの事例識別情報
格納欄 503 学習用入出力信号事例テーブルの入力信号値格
納欄 504 学習用入出力信号事例テーブルの出力信号値格
納欄 506 学習用入出力信号事例テーブルの事例識別情報
格納欄 507 学習用入出力信号事例テーブルの入力信号値格
納欄 508 学習用入出力信号事例テーブルの出力信号値格
納欄201 display device 202 input device 203 processing device 204 storage device 205 communication device 206 communication line 207 data collecting device 301 rectangular input signal area 401 rectangular input signal area definition table rectangular area minimum coordinate value storage field 402 input signal area definition table rectangular area Maximum coordinate value storage field 403 Input signal area definition table area identification number storage field 502 Learning input / output signal case table case identification information storage field 503 Learning input / output signal case input signal value storage field 504 Learning input / output Output signal value storage column of signal case table 506 Case identification information storage column of learning input / output signal case table 507 Input signal value storage column of learning input / output signal case table 508 Output signal value storage of learning input / output signal case table Column
Claims (9)
られた入力信号に対応する出力信号を求めて出力するニ
ューラルネットワーク装置であって、入力信号空間の一
部分にそれぞれ対応する複数の入力信号領域ごとに設け
た事例記憶手段と、それぞれ対応する入力信号領域に属
する事例を使い、学習する部分ニューラルネットワーク
と、入力信号が与えられると、該入力信号が属する入力
信号領域を特定して、前記各部分ニューラルネットワー
クのうち特定された該領域に対応するネットワークの入
力端に該入力信号を供給する入力信号分類手段と、前記
入力信号分類手段により入力信号を供給された該部分ニ
ューラルネットワークが応答すると、該ネットワークの
出力端から得た値をもとに出力信号を決定する出力信号
決定手段を設けたことを特徴とするニューラルネットワ
ーク装置。1. A neural network device for obtaining and outputting an output signal corresponding to an input signal given on the basis of a correspondence relationship learned from a case, wherein the plurality of input signals respectively correspond to a part of an input signal space. When a case storing means provided for each area and a case belonging to a corresponding input signal area are used to learn and a partial neural network and an input signal are given, the input signal area to which the input signal belongs is specified, When the input signal classifying means for supplying the input signal to the input terminal of the network corresponding to the specified region among the partial neural networks and the partial neural network supplied with the input signal by the input signal classifying means respond. The output signal determining means for determining the output signal based on the value obtained from the output end of the network is provided. And a neural network device.
を設け、事例の更新要求を受けると、更新を要求された
該事例が属する入力信号領域を特定して、各事例記憶手
段のうち特定された該領域に対応する事例記憶手段の記
憶内容を該要求に応じて更新し、各部分ニューラルネッ
トワークは、それぞれ対応する前記各事例記憶手段の記
憶内容が更新されると、対応する該事例記憶手段に記憶
された更新後の事例を使い、再学習することを特徴とす
るニューラルネットワーク装置。2. The method according to claim 1, further comprising a case class updating means, and when receiving a case update request, an input signal area to which the case requested to be updated belongs is specified, and the case storage means is specified. The stored contents of the case storage means corresponding to the created area are updated in response to the request, and each partial neural network updates the stored contents of the corresponding case storage means. A neural network device characterized by re-learning using an updated case stored in a means.
力信号領域は、隣あう領域どうしが互いに重なりあう共
通部分を有するよう入力信号空間内に配置され、与えら
れた入力信号が前記入力信号領域の重なりあう部分に属
するとき、各部分ニューラルネットワークのうち該信号
が属する入力信号領域に対応する複数の該ネットワーク
の出力端から得た値を案分し、出力信号とすることを特
徴とするニューラルネットワーク装置。3. The input signal region according to claim 1 or 2, wherein each input signal region is arranged in an input signal space so that adjacent regions have a common portion where they overlap each other, and a given input signal is the input signal region. When the regions belong to the overlapping part, the values obtained from the output terminals of a plurality of the network corresponding to the input signal region to which the signal belongs in each partial neural network are divided into output signals. Neural network device.
て、各入力信号領域に対応して記憶された事例が更新さ
れると、各領域に属する事例の数を調べ、事例数が過大
な領域は複数の小領域に分割し、事例数が過小な領域は
隣あう領域と統合し、構成変更後の領域にそれぞれ対応
するよう事例の記憶内容と部分ニューラルネットワーク
を構成しなおし、変更のあった各部分ニューラルネット
ワークを変更後の対応する事例を使い、再学習すること
を特徴とするニューラルネットワーク装置。4. In any one of claims 1 to 3, when the cases stored corresponding to each input signal area are updated, the number of cases belonging to each area is checked, and the number of cases is excessive. The area is divided into a plurality of small areas, and areas with an excessively small number of cases are integrated with adjacent areas, and the memory contents and partial neural network of the cases are reconfigured to correspond to the areas after the configuration change. A neural network device characterized in that each partial neural network is relearned by using a corresponding case after being changed.
られた入力信号に対応する出力信号を求めて出力するニ
ューラルネットワーク装置の学習方法であって、入力信
号空間の一部分にそれぞれ対応する複数の入力信号領域
ごとに該領域に属する事例を記憶するステップと、前記
各入力信号領域ごとに部分ニューラルネットワークを作
成して、該領域に対応して記憶された前記事例を使い、
初期学習するステップと、入力信号が与えられると、該
入力信号が属する入力信号領域を特定して、前記各部分
ニューラルネットワークのうち特定された該領域に対応
するネットワークの入力端に該入力信号を供給し、該部
分ニューラルネットワークが該入力信号に応答すると、
該ネットワークの出力端から得た値をもとに出力信号を
決定するステップを有することを特徴とするニューラル
ネットワーク装置の学習方法。5. A learning method of a neural network device for obtaining and outputting an output signal corresponding to an input signal given on the basis of the correspondence learned from an example, wherein a plurality of learning methods respectively corresponding to a part of the input signal space are provided. A step of storing a case belonging to the input signal area for each of the input signal areas, a partial neural network is created for each of the input signal areas, and the case stored corresponding to the area is used,
In the step of performing initial learning and when an input signal is given, the input signal region to which the input signal belongs is specified, and the input signal is input to the input terminal of the network corresponding to the specified region among the partial neural networks. And the partial neural network responds to the input signal,
A learning method for a neural network device, comprising the step of determining an output signal based on a value obtained from an output end of the network.
けると、更新を要求された該事例が属する入力信号領域
を特定して、特定された該領域に対応して記憶された事
例を該要求に応じて更新し、更新された該事例に対応す
る部分ニューラルネットワークを更新後の事例を使い、
再学習するステップを有することを特徴とするニューラ
ルネットワーク装置の学習方法。6. In claim 5, when a case update request is received, the input signal area to which the case requested to be updated belongs is specified, and the case stored corresponding to the specified area is specified. Updating according to the request, using the updated example partial neural network corresponding to the updated example,
A learning method for a neural network device, comprising the step of re-learning.
ットワークは、それぞれが有するパラメータの逐次調整
により事例の入力信号と出力信号間の対応関係を学習
し、事例更新の際の再学習時には該再学習の直前のパラ
メータの値を初期値として調整を開始することを特徴と
するニューラルネットワーク装置の学習方法。7. The partial neural network according to claim 6, wherein the partial neural network learns a correspondence relationship between an input signal and an output signal of a case by sequentially adjusting the parameters of the partial neural network, and the relearning is performed at the time of relearning when updating the case. A learning method for a neural network device, characterized in that the adjustment is started with the value of the parameter immediately before as the initial value.
応して記憶された事例が更新されると、各領域に属する
事例の数を調べ、事例数が過大な領域は複数の小領域に
分割するステップと、事例数が過小な領域は隣あう領域
と統合するステップと、構成変更後の領域にそれぞれ対
応するよう事例の記憶内容と部分ニューラルネットワー
クを構成しなおし、変更のあった各部分ニューラルネッ
トワークを変更後の対応する事例を使い、再学習するス
テップを有することを特徴とするニューラルネットワー
ク装置の学習方法。8. The method according to claim 6, wherein when the cases stored corresponding to each input signal area are updated, the number of cases belonging to each area is checked, and the area having an excessive number of cases is divided into a plurality of small areas. The step of dividing, the step of integrating the area where the number of cases is too small with the adjacent area, the memory contents of the cases and the partial neural network are reconfigured to correspond to the areas after the configuration change, and each changed part A learning method for a neural network device, comprising the step of re-learning using a corresponding case after changing a neural network.
られた入力信号に対応する出力信号を求めて出力するニ
ューラルネットワーク装置の学習方法であって、該装置
の入力信号と出力信号がそれぞれ予測の説明変数と被説
明変数に対応するように構成し、該装置の各事例記憶手
段に説明変数と被説明変数の既知の実値を事例として記
憶し、各部分ニューラルネットワークを初期学習するス
テップと、時間の経過とともに新たに得られる説明変数
の実値を、該ニューラルネットワーク装置の入力信号分
類手段に入力信号として与えるステップと、説明変数の
該実値に対応する被説明変数の予測値を、該ニューラル
ネットワーク装置の出力信号決定手段から出力信号とし
て得るステップと、説明変数の該実値に対応する被説明
変数の実値が得られると、両実値を最新の事例として追
加し、かつ、最旧の事例を削除するよう事例分類更新手
段に対して要求するステップを有し、時系列データを予
測することを特徴とするニューラルネットワーク装置の
学習方法。9. A learning method of a neural network device for obtaining and outputting an output signal corresponding to an input signal given based on a correspondence learned from a case, wherein the input signal and the output signal of the device are respectively A step of configuring the predictive explanatory variables and the explained variables to correspond, storing known actual values of the explanatory variables and the explained variables as examples in each case storage means of the apparatus, and initially learning each partial neural network; And a step of giving an actual value of the explanatory variable newly obtained with the passage of time as an input signal to the input signal classification means of the neural network apparatus, and a predicted value of the explained variable corresponding to the actual value of the explanatory variable. , A step of obtaining an output signal from the output signal determining means of the neural network device, and an actual value of the explained variable corresponding to the actual value of the explanatory variable are obtained. Then, there is a step of requesting the case classification updating means to add both actual values as the latest case and delete the oldest case, and to predict time series data. Network device learning method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4214677A JPH0635889A (en) | 1992-07-20 | 1992-07-20 | Neural network device and learning method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4214677A JPH0635889A (en) | 1992-07-20 | 1992-07-20 | Neural network device and learning method therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0635889A true JPH0635889A (en) | 1994-02-10 |
Family
ID=16659755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4214677A Pending JPH0635889A (en) | 1992-07-20 | 1992-07-20 | Neural network device and learning method therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0635889A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07129593A (en) * | 1993-09-08 | 1995-05-19 | Toshiba Corp | Text selecting device |
WO2018135516A1 (en) * | 2017-01-19 | 2018-07-26 | 日本電気株式会社 | Neural network learning device, neural network learning method, and recording medium on which neural network learning program is stored |
US11093817B2 (en) | 2016-12-13 | 2021-08-17 | Fujitsu Limited | Information processing device and information processing method |
-
1992
- 1992-07-20 JP JP4214677A patent/JPH0635889A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07129593A (en) * | 1993-09-08 | 1995-05-19 | Toshiba Corp | Text selecting device |
US11093817B2 (en) | 2016-12-13 | 2021-08-17 | Fujitsu Limited | Information processing device and information processing method |
WO2018135516A1 (en) * | 2017-01-19 | 2018-07-26 | 日本電気株式会社 | Neural network learning device, neural network learning method, and recording medium on which neural network learning program is stored |
JPWO2018135516A1 (en) * | 2017-01-19 | 2019-11-21 | 日本電気株式会社 | Neural network learning apparatus, neural network learning method, and neural network learning program |
US11556780B2 (en) | 2017-01-19 | 2023-01-17 | Nec Corporation | Neural network learning device, neural network learning method, and recording medium on which neural network learning program is stored |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gelenbe et al. | Dynamical random neural network approach to the traveling salesman problem | |
CN111723910A (en) | Method and device for constructing multi-task learning model, electronic equipment and storage medium | |
US5280564A (en) | Neural network having an optimized transfer function for each neuron | |
CN110222830B (en) | Deep feed-forward network fault diagnosis method based on adaptive genetic algorithm optimization | |
CN115033780A (en) | Privacy protection cross-domain recommendation system based on federal learning | |
US5016188A (en) | Discrete-time optimal control by neural network | |
JP3761238B2 (en) | Judgment rule correction device and determination rule correction method | |
JPH0635889A (en) | Neural network device and learning method therefor | |
Ruano et al. | Supervised training algorithms for B-spline neural networks and fuzzy systems | |
JPH0991263A (en) | Method and device for optimizing neural network structure | |
JP3056324B2 (en) | Learning / recalling method and device | |
JP2000259598A (en) | Optimization learning method for neural network | |
Kohonen | The SOM methodology | |
Rubio et al. | An stable online clustering fuzzy neural network for nonlinear system identification | |
JPH05197705A (en) | Learning system for neural network | |
US5696882A (en) | Method and apparatus for using a neural network to extract an optimal subset of data objects from an available class of data objects | |
JPH0991264A (en) | Method and device for optimizing neural network structure | |
JPH0793160A (en) | Inference device | |
JPH08272760A (en) | Nonlinear optimization parallel processing method | |
JPH05101209A (en) | Learning method for hierarchical neural network | |
Lin et al. | Using context‐sensitive neuro‐fuzzy systems for nonlinear system identification | |
Karamichailidou et al. | Radial basis function neural network training using variable projection and fuzzy means | |
JP2810083B2 (en) | Data processing apparatus and method for finding combination optimal solution | |
JPH09101944A (en) | Neural network circuit | |
Cheung et al. | Neural network for global optimization |