JPH05282270A - Method and device for constructing neural net - Google Patents

Method and device for constructing neural net

Info

Publication number
JPH05282270A
JPH05282270A JP4076550A JP7655092A JPH05282270A JP H05282270 A JPH05282270 A JP H05282270A JP 4076550 A JP4076550 A JP 4076550A JP 7655092 A JP7655092 A JP 7655092A JP H05282270 A JPH05282270 A JP H05282270A
Authority
JP
Japan
Prior art keywords
data
neural network
function
learning
selecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4076550A
Other languages
Japanese (ja)
Inventor
Makoto Shimoda
下田  誠
Akihiko Yamada
昭彦 山田
Shoji Nakahara
正二 中原
Masahiro Yoshioka
正博 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP4076550A priority Critical patent/JPH05282270A/en
Publication of JPH05282270A publication Critical patent/JPH05282270A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To execute learning by using only the data of good quality, and to attain the high speed of the learning by providing a data selecting function to adopt, reject, and select the data on the basis of a standard set beforehand. CONSTITUTION:The learning is executed in a neural net 1000, and the data from a data base 2000 and on-line data 3000 are screened by the data selecting function 4000 by excluding the data lacking in information necessary to an event to be intended to achieve in the neural net 1000, and only the necessary data is sent to an automatic data generating function 5000. In the automatic data generating function 5000, only the information necessary to the function intended to achieve in the neural net is inputted to the neural net 1000 as digitized information in a range usually from '0' to '1'. Besides, the data required as the learning data of the output of the function intended to achieve at the network is outputted to a teacher data base 6000 by the automatic data generating function 5000.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はニューラルネットの構成
方法及びニューラルネット装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for constructing a neural network and a neural network system.

【0002】[0002]

【従来の技術】ニユーラルネットの学習方法に関して記
載された論文は少ないが、電気学会論文集B編,110
巻,12号,p995−998(平成2年12月)に記載
されている佐々木の電力系統へのニューラルネットワー
ク(以下従来技術1とする)において論じられている。
また、Trans. of IEEE,PES, Summer Meeting(1990,
6)における「Electric Load Forecasting Using AnArti
ficial Neural Network」(以下従来技術2とする)におい
て論じられている。以下にその概要を説明する。従来技
術1には、一つの問題にニューラルネットワークを適用
する場合の一般的な手順として以下の手順が必要である
ことが記載されている。
2. Description of the Related Art Although there are few papers that describe learning methods for neural networks, the Institute of Electrical Engineers of Japan, Volume B, 110
Vol. 12, No. 12, p995-998 (December 1990), it is discussed in the neural network for the electric power system of Sasaki (hereinafter referred to as prior art 1).
In addition, Trans. Of IEEE, PES, Summer Meeting (1990,
6) "Electric Load Forecasting Using AnArti
ficial Neural Network "(hereinafter referred to as Prior Art 2). The outline will be described below. Prior art 1 describes that the following procedure is required as a general procedure when applying a neural network to one problem.

【0003】(i) 入力信号の適切な選定及びクラスタ
リング (ii) ニューラルネットワークの構造の決定−入力層,
中間層,出力層のニューロン数を決定 (iii) トレーニングデータ,検証データの準備 (iv) トレーニングデータによる学習 (v) 検証データによる学習結果の検証 このため、ニューラルネットワークでは人手によってデ
ータの選定,準備,学習及び検証を行っており、ケース
バイケースの対応によりその構成を決定していた。
(I) Appropriate selection and clustering of input signals (ii) Determination of neural network structure-input layer,
Determine the number of neurons in the middle layer and output layer (iii) Prepare training data and verification data (iv) Learning by training data (v) Verification of learning results by verification data For this reason, the neural network manually selects and prepares data. , Learning and verification were done, and the composition was decided by the case-by-case correspondence.

【0004】従来技術2は、当日の最高,最低及び平均
気温をニュ−ラルネットに入力し、当日のピ−ク需要値
または1日の総需要値を予測している。また、予測対象
時刻及びその時刻の推定温度、1時間及び2時間前の需
要実績値と温度を入力し、対象時刻における需要値を出
力値として予測している。
In the prior art 2, the maximum, minimum and average temperatures of the day are input to the neural net to predict the peak demand value of the day or the total demand value of the day. Further, the prediction target time and the estimated temperature at that time, the demand actual value and the temperature one hour and two hours before, are input, and the demand value at the target time is predicted as an output value.

【0005】[0005]

【発明が解決しようとする課題】データベースに格納さ
れているデータは入力に使用可能なデータばかりでな
く、入力ミスによるデータなども含まれている。これら
の中から使用するにたるデータをいかに選択するかが第
1の課題である。
The data stored in the database includes not only the data that can be used for input, but also the data due to an input error. The first issue is how to select the data to be used from these.

【0006】また、選択したデータの中から設定された
条件を満足するようなトレーニングデータ及び検証デー
タをいかにして作成するかが第2の課題である。
The second problem is how to create training data and verification data that satisfy the conditions set from the selected data.

【0007】さらに、現在はケースバイケースで対応し
ているニューラルネットワークの構造を用意されたデー
タの中からどのようにして決定するかが第3の課題であ
る。本発明の目的は、これらの課題を解決することがで
きるニューラルネットの構成方法或はニューラルネット
装置を提供することにある。
Further, the third problem is how to determine the structure of the neural network which is currently handled on a case-by-case basis from the prepared data. It is an object of the present invention to provide a method of constructing a neural network or a neural network device capable of solving these problems.

【0008】[0008]

【課題を解決するための手段】第1の課題を解決するた
めに、本発明は予め設定された基準をもとにデータの取
捨・選択をするデータ選択機能を設けることを特徴とす
る。
In order to solve the first problem, the present invention is characterized by providing a data selection function for selecting / sorting data based on a preset standard.

【0009】また第2の課題を解決するために、用意さ
れたデータベースの中から第1の課題に対応するための
データ選択機能により選択されたデータを分析し、クラ
スタリングしてその中からトレーニング及び検証用のデ
ータを選択する機能を設けることを特徴とする。
In order to solve the second problem, the data selected by the data selection function for dealing with the first problem from the prepared database is analyzed, clustered, and training and training are performed from the data. It is characterized by having a function of selecting data for verification.

【0010】更に第3の課題を解決するために、予め設
定された基準をもとに第1の課題に対応するためのデー
タ選択機能により選択されたデータを、ニューラルネッ
トワークで達成しようとする事象とデータベースに格納
されているデータとの相関関係の回帰分析や多変量解析
などの統計的手法を用いて分析する機能を備えることを
特徴とする。
Further, in order to solve the third problem, an event in which the neural network achieves the data selected by the data selection function for responding to the first problem based on the preset standard. Is characterized by having a function of performing analysis using a statistical method such as regression analysis or multivariate analysis of the correlation between the data stored in the database and the data stored in the database.

【0011】[0011]

【作用】第1の課題を解決するためのデータ選択機能
は、例えば、次の二種類の選択方法により達成される。
一つはデータベースに格納されているデータに記憶され
ている情報の羅列の中に予め設定されている値であるデ
フォルト値が挿入されている場合、該デフォルト値を検
出するようにすることで達成される。他の例としては、
予めニューラルネットワークで達成しようとする事象の
精度を規定することで達成される。すなわち、データベ
ースに格納されたデータを回帰分析や多変量解析などの
統計的手法を用いて分析することにより、該要求精度内
に一致するデータのみを選択し、それよりはずれている
データを採用しない手段を採用することで達成される。
The data selection function for solving the first problem is achieved by, for example, the following two types of selection methods.
One is achieved by detecting the default value when a default value, which is a preset value, is inserted in the list of information stored in the data stored in the database. To be done. Another example is
This is achieved by defining the accuracy of the event to be achieved by the neural network in advance. That is, by analyzing the data stored in the database using a statistical method such as regression analysis or multivariate analysis, only data that matches the required accuracy is selected, and data that deviates from it is not adopted. It is achieved by adopting means.

【0012】第2の課題を解決するためのデータ作成機
能は前記第1の課題を解決するためのデータ選択機能で
選択されたデータを、例えば、該データ間の距離を平均
自乗誤差などにより定量化して定義したデータ類似度に
よりクラスタリングし、各クラスと、予めニューラルネ
ットワークで達成しようとする事象のデータとを対応さ
せるようにデータ分類し、各分類ごとに代表的なデータ
を選択して、ラーニング用と検証用のデータに対応づけ
て記憶することで達成される。
The data creating function for solving the second problem is to quantify the data selected by the data selecting function for solving the first problem, for example, by measuring the distance between the data by means of mean square error. Clustering according to the defined data similarity, classify the data so that each class and the data of the event to be achieved by the neural network correspond in advance, select representative data for each class, and perform learning This is achieved by storing the data for verification and verification in association with each other.

【0013】第3の課題を解決するための手段は、ニュ
ーラルネットワークで達成しようとする事象とデータベ
ースに格納されているデータとの相関関係を、予め設定
された基準をもとに第1の課題に対応するためのデータ
選択機能により選択されたデータの中から、予め回帰分
析や多変量解析などの統計的手法を用いて分析して、相
関関係の大きいデータをニューラルネットワークの入力
層の因子に採用することにより達成される。
A means for solving the third problem is to solve the first problem by correlating the correlation between the event to be achieved by the neural network and the data stored in the database, based on a preset standard. From the data selected by the data selection function to correspond to, using statistical methods such as regression analysis and multivariate analysis beforehand, the data with a large correlation are used as factors in the input layer of the neural network. It is achieved by adopting.

【0014】[0014]

【実施例】本発明の基本構成を図1に、基本構成の詳細
例を図2と図3に示す。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The basic construction of the present invention is shown in FIG. 1, and detailed examples of the basic construction are shown in FIGS.

【0015】本発明は、ニューラルネット1000と、
データベース2000と、オンラインデータ3000と
データ選択機能4000と、データ自動作成機能500
0とをその基本機能としている。
The present invention comprises a neural network 1000,
Database 2000, online data 3000, data selection function 4000, data automatic creation function 500
0 is the basic function.

【0016】ニューラルネット1000では従来技術2
に代表される学習方法によって学習が実施される。デー
タベース2000からのデータとオンラインデータ30
00はデータ選択機能4000で、ニューラルネット1
000で達成しようとする事象に必要な情報が欠落して
いるデータが除外されて必要なデータだけがデータ自動
作成機能5000へ送られる。
In the neural network 1000, the conventional technique 2 is used.
Learning is performed by the learning method represented by. Data from database 2000 and online data 30
00 is a data selection function 4000, which is a neural network 1
At 000, the data lacking the information necessary for the event to be achieved is excluded and only the necessary data is sent to the data automatic creation function 5000.

【0017】データ自動作成機能5000ではネットワ
ークで達成しようとする機能に必要な情報だけが、通
常、0から1の範囲の数値情報に変換された数値化情報
10としてニューラルネット1000に入力されてい
る。また、データ自動作成機能5000でネットワーク
で達成しようとする機能の出力のラーニングデータとし
て必要なデータは教師データベース6000に出力され
る。
In the automatic data generation function 5000, only the information necessary for the function to be achieved in the network is normally input to the neural network 1000 as the digitized information 10 converted into the numerical information in the range of 0 to 1. .. Further, the data required as learning data for the output of the function to be achieved in the network by the automatic data generation function 5000 is output to the teacher database 6000.

【0018】学習時にはニューラルネット1000から
の出力と教師データベース6000からの出力20とが
比較され、両者の差が少なくなるようにニューラルネッ
ト1000内の重み係数が修正される。全てのラーニン
グデータについて両者の差がニューラルネット1000
で達成すべき誤差内あるようになったとき、学習は終了
し、その時の重み係数全体が、ニューラルネット100
0の機能を達成する重み係数マトリクスとして該ニュー
ラルネット1000の演算を実施している計算機のメモ
リに格納される。
At the time of learning, the output from the neural network 1000 and the output 20 from the teacher database 6000 are compared, and the weighting coefficient in the neural network 1000 is modified so that the difference between them is reduced. Neural net 1000 for all learning data
When the error is within the error to be achieved in, the learning ends, and the entire weighting coefficient at that time is the neural network 100.
It is stored in the memory of the computer that is performing the operation of the neural network 1000 as a weighting coefficient matrix that achieves the function of 0.

【0019】ニューラルネット1000で達成すべき事
象の検証は、同様な過程を経て出力された出力と教師デ
ータベース6000からの出力20と比較され、その誤
差が初期の設定値内にある場合に検証される。この時に
は重み係数は修正されない。データ選択機能4000の
詳細を図2に示す。データ選択機能4000では、デー
タ適正検出機能420を基本機能とし、データ分析機能
440を有することが望ましい。データ適正検出機能4
20ではデータベース2000に格納されているデータ
に記憶されている情報の羅列の中に、あるいはオンライ
ンデータ3000のデータの情報の中から予めシステムで設
定されている値であるデフォルト値や使用するユーザー
が指定したデフォルト値が挿入されている場合、デフォ
ルト値を検出し、そのデフォルト値が検出されたデータ
をニューラルネット1000に送るデータから除外する
ようにする。
The verification of the event to be achieved by the neural network 1000 is compared with the output output from the teacher database 6000 through the similar process, and when the error is within the initial set value, it is verified. It At this time, the weight coefficient is not modified. Details of the data selection function 4000 are shown in FIG. In the data selection function 4000, it is desirable that the data appropriateness detection function 420 is a basic function and the data analysis function 440 is provided. Data adequacy detection function 4
In 20, the default value which is a value preset in the system and the user who uses it are listed in the list of information stored in the data stored in the database 2000 or in the information of the data in the online data 3000. When the specified default value is inserted, the default value is detected, and the data in which the default value is detected is excluded from the data sent to the neural network 1000.

【0020】一方、データ分析機能440では、予めニ
ューラルネットワークで達成する事象で規定された精度
を基準にデータ適正検出機能420から出力された適正
データ42を回帰分析や多変量解析などの統計的手法を
用いて分析することにより、要求精度内に一致するデー
タのみを選択し、分析データ44として出力される。こ
れにより、予め設定された基準をもとにデータの取捨・
選択が可能となり、質的に良いデータだけを用いて学習
することができ、学習の高速化が図れる。
On the other hand, in the data analysis function 440, the appropriate data 42 output from the data appropriateness detection function 420 is statistically processed by regression analysis or multivariate analysis with reference to the accuracy specified by the event to be achieved by the neural network in advance. By performing analysis using, only data that matches within the required accuracy is selected and output as analysis data 44. This allows you to sort out data based on preset standards.
It becomes possible to select, and it is possible to learn by using only qualitatively good data, so that learning can be speeded up.

【0021】データ自動作成機能5000の詳細を図3
に示す。データ自動作成機能5000はデータ類似度比較機
能520と、データ対応機能540とデータインターフ
ェース機能560とを基本機能とする。データ類似度比
較機能520ではデータ選択機能4000から出力され
た適正データ42あるいは分析データ44を、該データ
間の距離の平均自乗誤差などにより定量化して定義され
たデータ類似度によりクラスタリングし、どの分類のデ
ータであるかのフラグとどの程度ずれているかの情報を
付加した類似度データ52として出力される。
Details of the automatic data generation function 5000 are shown in FIG.
Shown in. The data automatic creation function 5000 has a data similarity comparison function 520, a data correspondence function 540, and a data interface function 560 as basic functions. In the data similarity comparison function 520, the appropriate data 42 or the analysis data 44 output from the data selection function 4000 is quantified by the mean square error of the distance between the data and clustered according to the defined data similarity, which classification Is output as the similarity data 52 to which is added information indicating how much the data is deviated from the flag.

【0022】データ対応機能540では類似度データ5
2を受けてどの分類かを示すフラグ別にデータを整理
し、各フラグ毎に予めニューラルネットワークで達成し
ようとする事象のデータとを対応させてデータ分類し、
各分類ごとに代表的なデータを選択して、ラーニング用
と検証用のデータに対応づけて対応データ54として出
力する。
The data correspondence function 540 uses the similarity data 5
In response to 2, the data is organized according to flags indicating which classification, and the data is classified in advance in association with the data of the event to be achieved by the neural network for each flag.
Representative data is selected for each classification and is output as the correspondence data 54 in association with the learning and verification data.

【0023】データインターフェース機能560では、
対応データ54をそれぞれ0から1の範囲の数値情報に
変換するために対応データ54毎の最大値に余裕率を見
込んだ値を規格化値あるいは数値情報でないデータは数
値化データとし、これらが規格化情報56としてニュー
ラルネット1000の入力層あるいは教師データベース
6000の各ユニットに出力される。
In the data interface function 560,
In order to convert the corresponding data 54 into numerical information in the range of 0 to 1, the maximum value for each corresponding data 54 is a standardized value, or the data that is not numerical information is the standardized value. The converted information 56 is output to the input layer of the neural network 1000 or each unit of the teacher database 6000.

【0024】規格化情報はニューラルネット1000か
らの出力を検証でき、実用に供するときにニューラルネ
ットワークで達成しようとする事象のデータと比較する
ために変換する際に使用される。これにより、用意され
たデータベースの中から選択されたデータだけを用いて
分析することができ、クラスタリングしてその中からト
レーニング用及び検証用のデータとして収束性が良く、
かつ、各クラスから同程度のデータ数を選択することが
可能となり、学習の収束性がよくなる。
The standardized information can verify the output from the neural network 1000 and is used in conversion for comparison with the data of the event to be achieved by the neural network when it is put to practical use. By this, it is possible to analyze using only the data selected from the prepared database, clustering is performed, and the convergence is good as the data for training and verification,
Moreover, it is possible to select the same number of data from each class, and the learning convergence is improved.

【0025】また、データ自動作成機能5000には、
入力信号生成機能580を備えておくことが望ましい。
入力信号生成機能580には、データ選択機能4000
から出力された適正データ42あるいは分析データ44
が入力され、ニューラルネットワーク1000の入力層
のユニット数58および入力信号生成機能580から入
力層ユニット数58が出力されたことを示すフラグ59
がデータ作成機能540に出力される。
Further, the automatic data generation function 5000 includes
It is desirable to have an input signal generation function 580.
The input signal generation function 580 includes a data selection function 4000.
Proper data 42 or analysis data 44 output from
Is input, and a flag 59 indicating that the number of input layer units 58 of the neural network 1000 and the number of input layer units 58 have been output from the input signal generation function 580.
Is output to the data creation function 540.

【0026】入力信号生成機能580では、ニューラル
ネットワークで達成しようとする事象とデータベース2
000に格納されているデータとの相関関係を、回帰分
析や多変量解析などの統計的手法を用いて自動的に求
め、相関係数の大きなデータの数をニューラルネットワ
ークの入力層のユニットに採用し、入力層ユニット数5
8として出力する。
In the input signal generation function 580, the event to be achieved by the neural network and the database 2
Correlation with the data stored in 000 is automatically obtained using statistical methods such as regression analysis and multivariate analysis, and the number of data with a large correlation coefficient is adopted as the unit of the input layer of the neural network. The number of input layer units is 5
Output as 8.

【0027】一方、データ対応機能540では、入力信
号生成機能580から入力層ユニット数58が出力され
たことを示すフラグ59が入力されると、入力層ユニッ
ト数58に採用されたデータとニューラルネットワーク
で達成しようとする事象のデータとを対応させてデータ
分類し、各分類ごとに代表的なデータを選択して、ラー
ニング用と検証用のデータに対応づけて対応データ54
として出力する。これにより、従来はシステムエンジニ
アが勘と経験により設定していた入力層のユニットを自
動的に生成できる。
On the other hand, in the data correspondence function 540, when the flag 59 indicating that the input layer unit number 58 is output from the input signal generation function 580 is input, the data and the neural network adopted in the input layer unit number 58 are input. Data classification is performed by associating with the data of the event to be achieved in 1., representative data is selected for each classification, and data corresponding to learning and verification data is associated with the corresponding data 54.
Output as. As a result, it is possible to automatically generate a unit in the input layer, which was conventionally set by the system engineer based on intuition and experience.

【0028】本発明の一実施例を図4を示す。An embodiment of the present invention is shown in FIG.

【0029】この図4は地域冷暖房の需要を予測するシ
ステムの例である。地域冷暖房データベース2100に
は地域冷暖房の実績需要データとそのときの季節,曜日
及び気象情報が格納されている。一方、地域冷暖房オン
ラインデータ3100には、計測値として需要データと
共に天候,曜日,イベントなどの情報が運転員のキー入
力や音声入力により、時々刻々入力されている。
FIG. 4 is an example of a system for predicting the demand for district heating and cooling. The district heating / cooling database 2100 stores actual demand data for district heating / cooling and the season, day of the week, and weather information at that time. On the other hand, in the district heating / cooling online data 3100, information such as weather, days of the week, and events is input as measurement values along with demand data momentarily by operator's key input or voice input.

【0030】地域冷暖房データベース2100及び地域
冷暖房オンラインデータ3100からの出力は地域冷暖
房データ選択機能4100に送られる。地域冷暖房デー
タ選択機能4100では、地域冷暖房データベース21
00及び地域冷暖房オンラインデータ3100からのデ
ータを選択する。例えば、そのときのあるデータx及び
yのデータの中で運転員の入力忘れにより、システムの
デフォルト値が入力されていたとすると、これらの相関
関係は図5に示したようである。即ち、デフォルト値で
あるとx及びy軸上の点として表され、これを地域冷暖
房データ選択機能4100内のデータ適正検出機能42
1では、無効なデータとして除外したものを適正データ
44として、データ分析機能441に送る。
The outputs from the district cooling / heating database 2100 and the district cooling / heating online data 3100 are sent to the district cooling / heating data selection function 4100. In the district cooling / heating data selection function 4100, the district cooling / heating database 21
00 and data from the district heating / cooling online data 3100. For example, if the default value of the system is input due to the operator forgetting to input the data x and y at that time, the correlation between them is as shown in FIG. That is, the default value is represented as a point on the x and y axes, and this is represented by the data appropriateness detection function 42 in the district heating / cooling data selection function 4100.
At 1, the data excluded as invalid data is sent to the data analysis function 441 as the proper data 44.

【0031】システムの要求仕様が±10%の予測精度
であったとすると、該データ分析機能441では、図5
のデータで実績データの検定カーブから±10%の範囲
内のデータを採用するように決定し、この範囲外のデー
タを除外したデータを分析データ44として地域冷暖房
データ自動作成機能5100に出力する。
Assuming that the required specifications of the system have a prediction accuracy of ± 10%, the data analysis function 441 of FIG.
It is determined that the data within the range of ± 10% from the test curve of the actual data is adopted as the data of (1), and the data excluding the data outside this range is output as analysis data 44 to the district cooling / heating data automatic creation function 5100.

【0032】地域冷暖房データ自動作成機能5100内
のデータ類似度比較機能520では、需要データが時系
列データであるとすれば、各時刻毎のデータの相関関係
を図5と同様にして求め、類似度として各時刻毎の特性
式と偏差を比較することによって各データをクラス分け
して類似度データ52として地域冷暖房データ対応機能
540に出力する。
If the demand data is time-series data, the data similarity comparison function 520 in the automatic district heating / cooling data generation function 5100 finds the correlation of the data at each time in the same manner as in FIG. As a degree, each data is classified into classes by comparing the characteristic equation and deviation for each time, and is output to the district cooling / heating data corresponding function 540 as similarity degree data 52.

【0033】地域冷暖房データ対応機能540では、類
似度データ52を受けて、類似データ毎に分類し、シス
テムに求められている出力、この実施例では需要値との
対応付けを行なう。例えば、パターン1のデータに対し
てデータ群が図6に示すような拡がりを持っていたとす
ると、この中から集合の中心ばかりでなく、周辺部のデ
ータもパターン1を代表するデータとして選択し、各々
トレーニング用及び検証用の対応データ54として地域
冷暖房インターフェース機能560に出力する。
The district heating / cooling data correspondence function 540 receives the similarity data 52, classifies each of the similar data, and associates with the output required by the system, the demand value in this embodiment. For example, if the data group has a spread as shown in FIG. 6 with respect to the data of pattern 1, not only the center of the set but also the peripheral data is selected as the data representing pattern 1, It outputs to the district cooling / heating interface function 560 as the corresponding data 54 for training and verification, respectively.

【0034】次に、地域冷暖房インターフェース機能5
60では、対応データ54をそれぞれ0から1の範囲の
数値情報に変換するための対応データ54毎の最大値に
余裕率を見込んだ値を規格化値あるいは数値情報でない
データは数値化データとし、これらが規格化情報56は
地域冷暖房ニューラルネット1100の入力層に出力さ
れ、あるいは規格化教師データ57は地域冷暖房教師デ
ータベース6100の各ユニットに出力される。規格化
情報は地域冷暖房ニューラルネット1000からの出力
を検証でき、実用に供するときに該ニューラルネットワ
ークで達成しようとする事象のデータと比較するため
に、変換する際に使用される。
Next, the district heating / cooling interface function 5
In 60, the maximum value for each corresponding data 54 for converting the corresponding data 54 into numerical information in the range of 0 to 1 is a standardized value or data that is not numerical information is set as numerical data. The standardized information 56 is output to the input layer of the district heating / cooling neural net 1100, or the standardized teacher data 57 is output to each unit of the district cooling / heating teacher database 6100. The standardized information can verify the output from the district heating / cooling neural network 1000, and is used in the conversion for comparison with the data of the event to be achieved by the neural network when it is put into practical use.

【0035】また、地域冷暖房データ自動作成機能51
00内に設置されている地域冷暖房入力信号生成機能5
80では、地域冷暖房データ選択機能4100から出力
された適正データ42あるいは分析データ44が入力さ
れ、地域冷暖房ニューラルネットワーク1100の入力
層のユニット数58および地域冷暖房入力信号生成機能
580から入力層ユニット数58が出力されたことを示
すフラグ59が地域冷暖房データ作成機能540に出力
される。地域冷暖房入力信号生成機能580では、ニュ
ーラルネットワークで達成しようとする事象と地域冷暖
房データベース2100に格納されているデータとの相
関関係を回帰分析する。例えば、次式のようであったと
する。
Further, the district heating / cooling data automatic generation function 51
District heating and cooling input signal generation function 5 installed in 00
At 80, the proper data 42 or the analysis data 44 output from the district heating / cooling data selection function 4100 is input, and the number of units 58 in the input layer of the district heating / cooling neural network 1100 and the number of input layer units 58 from the district cooling / heating input signal generation function 580 are input. Is output to the district heating / cooling data creation function 540. The district heating / cooling input signal generation function 580 performs regression analysis of the correlation between the event to be achieved by the neural network and the data stored in the district heating / cooling database 2100. For example, suppose that the following equation is used.

【0036】y=3.25x1+0.5x2−2.5x3
−0.01x4+…+anxn ここで、yは予測需要、xnは影響因子である。
Y = 3.25x1 + 0.5x2-2.5x3
-0.01x4 + ... + anxn Here, y is a forecast demand and xn is an influential factor.

【0037】この場合には、まず、相関係数の大きなデ
ータのx1,x3をニューラルネットワークの入力層の
ユニットに採用し、入力層ユニット数58として2を出
力する。一方、地域冷暖房データ対応機能540では、
地域冷暖房入力信号生成機能580から入力層ユニット
数58が出力されたことを示すフラグ59が入力される
と、入力層ユニット数58に採用されたデータとニュー
ラルネットワークで達成しようとする事象のデータとを
対応させてデータ分類し、各分類ごとに代表的なデータ
を選択して、ラーニング用と検証用のデータに対応づけ
て対応データ54として出力する。もし、これで学習が
うまく収束しない場合には、最初に捨てていたx2,x
4を新たな追加ユニットとして採用して再度学習を実行
する。このようにして影響因子として考えられるものを
順次追加することにより、自動的にユニット数を追加し
て学習精度及び収束性を向上させる。
In this case, first, data x1 and x3 having a large correlation coefficient are adopted as the units of the input layer of the neural network, and 2 is output as the number of input layer units 58. On the other hand, in the district cooling / heating data correspondence function 540,
When the flag 59 indicating that the input layer unit number 58 is output from the district heating / cooling input signal generation function 580 is input, the data adopted in the input layer unit number 58 and the data of the event to be achieved by the neural network are input. The data is classified in correspondence with each other, representative data is selected for each classification, and the data for learning and the data for verification are output as the corresponding data 54. If the learning does not converge well with this, x2, x
4 is adopted as a new additional unit and learning is performed again. In this way, by sequentially adding possible influential factors, the number of units is automatically added to improve learning accuracy and convergence.

【0038】以上の様な手順により、データベースより
データが自動的に選択・生成及び入力層のユニット数が
生成され、学習の高速化あるいは収束性の向上が図られ
る。図7に本発明の変形例を示す。この図が図4と相違
するのは、地域冷暖房ニューラルネット1200を別に
設けた点である。地域冷暖房データ選択機能4100で選択
されたデータのうち、詳細に検討すると別のクラスとな
るようなデータがあると、これを別の分析データ45と
して地域冷暖房データ自動作成機能5100に出力す
る。分析データ45は前記地域冷暖房ニューラルネット
1200の信号として、以下図4と同様な手順で学習,
検証が行なわれる。
By the above procedure, data is automatically selected / generated from the database and the number of units in the input layer is generated, so that the learning speed can be increased or the convergence can be improved. FIG. 7 shows a modification of the present invention. This drawing differs from FIG. 4 in that a district heating / cooling neural network 1200 is separately provided. If the data selected by the district heating / cooling data selection function 4100 is data that will be in a different class when examined in detail, this is output to the district cooling / heating data automatic creation function 5100 as another analysis data 45. The analysis data 45 is learned as the signal of the district heating / cooling neural network 1200 in the same procedure as shown in FIG.
Verification is done.

【0039】こうすることにより、データ選択上で分類
が難しい様なデータに対しても別のニューラルネットを
準備することができ、複数のニューラルネット構成を自
動的に生成可能である。
By doing so, another neural net can be prepared even for data that is difficult to classify in data selection, and a plurality of neural net configurations can be automatically generated.

【0040】一つのニューラルネットで対処できないも
のでも、複数のニューラルネットで対処できるようにな
る。
Even if one neural network cannot deal with it, a plurality of neural networks can deal with it.

【0041】[0041]

【発明の効果】本発明によれば、予め設定された基準を
もとにデータの取捨・選択が可能となり、質的に良いデ
ータだけを用いて学習することができ、学習の高速化が
図れる。
According to the present invention, data can be sorted or selected based on preset criteria, and only high quality data can be used for learning, and learning can be speeded up. ..

【0042】用意されたデータベースの中からトレーニ
ング用及び検証用のデータとして収束性が良く、かつ、
各クラスから同程度のデータ数を選択することが可能と
なり、学習の収束性がよくできる。
From the prepared database, good convergence as training and verification data, and
It is possible to select the same number of data from each class, which improves the convergence of learning.

【0043】従来はシステムエンジニアが勘と経験によ
り設定していた入力層のユニットを自動的に生成でき
る。
Conventionally, a unit in the input layer, which has been set by the system engineer based on intuition and experience, can be automatically generated.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の基本構成図。FIG. 1 is a basic configuration diagram of the present invention.

【図2】データ選択機能の詳細構成図。FIG. 2 is a detailed configuration diagram of a data selection function.

【図3】データ自動生成機能の詳細構成図。FIG. 3 is a detailed configuration diagram of a data automatic generation function.

【図4】本発明の実施例を示すニューラルネット構成
図。
FIG. 4 is a neural network configuration diagram showing an embodiment of the present invention.

【図5】データの相関関係図。FIG. 5 is a correlation diagram of data.

【図6】データ群の分布図。FIG. 6 is a distribution chart of a data group.

【図7】本発明の変形例を示すニューラルネット構成
図。
FIG. 7 is a neural network configuration diagram showing a modified example of the present invention.

【符号の説明】[Explanation of symbols]

1000…ニューラルネット、1100…別のニューラ
ルネット、2000…データベース、3000…オンラ
インデータ、4000…データ選択機能、5000…データ
自動生成機能、6000…教師データベース。
1000 ... Neural network, 1100 ... Another neural network, 2000 ... Database, 3000 ... Online data, 4000 ... Data selection function, 5000 ... Data automatic generation function, 6000 ... Teacher database.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 吉岡 正博 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Masahiro Yoshioka 5-2-1 Omika-cho, Hitachi-shi, Ibaraki Hitachi Ltd. Omika factory

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】少なくとも入力層,中間層及び出力層を有
する多層型ニューラルネットの構成方法において、予め
設定された基準を満足するかどうかで、学習及び検証に
使用するデータを取捨・選択する機能を有することを特
徴とするニューラルネットの構成方法。
1. A method for selecting / selecting data to be used for learning and verification depending on whether or not a preset criterion is satisfied in a method of constructing a multilayer neural network having at least an input layer, an intermediate layer and an output layer. A method for constructing a neural network, characterized by comprising:
【請求項2】少なくとも入力層,中間層及び出力層を有
する多層型ニューラルネットの構成方法において、予め
設定された基準を満足するかどうかで、学習及び検証に
使用するデータを取捨・選択する機能と、該データを蓄
積する機能とを有することを特徴とするニューラルネッ
トの構成方法。
2. A method of constructing a multi-layered neural network having at least an input layer, an intermediate layer and an output layer, a function for selecting / selecting data to be used for learning and verification depending on whether or not a preset standard is satisfied. And a function of accumulating the data, a method of constructing a neural network.
【請求項3】少なくとも入力層,中間層及び出力層を有
する多層型ニューラルネット装置において、予め設定さ
れた基準を満足するかどうかで、学習及び検証に使用す
るデータを取捨・選択する手段と、該データを蓄積した
データベースとを有することを特徴とするニューラルネ
ットの装置。
3. A multi-layer neural network device having at least an input layer, an intermediate layer and an output layer, and means for selecting / selecting data to be used for learning and verification depending on whether or not a preset standard is satisfied. An apparatus for a neural network, comprising: a database that stores the data.
【請求項4】少なくとも入力層,中間層及び出力層を有
する多層型ニューラルネットの構成方法において、少な
くとも予め設定された収束条件により学習に使用するデ
ータを取捨・選択する機能を有することを特徴とするニ
ューラルネットの構成方法。
4. A method for constructing a multi-layered neural network having at least an input layer, an intermediate layer, and an output layer, having a function of discarding / selecting data to be used for learning at least according to a preset convergence condition. Neural network configuration method.
【請求項5】少なくとも入力層,中間層及び出力層を有
する多層型ニューラルネット装置において、少なくとも
予め設定された収束条件により学習に使用するデータを
取捨・選択する手段と、該データを蓄積する手段とを有
することを特徴とするニューラルネット装置。
5. A multi-layer neural network device having at least an input layer, an intermediate layer and an output layer, means for selecting / selecting data to be used for learning based on at least a preset convergence condition, and means for accumulating the data. And a neural network device.
【請求項6】少なくとも入力層,中間層及び出力層を有
するニューラルネット装置において、少なくとも予め設
定された収束条件により学習に使用するデータを取捨・
選択する手段と、該データを蓄積したデータベースとを
有することを特徴とするニューラルネット装置。
6. A neural network device having at least an input layer, an intermediate layer, and an output layer, at least discarding data used for learning according to a preset convergence condition.
A neural network device comprising a selecting means and a database accumulating the data.
【請求項7】少なくとも入力層,中間層及び出力層を有
するニューラルネット装置において、予め設定された学
習条件,収束条件により、少なくとも学習に使用するデ
ータを取捨・選択する手段と、ニューラルネットワーク
の構成条件を自動的に変更可能な変更手段とを有するこ
とを特徴とするニューラルネット装置。
7. A neural network apparatus having at least an input layer, an intermediate layer and an output layer, means for selecting / selecting at least data to be used for learning according to preset learning conditions and convergence conditions, and a structure of the neural network. A neural network device having a changing unit capable of automatically changing a condition.
JP4076550A 1992-03-31 1992-03-31 Method and device for constructing neural net Pending JPH05282270A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4076550A JPH05282270A (en) 1992-03-31 1992-03-31 Method and device for constructing neural net

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4076550A JPH05282270A (en) 1992-03-31 1992-03-31 Method and device for constructing neural net

Publications (1)

Publication Number Publication Date
JPH05282270A true JPH05282270A (en) 1993-10-29

Family

ID=13608375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4076550A Pending JPH05282270A (en) 1992-03-31 1992-03-31 Method and device for constructing neural net

Country Status (1)

Country Link
JP (1) JPH05282270A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309920A (en) * 2004-04-23 2005-11-04 Alliance Group Inc Majority vote device, its learning method and multi-class identification device
JP2019138542A (en) * 2018-02-09 2019-08-22 三菱電機株式会社 Air condition control device, air conditioning control system, air conditioning method, and program
WO2019190185A1 (en) * 2018-03-30 2019-10-03 삼성에스디에스 주식회사 Time series data learning and analyzing method using artificial intelligence
WO2023079810A1 (en) * 2021-11-04 2023-05-11 株式会社日立製作所 Computer system and method for assisting investigation of device conditions

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309920A (en) * 2004-04-23 2005-11-04 Alliance Group Inc Majority vote device, its learning method and multi-class identification device
JP2019138542A (en) * 2018-02-09 2019-08-22 三菱電機株式会社 Air condition control device, air conditioning control system, air conditioning method, and program
WO2019190185A1 (en) * 2018-03-30 2019-10-03 삼성에스디에스 주식회사 Time series data learning and analyzing method using artificial intelligence
WO2023079810A1 (en) * 2021-11-04 2023-05-11 株式会社日立製作所 Computer system and method for assisting investigation of device conditions

Similar Documents

Publication Publication Date Title
CN110991786B (en) 10kV static load model parameter identification method based on similar daily load curve
CN107734512A (en) A kind of network selecting method based on the analysis of gray scale relevance presenting levelses
CN110610121B (en) Small-scale source load power abnormal data identification and restoration method based on curve clustering
CN111539657B (en) Typical power industry load characteristic classification and synthesis method combined with user daily electricity quantity curve
CN111563682A (en) Test evaluation method for distribution automation equipment
CN113112090B (en) Space load prediction method based on principal component analysis of comprehensive mutual informativity
CN112308298B (en) Multi-scenario performance index prediction method and system for semiconductor production line
CN113255900A (en) Impulse load prediction method considering improved spectral clustering and Bi-LSTM neural network
CN111368911A (en) Image classification method and device and computer readable storage medium
CN111144721A (en) Power grid project demand evaluation model construction method and device and computing equipment
JPH08123778A (en) Automatic generation method for non-linear model
CN110175696B (en) Fishing port ship entry and exit dynamic prediction method and system based on multiple regression
CN111586728A (en) Small sample characteristic-oriented heterogeneous wireless network fault detection and diagnosis method
CN113344279B (en) Resident load prediction method based on LSTM-SAM model and pooling
CN113298318A (en) Novel overload prediction method for distribution transformer
JPH05282270A (en) Method and device for constructing neural net
CN109840536A (en) A kind of power grid power supply reliability horizontal clustering method and system
CN115081933B (en) Low-voltage user topology construction method and system based on improved spectral clustering
CN116128544A (en) Active auditing method and system for electric power marketing abnormal business data
CN110766248A (en) Workshop human factor reliability evaluation method based on SHEL and interval intuition fuzzy evaluation
CN113327047A (en) Power marketing service channel decision method and system based on fuzzy comprehensive model
CN114757097A (en) Line fault diagnosis method and device
CN114707422A (en) Intelligent power check method based on load prediction
CN114912772A (en) Urban right transparency differential evaluation system matching method and system based on urban economic classification analysis
CN114372835A (en) Comprehensive energy service potential customer identification method, system and computer equipment