JP6484449B2 - Prediction device, prediction method, and prediction program - Google Patents
Prediction device, prediction method, and prediction program Download PDFInfo
- Publication number
- JP6484449B2 JP6484449B2 JP2015014684A JP2015014684A JP6484449B2 JP 6484449 B2 JP6484449 B2 JP 6484449B2 JP 2015014684 A JP2015014684 A JP 2015014684A JP 2015014684 A JP2015014684 A JP 2015014684A JP 6484449 B2 JP6484449 B2 JP 6484449B2
- Authority
- JP
- Japan
- Prior art keywords
- prediction
- value
- regression equation
- regression
- equation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 62
- 238000006243 chemical reaction Methods 0.000 claims description 90
- 238000004364 calculation method Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 18
- 239000011159 matrix material Substances 0.000 description 28
- 238000012545 processing Methods 0.000 description 17
- 238000012360 testing method Methods 0.000 description 13
- 238000010187 selection method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000012417 linear regression Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000013488 ordinary least square regression Methods 0.000 description 5
- 238000002790 cross-validation Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 235000000060 Malva neglecta Nutrition 0.000 description 2
- 240000000982 Malva neglecta Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000009021 linear effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009022 nonlinear effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012066 statistical methodology Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、予測装置、予測方法および予測プログラムに関する。 The present invention relates to a prediction apparatus, a prediction method, and a prediction program.
線形回帰は、幅広い応用を持つ実用的な統計手法である。線形回帰は、様々な分野に用いられている。例えば、線形回帰は、電力需要予測や異常判別などに用いられている。 Linear regression is a practical statistical method with a wide range of applications. Linear regression is used in various fields. For example, linear regression is used for power demand prediction and abnormality determination.
複数の説明変数を持つ回帰式を使った線形回帰では、説明変数間の相関が予測性能を低下させる、所謂、多重共線性の問題がある。この対策の一つとして、リッジ回帰(Ridge Regression)が利用されている。リッジ回帰では、予測精度を改善するため、正則化パラメータを適切に設定する必要がある。 In linear regression using a regression equation having a plurality of explanatory variables, there is a so-called multicollinearity problem in which the correlation between explanatory variables decreases the prediction performance. As one of the countermeasures, Ridge Regression is used. In ridge regression, regularization parameters need to be set appropriately to improve prediction accuracy.
正則化パラメータとしては、予測誤差の推定値を小さくするものを設定することが望ましい。この予測誤差の推定値は、例えば、AIC(Akaike's information criterion)、BIC(Schwartz's Bayesian information criterion)、交差検定、MallowのCpなどを用いて計算できる。リッジ回帰では、予測誤差の推定値を最小にする正則化パラメータを探索することで適切なパラメータが得られる。 As the regularization parameter, it is desirable to set a parameter that reduces the estimated value of the prediction error. The estimated value of the prediction error can be calculated using, for example, AIC (Akaike's information criterion), BIC (Schwartz's Bayesian information criterion), cross validation, Mallow's Cp, and the like. In ridge regression, an appropriate parameter is obtained by searching for a regularization parameter that minimizes the estimated value of the prediction error.
正則化パラメータの探索の方法としては、正則化パラメータの候補値をいくつか生成し、それぞれの予測誤差の推定値を計算し、その中で予測誤差の推定値が最も小さい正則化パラメータの候補値を選ぶ方法が実用的である。 As a regularization parameter search method, several candidate values for regularization parameters are generated, the estimated values for each prediction error are calculated, and the candidate values for regularization parameters with the smallest prediction error value among them are calculated. The method of selecting is practical.
しかしながら、従来の技術では、適切な正則化パラメータを効率的に探索できないという問題点がある。 However, the conventional technique has a problem that an appropriate regularization parameter cannot be efficiently searched.
正則化パラメータは、取り得る範囲が0<λ≦∞である。また、正則化パラメータは、予測誤差に与える影響が非線形である。このため、正則化パラメータの探索では、どのように正則化パラメータの候補値を定めるかに試行錯誤が必要であり、適切な正則化パラメータを効率的に探索できない。 The regularization parameter has a possible range of 0 <λ ≦ ∞. Further, the regularization parameter has a non-linear effect on the prediction error. For this reason, in the search for the regularization parameter, trial and error is necessary in determining how to determine the candidate value for the regularization parameter, and an appropriate regularization parameter cannot be efficiently searched.
経験的に有効性が知られている正則化パラメータの候補値の生成法としては、例えば、0.01,0.1,1,10,100のように、指数的に増加する値を用いる方法がある。この方法は、例えば、Ki+1=ki+1とし、正則化パラメータの候補値を10k1,10k2,…,10k10として正則化パラメータの候補値を生成する。しかし、候補値の初期値であるk1の値を決めるための試行錯誤が必要になる。 As a method for generating candidate values of regularization parameters whose effectiveness is empirically known, for example, a method of using exponentially increasing values such as 0.01, 0.1, 1, 10, and 100 is used. There is. In this method, for example, K i + 1 = k i +1, and regularization parameter candidate values are 10 k1 , 10 k2 ,..., 10 k10 , and regularization parameter candidate values are generated. However, trial and error to determine the value of k 1 is the initial value of the candidate value is required.
また、上述のように、正則化パラメータの候補値は、取り得る上限に制限がない。このため、複数の候補値から正則化パラメータを探索する場合、候補値の数が多いほど計算時間が長くなる。しかし、計算時間の制約から候補値の数は限られる。このため、正則化パラメータの候補値をどのように生成するかが問題となり、適切な正則化パラメータを効率的に探索できない。 Further, as described above, the upper limit of the regularization parameter candidate value is not limited. For this reason, when searching for a regularization parameter from a plurality of candidate values, the calculation time becomes longer as the number of candidate values increases. However, the number of candidate values is limited due to the limitation of calculation time. For this reason, it becomes a problem how to generate candidate values for the regularization parameter, and an appropriate regularization parameter cannot be efficiently searched.
本発明は、上記に鑑みてなされたものであって、適切な正則化パラメータを効率的に探索できる予測装置、予測方法および予測プログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object thereof is to provide a prediction device, a prediction method, and a prediction program capable of efficiently searching for an appropriate regularization parameter.
上述した課題を解決し、目的を達成するために、本発明の予測装置は、説明変数の値から目的変数を求めるリッジ回帰の回帰式の目的変数の実績値と、当該実績値が得られた際の説明変数の実績値が記憶された学習データを記憶する記憶部と、所定の変換パラメータの所定の範囲の値の変化により、前記回帰式の正則化パラメータの取り得る範囲の値が得られる変換式の前記変換パラメータの取り得る前記所定の範囲で変換パラメータの候補値を複数生成する生成部と、前記学習データに基づき、前記回帰式の正則化パラメータを前記変換式により変換し、前記生成部により生成された複数の候補値をそれぞれ変換パラメータに適用した場合の前記回帰式の予測誤差の推定値を算出する算出部と、前記算出部により算出される予測誤差の推定値が最小となる候補値を変換パラメータに適用した回帰式により予測を行う予測部と、を有する。 In order to solve the above-described problems and achieve the object, the prediction device of the present invention has obtained the actual value of the objective variable of the regression equation of the ridge regression for obtaining the objective variable from the value of the explanatory variable, and the actual value. The value of the range that the regularization parameter of the regression equation can take is obtained by the storage unit storing the learning data in which the actual value of the explanatory variable at the time is stored and the change of the value of the predetermined range of the predetermined conversion parameter A generation unit that generates a plurality of conversion parameter candidate values within the predetermined range that can be taken by the conversion parameter of the conversion equation, and based on the learning data, the regularization parameter of the regression equation is converted by the conversion equation, and the generation A calculation unit that calculates an estimation value of the prediction error of the regression equation when each of the plurality of candidate values generated by the unit is applied to the conversion parameter; and an estimation of the prediction error calculated by the calculation unit But having a prediction unit that performs predicted by regression equation to which the candidate value having the minimum conversion parameters.
本発明は、適切な正則化パラメータを効率的に探索できるという効果を奏する。 The present invention has an effect that an appropriate regularization parameter can be efficiently searched.
以下に、本発明にかかる予測装置、予測方法および予測プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Embodiments of a prediction apparatus, a prediction method, and a prediction program according to the present invention will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments. Each embodiment can be appropriately combined within a range in which processing contents are not contradictory.
[線形回帰およびリッジ回帰]
最初に、線形回帰およびリッジ回帰について説明する。通常の線形回帰では、例えば、最小二乗法で回帰係数を求める。具体的には、回帰式と観測値の差である残差の二乗和を最小にする回帰係数を求める。これは以下の式(1)に示すような最小化問題として定義できる。
[Linear regression and ridge regression]
First, linear regression and ridge regression will be described. In normal linear regression, for example, a regression coefficient is obtained by a least square method. Specifically, a regression coefficient that minimizes the sum of squares of the residual that is the difference between the regression equation and the observed value is obtained. This can be defined as a minimization problem as shown in the following equation (1).
min||Xβ−y||2 (1) min || Xβ-y || 2 (1)
ここで、βは、回帰係数である。Xは、観測値の説明変数を行列で表示したものである。yは、観測値の目的変数の列ベクトルである。行列Xおよび列ベクトルyの各行は、一回の観測に対応する。行列Xの各列は、観測値の種類である。図1は、行列Xおよび列ベクトルyを模式的に示した図である。例えば、電力需要の予測では、気温や湿度等が各列に割り当てられる。観測数をNとし観測値の種類をPとすれば、行列Xは、N行P列の行列である。列ベクトルyは、N行の列ベクトルである。また、“||・||”は、二乗ノルムを表す。 Here, β is a regression coefficient. X represents an explanatory variable of the observed value in a matrix. y is a column vector of the objective variable of the observed value. Each row of the matrix X and the column vector y corresponds to one observation. Each column of the matrix X is an observation value type. FIG. 1 is a diagram schematically showing a matrix X and a column vector y. For example, in prediction of power demand, temperature, humidity, etc. are assigned to each column. If the number of observations is N and the type of observation value is P, the matrix X is a matrix of N rows and P columns. The column vector y is an N row column vector. “|| · ||” represents a square norm.
リッジ回帰とは、回帰係数の大きさを二乗ノルムで表し、回帰係数が大きくならないように、回帰式の残差と回帰係数の大きさを二乗したものを同時に最小化する方法である。リッジ回帰の回帰係数は、以下の式(2)に示すような最小化問題を解くことで得られる。 Ridge regression is a method in which the magnitude of the regression coefficient is expressed by a square norm and the residual of the regression equation and the magnitude of the regression coefficient are squared simultaneously so that the regression coefficient does not increase. The regression coefficient of ridge regression can be obtained by solving a minimization problem as shown in the following equation (2).
min||Xβ−y||2+λ||β||2 (2) min || Xβ-y || 2 + λ || β || 2 (2)
ここで、λは、正則化パラメータであり、0以上の実数である。 Here, λ is a regularization parameter and is a real number of 0 or more.
[リッジ回帰の一般化]
ここで、リッジ回帰を一般化(拡張)した形態について説明する。ベイズ理論の枠組みでは、リッジ回帰は、回帰係数の事前分布を正規分布で定義した場合の事後確率最大化推定に位置づけられる。上述の式(2)は、事前分布として回帰係数毎に独立な正規分布を用いることに相当するが、回帰係数の事前分布として多変量正規分布を用いれば、一般化したリッジ回帰が得られる。この場合、回帰係数は、以下の式(3)に示す最小化問題を解くことで得られる。
[Generalization of ridge regression]
Here, a generalized (extended) form of ridge regression will be described. In the Bayesian framework, ridge regression is positioned as a posterior probability maximization estimation when the prior distribution of regression coefficients is defined as a normal distribution. The above equation (2) corresponds to using an independent normal distribution for each regression coefficient as a prior distribution, but if a multivariate normal distribution is used as a prior distribution of regression coefficients, a generalized ridge regression is obtained. In this case, the regression coefficient can be obtained by solving the minimization problem shown in the following equation (3).
min||Xβ−y||2+βTΛβ (3) min || Xβ-y || 2 + β T Λβ (3)
ここで、Λは、正則化パラメータである。行列XがN行P列の行列の場合、正則化パラメータΛは、P行P列の対称行列である。“βT”は、回帰係数βの転置をあらわす。通常のリッジ回帰では、正則化パラメータは、一つの実数値であったのに対し、一般化したリッジ回帰では、正則化パラメータは行列となり、複数の実数値からなる。 Here, Λ is a regularization parameter. When the matrix X is a matrix with N rows and P columns, the regularization parameter Λ is a symmetric matrix with P rows and P columns. “Β T ” represents the transpose of the regression coefficient β. In normal ridge regression, the regularization parameter is a single real value, whereas in generalized ridge regression, the regularization parameter is a matrix and consists of a plurality of real values.
別の拡張方法としては、例えば、非特許文献2には、Elastic Netが提案されている。これは一乗ノルムと二乗ノルムの両方で回帰係数の大きさを表す方法である。回帰係数は、以下の式(4)に示す最小化問題を解くことで得られる。
As another extension method, for example,
min||Xβ−y||2+λ||β||2+γ|β| (4) min || Xβ-y || 2 + λ || β || 2 + γ | β | (4)
ここで、γは、Elastic Net特有の正則化パラメータである。“|・|”は、一乗ノルムを表す。Elastic Net特有の正則化パラメータγは、非ゼロとなる回帰係数の数を指定することで、Least Angle Regressionにより求まる。一方、正則化パラメータλはリッジ回帰と同様に、複数の候補値を生成して、予測誤差の推定値を最小化するパラメータを探索する必要がある。 Here, γ is a regularization parameter unique to Elastic Net. “| • |” represents the first norm. The regularization parameter γ specific to Elastic Net is obtained by Least Angle Regression by specifying the number of regression coefficients that are non-zero. On the other hand, as for the regularization parameter λ, it is necessary to generate a plurality of candidate values and search for a parameter that minimizes the estimated value of the prediction error, as in the ridge regression.
[標準化]
上述の式(2)の正則化パラメータλの項は、全ての回帰係数βに対して一律に効果を持つ。このため、得られる回帰係数βは、説明変数の単位系(スケール)に依存してしまう。どのような単位系に対しても同じ回帰係数βが得られるようにするためには、リッジ回帰の前処理として標準化の処理が必要である。
[Standardization]
The term of the regularization parameter λ in the above equation (2) has a uniform effect on all the regression coefficients β. For this reason, the obtained regression coefficient β depends on the unit system (scale) of the explanatory variables. In order to obtain the same regression coefficient β for any unit system, standardization processing is necessary as pre-processing for ridge regression.
標準化とは各説明変数および目的変数の平均がゼロとなり、標準偏差が1となるように各変数を変換する処理である。説明変数の行列Xにおけるp列目の説明変数の標準化は、以下の式(5)に示すように計算する。 Standardization is a process of converting each variable so that the average of each explanatory variable and objective variable is zero and the standard deviation is one. The standardization of the explanatory variable of the p-th column in the explanatory variable matrix X is calculated as shown in the following equation (5).
ここで、xpに付した“ ̄”は、平均を表す。平均xpは、標準化前のp列目の説明変数の平均である。標準偏差σpは、標準化前のp列目の説明変数の標準偏差である。xipは、標準化前の行列Xのi行p列目の説明変数である。x'ipは、標準化後の行列Xのi行p列目の説明変数である。目的変数についても同様に標準化を行う。標準化を行うと、回帰式の定数項が常にゼロとなるため、定数項が不要になる。 Here, subjected to x p "¯" represents the average. The average x p is the average of explanatory variables in the p-th column before standardization. The standard deviation σ p is a standard deviation of explanatory variables in the p-th column before standardization. x ip is an explanatory variable of the i-th row and the p-th column of the matrix X before standardization. x ′ ip is an explanatory variable of the i-th row and the p-th column of the standardized matrix X. Standardize the objective variables in the same way. When standardization is performed, the constant term of the regression equation is always zero, so the constant term becomes unnecessary.
標準化後に得られた回帰係数で目的変数の値を算出した場合、標準化後の目的変数の値は以下の式(6)により元のスケールに戻す。 When the value of the objective variable is calculated using the regression coefficient obtained after standardization, the value of the objective variable after standardization is returned to the original scale by the following equation (6).
ここで、yに付した“ ̄”は、平均を表す。平均yは、標準化前の目的変数の平均である。σyは、標準化前の目的変数の標準偏差である。β'pは、標準化後に得られた回帰係数である。 Here, “ ̄” attached to y represents an average. The mean y is the mean of the objective variable before standardization. σ y is the standard deviation of the objective variable before standardization. β ′ p is a regression coefficient obtained after normalization.
[変換手法]
リッジ回帰の回帰係数は、上述の式(2)の最小化問題を解くことであり、回帰係数βについては、以下の式(7)のように書ける。
[Conversion method]
The regression coefficient of the ridge regression is to solve the minimization problem of the above formula (2), and the regression coefficient β can be written as the following formula (7).
β=(XTX+λI)−1XTy (7) β = (X T X + λI) −1 X T y (7)
ここで、Iは、単位行列である。行列XがN行P列の行列である場合、Iは、P行P列の単位行列となる。 Here, I is a unit matrix. When the matrix X is a matrix of N rows and P columns, I is a unit matrix of P rows and P columns.
このように、リッジ回帰の回帰係数βは、解析的に得られるが、回帰係数βに対する正則化パラメータλの影響は非線形となる。このため、正則化パラメータλを0から徐々に大きくしていったときに、回帰式が目的変数の空間でどのように変化していくのかを想定するのは難しい。 Thus, although the regression coefficient β of ridge regression is obtained analytically, the influence of the regularization parameter λ on the regression coefficient β is non-linear. For this reason, it is difficult to assume how the regression equation changes in the space of the objective variable when the regularization parameter λ is gradually increased from 0.
ここで、正則化パラメータλの効果が直感的に理解できるように、以下に示す式変形を利用する。上述の式(7)は、以下の式(8)のように書き換えることができる。 Here, in order to intuitively understand the effect of the regularization parameter λ, the following formula modification is used. The above equation (7) can be rewritten as the following equation (8).
説明変数および目的変数が標準化されていれば、式(8)は、以下の式(9)のように書き換えることができる。 If the explanatory variable and the objective variable are standardized, the equation (8) can be rewritten as the following equation (9).
ここで、Rxxは説明変数の相関行列である。Rxyは、説明変数と目的変数の相関行列である。 Here, R xx is a correlation matrix of explanatory variables. R xy is a correlation matrix of explanatory variables and objective variables.
正則化パラメータについて、以下の式(10)のような変換を考える。 For the regularization parameter, consider the following transformation (10).
この式(10)の変換を式(9)のλに適用すると、以下の式(11)が得られる。 When the transformation of the equation (10) is applied to λ of the equation (9), the following equation (11) is obtained.
β=(δRxx+(1−δ)I)−1δRxy (11) β = (δR xx + (1-δ) I) −1 δR xy (11)
説明変数の間の相関が無い場合を考えると、Rxxは、単位行列になり、回帰係数は、以下の式(12)のようになる。 Considering the case where there is no correlation between explanatory variables, R xx is a unit matrix, and the regression coefficient is as shown in the following equation (12).
β=δRxy (12) β = δR xy (12)
また、回帰式に説明変数を代入した結果は、以下の式(13)のようになる。 Further, the result of substituting the explanatory variables into the regression equation is as shown in the following equation (13).
y^(δ)=δXRxy=δy^OLS (13) y ^ (δ) = δXR xy = δy ^ OLS (13)
ここで、y^OLSは、通常の最小二乗法で回帰係数を求めた場合、すなわち、λ=0の場合の回帰結果である。なお、OLSは、Ordinary Least Squaresの頭文字であり、通常の最小二乗法を指す。 Here, y ^ OLS is a regression result when the regression coefficient is obtained by a normal least square method, that is, when λ = 0. Note that OLS is an acronym for Ordinary Least Squares and refers to the ordinary least square method.
これより、0から1の間でδを等間隔で動かすと、y^(δ)は、通常の回帰結果とy^(0)=0の間を等間隔で動くことがわかる。従って、正則化パラメータとしてδを0から1まで等間隔に探索すれば、目的変数の取り得る範囲の空間で線形な探索が実現できる。なお、説明変数の間に相関がある場合でも、その相関が小さければこれに準ずる性質が期待できる。 From this, it can be seen that when δ is moved at regular intervals between 0 and 1, y ^ (δ) moves at regular intervals between the normal regression result and y ^ (0) = 0. Therefore, if δ is searched at regular intervals from 0 to 1 as a regularization parameter, a linear search can be realized in a space in a range that the objective variable can take. Even if there is a correlation between explanatory variables, if the correlation is small, a property equivalent to this can be expected.
なお、式(10)による変換は、δの範囲を0<δ≦1とすると、δ=1でλ=0になり、δを小さくするとλが大きくなり、δが0に近づくとλが無限大に近づく性質がある。図2は、δとλの関係の一例を示した図である。図2の例は、N=1の場合の式(10)のδとlog(λ)との関係を示している。図2に示されるように、δ=0.5付近では、指数的にλを変化させることに対応しており、一方でδ=0またはδ=1に近づくほど、δの変化に対するlog(λ)の変化が大きくなることがわかる。この変換により、δの変化によるλの予測に与える影響が近似的に線形に変換される。 Note that in the conversion by equation (10), when the range of δ is 0 <δ ≦ 1, δ = 1 and λ = 0, δ is increased when δ is decreased, and λ is infinite when δ approaches 0. It has the property of approaching large FIG. 2 is a diagram showing an example of the relationship between δ and λ. The example of FIG. 2 shows the relationship between δ in equation (10) and log (λ) when N = 1. As shown in FIG. 2, in the vicinity of δ = 0.5, it corresponds to exponentially changing λ, while the closer to δ = 0 or δ = 1, the log (λ ) Becomes larger. By this conversion, the influence of the change of δ on the prediction of λ is approximately linearly converted.
[予測手法]
次に、通常のリッジ回帰において正則化パラメータλの候補値の生成法について説明する。本実施例では、上述の式(10)を一般化した、以下の式(14)に示す正則化パラメータの変換式を用いる。
[Prediction method]
Next, a method for generating candidate values for the regularization parameter λ in normal ridge regression will be described. In the present embodiment, a regularization parameter conversion formula shown in the following formula (14), which is a generalization of the above formula (10), is used.
ここで、kは、正の実数である。kの役割は、XTXの各要素が観測数Nの増加とともに大きくなるので、それにあわせて正則化パラメータの大きさを調整することにある。推奨値は、k=Nである。k=Nとした場合、式(14)は、式(10)と一致する。 Here, k is a positive real number. The role of k is to adjust the size of the regularization parameter in accordance with the increase in the number of observations N since each element of X T X increases. The recommended value is k = N. When k = N, Expression (14) matches Expression (10).
本実施例では、正則化パラメータλの候補値を生成する代わりに、以下の式(15)により正則化パラメータとして変換パラメータの候補値δiを生成する。 In this embodiment, instead of generating a candidate value for the regularization parameter λ, a conversion parameter candidate value δ i is generated as a regularization parameter by the following equation (15).
ここで、Dは、事前に決めた正の整数とする。iは、1からDまでの整数とする。 Here, D is a positive integer determined in advance. i is an integer from 1 to D.
得られたD個の候補値δiに対して、それぞれ予測誤差の推定値を計算し、予測誤差の推定値を最小にする候補値δiを選ぶことで、適切な正則化パラメータが求まる。なお、Dの推奨値は、50から100程度である。 For each of the obtained D candidate values δ i , an estimated value of the prediction error is calculated, and a candidate value δ i that minimizes the estimated value of the prediction error is selected, thereby obtaining an appropriate regularization parameter. The recommended value of D is about 50 to 100.
次に、一般化したリッジ回帰における正則化パラメータの候補値の生成法について説明する。一般化したリッジ回帰の正則化パラメータは、行列なので、この行列の各要素に対して値を設定する必要がある。一般化したリッジ回帰の回帰係数は、以下の式(16)のように書ける。 Next, a method for generating candidate values for regularization parameters in generalized ridge regression will be described. Since the regularization parameter of the generalized ridge regression is a matrix, it is necessary to set a value for each element of this matrix. The regression coefficient of generalized ridge regression can be written as the following equation (16).
β=(XTX+Λ)−1XTy (16) β = (X T X + Λ) −1 X T y (16)
式(16)は、通常のリッジ回帰と大きな差が無いので、式(14)の変換の代わりに、以下の式(17)の変換を用いることで候補値を生成できる。 Since the equation (16) is not significantly different from the normal ridge regression, the candidate value can be generated by using the following equation (17) instead of the equation (14).
ここで、Λijは、Λのi行j列目の要素である。δijは、範囲0<δij≦1の実数である。kは、式(14)と同様の役割であり、推奨値は、k=Nである。
Here, Λ ij is an element of i row and j column of Λ. δ ij is a real number in the
各δijの候補値を式(15)で生成することもできるが、各δijの候補値の組合せを考慮すると、最終的に得られるΛの候補値の数は指数的になる。この方法の代わりに、各δijの候補値を範囲0<δij≦1の乱数で生成すれば、Λの候補値の数を限定できる。なお、Λの行列に制約を課してもよい。例えば、Λの対角成分だけを式(17)により決定し、対角成分以外をゼロとする制約を課してもよい。これにより、Λの候補値の数を限定できる。
Although the candidate values of the [delta] ij may also be generated by the formula (15), considering the combination of candidate values for each [delta] ij, the number of candidate values of the finally obtained Λ becomes exponential. If the candidate values for each δ ij are generated with random numbers in the
[δの高度な探索方法]
次に、δの高度な探索方法について説明する。上述した等間隔にδの候補値を生成する方法は、予測誤差の推定値を最小化する正則化パラメータの探索方法の一つである。実用上は、上述の方法で十分な場合が多いが、観測値の種類が多い大規模なデータにリッジ回帰を適用する場合は、より厳密に正則化パラメータを設定する場合がある。例えば、観測値の種類が1万を超えるような大規模なデータにリッジ回帰を適用する場合は、より厳密に正則化パラメータを設定する必要がある場合がある。この場合、なるべく少ない候補値の数で、予測誤差の推定値を最小にする正則化パラメータを探すために、より高度な探索方法が有用である。
[Advanced search method for δ]
Next, an advanced search method for δ will be described. The above-described method for generating δ candidate values at equal intervals is one of the regularization parameter search methods for minimizing the estimation value of the prediction error. In practice, the above method is often sufficient, but when ridge regression is applied to large-scale data with many types of observation values, regularization parameters may be set more strictly. For example, when applying ridge regression to large-scale data where the types of observations exceed 10,000, it may be necessary to set regularization parameters more strictly. In this case, a more advanced search method is useful for searching for a regularization parameter that minimizes the estimated value of the prediction error with as few candidate values as possible.
高度な探索方法としては、予測誤差の推定値を最小化する正則化パラメータの範囲を徐々に絞り込む方法が考えられる。高度な探索方法の一例としては、等間隔にδの候補値を生成して予測誤差の推定値を計算し、予測誤差の推定値が最小の部分を含む所定範囲についてさらに短い間隔でδの候補値を生成して予測誤差の推定値を計算する局所的な探索を所定の終了条件を満たすまで繰り返す方法がある。この所定範囲は、等間隔以上の範囲であればよく、例えば、等間隔の範囲とする。終了条件としては、例えば、局所的な探索を所定回繰り返すまでとしてもよく、予測誤差の推定値が所定の基準以下となるまでとしてもよい。例えば、まず0から1の範囲に等間隔に10個の候補値を生成し、予測誤差の推定値を計算する。次に、0から0.5の範囲と0.5から1の範囲に対して、先の候補値のうち予測誤差の推定値を最小にするものが含まれる範囲に対して、等間隔に10個の候補値を生成する。これを繰り返すことで、範囲を徐々に絞り込み、予測誤差の推定値を最小化する正則化パラメータを効率的に探索できる。 As an advanced search method, a method of gradually narrowing down the range of the regularization parameter that minimizes the estimated value of the prediction error can be considered. As an example of an advanced search method, candidate values for δ are generated at equal intervals to calculate an estimation value of prediction error, and candidates for δ are calculated at a shorter interval for a predetermined range including a portion where the estimation value of the prediction error is minimum. There is a method of repeating a local search for generating a value and calculating an estimated value of a prediction error until a predetermined end condition is satisfied. This predetermined range should just be a range more than equal intervals, for example, shall be the range of equal intervals. As the end condition, for example, the local search may be repeated a predetermined number of times, or the estimated value of the prediction error may be equal to or less than a predetermined reference. For example, first, ten candidate values are generated at equal intervals in a range from 0 to 1, and an estimated value of the prediction error is calculated. Next, with respect to the range from 0 to 0.5 and the range from 0.5 to 1, the previous candidate value includes the one that minimizes the estimated value of the prediction error. Generate candidate values. By repeating this, it is possible to efficiently narrow down the range and efficiently search for a regularization parameter that minimizes the estimated value of the prediction error.
一般化したリッジ回帰では、乱数による候補値の生成も有用であるが、より高度な方法としては局所探索や、遺伝的アルゴリズム等の直接探索法も有用である。 In generalized ridge regression, it is useful to generate candidate values using random numbers, but as a more advanced method, a direct search method such as a local search or a genetic algorithm is also useful.
[説明変数の選択手法]
次に、逐次的な説明変数の選択手法について説明する。リッジ回帰では、回帰式に複数の説明変数を持つ場合がある。例えば、P個の説明変数Xpを持つ回帰式は、以下の式(18)のように表せる。
[Explanation variable selection method]
Next, a sequential explanatory variable selection method will be described. In ridge regression, the regression equation may have multiple explanatory variables. For example, the regression equation with P number of explanatory variables X p can be expressed as the following equation (18).
ここで、yは、目的変数である。βは、回帰係数である。式(18)では、目的変数yが複数の説明変数の回帰式から算出される。 Here, y is an objective variable. β is a regression coefficient. In the equation (18), the objective variable y is calculated from regression equations of a plurality of explanatory variables.
例えば、目的変数yを電力需要として、電力需要の予測を行う場合、各説明変数Xpは、気温、湿度、風速等に対応する。しかし、回帰式を作成する場合、必ずしも全ての観測値を使う必要はなく、一部の説明変数により十分な精度で予測できる場合がある。例えば、気温、湿度、風速を観測していたとしても、回帰式では気温と風速だけを使うことで、予測精度が改善する場合や、予測結果の解釈が容易になる場合がある。 For example, as the objective variable y power demand, when performing prediction of the power demand, the explanatory variable X p are temperature, humidity, corresponding to the wind speed and the like. However, when creating a regression equation, it is not always necessary to use all the observed values, and there are cases where prediction can be made with sufficient accuracy using some explanatory variables. For example, even if temperature, humidity, and wind speed are observed, using only the temperature and wind speed in the regression equation may improve prediction accuracy or facilitate interpretation of the prediction result.
このように複数の説明変数がある場合に、回帰式に組み込む説明変数を自動選択する手法を説明する。この手法は、一つの説明変数を持つ回帰式から始め、回帰式に一つずつ説明変数を追加することを繰り返す。追加する説明変数の選び方は、説明変数とその時点での回帰式の誤差との相関の絶対値がもっとも大きなものを選ぶ。回帰式の回帰係数は、リッジ回帰で計算し、正則化パラメータは提案手法で決める。 A method for automatically selecting an explanatory variable to be incorporated into a regression equation when there are a plurality of explanatory variables in this way will be described. This technique starts with a regression equation with one explanatory variable and repeats adding explanatory variables one by one to the regression equation. For selecting the explanatory variable to be added, the one having the largest absolute value of the correlation between the explanatory variable and the error of the regression equation at that time is selected. The regression coefficient of the regression equation is calculated by ridge regression, and the regularization parameters are determined by the proposed method.
以下に具体的な手順の一例を示す。 An example of a specific procedure is shown below.
ステップ1:説明変数の選択する領域を初期化する。例えば、選択した説明変数を保持する領域A0={}を空にする。また、Y^0=0と初期化する。また、カウンタt=1と初期化する。 Step 1: Initialize an area for selecting an explanatory variable. For example, the area A 0 = {} holding the selected explanatory variable is emptied. In addition, it initializes Y ^ 0 = 0. Also, the counter t = 1 is initialized.
ステップ2:未選択の説明変数ごとに、選択された説明変数による回帰式の誤差との相関を算出する。最初は、A0が空であり、選択した説明変数がないため、目的変数の予測値がゼロとなり、目的変数の実績値がそのまま誤差と算出される。説明変数が選択された場合の誤差は、後述のステップ6で算出される。例えば、未選択の各説明変数と誤差との相関CPは、以下の式(19)から算出する。 Step 2: For each unselected explanatory variable, a correlation with the error of the regression equation due to the selected explanatory variable is calculated. At first, since A0 is empty and there is no selected explanatory variable, the predicted value of the objective variable becomes zero, and the actual value of the objective variable is directly calculated as an error. The error when the explanatory variable is selected is calculated in step 6 described later. For example, the correlation C P between each explanatory variable and the error of the unselected is calculated from the following equation (19).
CP=X(:|p)T(y−Y^t−1) (19) C P = X (: | p) T (y−Y ^ t−1 ) (19)
ここで、Xは、N行P列の説明変数の行列とする。Atは、回帰式に組み込まれた説明変数を指す列番号の集合とする。X(:|p)は、行列Xのp番目の列ベクトルとする。X(:|A)は、Aに含まれる列番号に対応するXの列のみをもった行列とする。Y^0は、要素数Nの列ベクトルとし、各要素は0とする。 Here, X is a matrix of explanatory variables of N rows and P columns. A t is the set of column number that points to the explanatory variables incorporated in the regression equation. X (: | p) is the p-th column vector of the matrix X. X (: | A) is a matrix having only X columns corresponding to the column numbers included in A. Y ^ 0 is a column vector with N elements, and each element is 0.
ステップ3:未選択の説明変数のなかから、ステップ2で算出した相関の絶対値が最大の説明変数を求める。すなわち、未選択の説明変数のなかで、誤差と変動が最も類似する説明変数を求める。例えば、At−1に含まれない説明変数pの中で、|CP|が最大の説明変数pをpt *とする。
Step 3: From the unselected explanatory variables, an explanatory variable having the maximum absolute value of the correlation calculated in
ステップ4:相関CPの絶対値が最大の説明変数pt *を回帰式に組み込む。これは、例えば、以下の式(20)のように表せる。 Step 4: The absolute value of the correlation C P incorporates a maximum of explanatory variables p t * to regression. This can be expressed, for example, by the following equation (20).
At=At−1∪{pt *} (20) A t = A t-1 ∪ {p t *} (20)
式(20)は、At−1に説明変数pt *を追加してAtとすることを示す。 Equation (20) indicates that the A t by adding the explanatory variable p t * to A t-1.
ステップ5:回帰式の正則化パラメータをそれぞれ変換式で変換して変換パラメータδの候補値δiを生成して予測誤差の推定値を求める。そして、予測誤差の推定値が最小となる候補値を変換パラメータに適用して、回帰係数βtを求め、回帰式を特定する。回帰係数βtは、カウンタtでの回帰係数を表す。 Step 5: The regularization parameter of the regression equation is converted by the conversion equation to generate a candidate value δ i of the conversion parameter δ, and an estimated value of the prediction error is obtained. Then, by applying the candidate value estimate of the prediction error is minimized in the conversion parameter, a regression coefficient beta t, identifies the regression equation. The regression coefficient β t represents the regression coefficient at the counter t.
ステップ6:回帰係数βtを適用した回帰式から算出される目的変数の予測値と実績値の誤差を算出する。予測値は、例えば、以下の式(21)のように表せる。 Step 6: calculating an error of the predicted value and the actual value of the objective variable calculated from the regression equation according to the regression coefficient beta t. The predicted value can be expressed as the following equation (21), for example.
Y^t=X(:|A)βt (21) Y ^ t = X (: | A) β t (21)
ステップ7:誤差が所定の停止条件を満たしているか判定する。停止条件を満たしていない場合は、カウンタtをカウントアップ(t=t+1)してステップ2に戻る。これにより、ステップ2〜7が繰り返される。停止条件を満たす場合は、説明変数の選択を終了する。これにより、回帰式が特定される。停止条件は、例えば、相関が高い説明変数を所定個選択するまで、または、選択された説明変数による回帰式から算出される目的変数の予測値と実績値との誤差が増加するまでとする。停止条件を、相関が高い説明変数を所定個選択するまでとした場合は、停止条件を満たした際の回帰式で予測を行う。停止条件を、選択された説明変数による回帰式から算出される目的変数の予測値と実績値との誤差が増加するまでとした場合は、停止条件を満たした際の回帰式では誤差が増加しているため、1つ前の回帰式(t−1で特定された回帰式)で予測を行う。なお、停止条件は、これらに限定されるものではなく、他の条件を用いてもよい。 Step 7: It is determined whether the error satisfies a predetermined stop condition. If the stop condition is not satisfied, the counter t is incremented (t = t + 1), and the process returns to step 2. Thereby, steps 2 to 7 are repeated. When the stop condition is satisfied, the selection of the explanatory variable is finished. Thereby, the regression equation is specified. The stop condition is, for example, until a predetermined number of explanatory variables having a high correlation is selected, or until an error between the predicted value and the actual value of the objective variable calculated from the regression equation using the selected explanatory variable increases. When the stop condition is until a predetermined number of explanatory variables with high correlation is selected, prediction is performed using a regression equation when the stop condition is satisfied. If the stop condition is set to increase the error between the predicted value of the objective variable calculated from the regression equation with the selected explanatory variable and the actual value, the error will increase in the regression equation when the stop condition is met. Therefore, the prediction is performed using the previous regression equation (regression equation specified by t-1). The stop condition is not limited to these, and other conditions may be used.
[予測装置の構成]
次に、本願の提案手法を適用した予測装置10の構成について説明する。なお、本実施例では、予測装置10により電力需要の予測を行う場合について説明する。また、本実施例では、予測装置10が上述の説明変数の選択手法を用いて、複数の説明変数から回帰式を特定して電力需要の予測を行う場合を説明する。
[Configuration of prediction device]
Next, the configuration of the
図3は、予測装置の機能的な構成の一例を示す図である。図3に示すように、予測装置10は、表示部20と、入力部21と、記憶部22と、制御部23とを有する。予測装置10は、図3に示した機能部以外にも既知の各種の機能部を有してもよい。例えば、予測装置10は、他の端末と通信を行う通信インタフェース部などを有してもよい。
FIG. 3 is a diagram illustrating an example of a functional configuration of the prediction apparatus. As illustrated in FIG. 3, the
表示部20は、各種情報を表示する表示デバイスである。表示部20としては、LCD(Liquid Crystal Display)などの表示デバイスが挙げられる。表示部20は、各種情報を表示する。例えば、表示部20は、各種の操作画面や予測結果を表示する。 The display unit 20 is a display device that displays various types of information. Examples of the display unit 20 include a display device such as an LCD (Liquid Crystal Display). The display unit 20 displays various information. For example, the display unit 20 displays various operation screens and prediction results.
入力部21は、各種の情報を入力する入力デバイスである。例えば、入力部21としては、予測装置10に接続されたキーボードやマウス、予測装置10に設けられた各種のボタン、表示部20上に設けられた透過型のタッチセンサなどの入力デバイスが挙げられる。なお、図3の例では、機能的な構成を示したため、表示部20と入力部21を別に分けているが、例えば、タッチパネルなど表示部20と入力部21を一体的に設けたデバイスで構成してもよい。
The input unit 21 is an input device that inputs various types of information. For example, examples of the input unit 21 include an input device such as a keyboard and a mouse connected to the
記憶部22は、各種のデータを記憶する記憶デバイスである。例えば、記憶部22は、ハードディスク、SSD(Solid State Drive)、光ディスクなどの記憶装置である。なお、記憶部22は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)などのデータを書き換え可能な半導体メモリであってもよい。 The storage unit 22 is a storage device that stores various data. For example, the storage unit 22 is a storage device such as a hard disk, an SSD (Solid State Drive), or an optical disk. The storage unit 22 may be a semiconductor memory that can rewrite data such as a random access memory (RAM), a flash memory, and a non-volatile static random access memory (NVSRAM).
記憶部22は、制御部23で実行されるOS(Operating System)や各種プログラムを記憶する。例えば、記憶部22は、後述する予測処理を実行する予測プログラムを含む各種のプログラムを記憶する。さらに、記憶部22は、制御部23で実行されるプログラムで用いられる各種データを記憶する。例えば、記憶部22は、学習データ30を記憶する。
The storage unit 22 stores an OS (Operating System) executed by the
学習データ30は、リッジ回帰の回帰式において各種のパラメータの最適値の算出に用いるデータである。学習データ30は、リッジ回帰の回帰式の目的変数の実績値と、当該実績値が得られた際の説明変数の実績値が記憶されている。本実施例では、所定の期間の電力需要の実績値と、当該電力需要が得られた際の気温、湿度、風速などの複数の説明変数の実績値が記憶されている。 The learning data 30 is data used for calculating optimum values of various parameters in the regression equation of ridge regression. The learning data 30 stores the actual value of the objective variable of the regression equation of ridge regression and the actual value of the explanatory variable when the actual value is obtained. In the present embodiment, the actual value of the power demand for a predetermined period and the actual values of a plurality of explanatory variables such as the temperature, humidity, and wind speed when the power demand is obtained are stored.
制御部23は、予測装置10を制御するデバイスである。制御部23としては、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路を採用できる。制御部23は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。制御部23は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、制御部23は、受付部40と、特定部41と、生成部42と、算出部43と、予測部44と、出力制御部45とを有する。
The
受付部40は、各種の受け付けを行う。例えば、受付部40は、電力需要の予測に関する各種の情報の入力や電力需要の予測に関する各種の操作指示を受け付ける。例えば、受付部40は、不図示の操作画面を表示部20に表示させ、入力部21からの入力操作により各種の操作指示を受け付ける。例えば、受付部40は、電力需要の予測開始の指示を受け付ける。 The reception unit 40 performs various types of reception. For example, the reception unit 40 receives input of various information related to power demand prediction and various operation instructions related to power demand prediction. For example, the reception unit 40 displays an operation screen (not shown) on the display unit 20 and receives various operation instructions by an input operation from the input unit 21. For example, the reception unit 40 receives an instruction to start prediction of power demand.
特定部41は、上述の説明変数の選択手法により、電力需要の予測に有効な回帰式を特定する。例えば、特定部41は、学習データ30に基づき、所定の停止条件を満たすまで、学習データ30に記憶された複数の説明変数のうち、回帰式から算出される目的変数の予測値と実績値との誤差に対する相関の絶対値が大きい説明変数を選択することを繰り返して、選択された説明変数による回帰式を特定する。例えば、特定部41は、最初に、学習データ30に記憶された電力需要の実績値をそのまま誤差として、それぞれの説明変数の実績値との相関を算出する。そして、特定部41は、算出された相関の絶対値が最大の説明変数を特定する。特定部41は、相関の絶対値が最大の説明変数を選択する。以降、特定部41は、選択された説明変数による回帰式に、学習データ30に記憶された説明変数の実績を代入して電力需要の予測値を算出し、算出した予測値と学習データ30に記憶された実績値との誤差を算出する。そして、特定部41は、回帰式に含まれない説明変数について、それぞれ誤差に対する相関を求め、相関の絶対値が大きい説明変数を選択して回帰式に追加する。特定部41は、このように回帰式から算出される電力需要の予測値と実績値の誤差が停止条件を満たすまで、相関の絶対値が最大の説明変数の選択を繰り返す。
The specifying
生成部42は、特定部41において説明変数が追加された回帰式の変換パラメータの候補値を複数生成する。例えば、生成部42は、正則化パラメータの変換式として、上述の式(14)を用いて、0<δ≦1の範囲で均等に変換パラメータの候補値δを生成する。例えば、生成部42は、式(15)のD=50として、iは、1からDまで変化させて50個の候補値δiを生成する。
The generating
算出部43は、特定部41において説明変数が追加された回帰式に、生成部42により生成された複数の候補値をそれぞれ変換パラメータに適用した場合の回帰式の予測誤差の推定値を算出する。例えば、算出部43は、特定部41において説明変数が追加された回帰式の正則化パラメータを変換式により変換する。そして、算出部43は、回帰式のそれぞれ変換パラメータにそれぞれ候補値δを順に適用し、AIC、BIC、交差検定、MallowのCpなどを用いて、学習データ30から回帰式の予測誤差の推定値を算出する。算出部43は、説明変数ごとに、算出される予測誤差の推定値が最小となる候補値を変換式に適用して正則化パラメータを求める。これにより、説明変数ごとに、誤差の小さい正則化パラメータが特定される。上述の特定部41では、説明変数ごとに、誤差の小さい正則化パラメータを適用した回帰式を用いて、誤差を算出する。
The calculating
すなわち、予測装置10では、特定部41により、予測に有効な説明変数を選択し、選択された説明変数による回帰式を特定し、生成部42により、当該回帰式の変換パラメータの候補値を生成して、算出部43により、候補値を変換パラメータに適用した場合の回帰式の予測誤差の推定値を算出することにより、予測に有効な説明変数により構成され、誤差の小さい正則化パラメータが適用されたリッジ回帰の回帰式を求める。
That is, in the
予測部44は、求められたリッジ回帰の回帰式により予測を行う、本実施例では、予測部44は、電力需要を予測する。 The prediction unit 44 performs prediction based on the obtained regression formula of ridge regression. In the present embodiment, the prediction unit 44 predicts power demand.
出力制御部45は、各種の出力の制御を行う。例えば、出力制御部45は、予測部44により予測された電力需要の情報を表示部20に表示させる。また、例えば、出力制御部45は、予測部44により予測された電力需要の情報を外部の端末装置へ出力する。これにより、ユーザは、出力された情報から電力需要の予測結果を把握できる。 The output control unit 45 controls various outputs. For example, the output control unit 45 causes the display unit 20 to display power demand information predicted by the prediction unit 44. Further, for example, the output control unit 45 outputs the information on the power demand predicted by the prediction unit 44 to an external terminal device. Thereby, the user can grasp | ascertain the prediction result of an electric power demand from the output information.
[予測例]
ここで、電力需要の予測の一例を説明する。なお、本実施例では、午後12時の電力需要の年周期パターンを回帰式として求め、電力需要を予測する場合について説明する。ここでは、リッジ回帰の回帰式としてはフーリエ級数を用いる。回帰式は、例えば、以下の式(22)のように表せる。
[Prediction example]
Here, an example of power demand prediction will be described. In addition, a present Example demonstrates the case where the electric power demand is estimated by calculating | requiring the annual cycle pattern of the electric power demand of 12:00 pm as a regression equation. Here, a Fourier series is used as a regression equation for ridge regression. The regression equation can be expressed as the following equation (22), for example.
ここで、yは、目的変数であり、午後12時の予測される電力需要である。tは、1月1日から12月31日に対して、1から365までの数字を順に割り当てたものとする。Tは、周期を表し、365とする。πは、円周率である。βは、回帰係数である。 Here, y is an objective variable and is a predicted power demand at 12:00. It is assumed that t is a number from 1 to 365 assigned in order from January 1 to December 31. T represents a period and is 365. π is the circumference ratio. β is a regression coefficient.
式(22)に示す回帰式では、変数lを1〜100とした場合の波形を回帰係数の割合でそれぞれ重み付け加算する。この場合、説明変数は、各変数lに対して、sin(2πtl/T)とcos(2πtl/T)を各列に割り当てた200列の行列となり、また、回帰式に表れる説明変数の数は、200個となる。 In the regression equation shown in the equation (22), the waveform when the variable l is 1 to 100 is weighted and added by the ratio of the regression coefficient. In this case, the explanatory variable is a 200-column matrix in which sin (2πtl / T) and cos (2πtl / T) are assigned to each column for each variable l, and the number of explanatory variables appearing in the regression equation is , 200.
以下の例では、通常のリッジ回帰に対する手法を用いてリッジ回帰の回帰係数を求める場合を説明する。なお、一般化したリッジ回帰に対する手法を用いてもよい。 In the following example, a case where a regression coefficient of ridge regression is obtained using a method for normal ridge regression will be described. Note that a generalized method for ridge regression may be used.
学習データ30には、所定の期間の午後12時の電力需要の実績値を記憶させる。例えば、学習データ30には、2012年9月30日から2013年9月29日までの東京電力管内の午後12時の電力需要の実績値を記憶させる。例えば、学習データ30には、1月1日から12月31日に対して割り当てたtの値にそれぞれ対応させて、電力需要の実績値を記憶させる。 The learning data 30 stores the actual value of power demand at 12:00 pm during a predetermined period. For example, the learning data 30 stores the actual value of the power demand at 12:00 pm within TEPCO from September 30, 2012 to September 29, 2013. For example, the actual value of power demand is stored in the learning data 30 in association with the value of t assigned to January 1 to December 31.
予測装置10は、学習データ30に対して式(7)でリッジ回帰の回帰係数を求める。本実施例では、予測装置10は、式(14)のkを学習データ30のデータ数である365とし、式(15)のDを100として候補値を生成し、各候補値の予測誤差の推定値を算出して正則化パラメータを決定する。予測誤差の推定値は、交差検定の一種であるLOOCV(Leave-One-Out Cross-Validation)で求める。例えば、学習データ30の一部の日付のデータを学習用データとし、残りの日付のデータを検証用データとする。この理由は、学習データ30の一部の日付のデータを学習用データとし、残りの日付のデータを検証用データとして、学習用データから正則化パラメータを決定し、決定された正則化パラメータを適用した回帰式により検証用データから予測誤差の推定値を求めるので、回帰式の予測の精度を適切に評価できるためである。予測装置10は、学習用データを用いて正則化パラメータを決定し、決定された正則化パラメータを適用した回帰式により検証用データについて予測を行って予測値と実績値を比較し、予測誤差の推定値を算出する。なお、回帰係数を求める際は、説明変数と目的変数を標準化する。
The
予測結果を評価するため、2013年9月30日から2014年9月29日までの東京電力管内の午後12時の電力需要の実績値のデータをテストデータとする。予測装置10が、学習データ30から得られた回帰係数で、テストデータに対する電力需要を予測すれば、実際の予測を想定したシミュレーションになり、テストデータに対する誤差を予測誤差と見なすことができる。
In order to evaluate the prediction result, the actual value data of the power demand at 12:00 p.m. within TEPCO from September 30, 2013 to September 29, 2014 is used as test data. If the
図4は、予測結果の評価の一例を示す図である。図4には、正則化パラメータの各候補値で得られるリッジ回帰の回帰係数について、学習データ30に対する誤差と、予測誤差の推定値と、テストデータに対する誤差とが示されている。なお、各誤差は、RMSE(Root Mean Squared Error)で算出する。図4の横軸は、δの値を表す。図4の縦軸は、対応するδを用いたリッジ回帰の各種誤差の大きさを表す。図4に示すように、学習データ30に対する誤差は、δの増加に対して単調に低下する。一方で、予測誤差の推定値は、下に凸の形になることがわかる。この理由は、δが1の付近では、学習データ30に対して回帰式がフィットし過ぎて、回帰式による予測結果がオーバーフィッティングとなるためである。 FIG. 4 is a diagram illustrating an example of evaluation of a prediction result. FIG. 4 shows an error with respect to the learning data 30, an estimated value of the prediction error, and an error with respect to the test data with respect to the regression coefficient of the ridge regression obtained with each candidate value of the regularization parameter. Each error is calculated by RMSE (Root Mean Squared Error). The horizontal axis in FIG. 4 represents the value of δ. The vertical axis of FIG. 4 represents the magnitude of various errors in ridge regression using the corresponding δ. As shown in FIG. 4, the error with respect to the learning data 30 decreases monotonously as δ increases. On the other hand, it can be seen that the estimated value of the prediction error has a downwardly convex shape. This is because when δ is in the vicinity of 1, the regression equation is too fit for the learning data 30, and the prediction result based on the regression equation is overfitting.
一方で、予測誤差の推定値とテストデータの誤差には、差異がある。この理由は、LOOCVによる予測誤差の推定値に推定誤差が含まれるため、および、学習データ30とテストデータは、違う年の電力需要のデータであり、電力需要の性質が経年により変化したためである。すなわち、学習データ30に対してテストデータの性質が変化する場合がある。予測装置10は、性質が変化する前の学習データ30から回帰式を求めるため、回帰式による予測結果がテストデータに対して必ずしも誤差が最も小さくなるわけではない。しかし、予測装置10は、学習データ30に対して予測誤差の推定値が最小となる回帰式を求めることで、高い精度でテストデータを予測できる。
On the other hand, there is a difference between the prediction error estimation value and the test data error. This is because the estimation error is included in the estimated value of the prediction error by LOOCV, and the learning data 30 and the test data are data of power demand in different years, and the nature of the power demand has changed over time. . That is, the property of the test data may change with respect to the learning data 30. Since the
本実施例の手法の有効性は、式(14)の変換に依存している。この変換に求められる性質は、予測誤差が最小になるδの付近で、δの候補値の間隔に比べて予測誤差が大きく変化しないことである。図4に示すテストデータに対する誤差のカーブが滑らかであることから、式(14)の変換の有効性が確認できる。 The effectiveness of the method of the present embodiment depends on the conversion of equation (14). The property required for this conversion is that the prediction error does not change significantly in the vicinity of δ where the prediction error is minimized compared to the interval of candidate values of δ. Since the error curve for the test data shown in FIG. 4 is smooth, it is possible to confirm the effectiveness of the conversion of equation (14).
図4の例では、δの値が0.86で予測誤差の推定値が最小となる。予測装置10は、δの値を0.86として正則化パラメータを決定し、決定された正則化パラメータを適用した回帰式により電力需要を予測する。δ=0.86でのテストデータに対する誤差は、381万kWである。
In the example of FIG. 4, the value of δ is 0.86, and the estimated value of the prediction error is minimum. The
また、予測装置10は、説明変数の選択手法を用いて、説明変数を選択して回帰式を求めてもよい。例えば、上述の式(22)のsin(2πtl/T)とcos(2πtl/T)をそれぞれ説明変数とした場合、回帰式に表れる説明変数の数は、200個となる。予測装置10は、説明変数の選択手法を用いて、200個の説明変数から有効な説明変数を選択して回帰式を求めてもよい。
Moreover, the
例えば、予測装置10が、上述の電力需要を予測した場合と同じ条件で、学習データ30に対して説明変数の選択手法に基づき、80個の変数を選択した場合、得られた回帰式のテストデータに対する誤差が、386万kWである。200個の説明変数を用いたリッジ回帰のテストデータに対する誤差は、381万kWである。このように、予測装置10は、説明変数の選択手法を用いて、用いる説明変数を80個まで減らした場合でも、ほぼ同様の予測性能が得られたことがわかる。このように、予測装置10は、説明変数の選択手法を用いることにより、予測において重要な説明変数が選択できる。
For example, when the
このように、予測装置10は、回帰式の正則化パラメータを変換する変換式の変換パラメータの取り得る範囲で変換パラメータの候補値を複数生成する。このように、変換パラメータの取り得る範囲が定まることで、試行錯誤を行わずに変換パラメータの候補値を生成できる。ここで、従来、正則化パラメータは、取り得る上限に制限がないため、どの範囲まで正則化パラメータの候補値を生成するか、試行錯誤が必要であり、処理の自動化を実現し難かった。一方、予測装置10では、正則化パラメータを変換する変換式の変換パラメータの取り得る範囲が定まるため、回帰式の正則化パラメータを求める処理の自動化を実現できる。この結果、予測装置10は、適切な正則化パラメータを効率的に探索できる。
In this way, the
また、予測装置10は、変換パラメータの変化による回帰式の正則化パラメータの予測に与える影響を近似的に線形に変換する変換式を用いて、回帰式の正則化パラメータを変換パラメータに変換し、変換パラメータの取り得る範囲を均等な間隔で複数の変換パラメータの候補値を生成する。これにより、予測装置10は、候補値の数に応じた細かさで、正則化パラメータの取り得る範囲について万遍なく正則化パラメータの候補を探索でき、候補値の数に応じた精度で、精度の良い適切な正則化パラメータを探索できる。また、予測装置10は、探索された正則化パラメータを適用した回帰式により、精度よく予測を行うことができる。また、予測装置10では、変換パラメータの取り得る範囲を均等な間隔で変換パラメータの候補値を生成すればよいため、回帰式の正則化パラメータを求める処理の自動化を実現できる。この結果、予測装置10では、適切な正則化パラメータを効率的に探索できる。
Further, the
[処理の流れ]
本実施例に係る予測装置10が予測を行う予測処理の流れについて説明する。図5は、予測処理の手順の一例を示すフローチャートである。この予測処理は、所定のタイミング、例えば、受付部40により電力需要の予測開始の指示を受け付けたタイミングで実行される。
[Process flow]
A flow of prediction processing in which the
図5に示すように、特定部41は、説明変数の選択する領域を初期化する(S10)。例えば、生成部42は、選択した説明変数を保持する領域A0={}を空にする。また、生成部42は、Y^0=0と初期化し、カウンタt=1と初期化する。
As illustrated in FIG. 5, the specifying
特定部41は、領域A0に保持された以外の未選択の説明変数ごとに、選択された説明変数による回帰式の誤差との相関を算出する(S11)。特定部41は、最初、A0が空であり、選択した説明変数がないため、目的変数の実績値がそのまま誤差として、説明変数ごとに、誤差との相関を算出する。
特定部41は、未選択の説明変数のなかから、S11で算出した、誤差との相関の絶対値が最大の説明変数を求める(S12)。
The identifying
特定部41は、相関の絶対値が最大の説明変数を領域Atに追加し、相関の絶対値が最大の説明変数を回帰式に組み込む(S13)。
生成部42は、回帰式の正則化パラメータをそれぞれ変換式で変換して変換パラメータδの候補値δiを生成する(S14)。算出部43は、学習データ30に基づき、回帰式の正則化パラメータを変換式により変換し、それぞれ変換パラメータに候補値を適用した場合の回帰式の予測誤差の推定値を算出する(S15)。
The
特定部41は、予測誤差の推定値が最小となる候補値を変換パラメータに適用して、説明変数毎に回帰係数を求め、回帰式を特定する(S16)。
The specifying
特定部41は、学習データ30に基づき、回帰係数βtを適用した回帰式から算出される目的変数の予測値と実績値の誤差を求める(S17)。
特定部41は、誤差が停止条件を満たしているか判定する(S18)。停止条件を満たしていない場合(S18否定)、処理は、上述のS11へ移行する。
The identifying
一方、停止条件を満たしている場合(S18肯定)、処理を終了する。 On the other hand, if the stop condition is satisfied (Yes at S18), the process is terminated.
[効果]
上述してきたように、本実施例に係る予測装置10は、説明変数の値から目的変数を求めるリッジ回帰の回帰式の目的変数の実績値と、当該実績値が得られた際の説明変数の実績値が記憶された学習データ30を記憶する。予測装置10は、所定の変換パラメータの所定の範囲の値の変化により、回帰式の正則化パラメータの取り得る範囲の値が得られる変換式の変換パラメータの取り得る所定の範囲で変換パラメータの候補値を複数生成する。予測装置10は、学習データ30に基づき、回帰式の正則化パラメータを変換式により変換し、生成された複数の候補値をそれぞれ変換パラメータに適用した場合の回帰式の予測誤差の推定値を算出する。予測装置10は、予測誤差の推定値が最小となる候補値を変換パラメータに適用した回帰式により予測を行う。これにより、予測装置10は、適切な正則化パラメータを効率的に探索できる。
[effect]
As described above, the
また、本実施例に係る予測装置10では、変換式は、変換パラメータの変化による正則化パラメータの予測に与える影響を近似的に線形に変換する。予測装置10は、所定の範囲を均等な間隔で複数の変換パラメータの候補値を生成する。これにより、予測装置10は、候補値の数に応じた細かさで、正則化パラメータの取り得る範囲について万遍なく正則化パラメータの候補を探索できる。
Further, in the
また、本実施例に係る予測装置10は、変換式を、上述の式(14)とする。これにより、予測装置10は、適切な正則化パラメータを効率的に探索でき、探索された正則化パラメータを適用した回帰式により、精度よく予測を行うことができる。
Moreover, the
また、本実施例に係る予測装置10は、学習データ30に基づき、所定の停止条件を満たすまで、回帰式に含まれる複数の説明変数のうち、回帰式から算出される目的変数の予測値と実績値との誤差に対する相関の絶対値が大きい説明変数を選択することを繰り返して、選択された説明変数による回帰式を特定する。また、その際、予測装置10は、特定された回帰式の各説明変数の正則化パラメータについて変換パラメータの候補値を複数生成する。予測装置10は、特定された前記回帰式の各説明変数の正則化パラメータをそれぞれ変換式により変換し、生成された複数の候補値をそれぞれ変換パラメータに適用した場合の前記回帰式の予測誤差の推定値を算出する。そして、予測装置10は、特定された前記回帰式の各説明変数の正則化パラメータについて、算出される予測誤差の推定値が最小となる候補値を変換パラメータに適用した回帰式により予測を行う。これにより、予測装置10は、予測において重要な説明変数を選択し、選択された説明変数による回帰式により予測を行える。また、予測装置10は、予測において重要な説明変数を選択して回帰式を特定するため、予測の処理の負荷を低減できる。
In addition, the
また、本実施例に係る予測装置10は、所定の停止条件を、相関が高い説明変数を所定個選択するまで、または、選択された説明変数による回帰式から算出される目的変数の予測値と実績値との誤差が増加するまでとする。予測装置10は、所定の停止条件を、相関が高い説明変数を所定個選択するまでとした場合、説明変数を選択する回数が定まるため、回帰式の特定の処理時間が長くなることを抑制できる。また、予測装置10は、所定の停止条件を、選択された説明変数による回帰式から算出される目的変数の予測値と実績値との誤差が増加するまでとした場合、誤差の小さい回帰式を特定して予測を行うことができる。
Further, the
また、本実施例に係る予測装置10は、回帰式により電力需要の予測を行う。予測装置10は、回帰式の正則化パラメータを求める処理を自動化できるため、電力需要の予測の処理を自動化できる。
Moreover, the
さて、これまで開示の装置に関する実施例について説明したが、開示の技術は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。 Although the embodiments related to the disclosed apparatus have been described so far, the disclosed technology may be implemented in various different forms other than the above-described embodiments. Therefore, another embodiment included in the present invention will be described below.
例えば、上記の実施例では、変換式を上述の式(14)とする場合について説明したが、開示の装置はこれに限定されない。例えば、以下の式(23)に示す正則化パラメータの変換を用いてもよい。 For example, in the above-described embodiment, the case where the conversion formula is the above-described formula (14) has been described, but the disclosed apparatus is not limited thereto. For example, regularization parameter conversion represented by the following equation (23) may be used.
ここで、mは、正の実数とする。 Here, m is a positive real number.
また、上記の実施例では、電力需要を予測する場合について説明したが、開示の装置はこれに限定されない。リッジ回帰が適用できれば、何れの予測に適用してもよい。 Moreover, although said Example demonstrated the case where electric power demand was estimated, the apparatus of an indication is not limited to this. Any ridge regression can be applied to any prediction.
また、上記の実施例では、説明変数の選択手法により有効な説明変数を選択して回帰式を求める場合について説明したが、開示の装置はこれに限定されない。説明変数の選択手法は、行わなくてもよい。 In the above-described embodiment, the case where an effective explanatory variable is selected by an explanatory variable selection method to obtain a regression equation has been described. However, the disclosed apparatus is not limited to this. The explanatory variable selection method may not be performed.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的状態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、受付部40、特定部41、生成部42、算出部43、予測部44および出力制御部45の各処理部が適宜統合されてもよい。また、各処理部の処理が適宜複数の処理部の処理に分離されてもよい。さらに、各処理部にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific state of distribution / integration of each device is not limited to the one shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the processing units such as the reception unit 40, the
[予測プログラム]
また、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することもできる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータシステムの一例を説明する。図6は、予測プログラムを実行するコンピュータを示す図である。
[Prediction program]
The various processes described in the above embodiments can also be realized by executing a program prepared in advance on a computer system such as a personal computer or a workstation. Therefore, in the following, an example of a computer system that executes a program having the same function as in the above embodiment will be described. FIG. 6 is a diagram illustrating a computer that executes a prediction program.
図6に示すように、コンピュータ300は、CPU(Central Processing Unit)310、HDD(Hard Disk Drive)320、RAM(Random Access Memory)340を有する。これら300〜340の各部は、バス400を介して接続される。
As illustrated in FIG. 6, the
HDD320には上記の受付部40、特定部41、生成部42、算出部43、予測部44および出力制御部45と同様の機能を発揮する予測プログラム320aが予め記憶される。なお、予測プログラム320aについては、適宜分離してもよい。
The
また、HDD320は、各種情報を記憶する。例えば、HDD320は、上述の学習データ30など予測に用いる各種データを記憶する。
The
そして、CPU310が、予測プログラム320aをHDD320から読み出して実行することで、実施例の各処理部と同様の動作を実行する。すなわち、予測プログラム320aは、受付部40、特定部41、生成部42、算出部43、予測部44および出力制御部45と同様の動作を実行する。
And CPU310 reads the
なお、上記した予測プログラム320aについては、必ずしも最初からHDD320に記憶させることを要しない。
Note that the above-described
例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」にプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。
For example, the program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card inserted into the
さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ300に接続される「他のコンピュータ(またはサーバ)」などにプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。
Furthermore, the program is stored in “another computer (or server)” connected to the
10 予測装置
20 表示部
21 入力部
22 記憶部
23 制御部
30 学習データ
40 受付部
41 特定部
42 生成部
43 算出部
44 予測部
45 出力制御部
DESCRIPTION OF
Claims (8)
正則化パラメータをλとし、変換パラメータをδとし、kを正の実数とし、mを正の実数とした場合、以下に示す式(1)を変換式とし、変換パラメータδを0<δ≦1とした範囲で変換パラメータの候補値を複数生成する生成部と、
前記学習データに基づき、前記回帰式の正則化パラメータを前記変換式により変換し、前記生成部により生成された複数の候補値をそれぞれ変換パラメータに適用した場合の前記回帰式の予測誤差の推定値を算出する算出部と、
前記算出部により算出される予測誤差の推定値が最小となる候補値を変換パラメータに適用した回帰式により予測を行う予測部と、
を有することを特徴とする予測装置。
When the regularization parameter is λ, the conversion parameter is δ, k is a positive real number, and m is a positive real number, the following equation (1) is a conversion equation, and the conversion parameter δ is 0 <δ ≦ 1 A generation unit that generates a plurality of conversion parameter candidate values within the range ,
Based on the learning data, the regularization parameter of the regression equation is converted by the conversion equation, and the estimated value of the prediction error of the regression equation when the plurality of candidate values generated by the generation unit are applied to the conversion parameters, respectively. A calculation unit for calculating
A prediction unit that performs prediction using a regression equation in which a candidate value that minimizes an estimated value of a prediction error calculated by the calculation unit is applied to a conversion parameter;
The prediction apparatus characterized by having.
ことを特徴とする請求項1に記載の予測装置。
ことを特徴とする請求項2に記載の予測装置。 The generator, forward prediction apparatus according to claim 2, characterized in that the Kihan circumference generates a candidate value of the plurality of conversion parameters at equal intervals.
前記学習データに基づき、所定の停止条件を満たすまで、前記複数の説明変数のうち、前記回帰式から算出される目的変数の予測値と実績値との誤差に対する相関の絶対値が大きい説明変数を選択することを繰り返して、選択された説明変数による回帰式を特定する特定部をさらに有し、
前記生成部は、特定された前記回帰式の各説明変数の正則化パラメータについて変換パラメータの候補値を複数生成し、
前記算出部は、特定された前記回帰式の各説明変数の正則化パラメータをそれぞれ前記変換式により変換し、前記生成部により生成された複数の候補値をそれぞれ変換パラメータに適用した場合の前記回帰式の予測誤差の推定値を算出し、
前記予測部は、特定された前記回帰式の各説明変数の正則化パラメータについて、前記算出部により算出される予測誤差の推定値が最小となる候補値を変換パラメータに適用した回帰式により予測を行う
ことを特徴とする請求項1〜3の何れか1つに記載の予測装置。 The regression equation of the ridge regression includes a plurality of explanatory variables,
Based on the learning data, until a predetermined stop condition is satisfied, an explanatory variable having a large absolute value of a correlation with respect to an error between the predicted value of the objective variable calculated from the regression equation and the actual value among the plurality of explanatory variables. It further includes a specifying unit that repeats the selection and specifies a regression equation based on the selected explanatory variable,
The generating unit generates a plurality of conversion parameter candidate values for the regularization parameter of each explanatory variable of the identified regression equation,
The calculation unit converts the regularization parameter of each explanatory variable of the identified regression equation by the conversion equation, and applies the plurality of candidate values generated by the generation unit to the conversion parameter, respectively. Calculate an estimate of the prediction error in the equation,
The prediction unit predicts a regularization parameter of each explanatory variable of the identified regression equation by a regression equation in which a candidate value with the smallest estimated value of the prediction error calculated by the calculation unit is applied to a conversion parameter. It performs. The prediction apparatus as described in any one of Claims 1-3 characterized by the above-mentioned.
ことを特徴とする請求項4に記載の予測装置。 The predetermined stop condition shall be until a predetermined number of explanatory variables with high correlation are selected, or until the error between the predicted value and actual value of the objective variable calculated from the regression equation based on the selected explanatory variable increases. The prediction apparatus according to claim 4 .
前記予測部は、前記回帰式により電力需要の予測を行う
ことを特徴とする請求項1〜5の何れか1つに記載の予測装置。 The learning data stores power demand for a predetermined period as objective variables, and actual values of a plurality of explanatory variables when the power demand is obtained,
The prediction unit, the prediction apparatus according to any one of claims 1-5, characterized in that to predict the power demand by the regression equation.
前記回帰式の目的変数の実績値と、当該実績値が得られた際の説明変数の実績値が記憶された学習データに基づき、前記回帰式の正則化パラメータを前記変換式により変換し、生成された複数の候補値をそれぞれ変換パラメータに適用した場合の前記回帰式の予測誤差の推定値を算出し、
算出される予測誤差の推定値が最小となる候補値を変換パラメータに適用した回帰式により予測を行う
処理をコンピュータが実行することを特徴とする予測方法。
Based on the learning data storing the actual value of the objective variable of the regression equation and the actual value of the explanatory variable when the actual value was obtained, the regularization parameter of the regression equation is converted by the conversion equation and generated Calculating an estimated value of the prediction error of the regression equation when each of the plurality of candidate values is applied to the conversion parameter,
A prediction method characterized in that a computer executes a process of performing a prediction using a regression equation in which a candidate value that minimizes an estimated value of a calculated prediction error is applied to a conversion parameter.
前記回帰式の目的変数の実績値と、当該実績値が得られた際の説明変数の実績値が記憶された学習データに基づき、前記回帰式の正則化パラメータを前記変換式により変換し、生成された複数の候補値をそれぞれ変換パラメータに適用した場合の前記回帰式の予測誤差の推定値を算出し、
算出される予測誤差の推定値が最小となる候補値を変換パラメータに適用した回帰式により予測を行う
処理をコンピュータに実行させることを特徴とする予測プログラム。
Based on the learning data storing the actual value of the objective variable of the regression equation and the actual value of the explanatory variable when the actual value was obtained, the regularization parameter of the regression equation is converted by the conversion equation and generated Calculating an estimated value of the prediction error of the regression equation when each of the plurality of candidate values is applied to the conversion parameter,
A prediction program characterized by causing a computer to execute a process of performing prediction using a regression equation in which a candidate value that minimizes an estimated value of a calculated prediction error is applied to a conversion parameter.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015014684A JP6484449B2 (en) | 2015-01-28 | 2015-01-28 | Prediction device, prediction method, and prediction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015014684A JP6484449B2 (en) | 2015-01-28 | 2015-01-28 | Prediction device, prediction method, and prediction program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016139336A JP2016139336A (en) | 2016-08-04 |
JP6484449B2 true JP6484449B2 (en) | 2019-03-13 |
Family
ID=56559227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015014684A Active JP6484449B2 (en) | 2015-01-28 | 2015-01-28 | Prediction device, prediction method, and prediction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6484449B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6570929B2 (en) * | 2015-09-08 | 2019-09-04 | 国立研究開発法人農業・食品産業技術総合研究機構 | Characteristic estimation model generation apparatus and method, analysis target characteristic estimation apparatus and method |
JP2019052981A (en) | 2017-09-15 | 2019-04-04 | 株式会社東芝 | Distance measuring device |
WO2020049994A1 (en) * | 2018-09-03 | 2020-03-12 | パナソニックIpマネジメント株式会社 | Electron density estimation method, electron density estimation apparatus, and electron density estimation program |
US11037339B2 (en) * | 2019-04-17 | 2021-06-15 | Uih America, Inc. | Systems and methods for image reconstruction |
JP7399832B2 (en) * | 2020-09-15 | 2023-12-18 | 株式会社東芝 | Information processing device, information processing system, information processing method and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4742192B2 (en) * | 2009-04-28 | 2011-08-10 | Necソフト株式会社 | Age estimation apparatus and method, and program |
US8676736B2 (en) * | 2010-07-30 | 2014-03-18 | Gravity Research And Development Kft. | Recommender systems and methods using modified alternating least squares algorithm |
-
2015
- 2015-01-28 JP JP2015014684A patent/JP6484449B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016139336A (en) | 2016-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Agarwal et al. | A survey on fuzzy fractional differential and optimal control nonlocal evolution equations | |
EP3620983B1 (en) | Computer-implemented method, computer program product and system for data analysis | |
Cheng et al. | Sparse polynomial chaos expansion based on D-MORPH regression | |
JP6484449B2 (en) | Prediction device, prediction method, and prediction program | |
JP2020194560A (en) | Causal relationship analyzing method and electronic device | |
US20140330758A1 (en) | Formal verification result prediction | |
WO2018222205A1 (en) | Systems and methods for black-box optimization | |
Guo et al. | A just-in-time modeling approach for multimode soft sensor based on Gaussian mixture variational autoencoder | |
Knollmüller et al. | Metric Gaussian variational inference | |
US8935136B2 (en) | Multi-component model engineering | |
JP6172317B2 (en) | Method and apparatus for mixed model selection | |
Zhang et al. | Sparse polynomial chaos expansion based on Bregman-iterative greedy coordinate descent for global sensitivity analysis | |
Chakraborty et al. | Polynomial correlated function expansion for nonlinear stochastic dynamic analysis | |
JP2016224566A (en) | Prediction device, prediction method, and prediction program | |
Schmitz et al. | A Gaussian process regression adaptive density guided approach for potential energy surface construction | |
Zhao et al. | A significance test for graph‐constrained estimation | |
WO2020112025A1 (en) | Method and system for generating training data for a machine learning model for predicting performance in electronic design | |
Butusov et al. | New technique to quantify chaotic dynamics based on differences between semi-implicit integration schemes | |
Khurana et al. | Automating feature engineering | |
US20180349798A1 (en) | Optimal experimental design based on mutual information and submodularity | |
Chen et al. | Training material models using gradient descent algorithms | |
JP2019003274A (en) | Detection system, detection method and detection program | |
US9652722B1 (en) | Methods and systems for robust supervised machine learning | |
Zhou et al. | A new surrogate modeling method combining polynomial chaos expansion and Gaussian kernel in a sparse Bayesian learning framework | |
Erreygers et al. | Computing inferences for large-scale continuous-time Markov chains by combining lumping with imprecision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6484449 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |