JP6484449B2 - Prediction device, prediction method, and prediction program - Google Patents

Prediction device, prediction method, and prediction program Download PDF

Info

Publication number
JP6484449B2
JP6484449B2 JP2015014684A JP2015014684A JP6484449B2 JP 6484449 B2 JP6484449 B2 JP 6484449B2 JP 2015014684 A JP2015014684 A JP 2015014684A JP 2015014684 A JP2015014684 A JP 2015014684A JP 6484449 B2 JP6484449 B2 JP 6484449B2
Authority
JP
Japan
Prior art keywords
prediction
value
regression equation
regression
equation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015014684A
Other languages
Japanese (ja)
Other versions
JP2016139336A (en
Inventor
貴之 比護
貴之 比護
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central Research Institute of Electric Power Industry
Original Assignee
Central Research Institute of Electric Power Industry
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central Research Institute of Electric Power Industry filed Critical Central Research Institute of Electric Power Industry
Priority to JP2015014684A priority Critical patent/JP6484449B2/en
Publication of JP2016139336A publication Critical patent/JP2016139336A/en
Application granted granted Critical
Publication of JP6484449B2 publication Critical patent/JP6484449B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、予測装置、予測方法および予測プログラムに関する。   The present invention relates to a prediction apparatus, a prediction method, and a prediction program.

線形回帰は、幅広い応用を持つ実用的な統計手法である。線形回帰は、様々な分野に用いられている。例えば、線形回帰は、電力需要予測や異常判別などに用いられている。   Linear regression is a practical statistical method with a wide range of applications. Linear regression is used in various fields. For example, linear regression is used for power demand prediction and abnormality determination.

複数の説明変数を持つ回帰式を使った線形回帰では、説明変数間の相関が予測性能を低下させる、所謂、多重共線性の問題がある。この対策の一つとして、リッジ回帰(Ridge Regression)が利用されている。リッジ回帰では、予測精度を改善するため、正則化パラメータを適切に設定する必要がある。   In linear regression using a regression equation having a plurality of explanatory variables, there is a so-called multicollinearity problem in which the correlation between explanatory variables decreases the prediction performance. As one of the countermeasures, Ridge Regression is used. In ridge regression, regularization parameters need to be set appropriately to improve prediction accuracy.

正則化パラメータとしては、予測誤差の推定値を小さくするものを設定することが望ましい。この予測誤差の推定値は、例えば、AIC(Akaike's information criterion)、BIC(Schwartz's Bayesian information criterion)、交差検定、MallowのCpなどを用いて計算できる。リッジ回帰では、予測誤差の推定値を最小にする正則化パラメータを探索することで適切なパラメータが得られる。   As the regularization parameter, it is desirable to set a parameter that reduces the estimated value of the prediction error. The estimated value of the prediction error can be calculated using, for example, AIC (Akaike's information criterion), BIC (Schwartz's Bayesian information criterion), cross validation, Mallow's Cp, and the like. In ridge regression, an appropriate parameter is obtained by searching for a regularization parameter that minimizes the estimated value of the prediction error.

正則化パラメータの探索の方法としては、正則化パラメータの候補値をいくつか生成し、それぞれの予測誤差の推定値を計算し、その中で予測誤差の推定値が最も小さい正則化パラメータの候補値を選ぶ方法が実用的である。   As a regularization parameter search method, several candidate values for regularization parameters are generated, the estimated values for each prediction error are calculated, and the candidate values for regularization parameters with the smallest prediction error value among them are calculated. The method of selecting is practical.

Arthur E. Hoerl and Robert W. Kennard, Ridge Regression: Biased Estimation for Nonorthogonal Problems, Technometrics. Vol.12, No.1 (Feb,1970),pp. 55-67Arthur E. Hoerl and Robert W. Kennard, Ridge Regression: Biased Estimation for Nonorthogonal Problems, Technometrics. Vol.12, No.1 (Feb, 1970), pp. 55-67 Hui Zou and Trevor Hastie, Regularization and Variable Selection via the Elastic Net, Journal of the Royal Statistical Society: Series B (Statistical Methodology). Volume 67, Issue 2, pages 301-320, April 2005Hui Zou and Trevor Hastie, Regularization and Variable Selection via the Elastic Net, Journal of the Royal Statistical Society: Series B (Statistical Methodology) .Volume 67, Issue 2, pages 301-320, April 2005

しかしながら、従来の技術では、適切な正則化パラメータを効率的に探索できないという問題点がある。   However, the conventional technique has a problem that an appropriate regularization parameter cannot be efficiently searched.

正則化パラメータは、取り得る範囲が0<λ≦∞である。また、正則化パラメータは、予測誤差に与える影響が非線形である。このため、正則化パラメータの探索では、どのように正則化パラメータの候補値を定めるかに試行錯誤が必要であり、適切な正則化パラメータを効率的に探索できない。   The regularization parameter has a possible range of 0 <λ ≦ ∞. Further, the regularization parameter has a non-linear effect on the prediction error. For this reason, in the search for the regularization parameter, trial and error is necessary in determining how to determine the candidate value for the regularization parameter, and an appropriate regularization parameter cannot be efficiently searched.

経験的に有効性が知られている正則化パラメータの候補値の生成法としては、例えば、0.01,0.1,1,10,100のように、指数的に増加する値を用いる方法がある。この方法は、例えば、Ki+1=k+1とし、正則化パラメータの候補値を10k1,10k2,…,10k10として正則化パラメータの候補値を生成する。しかし、候補値の初期値であるkの値を決めるための試行錯誤が必要になる。 As a method for generating candidate values of regularization parameters whose effectiveness is empirically known, for example, a method of using exponentially increasing values such as 0.01, 0.1, 1, 10, and 100 is used. There is. In this method, for example, K i + 1 = k i +1, and regularization parameter candidate values are 10 k1 , 10 k2 ,..., 10 k10 , and regularization parameter candidate values are generated. However, trial and error to determine the value of k 1 is the initial value of the candidate value is required.

また、上述のように、正則化パラメータの候補値は、取り得る上限に制限がない。このため、複数の候補値から正則化パラメータを探索する場合、候補値の数が多いほど計算時間が長くなる。しかし、計算時間の制約から候補値の数は限られる。このため、正則化パラメータの候補値をどのように生成するかが問題となり、適切な正則化パラメータを効率的に探索できない。   Further, as described above, the upper limit of the regularization parameter candidate value is not limited. For this reason, when searching for a regularization parameter from a plurality of candidate values, the calculation time becomes longer as the number of candidate values increases. However, the number of candidate values is limited due to the limitation of calculation time. For this reason, it becomes a problem how to generate candidate values for the regularization parameter, and an appropriate regularization parameter cannot be efficiently searched.

本発明は、上記に鑑みてなされたものであって、適切な正則化パラメータを効率的に探索できる予測装置、予測方法および予測プログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide a prediction device, a prediction method, and a prediction program capable of efficiently searching for an appropriate regularization parameter.

上述した課題を解決し、目的を達成するために、本発明の予測装置は、説明変数の値から目的変数を求めるリッジ回帰の回帰式の目的変数の実績値と、当該実績値が得られた際の説明変数の実績値が記憶された学習データを記憶する記憶部と、所定の変換パラメータの所定の範囲の値の変化により、前記回帰式の正則化パラメータの取り得る範囲の値が得られる変換式の前記変換パラメータの取り得る前記所定の範囲で変換パラメータの候補値を複数生成する生成部と、前記学習データに基づき、前記回帰式の正則化パラメータを前記変換式により変換し、前記生成部により生成された複数の候補値をそれぞれ変換パラメータに適用した場合の前記回帰式の予測誤差の推定値を算出する算出部と、前記算出部により算出される予測誤差の推定値が最小となる候補値を変換パラメータに適用した回帰式により予測を行う予測部と、を有する。   In order to solve the above-described problems and achieve the object, the prediction device of the present invention has obtained the actual value of the objective variable of the regression equation of the ridge regression for obtaining the objective variable from the value of the explanatory variable, and the actual value. The value of the range that the regularization parameter of the regression equation can take is obtained by the storage unit storing the learning data in which the actual value of the explanatory variable at the time is stored and the change of the value of the predetermined range of the predetermined conversion parameter A generation unit that generates a plurality of conversion parameter candidate values within the predetermined range that can be taken by the conversion parameter of the conversion equation, and based on the learning data, the regularization parameter of the regression equation is converted by the conversion equation, and the generation A calculation unit that calculates an estimation value of the prediction error of the regression equation when each of the plurality of candidate values generated by the unit is applied to the conversion parameter; and an estimation of the prediction error calculated by the calculation unit But having a prediction unit that performs predicted by regression equation to which the candidate value having the minimum conversion parameters.

本発明は、適切な正則化パラメータを効率的に探索できるという効果を奏する。   The present invention has an effect that an appropriate regularization parameter can be efficiently searched.

図1は、行列Xおよび列ベクトルyを模式的に示した図である。FIG. 1 is a diagram schematically showing a matrix X and a column vector y. 図2は、δとλの関係の一例を示した図である。FIG. 2 is a diagram showing an example of the relationship between δ and λ. 図3は、予測装置の機能的な構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a functional configuration of the prediction apparatus. 図4は、予測結果の評価の一例を示す図である。FIG. 4 is a diagram illustrating an example of evaluation of a prediction result. 図5は、予測処理の手順の一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of the procedure of the prediction process. 図6は、予測プログラムを実行するコンピュータを示す図である。FIG. 6 is a diagram illustrating a computer that executes a prediction program.

以下に、本発明にかかる予測装置、予測方法および予測プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   Embodiments of a prediction apparatus, a prediction method, and a prediction program according to the present invention will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments. Each embodiment can be appropriately combined within a range in which processing contents are not contradictory.

[線形回帰およびリッジ回帰]
最初に、線形回帰およびリッジ回帰について説明する。通常の線形回帰では、例えば、最小二乗法で回帰係数を求める。具体的には、回帰式と観測値の差である残差の二乗和を最小にする回帰係数を求める。これは以下の式(1)に示すような最小化問題として定義できる。
[Linear regression and ridge regression]
First, linear regression and ridge regression will be described. In normal linear regression, for example, a regression coefficient is obtained by a least square method. Specifically, a regression coefficient that minimizes the sum of squares of the residual that is the difference between the regression equation and the observed value is obtained. This can be defined as a minimization problem as shown in the following equation (1).

min||Xβ−y|| (1) min || Xβ-y || 2 (1)

ここで、βは、回帰係数である。Xは、観測値の説明変数を行列で表示したものである。yは、観測値の目的変数の列ベクトルである。行列Xおよび列ベクトルyの各行は、一回の観測に対応する。行列Xの各列は、観測値の種類である。図1は、行列Xおよび列ベクトルyを模式的に示した図である。例えば、電力需要の予測では、気温や湿度等が各列に割り当てられる。観測数をNとし観測値の種類をPとすれば、行列Xは、N行P列の行列である。列ベクトルyは、N行の列ベクトルである。また、“||・||”は、二乗ノルムを表す。   Here, β is a regression coefficient. X represents an explanatory variable of the observed value in a matrix. y is a column vector of the objective variable of the observed value. Each row of the matrix X and the column vector y corresponds to one observation. Each column of the matrix X is an observation value type. FIG. 1 is a diagram schematically showing a matrix X and a column vector y. For example, in prediction of power demand, temperature, humidity, etc. are assigned to each column. If the number of observations is N and the type of observation value is P, the matrix X is a matrix of N rows and P columns. The column vector y is an N row column vector. “|| · ||” represents a square norm.

リッジ回帰とは、回帰係数の大きさを二乗ノルムで表し、回帰係数が大きくならないように、回帰式の残差と回帰係数の大きさを二乗したものを同時に最小化する方法である。リッジ回帰の回帰係数は、以下の式(2)に示すような最小化問題を解くことで得られる。   Ridge regression is a method in which the magnitude of the regression coefficient is expressed by a square norm and the residual of the regression equation and the magnitude of the regression coefficient are squared simultaneously so that the regression coefficient does not increase. The regression coefficient of ridge regression can be obtained by solving a minimization problem as shown in the following equation (2).

min||Xβ−y||+λ||β|| (2) min || Xβ-y || 2 + λ || β || 2 (2)

ここで、λは、正則化パラメータであり、0以上の実数である。   Here, λ is a regularization parameter and is a real number of 0 or more.

[リッジ回帰の一般化]
ここで、リッジ回帰を一般化(拡張)した形態について説明する。ベイズ理論の枠組みでは、リッジ回帰は、回帰係数の事前分布を正規分布で定義した場合の事後確率最大化推定に位置づけられる。上述の式(2)は、事前分布として回帰係数毎に独立な正規分布を用いることに相当するが、回帰係数の事前分布として多変量正規分布を用いれば、一般化したリッジ回帰が得られる。この場合、回帰係数は、以下の式(3)に示す最小化問題を解くことで得られる。
[Generalization of ridge regression]
Here, a generalized (extended) form of ridge regression will be described. In the Bayesian framework, ridge regression is positioned as a posterior probability maximization estimation when the prior distribution of regression coefficients is defined as a normal distribution. The above equation (2) corresponds to using an independent normal distribution for each regression coefficient as a prior distribution, but if a multivariate normal distribution is used as a prior distribution of regression coefficients, a generalized ridge regression is obtained. In this case, the regression coefficient can be obtained by solving the minimization problem shown in the following equation (3).

min||Xβ−y||+βΛβ (3) min || Xβ-y || 2 + β T Λβ (3)

ここで、Λは、正則化パラメータである。行列XがN行P列の行列の場合、正則化パラメータΛは、P行P列の対称行列である。“β”は、回帰係数βの転置をあらわす。通常のリッジ回帰では、正則化パラメータは、一つの実数値であったのに対し、一般化したリッジ回帰では、正則化パラメータは行列となり、複数の実数値からなる。 Here, Λ is a regularization parameter. When the matrix X is a matrix with N rows and P columns, the regularization parameter Λ is a symmetric matrix with P rows and P columns. “Β T ” represents the transpose of the regression coefficient β. In normal ridge regression, the regularization parameter is a single real value, whereas in generalized ridge regression, the regularization parameter is a matrix and consists of a plurality of real values.

別の拡張方法としては、例えば、非特許文献2には、Elastic Netが提案されている。これは一乗ノルムと二乗ノルムの両方で回帰係数の大きさを表す方法である。回帰係数は、以下の式(4)に示す最小化問題を解くことで得られる。   As another extension method, for example, Non-Patent Document 2 proposes Elastic Net. This is a method of expressing the magnitude of the regression coefficient in both the first norm norm. The regression coefficient can be obtained by solving the minimization problem shown in the following formula (4).

min||Xβ−y||+λ||β||+γ|β| (4) min || Xβ-y || 2 + λ || β || 2 + γ | β | (4)

ここで、γは、Elastic Net特有の正則化パラメータである。“|・|”は、一乗ノルムを表す。Elastic Net特有の正則化パラメータγは、非ゼロとなる回帰係数の数を指定することで、Least Angle Regressionにより求まる。一方、正則化パラメータλはリッジ回帰と同様に、複数の候補値を生成して、予測誤差の推定値を最小化するパラメータを探索する必要がある。   Here, γ is a regularization parameter unique to Elastic Net. “| • |” represents the first norm. The regularization parameter γ specific to Elastic Net is obtained by Least Angle Regression by specifying the number of regression coefficients that are non-zero. On the other hand, as for the regularization parameter λ, it is necessary to generate a plurality of candidate values and search for a parameter that minimizes the estimated value of the prediction error, as in the ridge regression.

[標準化]
上述の式(2)の正則化パラメータλの項は、全ての回帰係数βに対して一律に効果を持つ。このため、得られる回帰係数βは、説明変数の単位系(スケール)に依存してしまう。どのような単位系に対しても同じ回帰係数βが得られるようにするためには、リッジ回帰の前処理として標準化の処理が必要である。
[Standardization]
The term of the regularization parameter λ in the above equation (2) has a uniform effect on all the regression coefficients β. For this reason, the obtained regression coefficient β depends on the unit system (scale) of the explanatory variables. In order to obtain the same regression coefficient β for any unit system, standardization processing is necessary as pre-processing for ridge regression.

標準化とは各説明変数および目的変数の平均がゼロとなり、標準偏差が1となるように各変数を変換する処理である。説明変数の行列Xにおけるp列目の説明変数の標準化は、以下の式(5)に示すように計算する。   Standardization is a process of converting each variable so that the average of each explanatory variable and objective variable is zero and the standard deviation is one. The standardization of the explanatory variable of the p-th column in the explanatory variable matrix X is calculated as shown in the following equation (5).

Figure 0006484449
Figure 0006484449

ここで、xに付した“ ̄”は、平均を表す。平均xは、標準化前のp列目の説明変数の平均である。標準偏差σは、標準化前のp列目の説明変数の標準偏差である。xipは、標準化前の行列Xのi行p列目の説明変数である。x'ipは、標準化後の行列Xのi行p列目の説明変数である。目的変数についても同様に標準化を行う。標準化を行うと、回帰式の定数項が常にゼロとなるため、定数項が不要になる。 Here, subjected to x p "¯" represents the average. The average x p is the average of explanatory variables in the p-th column before standardization. The standard deviation σ p is a standard deviation of explanatory variables in the p-th column before standardization. x ip is an explanatory variable of the i-th row and the p-th column of the matrix X before standardization. x ′ ip is an explanatory variable of the i-th row and the p-th column of the standardized matrix X. Standardize the objective variables in the same way. When standardization is performed, the constant term of the regression equation is always zero, so the constant term becomes unnecessary.

標準化後に得られた回帰係数で目的変数の値を算出した場合、標準化後の目的変数の値は以下の式(6)により元のスケールに戻す。   When the value of the objective variable is calculated using the regression coefficient obtained after standardization, the value of the objective variable after standardization is returned to the original scale by the following equation (6).

Figure 0006484449
Figure 0006484449

ここで、yに付した“ ̄”は、平均を表す。平均yは、標準化前の目的変数の平均である。σyは、標準化前の目的変数の標準偏差である。β'は、標準化後に得られた回帰係数である。 Here, “ ̄” attached to y represents an average. The mean y is the mean of the objective variable before standardization. σ y is the standard deviation of the objective variable before standardization. β ′ p is a regression coefficient obtained after normalization.

[変換手法]
リッジ回帰の回帰係数は、上述の式(2)の最小化問題を解くことであり、回帰係数βについては、以下の式(7)のように書ける。
[Conversion method]
The regression coefficient of the ridge regression is to solve the minimization problem of the above formula (2), and the regression coefficient β can be written as the following formula (7).

β=(XX+λI)−1y (7) β = (X T X + λI) −1 X T y (7)

ここで、Iは、単位行列である。行列XがN行P列の行列である場合、Iは、P行P列の単位行列となる。   Here, I is a unit matrix. When the matrix X is a matrix of N rows and P columns, I is a unit matrix of P rows and P columns.

このように、リッジ回帰の回帰係数βは、解析的に得られるが、回帰係数βに対する正則化パラメータλの影響は非線形となる。このため、正則化パラメータλを0から徐々に大きくしていったときに、回帰式が目的変数の空間でどのように変化していくのかを想定するのは難しい。   Thus, although the regression coefficient β of ridge regression is obtained analytically, the influence of the regularization parameter λ on the regression coefficient β is non-linear. For this reason, it is difficult to assume how the regression equation changes in the space of the objective variable when the regularization parameter λ is gradually increased from 0.

ここで、正則化パラメータλの効果が直感的に理解できるように、以下に示す式変形を利用する。上述の式(7)は、以下の式(8)のように書き換えることができる。   Here, in order to intuitively understand the effect of the regularization parameter λ, the following formula modification is used. The above equation (7) can be rewritten as the following equation (8).

Figure 0006484449
Figure 0006484449

説明変数および目的変数が標準化されていれば、式(8)は、以下の式(9)のように書き換えることができる。   If the explanatory variable and the objective variable are standardized, the equation (8) can be rewritten as the following equation (9).

Figure 0006484449
Figure 0006484449

ここで、Rxxは説明変数の相関行列である。Rxyは、説明変数と目的変数の相関行列である。 Here, R xx is a correlation matrix of explanatory variables. R xy is a correlation matrix of explanatory variables and objective variables.

正則化パラメータについて、以下の式(10)のような変換を考える。   For the regularization parameter, consider the following transformation (10).

Figure 0006484449
Figure 0006484449

この式(10)の変換を式(9)のλに適用すると、以下の式(11)が得られる。   When the transformation of the equation (10) is applied to λ of the equation (9), the following equation (11) is obtained.

β=(δRxx+(1−δ)I)−1δRxy (11) β = (δR xx + (1-δ) I) −1 δR xy (11)

説明変数の間の相関が無い場合を考えると、Rxxは、単位行列になり、回帰係数は、以下の式(12)のようになる。 Considering the case where there is no correlation between explanatory variables, R xx is a unit matrix, and the regression coefficient is as shown in the following equation (12).

β=δRxy (12) β = δR xy (12)

また、回帰式に説明変数を代入した結果は、以下の式(13)のようになる。   Further, the result of substituting the explanatory variables into the regression equation is as shown in the following equation (13).

y^(δ)=δXRxy=δy^OLS (13) y ^ (δ) = δXR xy = δy ^ OLS (13)

ここで、y^OLSは、通常の最小二乗法で回帰係数を求めた場合、すなわち、λ=0の場合の回帰結果である。なお、OLSは、Ordinary Least Squaresの頭文字であり、通常の最小二乗法を指す。 Here, y ^ OLS is a regression result when the regression coefficient is obtained by a normal least square method, that is, when λ = 0. Note that OLS is an acronym for Ordinary Least Squares and refers to the ordinary least square method.

これより、0から1の間でδを等間隔で動かすと、y^(δ)は、通常の回帰結果とy^(0)=0の間を等間隔で動くことがわかる。従って、正則化パラメータとしてδを0から1まで等間隔に探索すれば、目的変数の取り得る範囲の空間で線形な探索が実現できる。なお、説明変数の間に相関がある場合でも、その相関が小さければこれに準ずる性質が期待できる。 From this, it can be seen that when δ is moved at regular intervals between 0 and 1, y ^ (δ) moves at regular intervals between the normal regression result and y ^ (0) = 0. Therefore, if δ is searched at regular intervals from 0 to 1 as a regularization parameter, a linear search can be realized in a space in a range that the objective variable can take. Even if there is a correlation between explanatory variables, if the correlation is small, a property equivalent to this can be expected.

なお、式(10)による変換は、δの範囲を0<δ≦1とすると、δ=1でλ=0になり、δを小さくするとλが大きくなり、δが0に近づくとλが無限大に近づく性質がある。図2は、δとλの関係の一例を示した図である。図2の例は、N=1の場合の式(10)のδとlog(λ)との関係を示している。図2に示されるように、δ=0.5付近では、指数的にλを変化させることに対応しており、一方でδ=0またはδ=1に近づくほど、δの変化に対するlog(λ)の変化が大きくなることがわかる。この変換により、δの変化によるλの予測に与える影響が近似的に線形に変換される。   Note that in the conversion by equation (10), when the range of δ is 0 <δ ≦ 1, δ = 1 and λ = 0, δ is increased when δ is decreased, and λ is infinite when δ approaches 0. It has the property of approaching large FIG. 2 is a diagram showing an example of the relationship between δ and λ. The example of FIG. 2 shows the relationship between δ in equation (10) and log (λ) when N = 1. As shown in FIG. 2, in the vicinity of δ = 0.5, it corresponds to exponentially changing λ, while the closer to δ = 0 or δ = 1, the log (λ ) Becomes larger. By this conversion, the influence of the change of δ on the prediction of λ is approximately linearly converted.

[予測手法]
次に、通常のリッジ回帰において正則化パラメータλの候補値の生成法について説明する。本実施例では、上述の式(10)を一般化した、以下の式(14)に示す正則化パラメータの変換式を用いる。
[Prediction method]
Next, a method for generating candidate values for the regularization parameter λ in normal ridge regression will be described. In the present embodiment, a regularization parameter conversion formula shown in the following formula (14), which is a generalization of the above formula (10), is used.

Figure 0006484449
Figure 0006484449

ここで、kは、正の実数である。kの役割は、XXの各要素が観測数Nの増加とともに大きくなるので、それにあわせて正則化パラメータの大きさを調整することにある。推奨値は、k=Nである。k=Nとした場合、式(14)は、式(10)と一致する。 Here, k is a positive real number. The role of k is to adjust the size of the regularization parameter in accordance with the increase in the number of observations N since each element of X T X increases. The recommended value is k = N. When k = N, Expression (14) matches Expression (10).

本実施例では、正則化パラメータλの候補値を生成する代わりに、以下の式(15)により正則化パラメータとして変換パラメータの候補値δを生成する。 In this embodiment, instead of generating a candidate value for the regularization parameter λ, a conversion parameter candidate value δ i is generated as a regularization parameter by the following equation (15).

Figure 0006484449
Figure 0006484449

ここで、Dは、事前に決めた正の整数とする。iは、1からDまでの整数とする。   Here, D is a positive integer determined in advance. i is an integer from 1 to D.

得られたD個の候補値δに対して、それぞれ予測誤差の推定値を計算し、予測誤差の推定値を最小にする候補値δを選ぶことで、適切な正則化パラメータが求まる。なお、Dの推奨値は、50から100程度である。 For each of the obtained D candidate values δ i , an estimated value of the prediction error is calculated, and a candidate value δ i that minimizes the estimated value of the prediction error is selected, thereby obtaining an appropriate regularization parameter. The recommended value of D is about 50 to 100.

次に、一般化したリッジ回帰における正則化パラメータの候補値の生成法について説明する。一般化したリッジ回帰の正則化パラメータは、行列なので、この行列の各要素に対して値を設定する必要がある。一般化したリッジ回帰の回帰係数は、以下の式(16)のように書ける。   Next, a method for generating candidate values for regularization parameters in generalized ridge regression will be described. Since the regularization parameter of the generalized ridge regression is a matrix, it is necessary to set a value for each element of this matrix. The regression coefficient of generalized ridge regression can be written as the following equation (16).

β=(XX+Λ)−1y (16) β = (X T X + Λ) −1 X T y (16)

式(16)は、通常のリッジ回帰と大きな差が無いので、式(14)の変換の代わりに、以下の式(17)の変換を用いることで候補値を生成できる。   Since the equation (16) is not significantly different from the normal ridge regression, the candidate value can be generated by using the following equation (17) instead of the equation (14).

Figure 0006484449
Figure 0006484449

ここで、Λijは、Λのi行j列目の要素である。δijは、範囲0<δij≦1の実数である。kは、式(14)と同様の役割であり、推奨値は、k=Nである。 Here, Λ ij is an element of i row and j column of Λ. δ ij is a real number in the range 0 <δ ij ≦ 1. k has a role similar to that of Expression (14), and a recommended value is k = N.

各δijの候補値を式(15)で生成することもできるが、各δijの候補値の組合せを考慮すると、最終的に得られるΛの候補値の数は指数的になる。この方法の代わりに、各δijの候補値を範囲0<δij≦1の乱数で生成すれば、Λの候補値の数を限定できる。なお、Λの行列に制約を課してもよい。例えば、Λの対角成分だけを式(17)により決定し、対角成分以外をゼロとする制約を課してもよい。これにより、Λの候補値の数を限定できる。 Although the candidate values of the [delta] ij may also be generated by the formula (15), considering the combination of candidate values for each [delta] ij, the number of candidate values of the finally obtained Λ becomes exponential. If the candidate values for each δ ij are generated with random numbers in the range 0 <δ ij ≦ 1 instead of this method, the number of candidate values for Λ can be limited. A constraint may be imposed on the matrix of Λ. For example, only the diagonal component of Λ may be determined by Expression (17), and a constraint may be imposed such that other than the diagonal component is zero. Thereby, the number of candidate values of Λ can be limited.

[δの高度な探索方法]
次に、δの高度な探索方法について説明する。上述した等間隔にδの候補値を生成する方法は、予測誤差の推定値を最小化する正則化パラメータの探索方法の一つである。実用上は、上述の方法で十分な場合が多いが、観測値の種類が多い大規模なデータにリッジ回帰を適用する場合は、より厳密に正則化パラメータを設定する場合がある。例えば、観測値の種類が1万を超えるような大規模なデータにリッジ回帰を適用する場合は、より厳密に正則化パラメータを設定する必要がある場合がある。この場合、なるべく少ない候補値の数で、予測誤差の推定値を最小にする正則化パラメータを探すために、より高度な探索方法が有用である。
[Advanced search method for δ]
Next, an advanced search method for δ will be described. The above-described method for generating δ candidate values at equal intervals is one of the regularization parameter search methods for minimizing the estimation value of the prediction error. In practice, the above method is often sufficient, but when ridge regression is applied to large-scale data with many types of observation values, regularization parameters may be set more strictly. For example, when applying ridge regression to large-scale data where the types of observations exceed 10,000, it may be necessary to set regularization parameters more strictly. In this case, a more advanced search method is useful for searching for a regularization parameter that minimizes the estimated value of the prediction error with as few candidate values as possible.

高度な探索方法としては、予測誤差の推定値を最小化する正則化パラメータの範囲を徐々に絞り込む方法が考えられる。高度な探索方法の一例としては、等間隔にδの候補値を生成して予測誤差の推定値を計算し、予測誤差の推定値が最小の部分を含む所定範囲についてさらに短い間隔でδの候補値を生成して予測誤差の推定値を計算する局所的な探索を所定の終了条件を満たすまで繰り返す方法がある。この所定範囲は、等間隔以上の範囲であればよく、例えば、等間隔の範囲とする。終了条件としては、例えば、局所的な探索を所定回繰り返すまでとしてもよく、予測誤差の推定値が所定の基準以下となるまでとしてもよい。例えば、まず0から1の範囲に等間隔に10個の候補値を生成し、予測誤差の推定値を計算する。次に、0から0.5の範囲と0.5から1の範囲に対して、先の候補値のうち予測誤差の推定値を最小にするものが含まれる範囲に対して、等間隔に10個の候補値を生成する。これを繰り返すことで、範囲を徐々に絞り込み、予測誤差の推定値を最小化する正則化パラメータを効率的に探索できる。   As an advanced search method, a method of gradually narrowing down the range of the regularization parameter that minimizes the estimated value of the prediction error can be considered. As an example of an advanced search method, candidate values for δ are generated at equal intervals to calculate an estimation value of prediction error, and candidates for δ are calculated at a shorter interval for a predetermined range including a portion where the estimation value of the prediction error is minimum. There is a method of repeating a local search for generating a value and calculating an estimated value of a prediction error until a predetermined end condition is satisfied. This predetermined range should just be a range more than equal intervals, for example, shall be the range of equal intervals. As the end condition, for example, the local search may be repeated a predetermined number of times, or the estimated value of the prediction error may be equal to or less than a predetermined reference. For example, first, ten candidate values are generated at equal intervals in a range from 0 to 1, and an estimated value of the prediction error is calculated. Next, with respect to the range from 0 to 0.5 and the range from 0.5 to 1, the previous candidate value includes the one that minimizes the estimated value of the prediction error. Generate candidate values. By repeating this, it is possible to efficiently narrow down the range and efficiently search for a regularization parameter that minimizes the estimated value of the prediction error.

一般化したリッジ回帰では、乱数による候補値の生成も有用であるが、より高度な方法としては局所探索や、遺伝的アルゴリズム等の直接探索法も有用である。   In generalized ridge regression, it is useful to generate candidate values using random numbers, but as a more advanced method, a direct search method such as a local search or a genetic algorithm is also useful.

[説明変数の選択手法]
次に、逐次的な説明変数の選択手法について説明する。リッジ回帰では、回帰式に複数の説明変数を持つ場合がある。例えば、P個の説明変数Xを持つ回帰式は、以下の式(18)のように表せる。
[Explanation variable selection method]
Next, a sequential explanatory variable selection method will be described. In ridge regression, the regression equation may have multiple explanatory variables. For example, the regression equation with P number of explanatory variables X p can be expressed as the following equation (18).

Figure 0006484449
Figure 0006484449

ここで、yは、目的変数である。βは、回帰係数である。式(18)では、目的変数yが複数の説明変数の回帰式から算出される。   Here, y is an objective variable. β is a regression coefficient. In the equation (18), the objective variable y is calculated from regression equations of a plurality of explanatory variables.

例えば、目的変数yを電力需要として、電力需要の予測を行う場合、各説明変数Xは、気温、湿度、風速等に対応する。しかし、回帰式を作成する場合、必ずしも全ての観測値を使う必要はなく、一部の説明変数により十分な精度で予測できる場合がある。例えば、気温、湿度、風速を観測していたとしても、回帰式では気温と風速だけを使うことで、予測精度が改善する場合や、予測結果の解釈が容易になる場合がある。 For example, as the objective variable y power demand, when performing prediction of the power demand, the explanatory variable X p are temperature, humidity, corresponding to the wind speed and the like. However, when creating a regression equation, it is not always necessary to use all the observed values, and there are cases where prediction can be made with sufficient accuracy using some explanatory variables. For example, even if temperature, humidity, and wind speed are observed, using only the temperature and wind speed in the regression equation may improve prediction accuracy or facilitate interpretation of the prediction result.

このように複数の説明変数がある場合に、回帰式に組み込む説明変数を自動選択する手法を説明する。この手法は、一つの説明変数を持つ回帰式から始め、回帰式に一つずつ説明変数を追加することを繰り返す。追加する説明変数の選び方は、説明変数とその時点での回帰式の誤差との相関の絶対値がもっとも大きなものを選ぶ。回帰式の回帰係数は、リッジ回帰で計算し、正則化パラメータは提案手法で決める。   A method for automatically selecting an explanatory variable to be incorporated into a regression equation when there are a plurality of explanatory variables in this way will be described. This technique starts with a regression equation with one explanatory variable and repeats adding explanatory variables one by one to the regression equation. For selecting the explanatory variable to be added, the one having the largest absolute value of the correlation between the explanatory variable and the error of the regression equation at that time is selected. The regression coefficient of the regression equation is calculated by ridge regression, and the regularization parameters are determined by the proposed method.

以下に具体的な手順の一例を示す。   An example of a specific procedure is shown below.

ステップ1:説明変数の選択する領域を初期化する。例えば、選択した説明変数を保持する領域A={}を空にする。また、Y^=0と初期化する。また、カウンタt=1と初期化する。 Step 1: Initialize an area for selecting an explanatory variable. For example, the area A 0 = {} holding the selected explanatory variable is emptied. In addition, it initializes Y ^ 0 = 0. Also, the counter t = 1 is initialized.

ステップ2:未選択の説明変数ごとに、選択された説明変数による回帰式の誤差との相関を算出する。最初は、Aが空であり、選択した説明変数がないため、目的変数の予測値がゼロとなり、目的変数の実績値がそのまま誤差と算出される。説明変数が選択された場合の誤差は、後述のステップ6で算出される。例えば、未選択の各説明変数と誤差との相関Cは、以下の式(19)から算出する。 Step 2: For each unselected explanatory variable, a correlation with the error of the regression equation due to the selected explanatory variable is calculated. At first, since A0 is empty and there is no selected explanatory variable, the predicted value of the objective variable becomes zero, and the actual value of the objective variable is directly calculated as an error. The error when the explanatory variable is selected is calculated in step 6 described later. For example, the correlation C P between each explanatory variable and the error of the unselected is calculated from the following equation (19).

=X(:|p)(y−Y^t−1) (19) C P = X (: | p) T (y−Y ^ t−1 ) (19)

ここで、Xは、N行P列の説明変数の行列とする。Aは、回帰式に組み込まれた説明変数を指す列番号の集合とする。X(:|p)は、行列Xのp番目の列ベクトルとする。X(:|A)は、Aに含まれる列番号に対応するXの列のみをもった行列とする。Y^は、要素数Nの列ベクトルとし、各要素は0とする。 Here, X is a matrix of explanatory variables of N rows and P columns. A t is the set of column number that points to the explanatory variables incorporated in the regression equation. X (: | p) is the p-th column vector of the matrix X. X (: | A) is a matrix having only X columns corresponding to the column numbers included in A. Y ^ 0 is a column vector with N elements, and each element is 0.

ステップ3:未選択の説明変数のなかから、ステップ2で算出した相関の絶対値が最大の説明変数を求める。すなわち、未選択の説明変数のなかで、誤差と変動が最も類似する説明変数を求める。例えば、At−1に含まれない説明変数pの中で、|C|が最大の説明変数pをp とする。 Step 3: From the unselected explanatory variables, an explanatory variable having the maximum absolute value of the correlation calculated in Step 2 is obtained. That is, among the unselected explanatory variables, an explanatory variable having the most similar error and variation is obtained. For example, among the explanatory variables p that are not included in A t−1 , the explanatory variable p having the maximum | C P | is defined as p t * .

ステップ4:相関Cの絶対値が最大の説明変数p を回帰式に組み込む。これは、例えば、以下の式(20)のように表せる。 Step 4: The absolute value of the correlation C P incorporates a maximum of explanatory variables p t * to regression. This can be expressed, for example, by the following equation (20).

=At−1∪{p } (20) A t = A t-1 ∪ {p t *} (20)

式(20)は、At−1に説明変数p を追加してAとすることを示す。 Equation (20) indicates that the A t by adding the explanatory variable p t * to A t-1.

ステップ5:回帰式の正則化パラメータをそれぞれ変換式で変換して変換パラメータδの候補値δを生成して予測誤差の推定値を求める。そして、予測誤差の推定値が最小となる候補値を変換パラメータに適用して、回帰係数βを求め、回帰式を特定する。回帰係数βは、カウンタtでの回帰係数を表す。 Step 5: The regularization parameter of the regression equation is converted by the conversion equation to generate a candidate value δ i of the conversion parameter δ, and an estimated value of the prediction error is obtained. Then, by applying the candidate value estimate of the prediction error is minimized in the conversion parameter, a regression coefficient beta t, identifies the regression equation. The regression coefficient β t represents the regression coefficient at the counter t.

ステップ6:回帰係数βを適用した回帰式から算出される目的変数の予測値と実績値の誤差を算出する。予測値は、例えば、以下の式(21)のように表せる。 Step 6: calculating an error of the predicted value and the actual value of the objective variable calculated from the regression equation according to the regression coefficient beta t. The predicted value can be expressed as the following equation (21), for example.

Y^=X(:|A)β (21) Y ^ t = X (: | A) β t (21)

ステップ7:誤差が所定の停止条件を満たしているか判定する。停止条件を満たしていない場合は、カウンタtをカウントアップ(t=t+1)してステップ2に戻る。これにより、ステップ2〜7が繰り返される。停止条件を満たす場合は、説明変数の選択を終了する。これにより、回帰式が特定される。停止条件は、例えば、相関が高い説明変数を所定個選択するまで、または、選択された説明変数による回帰式から算出される目的変数の予測値と実績値との誤差が増加するまでとする。停止条件を、相関が高い説明変数を所定個選択するまでとした場合は、停止条件を満たした際の回帰式で予測を行う。停止条件を、選択された説明変数による回帰式から算出される目的変数の予測値と実績値との誤差が増加するまでとした場合は、停止条件を満たした際の回帰式では誤差が増加しているため、1つ前の回帰式(t−1で特定された回帰式)で予測を行う。なお、停止条件は、これらに限定されるものではなく、他の条件を用いてもよい。   Step 7: It is determined whether the error satisfies a predetermined stop condition. If the stop condition is not satisfied, the counter t is incremented (t = t + 1), and the process returns to step 2. Thereby, steps 2 to 7 are repeated. When the stop condition is satisfied, the selection of the explanatory variable is finished. Thereby, the regression equation is specified. The stop condition is, for example, until a predetermined number of explanatory variables having a high correlation is selected, or until an error between the predicted value and the actual value of the objective variable calculated from the regression equation using the selected explanatory variable increases. When the stop condition is until a predetermined number of explanatory variables with high correlation is selected, prediction is performed using a regression equation when the stop condition is satisfied. If the stop condition is set to increase the error between the predicted value of the objective variable calculated from the regression equation with the selected explanatory variable and the actual value, the error will increase in the regression equation when the stop condition is met. Therefore, the prediction is performed using the previous regression equation (regression equation specified by t-1). The stop condition is not limited to these, and other conditions may be used.

[予測装置の構成]
次に、本願の提案手法を適用した予測装置10の構成について説明する。なお、本実施例では、予測装置10により電力需要の予測を行う場合について説明する。また、本実施例では、予測装置10が上述の説明変数の選択手法を用いて、複数の説明変数から回帰式を特定して電力需要の予測を行う場合を説明する。
[Configuration of prediction device]
Next, the configuration of the prediction apparatus 10 to which the proposed method of the present application is applied will be described. In addition, a present Example demonstrates the case where prediction of electric power demand is performed by the prediction apparatus 10. FIG. Further, in the present embodiment, a case will be described in which the prediction apparatus 10 performs prediction of power demand by specifying a regression equation from a plurality of explanatory variables using the above-described explanatory variable selection method.

図3は、予測装置の機能的な構成の一例を示す図である。図3に示すように、予測装置10は、表示部20と、入力部21と、記憶部22と、制御部23とを有する。予測装置10は、図3に示した機能部以外にも既知の各種の機能部を有してもよい。例えば、予測装置10は、他の端末と通信を行う通信インタフェース部などを有してもよい。   FIG. 3 is a diagram illustrating an example of a functional configuration of the prediction apparatus. As illustrated in FIG. 3, the prediction device 10 includes a display unit 20, an input unit 21, a storage unit 22, and a control unit 23. The prediction device 10 may have various known functional units in addition to the functional units illustrated in FIG. For example, the prediction device 10 may include a communication interface unit that performs communication with other terminals.

表示部20は、各種情報を表示する表示デバイスである。表示部20としては、LCD(Liquid Crystal Display)などの表示デバイスが挙げられる。表示部20は、各種情報を表示する。例えば、表示部20は、各種の操作画面や予測結果を表示する。   The display unit 20 is a display device that displays various types of information. Examples of the display unit 20 include a display device such as an LCD (Liquid Crystal Display). The display unit 20 displays various information. For example, the display unit 20 displays various operation screens and prediction results.

入力部21は、各種の情報を入力する入力デバイスである。例えば、入力部21としては、予測装置10に接続されたキーボードやマウス、予測装置10に設けられた各種のボタン、表示部20上に設けられた透過型のタッチセンサなどの入力デバイスが挙げられる。なお、図3の例では、機能的な構成を示したため、表示部20と入力部21を別に分けているが、例えば、タッチパネルなど表示部20と入力部21を一体的に設けたデバイスで構成してもよい。   The input unit 21 is an input device that inputs various types of information. For example, examples of the input unit 21 include an input device such as a keyboard and a mouse connected to the prediction device 10, various buttons provided on the prediction device 10, and a transmissive touch sensor provided on the display unit 20. . In the example of FIG. 3, since the functional configuration is shown, the display unit 20 and the input unit 21 are separately provided. For example, the display unit 20 and the input unit 21 such as a touch panel are integrally configured. May be.

記憶部22は、各種のデータを記憶する記憶デバイスである。例えば、記憶部22は、ハードディスク、SSD(Solid State Drive)、光ディスクなどの記憶装置である。なお、記憶部22は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)などのデータを書き換え可能な半導体メモリであってもよい。   The storage unit 22 is a storage device that stores various data. For example, the storage unit 22 is a storage device such as a hard disk, an SSD (Solid State Drive), or an optical disk. The storage unit 22 may be a semiconductor memory that can rewrite data such as a random access memory (RAM), a flash memory, and a non-volatile static random access memory (NVSRAM).

記憶部22は、制御部23で実行されるOS(Operating System)や各種プログラムを記憶する。例えば、記憶部22は、後述する予測処理を実行する予測プログラムを含む各種のプログラムを記憶する。さらに、記憶部22は、制御部23で実行されるプログラムで用いられる各種データを記憶する。例えば、記憶部22は、学習データ30を記憶する。   The storage unit 22 stores an OS (Operating System) executed by the control unit 23 and various programs. For example, the storage unit 22 stores various programs including a prediction program that executes a prediction process described later. Furthermore, the storage unit 22 stores various data used in programs executed by the control unit 23. For example, the storage unit 22 stores learning data 30.

学習データ30は、リッジ回帰の回帰式において各種のパラメータの最適値の算出に用いるデータである。学習データ30は、リッジ回帰の回帰式の目的変数の実績値と、当該実績値が得られた際の説明変数の実績値が記憶されている。本実施例では、所定の期間の電力需要の実績値と、当該電力需要が得られた際の気温、湿度、風速などの複数の説明変数の実績値が記憶されている。   The learning data 30 is data used for calculating optimum values of various parameters in the regression equation of ridge regression. The learning data 30 stores the actual value of the objective variable of the regression equation of ridge regression and the actual value of the explanatory variable when the actual value is obtained. In the present embodiment, the actual value of the power demand for a predetermined period and the actual values of a plurality of explanatory variables such as the temperature, humidity, and wind speed when the power demand is obtained are stored.

制御部23は、予測装置10を制御するデバイスである。制御部23としては、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路を採用できる。制御部23は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。制御部23は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、制御部23は、受付部40と、特定部41と、生成部42と、算出部43と、予測部44と、出力制御部45とを有する。   The control unit 23 is a device that controls the prediction device 10. As the control unit 23, an electronic circuit such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) and an FPGA (Field Programmable Gate Array) can be employed. The control unit 23 has an internal memory for storing programs defining various processing procedures and control data, and executes various processes using these. The control unit 23 functions as various processing units by operating various programs. For example, the control unit 23 includes a reception unit 40, a specification unit 41, a generation unit 42, a calculation unit 43, a prediction unit 44, and an output control unit 45.

受付部40は、各種の受け付けを行う。例えば、受付部40は、電力需要の予測に関する各種の情報の入力や電力需要の予測に関する各種の操作指示を受け付ける。例えば、受付部40は、不図示の操作画面を表示部20に表示させ、入力部21からの入力操作により各種の操作指示を受け付ける。例えば、受付部40は、電力需要の予測開始の指示を受け付ける。   The reception unit 40 performs various types of reception. For example, the reception unit 40 receives input of various information related to power demand prediction and various operation instructions related to power demand prediction. For example, the reception unit 40 displays an operation screen (not shown) on the display unit 20 and receives various operation instructions by an input operation from the input unit 21. For example, the reception unit 40 receives an instruction to start prediction of power demand.

特定部41は、上述の説明変数の選択手法により、電力需要の予測に有効な回帰式を特定する。例えば、特定部41は、学習データ30に基づき、所定の停止条件を満たすまで、学習データ30に記憶された複数の説明変数のうち、回帰式から算出される目的変数の予測値と実績値との誤差に対する相関の絶対値が大きい説明変数を選択することを繰り返して、選択された説明変数による回帰式を特定する。例えば、特定部41は、最初に、学習データ30に記憶された電力需要の実績値をそのまま誤差として、それぞれの説明変数の実績値との相関を算出する。そして、特定部41は、算出された相関の絶対値が最大の説明変数を特定する。特定部41は、相関の絶対値が最大の説明変数を選択する。以降、特定部41は、選択された説明変数による回帰式に、学習データ30に記憶された説明変数の実績を代入して電力需要の予測値を算出し、算出した予測値と学習データ30に記憶された実績値との誤差を算出する。そして、特定部41は、回帰式に含まれない説明変数について、それぞれ誤差に対する相関を求め、相関の絶対値が大きい説明変数を選択して回帰式に追加する。特定部41は、このように回帰式から算出される電力需要の予測値と実績値の誤差が停止条件を満たすまで、相関の絶対値が最大の説明変数の選択を繰り返す。   The specifying unit 41 specifies a regression equation that is effective for prediction of power demand by the above-described explanatory variable selection method. For example, based on the learning data 30, the specifying unit 41 sets the predicted value and the actual value of the objective variable calculated from the regression equation among a plurality of explanatory variables stored in the learning data 30 until a predetermined stop condition is satisfied. By repeating the selection of an explanatory variable having a large absolute value of the correlation with respect to the error, a regression equation using the selected explanatory variable is specified. For example, the specifying unit 41 first calculates the correlation with the actual value of each explanatory variable using the actual value of the power demand stored in the learning data 30 as an error as it is. And the specific | specification part 41 specifies the explanatory variable with the largest absolute value of the calculated correlation. The specifying unit 41 selects the explanatory variable having the maximum absolute value of the correlation. Thereafter, the specifying unit 41 calculates the predicted value of the power demand by substituting the actual result of the explanatory variable stored in the learning data 30 into the regression equation based on the selected explanatory variable, and calculates the predicted value of the power demand and the learned data 30. An error from the stored actual value is calculated. And the specific | specification part 41 calculates | requires the correlation with respect to an error about each explanatory variable not contained in a regression equation, selects an explanatory variable with a large absolute value of a correlation, and adds it to a regression equation. The specifying unit 41 repeats the selection of the explanatory variable having the maximum absolute value of the correlation until the error between the predicted value of power demand and the actual value calculated from the regression equation satisfies the stop condition in this way.

生成部42は、特定部41において説明変数が追加された回帰式の変換パラメータの候補値を複数生成する。例えば、生成部42は、正則化パラメータの変換式として、上述の式(14)を用いて、0<δ≦1の範囲で均等に変換パラメータの候補値δを生成する。例えば、生成部42は、式(15)のD=50として、iは、1からDまで変化させて50個の候補値δを生成する。 The generating unit 42 generates a plurality of candidate values for the conversion parameters of the regression equation to which the explanatory variable is added in the specifying unit 41. For example, the generation unit 42 generates the conversion parameter candidate value δ evenly in the range of 0 <δ ≦ 1, using the above-described formula (14) as the regularization parameter conversion formula. For example, the generation unit 42 generates 50 candidate values δ i by changing D from 1 to D, assuming D = 50 in the equation (15).

算出部43は、特定部41において説明変数が追加された回帰式に、生成部42により生成された複数の候補値をそれぞれ変換パラメータに適用した場合の回帰式の予測誤差の推定値を算出する。例えば、算出部43は、特定部41において説明変数が追加された回帰式の正則化パラメータを変換式により変換する。そして、算出部43は、回帰式のそれぞれ変換パラメータにそれぞれ候補値δを順に適用し、AIC、BIC、交差検定、MallowのCpなどを用いて、学習データ30から回帰式の予測誤差の推定値を算出する。算出部43は、説明変数ごとに、算出される予測誤差の推定値が最小となる候補値を変換式に適用して正則化パラメータを求める。これにより、説明変数ごとに、誤差の小さい正則化パラメータが特定される。上述の特定部41では、説明変数ごとに、誤差の小さい正則化パラメータを適用した回帰式を用いて、誤差を算出する。   The calculating unit 43 calculates an estimated value of the prediction error of the regression equation when the candidate values generated by the generating unit 42 are applied to the conversion parameters to the regression equation to which the explanatory variable is added in the specifying unit 41, respectively. . For example, the calculation unit 43 converts the regularization parameter of the regression equation to which the explanatory variable is added in the specifying unit 41 using a conversion equation. Then, the calculation unit 43 sequentially applies the candidate value δ to each conversion parameter of the regression equation, and uses the AIC, BIC, cross-validation, Mallow's Cp, and the like to estimate the prediction error of the regression equation from the learning data 30. Is calculated. For each explanatory variable, the calculation unit 43 applies a candidate value that minimizes the estimated value of the calculated prediction error to the conversion formula to obtain a regularization parameter. Thereby, a regularization parameter with a small error is specified for each explanatory variable. The specifying unit 41 calculates an error for each explanatory variable by using a regression equation to which a regularization parameter with a small error is applied.

すなわち、予測装置10では、特定部41により、予測に有効な説明変数を選択し、選択された説明変数による回帰式を特定し、生成部42により、当該回帰式の変換パラメータの候補値を生成して、算出部43により、候補値を変換パラメータに適用した場合の回帰式の予測誤差の推定値を算出することにより、予測に有効な説明変数により構成され、誤差の小さい正則化パラメータが適用されたリッジ回帰の回帰式を求める。   That is, in the prediction device 10, the specifying unit 41 selects an explanatory variable effective for prediction, specifies a regression equation based on the selected explanatory variable, and generates a conversion parameter candidate value for the regression equation by the generating unit 42. Then, by calculating the estimated value of the prediction error of the regression equation when the candidate value is applied to the conversion parameter by the calculation unit 43, a regularization parameter that is configured with explanatory variables effective for prediction and that has a small error is applied. The regression equation of the obtained ridge regression is obtained.

予測部44は、求められたリッジ回帰の回帰式により予測を行う、本実施例では、予測部44は、電力需要を予測する。   The prediction unit 44 performs prediction based on the obtained regression formula of ridge regression. In the present embodiment, the prediction unit 44 predicts power demand.

出力制御部45は、各種の出力の制御を行う。例えば、出力制御部45は、予測部44により予測された電力需要の情報を表示部20に表示させる。また、例えば、出力制御部45は、予測部44により予測された電力需要の情報を外部の端末装置へ出力する。これにより、ユーザは、出力された情報から電力需要の予測結果を把握できる。   The output control unit 45 controls various outputs. For example, the output control unit 45 causes the display unit 20 to display power demand information predicted by the prediction unit 44. Further, for example, the output control unit 45 outputs the information on the power demand predicted by the prediction unit 44 to an external terminal device. Thereby, the user can grasp | ascertain the prediction result of an electric power demand from the output information.

[予測例]
ここで、電力需要の予測の一例を説明する。なお、本実施例では、午後12時の電力需要の年周期パターンを回帰式として求め、電力需要を予測する場合について説明する。ここでは、リッジ回帰の回帰式としてはフーリエ級数を用いる。回帰式は、例えば、以下の式(22)のように表せる。
[Prediction example]
Here, an example of power demand prediction will be described. In addition, a present Example demonstrates the case where the electric power demand is estimated by calculating | requiring the annual cycle pattern of the electric power demand of 12:00 pm as a regression equation. Here, a Fourier series is used as a regression equation for ridge regression. The regression equation can be expressed as the following equation (22), for example.

Figure 0006484449
Figure 0006484449

ここで、yは、目的変数であり、午後12時の予測される電力需要である。tは、1月1日から12月31日に対して、1から365までの数字を順に割り当てたものとする。Tは、周期を表し、365とする。πは、円周率である。βは、回帰係数である。   Here, y is an objective variable and is a predicted power demand at 12:00. It is assumed that t is a number from 1 to 365 assigned in order from January 1 to December 31. T represents a period and is 365. π is the circumference ratio. β is a regression coefficient.

式(22)に示す回帰式では、変数lを1〜100とした場合の波形を回帰係数の割合でそれぞれ重み付け加算する。この場合、説明変数は、各変数lに対して、sin(2πtl/T)とcos(2πtl/T)を各列に割り当てた200列の行列となり、また、回帰式に表れる説明変数の数は、200個となる。   In the regression equation shown in the equation (22), the waveform when the variable l is 1 to 100 is weighted and added by the ratio of the regression coefficient. In this case, the explanatory variable is a 200-column matrix in which sin (2πtl / T) and cos (2πtl / T) are assigned to each column for each variable l, and the number of explanatory variables appearing in the regression equation is , 200.

以下の例では、通常のリッジ回帰に対する手法を用いてリッジ回帰の回帰係数を求める場合を説明する。なお、一般化したリッジ回帰に対する手法を用いてもよい。   In the following example, a case where a regression coefficient of ridge regression is obtained using a method for normal ridge regression will be described. Note that a generalized method for ridge regression may be used.

学習データ30には、所定の期間の午後12時の電力需要の実績値を記憶させる。例えば、学習データ30には、2012年9月30日から2013年9月29日までの東京電力管内の午後12時の電力需要の実績値を記憶させる。例えば、学習データ30には、1月1日から12月31日に対して割り当てたtの値にそれぞれ対応させて、電力需要の実績値を記憶させる。   The learning data 30 stores the actual value of power demand at 12:00 pm during a predetermined period. For example, the learning data 30 stores the actual value of the power demand at 12:00 pm within TEPCO from September 30, 2012 to September 29, 2013. For example, the actual value of power demand is stored in the learning data 30 in association with the value of t assigned to January 1 to December 31.

予測装置10は、学習データ30に対して式(7)でリッジ回帰の回帰係数を求める。本実施例では、予測装置10は、式(14)のkを学習データ30のデータ数である365とし、式(15)のDを100として候補値を生成し、各候補値の予測誤差の推定値を算出して正則化パラメータを決定する。予測誤差の推定値は、交差検定の一種であるLOOCV(Leave-One-Out Cross-Validation)で求める。例えば、学習データ30の一部の日付のデータを学習用データとし、残りの日付のデータを検証用データとする。この理由は、学習データ30の一部の日付のデータを学習用データとし、残りの日付のデータを検証用データとして、学習用データから正則化パラメータを決定し、決定された正則化パラメータを適用した回帰式により検証用データから予測誤差の推定値を求めるので、回帰式の予測の精度を適切に評価できるためである。予測装置10は、学習用データを用いて正則化パラメータを決定し、決定された正則化パラメータを適用した回帰式により検証用データについて予測を行って予測値と実績値を比較し、予測誤差の推定値を算出する。なお、回帰係数を求める際は、説明変数と目的変数を標準化する。   The prediction device 10 obtains a regression coefficient of ridge regression for the learning data 30 using Equation (7). In the present embodiment, the prediction device 10 generates candidate values by setting k in Expression (14) to 365 which is the number of data of the learning data 30, and D in Expression (15) as 100, and the prediction error of each candidate value is calculated. A regularization parameter is determined by calculating an estimated value. The estimated value of the prediction error is obtained by LOOCV (Leave-One-Out Cross-Validation) which is a kind of cross-validation. For example, some date data of the learning data 30 is used as learning data, and the remaining date data is used as verification data. The reason for this is that a part of the learning data 30 is used as learning data, the remaining data is used as verification data, the regularization parameter is determined from the learning data, and the determined regularization parameter is applied. This is because the estimated value of the prediction error is obtained from the verification data using the regression equation thus obtained, so that the accuracy of the prediction of the regression equation can be appropriately evaluated. The prediction device 10 determines the regularization parameter using the learning data, performs prediction on the verification data using a regression equation to which the determined regularization parameter is applied, compares the predicted value with the actual value, and calculates the prediction error. Calculate an estimate. When calculating the regression coefficient, the explanatory variable and the objective variable are standardized.

予測結果を評価するため、2013年9月30日から2014年9月29日までの東京電力管内の午後12時の電力需要の実績値のデータをテストデータとする。予測装置10が、学習データ30から得られた回帰係数で、テストデータに対する電力需要を予測すれば、実際の予測を想定したシミュレーションになり、テストデータに対する誤差を予測誤差と見なすことができる。   In order to evaluate the prediction result, the actual value data of the power demand at 12:00 p.m. within TEPCO from September 30, 2013 to September 29, 2014 is used as test data. If the prediction device 10 predicts the power demand for the test data with the regression coefficient obtained from the learning data 30, the simulation assumes an actual prediction, and the error for the test data can be regarded as a prediction error.

図4は、予測結果の評価の一例を示す図である。図4には、正則化パラメータの各候補値で得られるリッジ回帰の回帰係数について、学習データ30に対する誤差と、予測誤差の推定値と、テストデータに対する誤差とが示されている。なお、各誤差は、RMSE(Root Mean Squared Error)で算出する。図4の横軸は、δの値を表す。図4の縦軸は、対応するδを用いたリッジ回帰の各種誤差の大きさを表す。図4に示すように、学習データ30に対する誤差は、δの増加に対して単調に低下する。一方で、予測誤差の推定値は、下に凸の形になることがわかる。この理由は、δが1の付近では、学習データ30に対して回帰式がフィットし過ぎて、回帰式による予測結果がオーバーフィッティングとなるためである。   FIG. 4 is a diagram illustrating an example of evaluation of a prediction result. FIG. 4 shows an error with respect to the learning data 30, an estimated value of the prediction error, and an error with respect to the test data with respect to the regression coefficient of the ridge regression obtained with each candidate value of the regularization parameter. Each error is calculated by RMSE (Root Mean Squared Error). The horizontal axis in FIG. 4 represents the value of δ. The vertical axis of FIG. 4 represents the magnitude of various errors in ridge regression using the corresponding δ. As shown in FIG. 4, the error with respect to the learning data 30 decreases monotonously as δ increases. On the other hand, it can be seen that the estimated value of the prediction error has a downwardly convex shape. This is because when δ is in the vicinity of 1, the regression equation is too fit for the learning data 30, and the prediction result based on the regression equation is overfitting.

一方で、予測誤差の推定値とテストデータの誤差には、差異がある。この理由は、LOOCVによる予測誤差の推定値に推定誤差が含まれるため、および、学習データ30とテストデータは、違う年の電力需要のデータであり、電力需要の性質が経年により変化したためである。すなわち、学習データ30に対してテストデータの性質が変化する場合がある。予測装置10は、性質が変化する前の学習データ30から回帰式を求めるため、回帰式による予測結果がテストデータに対して必ずしも誤差が最も小さくなるわけではない。しかし、予測装置10は、学習データ30に対して予測誤差の推定値が最小となる回帰式を求めることで、高い精度でテストデータを予測できる。   On the other hand, there is a difference between the prediction error estimation value and the test data error. This is because the estimation error is included in the estimated value of the prediction error by LOOCV, and the learning data 30 and the test data are data of power demand in different years, and the nature of the power demand has changed over time. . That is, the property of the test data may change with respect to the learning data 30. Since the prediction device 10 obtains the regression equation from the learning data 30 before the property changes, the prediction result based on the regression equation does not necessarily have the smallest error with respect to the test data. However, the prediction device 10 can predict the test data with high accuracy by obtaining a regression equation that minimizes the estimated value of the prediction error for the learning data 30.

本実施例の手法の有効性は、式(14)の変換に依存している。この変換に求められる性質は、予測誤差が最小になるδの付近で、δの候補値の間隔に比べて予測誤差が大きく変化しないことである。図4に示すテストデータに対する誤差のカーブが滑らかであることから、式(14)の変換の有効性が確認できる。   The effectiveness of the method of the present embodiment depends on the conversion of equation (14). The property required for this conversion is that the prediction error does not change significantly in the vicinity of δ where the prediction error is minimized compared to the interval of candidate values of δ. Since the error curve for the test data shown in FIG. 4 is smooth, it is possible to confirm the effectiveness of the conversion of equation (14).

図4の例では、δの値が0.86で予測誤差の推定値が最小となる。予測装置10は、δの値を0.86として正則化パラメータを決定し、決定された正則化パラメータを適用した回帰式により電力需要を予測する。δ=0.86でのテストデータに対する誤差は、381万kWである。   In the example of FIG. 4, the value of δ is 0.86, and the estimated value of the prediction error is minimum. The prediction device 10 determines the regularization parameter by setting the value of δ to 0.86, and predicts the power demand by a regression equation to which the determined regularization parameter is applied. The error for the test data at δ = 0.86 is 3.81 million kW.

また、予測装置10は、説明変数の選択手法を用いて、説明変数を選択して回帰式を求めてもよい。例えば、上述の式(22)のsin(2πtl/T)とcos(2πtl/T)をそれぞれ説明変数とした場合、回帰式に表れる説明変数の数は、200個となる。予測装置10は、説明変数の選択手法を用いて、200個の説明変数から有効な説明変数を選択して回帰式を求めてもよい。   Moreover, the prediction apparatus 10 may obtain the regression equation by selecting an explanatory variable using an explanatory variable selection method. For example, when sin (2πtl / T) and cos (2πtl / T) in the above equation (22) are used as explanatory variables, the number of explanatory variables appearing in the regression equation is 200. The prediction apparatus 10 may obtain a regression equation by selecting an effective explanatory variable from 200 explanatory variables using an explanatory variable selection method.

例えば、予測装置10が、上述の電力需要を予測した場合と同じ条件で、学習データ30に対して説明変数の選択手法に基づき、80個の変数を選択した場合、得られた回帰式のテストデータに対する誤差が、386万kWである。200個の説明変数を用いたリッジ回帰のテストデータに対する誤差は、381万kWである。このように、予測装置10は、説明変数の選択手法を用いて、用いる説明変数を80個まで減らした場合でも、ほぼ同様の予測性能が得られたことがわかる。このように、予測装置10は、説明変数の選択手法を用いることにより、予測において重要な説明変数が選択できる。   For example, when the prediction device 10 selects 80 variables based on the explanatory variable selection method for the learning data 30 under the same conditions as when the above-described power demand is predicted, the obtained regression equation test The error for the data is 3.86 million kW. The error for the ridge regression test data using 200 explanatory variables is 3.81 million kW. Thus, it can be seen that the prediction device 10 obtained almost the same prediction performance even when the number of explanatory variables used was reduced to 80 using the explanatory variable selection method. Thus, the prediction apparatus 10 can select an explanatory variable that is important in prediction by using the explanatory variable selection method.

このように、予測装置10は、回帰式の正則化パラメータを変換する変換式の変換パラメータの取り得る範囲で変換パラメータの候補値を複数生成する。このように、変換パラメータの取り得る範囲が定まることで、試行錯誤を行わずに変換パラメータの候補値を生成できる。ここで、従来、正則化パラメータは、取り得る上限に制限がないため、どの範囲まで正則化パラメータの候補値を生成するか、試行錯誤が必要であり、処理の自動化を実現し難かった。一方、予測装置10では、正則化パラメータを変換する変換式の変換パラメータの取り得る範囲が定まるため、回帰式の正則化パラメータを求める処理の自動化を実現できる。この結果、予測装置10は、適切な正則化パラメータを効率的に探索できる。   In this way, the prediction device 10 generates a plurality of conversion parameter candidate values within a possible range of the conversion parameter of the conversion equation for converting the regularization parameter of the regression equation. Thus, the conversion parameter candidate value can be generated without trial and error by determining the range that the conversion parameter can take. Conventionally, since there is no limit on the upper limit that can be taken for the regularization parameter, it has been difficult to realize the automation of the process because it requires trial and error to determine the range of candidate values for the regularization parameter. On the other hand, in the prediction device 10, since the range that can be taken by the conversion parameter of the conversion equation for converting the regularization parameter is determined, it is possible to realize the automation of the processing for obtaining the regularization parameter of the regression equation. As a result, the prediction device 10 can efficiently search for an appropriate regularization parameter.

また、予測装置10は、変換パラメータの変化による回帰式の正則化パラメータの予測に与える影響を近似的に線形に変換する変換式を用いて、回帰式の正則化パラメータを変換パラメータに変換し、変換パラメータの取り得る範囲を均等な間隔で複数の変換パラメータの候補値を生成する。これにより、予測装置10は、候補値の数に応じた細かさで、正則化パラメータの取り得る範囲について万遍なく正則化パラメータの候補を探索でき、候補値の数に応じた精度で、精度の良い適切な正則化パラメータを探索できる。また、予測装置10は、探索された正則化パラメータを適用した回帰式により、精度よく予測を行うことができる。また、予測装置10では、変換パラメータの取り得る範囲を均等な間隔で変換パラメータの候補値を生成すればよいため、回帰式の正則化パラメータを求める処理の自動化を実現できる。この結果、予測装置10では、適切な正則化パラメータを効率的に探索できる。   Further, the prediction device 10 converts the regularization parameter of the regression equation into a conversion parameter using a conversion equation that approximately linearly converts the influence of the change of the conversion parameter on the prediction of the regularization parameter of the regression equation, Candidate values for a plurality of conversion parameters are generated at equal intervals over the range that the conversion parameters can take. Thereby, the prediction apparatus 10 can search for the candidates for the regularization parameter uniformly in the range that can be taken by the regularization parameter with the fineness according to the number of candidate values, and the accuracy according to the number of candidate values Can be searched for good regularization parameters. Further, the prediction device 10 can perform prediction with high accuracy by a regression equation to which the searched regularization parameter is applied. In addition, since the prediction apparatus 10 only needs to generate conversion parameter candidate values at equal intervals over the range that can be taken by the conversion parameter, it is possible to realize the automation of the process for obtaining the regularization parameter of the regression equation. As a result, the prediction device 10 can efficiently search for an appropriate regularization parameter.

[処理の流れ]
本実施例に係る予測装置10が予測を行う予測処理の流れについて説明する。図5は、予測処理の手順の一例を示すフローチャートである。この予測処理は、所定のタイミング、例えば、受付部40により電力需要の予測開始の指示を受け付けたタイミングで実行される。
[Process flow]
A flow of prediction processing in which the prediction device 10 according to the present embodiment performs prediction will be described. FIG. 5 is a flowchart illustrating an example of the procedure of the prediction process. This prediction process is executed at a predetermined timing, for example, at a timing when the reception unit 40 receives an instruction to start prediction of power demand.

図5に示すように、特定部41は、説明変数の選択する領域を初期化する(S10)。例えば、生成部42は、選択した説明変数を保持する領域A={}を空にする。また、生成部42は、Y^=0と初期化し、カウンタt=1と初期化する。 As illustrated in FIG. 5, the specifying unit 41 initializes an area for selecting an explanatory variable (S10). For example, the generation unit 42 empties the area A 0 = {} that holds the selected explanatory variable. The generation unit 42 initializes Y ^ 0 = 0 and initializes the counter t = 1.

特定部41は、領域Aに保持された以外の未選択の説明変数ごとに、選択された説明変数による回帰式の誤差との相関を算出する(S11)。特定部41は、最初、Aが空であり、選択した説明変数がないため、目的変数の実績値がそのまま誤差として、説明変数ごとに、誤差との相関を算出する。 Specification unit 41, for each explanatory variable unselected other than those held in the area A 0, and calculates the correlation between the error of the regression equation by the selected explanatory variables (S11). Specification unit 41, first, A 0 is empty, since there is no selected explanatory variables, as it is error actual value of the objective variable, for each explanatory variable, calculates a correlation between the error.

特定部41は、未選択の説明変数のなかから、S11で算出した、誤差との相関の絶対値が最大の説明変数を求める(S12)。   The identifying unit 41 obtains an explanatory variable having the maximum absolute value of the correlation with the error calculated in S11 from the unselected explanatory variables (S12).

特定部41は、相関の絶対値が最大の説明変数を領域Aに追加し、相関の絶対値が最大の説明変数を回帰式に組み込む(S13)。 Specification unit 41, the absolute value of the correlation is to add up explanatory variables in the area A t, the absolute value of the correlation incorporates a maximum of explanatory variables in the regression equation (S13).

生成部42は、回帰式の正則化パラメータをそれぞれ変換式で変換して変換パラメータδの候補値δを生成する(S14)。算出部43は、学習データ30に基づき、回帰式の正則化パラメータを変換式により変換し、それぞれ変換パラメータに候補値を適用した場合の回帰式の予測誤差の推定値を算出する(S15)。 The generation unit 42 converts the regularization parameters of the regression equation using the conversion equations, and generates the candidate value δ i of the conversion parameter δ (S14). Based on the learning data 30, the calculation unit 43 converts the regularization parameter of the regression equation by the conversion equation, and calculates the estimated value of the prediction error of the regression equation when the candidate value is applied to each conversion parameter (S15).

特定部41は、予測誤差の推定値が最小となる候補値を変換パラメータに適用して、説明変数毎に回帰係数を求め、回帰式を特定する(S16)。   The specifying unit 41 applies the candidate value that minimizes the estimated value of the prediction error to the conversion parameter, obtains the regression coefficient for each explanatory variable, and specifies the regression equation (S16).

特定部41は、学習データ30に基づき、回帰係数βを適用した回帰式から算出される目的変数の予測値と実績値の誤差を求める(S17)。 Specification unit 41, based on the training data 30 to determine the error of the predicted value and the actual value of the objective variable that is calculated regression coefficients beta t from the applied regression equation (S17).

特定部41は、誤差が停止条件を満たしているか判定する(S18)。停止条件を満たしていない場合(S18否定)、処理は、上述のS11へ移行する。   The identifying unit 41 determines whether the error satisfies the stop condition (S18). If the stop condition is not satisfied (No at S18), the process proceeds to S11 described above.

一方、停止条件を満たしている場合(S18肯定)、処理を終了する。   On the other hand, if the stop condition is satisfied (Yes at S18), the process is terminated.

[効果]
上述してきたように、本実施例に係る予測装置10は、説明変数の値から目的変数を求めるリッジ回帰の回帰式の目的変数の実績値と、当該実績値が得られた際の説明変数の実績値が記憶された学習データ30を記憶する。予測装置10は、所定の変換パラメータの所定の範囲の値の変化により、回帰式の正則化パラメータの取り得る範囲の値が得られる変換式の変換パラメータの取り得る所定の範囲で変換パラメータの候補値を複数生成する。予測装置10は、学習データ30に基づき、回帰式の正則化パラメータを変換式により変換し、生成された複数の候補値をそれぞれ変換パラメータに適用した場合の回帰式の予測誤差の推定値を算出する。予測装置10は、予測誤差の推定値が最小となる候補値を変換パラメータに適用した回帰式により予測を行う。これにより、予測装置10は、適切な正則化パラメータを効率的に探索できる。
[effect]
As described above, the prediction device 10 according to the present embodiment uses the actual value of the objective variable of the regression equation of the ridge regression for obtaining the objective variable from the value of the explanatory variable, and the explanatory variable when the actual value is obtained. The learning data 30 in which the actual value is stored is stored. The prediction apparatus 10 can obtain conversion parameter candidates in a predetermined range that can be taken by the conversion parameter of the conversion formula that can obtain a value in the range that can be taken by the regularization parameter of the regression formula by changing the value of the predetermined range of the predetermined conversion parameter Generate multiple values. Based on the learning data 30, the prediction device 10 converts the regularization parameter of the regression equation by the conversion equation, and calculates the estimated value of the prediction error of the regression equation when each of the generated candidate values is applied to the conversion parameter. To do. The prediction device 10 performs prediction using a regression equation in which a candidate value that minimizes the estimated value of the prediction error is applied to the conversion parameter. Thereby, the prediction apparatus 10 can search an appropriate regularization parameter efficiently.

また、本実施例に係る予測装置10では、変換式は、変換パラメータの変化による正則化パラメータの予測に与える影響を近似的に線形に変換する。予測装置10は、所定の範囲を均等な間隔で複数の変換パラメータの候補値を生成する。これにより、予測装置10は、候補値の数に応じた細かさで、正則化パラメータの取り得る範囲について万遍なく正則化パラメータの候補を探索できる。   Further, in the prediction device 10 according to the present embodiment, the conversion formula approximately linearly converts the influence of the change of the conversion parameter on the prediction of the regularization parameter. The prediction device 10 generates candidate values for a plurality of conversion parameters at equal intervals within a predetermined range. As a result, the prediction device 10 can search for candidates for the regularization parameter uniformly over the possible range of the regularization parameter with a fineness according to the number of candidate values.

また、本実施例に係る予測装置10は、変換式を、上述の式(14)とする。これにより、予測装置10は、適切な正則化パラメータを効率的に探索でき、探索された正則化パラメータを適用した回帰式により、精度よく予測を行うことができる。   Moreover, the prediction apparatus 10 which concerns on a present Example makes a conversion type | formula above-mentioned Formula (14). Thereby, the prediction device 10 can efficiently search for an appropriate regularization parameter, and can perform prediction with high accuracy by a regression equation to which the searched regularization parameter is applied.

また、本実施例に係る予測装置10は、学習データ30に基づき、所定の停止条件を満たすまで、回帰式に含まれる複数の説明変数のうち、回帰式から算出される目的変数の予測値と実績値との誤差に対する相関の絶対値が大きい説明変数を選択することを繰り返して、選択された説明変数による回帰式を特定する。また、その際、予測装置10は、特定された回帰式の各説明変数の正則化パラメータについて変換パラメータの候補値を複数生成する。予測装置10は、特定された前記回帰式の各説明変数の正則化パラメータをそれぞれ変換式により変換し、生成された複数の候補値をそれぞれ変換パラメータに適用した場合の前記回帰式の予測誤差の推定値を算出する。そして、予測装置10は、特定された前記回帰式の各説明変数の正則化パラメータについて、算出される予測誤差の推定値が最小となる候補値を変換パラメータに適用した回帰式により予測を行う。これにより、予測装置10は、予測において重要な説明変数を選択し、選択された説明変数による回帰式により予測を行える。また、予測装置10は、予測において重要な説明変数を選択して回帰式を特定するため、予測の処理の負荷を低減できる。   In addition, the prediction device 10 according to the present embodiment, based on the learning data 30, until the predetermined stop condition is satisfied, among the plurality of explanatory variables included in the regression equation, the predicted value of the objective variable calculated from the regression equation The regression equation based on the selected explanatory variable is specified by repeatedly selecting an explanatory variable having a large absolute value of the correlation with the error from the actual value. At that time, the prediction device 10 generates a plurality of conversion parameter candidate values for the regularization parameter of each explanatory variable of the identified regression equation. The prediction device 10 converts the regularization parameter of each explanatory variable of the identified regression equation by the conversion equation, and the prediction error of the regression equation when the plurality of generated candidate values are respectively applied to the conversion parameter. Calculate an estimate. Then, the prediction device 10 predicts the regularization parameter of each explanatory variable of the identified regression equation by the regression equation in which the candidate value that minimizes the estimated value of the calculated prediction error is applied to the conversion parameter. Thereby, the prediction apparatus 10 can select an explanatory variable important in prediction, and can perform prediction using a regression equation based on the selected explanatory variable. Moreover, since the prediction apparatus 10 selects an explanatory variable important in prediction and specifies a regression equation, the prediction processing load can be reduced.

また、本実施例に係る予測装置10は、所定の停止条件を、相関が高い説明変数を所定個選択するまで、または、選択された説明変数による回帰式から算出される目的変数の予測値と実績値との誤差が増加するまでとする。予測装置10は、所定の停止条件を、相関が高い説明変数を所定個選択するまでとした場合、説明変数を選択する回数が定まるため、回帰式の特定の処理時間が長くなることを抑制できる。また、予測装置10は、所定の停止条件を、選択された説明変数による回帰式から算出される目的変数の予測値と実績値との誤差が増加するまでとした場合、誤差の小さい回帰式を特定して予測を行うことができる。   Further, the prediction device 10 according to the present embodiment is configured to select a predetermined stop condition, a predetermined number of explanatory variables having a high correlation, or a predicted value of an objective variable calculated from a regression equation based on the selected explanatory variable. Until the error with the actual value increases. When the predetermined stop condition is until a predetermined number of explanatory variables having a high correlation is selected, the number of times that the explanatory variable is selected is determined, so that the specific processing time of the regression equation can be prevented from becoming long. . Further, when the prediction apparatus 10 determines that the predetermined stop condition is until the error between the predicted value of the objective variable calculated from the regression equation based on the selected explanatory variable and the actual value increases, a regression equation with a small error is obtained. Specific predictions can be made.

また、本実施例に係る予測装置10は、回帰式により電力需要の予測を行う。予測装置10は、回帰式の正則化パラメータを求める処理を自動化できるため、電力需要の予測の処理を自動化できる。   Moreover, the prediction apparatus 10 according to the present embodiment predicts power demand by a regression equation. Since the prediction device 10 can automate the process for obtaining the regularization parameter of the regression equation, the process for predicting the power demand can be automated.

さて、これまで開示の装置に関する実施例について説明したが、開示の技術は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。   Although the embodiments related to the disclosed apparatus have been described so far, the disclosed technology may be implemented in various different forms other than the above-described embodiments. Therefore, another embodiment included in the present invention will be described below.

例えば、上記の実施例では、変換式を上述の式(14)とする場合について説明したが、開示の装置はこれに限定されない。例えば、以下の式(23)に示す正則化パラメータの変換を用いてもよい。   For example, in the above-described embodiment, the case where the conversion formula is the above-described formula (14) has been described, but the disclosed apparatus is not limited thereto. For example, regularization parameter conversion represented by the following equation (23) may be used.

Figure 0006484449
Figure 0006484449

ここで、mは、正の実数とする。   Here, m is a positive real number.

また、上記の実施例では、電力需要を予測する場合について説明したが、開示の装置はこれに限定されない。リッジ回帰が適用できれば、何れの予測に適用してもよい。   Moreover, although said Example demonstrated the case where electric power demand was estimated, the apparatus of an indication is not limited to this. Any ridge regression can be applied to any prediction.

また、上記の実施例では、説明変数の選択手法により有効な説明変数を選択して回帰式を求める場合について説明したが、開示の装置はこれに限定されない。説明変数の選択手法は、行わなくてもよい。   In the above-described embodiment, the case where an effective explanatory variable is selected by an explanatory variable selection method to obtain a regression equation has been described. However, the disclosed apparatus is not limited to this. The explanatory variable selection method may not be performed.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的状態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、受付部40、特定部41、生成部42、算出部43、予測部44および出力制御部45の各処理部が適宜統合されてもよい。また、各処理部の処理が適宜複数の処理部の処理に分離されてもよい。さらに、各処理部にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific state of distribution / integration of each device is not limited to the one shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the processing units such as the reception unit 40, the specification unit 41, the generation unit 42, the calculation unit 43, the prediction unit 44, and the output control unit 45 may be appropriately integrated. Further, the processing of each processing unit may be appropriately separated into a plurality of processing units. Further, all or any part of each processing function performed in each processing unit can be realized by a CPU and a program analyzed and executed by the CPU, or can be realized as hardware by wired logic. .

[予測プログラム]
また、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することもできる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータシステムの一例を説明する。図6は、予測プログラムを実行するコンピュータを示す図である。
[Prediction program]
The various processes described in the above embodiments can also be realized by executing a program prepared in advance on a computer system such as a personal computer or a workstation. Therefore, in the following, an example of a computer system that executes a program having the same function as in the above embodiment will be described. FIG. 6 is a diagram illustrating a computer that executes a prediction program.

図6に示すように、コンピュータ300は、CPU(Central Processing Unit)310、HDD(Hard Disk Drive)320、RAM(Random Access Memory)340を有する。これら300〜340の各部は、バス400を介して接続される。   As illustrated in FIG. 6, the computer 300 includes a central processing unit (CPU) 310, a hard disk drive (HDD) 320, and a random access memory (RAM) 340. These units 300 to 340 are connected via a bus 400.

HDD320には上記の受付部40、特定部41、生成部42、算出部43、予測部44および出力制御部45と同様の機能を発揮する予測プログラム320aが予め記憶される。なお、予測プログラム320aについては、適宜分離してもよい。   The HDD 320 stores in advance a prediction program 320 a that exhibits the same functions as the reception unit 40, identification unit 41, generation unit 42, calculation unit 43, prediction unit 44, and output control unit 45. Note that the prediction program 320a may be separated as appropriate.

また、HDD320は、各種情報を記憶する。例えば、HDD320は、上述の学習データ30など予測に用いる各種データを記憶する。   The HDD 320 stores various information. For example, the HDD 320 stores various data used for prediction such as the learning data 30 described above.

そして、CPU310が、予測プログラム320aをHDD320から読み出して実行することで、実施例の各処理部と同様の動作を実行する。すなわち、予測プログラム320aは、受付部40、特定部41、生成部42、算出部43、予測部44および出力制御部45と同様の動作を実行する。   And CPU310 reads the prediction program 320a from HDD320, and performs the operation | movement similar to each process part of an Example. That is, the prediction program 320 a performs the same operations as the reception unit 40, the specification unit 41, the generation unit 42, the calculation unit 43, the prediction unit 44, and the output control unit 45.

なお、上記した予測プログラム320aについては、必ずしも最初からHDD320に記憶させることを要しない。   Note that the above-described prediction program 320a is not necessarily stored in the HDD 320 from the beginning.

例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」にプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。   For example, the program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card inserted into the computer 300. Then, the computer 300 may read and execute the program from these.

さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ300に接続される「他のコンピュータ(またはサーバ)」などにプログラムを記憶させておく。そして、コンピュータ300がこれらからプログラムを読み出して実行するようにしてもよい。   Furthermore, the program is stored in “another computer (or server)” connected to the computer 300 via a public line, the Internet, a LAN, a WAN, or the like. Then, the computer 300 may read and execute the program from these.

10 予測装置
20 表示部
21 入力部
22 記憶部
23 制御部
30 学習データ
40 受付部
41 特定部
42 生成部
43 算出部
44 予測部
45 出力制御部
DESCRIPTION OF SYMBOLS 10 Prediction apparatus 20 Display part 21 Input part 22 Storage part 23 Control part 30 Learning data 40 Reception part 41 Identification part 42 Generation part 43 Calculation part 44 Prediction part 45 Output control part

Claims (8)

説明変数の値から目的変数を求めるリッジ回帰の回帰式の目的変数の実績値と、当該実績値が得られた際の説明変数の実績値が記憶された学習データを記憶する記憶部と、
正則化パラメータをλとし、変換パラメータをδとし、kを正の実数とし、mを正の実数とした場合、以下に示す式(1)を変換式とし、変換パラメータδを0<δ≦1とした範囲で変換パラメータの候補値を複数生成する生成部と、
前記学習データに基づき、前記回帰式の正則化パラメータを前記変換式により変換し、前記生成部により生成された複数の候補値をそれぞれ変換パラメータに適用した場合の前記回帰式の予測誤差の推定値を算出する算出部と、
前記算出部により算出される予測誤差の推定値が最小となる候補値を変換パラメータに適用した回帰式により予測を行う予測部と、
を有することを特徴とする予測装置。
Figure 0006484449
A storage unit for storing the actual value of the objective variable of the regression equation of the ridge regression for obtaining the objective variable from the value of the explanatory variable, and learning data in which the actual value of the explanatory variable when the actual value is obtained;
When the regularization parameter is λ, the conversion parameter is δ, k is a positive real number, and m is a positive real number, the following equation (1) is a conversion equation, and the conversion parameter δ is 0 <δ ≦ 1 A generation unit that generates a plurality of conversion parameter candidate values within the range ,
Based on the learning data, the regularization parameter of the regression equation is converted by the conversion equation, and the estimated value of the prediction error of the regression equation when the plurality of candidate values generated by the generation unit are applied to the conversion parameters, respectively. A calculation unit for calculating
A prediction unit that performs prediction using a regression equation in which a candidate value that minimizes an estimated value of a prediction error calculated by the calculation unit is applied to a conversion parameter;
The prediction apparatus characterized by having.
Figure 0006484449
記変換式は、以下に示す(2)とする
ことを特徴とする請求項に記載の予測装置。
Figure 0006484449
Before Symbol conversion formula, prediction apparatus according to claim 1, characterized in that the formula (2) shown below.
Figure 0006484449
前記生成部は、前記範囲を均等な間隔で複数の変換パラメータの候補値を生成する
ことを特徴とする請求項2に記載の予測装置。
The generator, forward prediction apparatus according to claim 2, characterized in that the Kihan circumference generates a candidate value of the plurality of conversion parameters at equal intervals.
前記リッジ回帰の回帰式は、複数の説明変数を含み、
前記学習データに基づき、所定の停止条件を満たすまで、前記複数の説明変数のうち、前記回帰式から算出される目的変数の予測値と実績値との誤差に対する相関の絶対値が大きい説明変数を選択することを繰り返して、選択された説明変数による回帰式を特定する特定部をさらに有し、
前記生成部は、特定された前記回帰式の各説明変数の正則化パラメータについて変換パラメータの候補値を複数生成し、
前記算出部は、特定された前記回帰式の各説明変数の正則化パラメータをそれぞれ前記変換式により変換し、前記生成部により生成された複数の候補値をそれぞれ変換パラメータに適用した場合の前記回帰式の予測誤差の推定値を算出し、
前記予測部は、特定された前記回帰式の各説明変数の正則化パラメータについて、前記算出部により算出される予測誤差の推定値が最小となる候補値を変換パラメータに適用した回帰式により予測を行う
ことを特徴とする請求項1〜の何れか1つに記載の予測装置。
The regression equation of the ridge regression includes a plurality of explanatory variables,
Based on the learning data, until a predetermined stop condition is satisfied, an explanatory variable having a large absolute value of a correlation with respect to an error between the predicted value of the objective variable calculated from the regression equation and the actual value among the plurality of explanatory variables. It further includes a specifying unit that repeats the selection and specifies a regression equation based on the selected explanatory variable,
The generating unit generates a plurality of conversion parameter candidate values for the regularization parameter of each explanatory variable of the identified regression equation,
The calculation unit converts the regularization parameter of each explanatory variable of the identified regression equation by the conversion equation, and applies the plurality of candidate values generated by the generation unit to the conversion parameter, respectively. Calculate an estimate of the prediction error in the equation,
The prediction unit predicts a regularization parameter of each explanatory variable of the identified regression equation by a regression equation in which a candidate value with the smallest estimated value of the prediction error calculated by the calculation unit is applied to a conversion parameter. It performs. The prediction apparatus as described in any one of Claims 1-3 characterized by the above-mentioned.
所定の停止条件は、相関が高い説明変数を所定個選択するまで、または、選択された説明変数による回帰式から算出される目的変数の予測値と実績値との誤差が増加するまでとする
ことを特徴とする請求項に記載の予測装置。
The predetermined stop condition shall be until a predetermined number of explanatory variables with high correlation are selected, or until the error between the predicted value and actual value of the objective variable calculated from the regression equation based on the selected explanatory variable increases. The prediction apparatus according to claim 4 .
前記学習データは、目的変数として所定の期間の電力需要と、当該電力需要が得られた際の複数の説明変数の実績値が記憶され、
前記予測部は、前記回帰式により電力需要の予測を行う
ことを特徴とする請求項1〜の何れか1つに記載の予測装置。
The learning data stores power demand for a predetermined period as objective variables, and actual values of a plurality of explanatory variables when the power demand is obtained,
The prediction unit, the prediction apparatus according to any one of claims 1-5, characterized in that to predict the power demand by the regression equation.
説明変数の値から目的変数を求めるリッジ回帰の回帰式の正則化パラメータをλとし、変換パラメータをδとし、kを正の実数とし、mを正の実数とした場合、以下に示す式(3)を変換式とし、変換パラメータδを0<δ≦1とした範囲で変換パラメータの候補値を複数生成し、
前記回帰式の目的変数の実績値と、当該実績値が得られた際の説明変数の実績値が記憶された学習データに基づき、前記回帰式の正則化パラメータを前記変換式により変換し、生成された複数の候補値をそれぞれ変換パラメータに適用した場合の前記回帰式の予測誤差の推定値を算出し、
算出される予測誤差の推定値が最小となる候補値を変換パラメータに適用した回帰式により予測を行う
処理をコンピュータが実行することを特徴とする予測方法。
Figure 0006484449
When the regularization parameter of the regression equation of ridge regression for obtaining the objective variable from the value of the explanatory variable is λ, the conversion parameter is δ, k is a positive real number, and m is a positive real number, the following equation (3 ) As a conversion formula, and a plurality of conversion parameter candidate values are generated in a range where the conversion parameter δ is 0 <δ ≦ 1 ,
Based on the learning data storing the actual value of the objective variable of the regression equation and the actual value of the explanatory variable when the actual value was obtained, the regularization parameter of the regression equation is converted by the conversion equation and generated Calculating an estimated value of the prediction error of the regression equation when each of the plurality of candidate values is applied to the conversion parameter,
A prediction method characterized in that a computer executes a process of performing a prediction using a regression equation in which a candidate value that minimizes an estimated value of a calculated prediction error is applied to a conversion parameter.
Figure 0006484449
説明変数の値から目的変数を求めるリッジ回帰の回帰式の正則化パラメータをλとし、変換パラメータをδとし、kを正の実数とし、mを正の実数とした場合、以下に示す式(4)を変換式とし、変換パラメータδを0<δ≦1とした範囲で変換パラメータの候補値を複数生成し、
前記回帰式の目的変数の実績値と、当該実績値が得られた際の説明変数の実績値が記憶された学習データに基づき、前記回帰式の正則化パラメータを前記変換式により変換し、生成された複数の候補値をそれぞれ変換パラメータに適用した場合の前記回帰式の予測誤差の推定値を算出し、
算出される予測誤差の推定値が最小となる候補値を変換パラメータに適用した回帰式により予測を行う
処理をコンピュータに実行させることを特徴とする予測プログラム。
Figure 0006484449
When the regularization parameter of the regression equation of ridge regression for obtaining the objective variable from the value of the explanatory variable is λ, the conversion parameter is δ, k is a positive real number, and m is a positive real number, the following equation (4 ) As a conversion formula, and a plurality of conversion parameter candidate values are generated in a range where the conversion parameter δ is 0 <δ ≦ 1 ,
Based on the learning data storing the actual value of the objective variable of the regression equation and the actual value of the explanatory variable when the actual value was obtained, the regularization parameter of the regression equation is converted by the conversion equation and generated Calculating an estimated value of the prediction error of the regression equation when each of the plurality of candidate values is applied to the conversion parameter,
A prediction program characterized by causing a computer to execute a process of performing prediction using a regression equation in which a candidate value that minimizes an estimated value of a calculated prediction error is applied to a conversion parameter.
Figure 0006484449
JP2015014684A 2015-01-28 2015-01-28 Prediction device, prediction method, and prediction program Active JP6484449B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015014684A JP6484449B2 (en) 2015-01-28 2015-01-28 Prediction device, prediction method, and prediction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015014684A JP6484449B2 (en) 2015-01-28 2015-01-28 Prediction device, prediction method, and prediction program

Publications (2)

Publication Number Publication Date
JP2016139336A JP2016139336A (en) 2016-08-04
JP6484449B2 true JP6484449B2 (en) 2019-03-13

Family

ID=56559227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015014684A Active JP6484449B2 (en) 2015-01-28 2015-01-28 Prediction device, prediction method, and prediction program

Country Status (1)

Country Link
JP (1) JP6484449B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6570929B2 (en) * 2015-09-08 2019-09-04 国立研究開発法人農業・食品産業技術総合研究機構 Characteristic estimation model generation apparatus and method, analysis target characteristic estimation apparatus and method
JP2019052981A (en) 2017-09-15 2019-04-04 株式会社東芝 Distance measuring device
WO2020049994A1 (en) * 2018-09-03 2020-03-12 パナソニックIpマネジメント株式会社 Electron density estimation method, electron density estimation apparatus, and electron density estimation program
US11037339B2 (en) * 2019-04-17 2021-06-15 Uih America, Inc. Systems and methods for image reconstruction
JP7399832B2 (en) * 2020-09-15 2023-12-18 株式会社東芝 Information processing device, information processing system, information processing method and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4742192B2 (en) * 2009-04-28 2011-08-10 Necソフト株式会社 Age estimation apparatus and method, and program
US8676736B2 (en) * 2010-07-30 2014-03-18 Gravity Research And Development Kft. Recommender systems and methods using modified alternating least squares algorithm

Also Published As

Publication number Publication date
JP2016139336A (en) 2016-08-04

Similar Documents

Publication Publication Date Title
Agarwal et al. A survey on fuzzy fractional differential and optimal control nonlocal evolution equations
EP3620983B1 (en) Computer-implemented method, computer program product and system for data analysis
Cheng et al. Sparse polynomial chaos expansion based on D-MORPH regression
JP6484449B2 (en) Prediction device, prediction method, and prediction program
JP2020194560A (en) Causal relationship analyzing method and electronic device
US20140330758A1 (en) Formal verification result prediction
WO2018222205A1 (en) Systems and methods for black-box optimization
Guo et al. A just-in-time modeling approach for multimode soft sensor based on Gaussian mixture variational autoencoder
Knollmüller et al. Metric Gaussian variational inference
US8935136B2 (en) Multi-component model engineering
JP6172317B2 (en) Method and apparatus for mixed model selection
Zhang et al. Sparse polynomial chaos expansion based on Bregman-iterative greedy coordinate descent for global sensitivity analysis
Chakraborty et al. Polynomial correlated function expansion for nonlinear stochastic dynamic analysis
JP2016224566A (en) Prediction device, prediction method, and prediction program
Schmitz et al. A Gaussian process regression adaptive density guided approach for potential energy surface construction
Zhao et al. A significance test for graph‐constrained estimation
WO2020112025A1 (en) Method and system for generating training data for a machine learning model for predicting performance in electronic design
Butusov et al. New technique to quantify chaotic dynamics based on differences between semi-implicit integration schemes
Khurana et al. Automating feature engineering
US20180349798A1 (en) Optimal experimental design based on mutual information and submodularity
Chen et al. Training material models using gradient descent algorithms
JP2019003274A (en) Detection system, detection method and detection program
US9652722B1 (en) Methods and systems for robust supervised machine learning
Zhou et al. A new surrogate modeling method combining polynomial chaos expansion and Gaussian kernel in a sparse Bayesian learning framework
Erreygers et al. Computing inferences for large-scale continuous-time Markov chains by combining lumping with imprecision

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190218

R150 Certificate of patent or registration of utility model

Ref document number: 6484449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250