JP2015060237A - Prediction model learning device, prediction model learning method, and computer program - Google Patents
Prediction model learning device, prediction model learning method, and computer program Download PDFInfo
- Publication number
- JP2015060237A JP2015060237A JP2013191271A JP2013191271A JP2015060237A JP 2015060237 A JP2015060237 A JP 2015060237A JP 2013191271 A JP2013191271 A JP 2013191271A JP 2013191271 A JP2013191271 A JP 2013191271A JP 2015060237 A JP2015060237 A JP 2015060237A
- Authority
- JP
- Japan
- Prior art keywords
- prediction model
- missing
- model
- prediction
- usage rate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、入手可能なデータに基づいて予測対象データを予測する技術に関する。 The present invention relates to a technique for predicting prediction target data based on available data.
入手可能なデータに基づいて将来を予測することは業務改善に有用である。例えば、商店において、直近2週間の売り上げデータに基づいて商品の売り上げを予測できれば、商店は、商品の在庫管理を適切に行うことができる。また、営業店において、営業日報等の業務記録に基づいた営業手法と受注との関係を分析することによって、どのような営業手法により受注の可能性が高まるかを予測できれば、営業店は受注率を向上できる。 Forecasting the future based on available data is useful for business improvement. For example, in a store, if the sales of a product can be predicted based on sales data for the last two weeks, the store can appropriately manage the inventory of the product. In addition, if a sales office can predict the sales method that will increase the possibility of receiving an order by analyzing the relationship between the sales method based on business records such as daily business reports, etc. Can be improved.
ここで、予測の手掛かりとなるデータ(例えば実際の売り上げデータや、実行された営業手法)を説明変数と呼ぶこととする。また、予測対象となるデータ(例えば、予測したい商品の売り上げや、予測したい受注状況)を目的変数と呼ぶこととする。さらに、説明変数(データ)を代入(入力)することによって目的変数(予測値)を得ることができる関数をモデルあるいは予測関数と呼ぶこととする。さらにまた、過去データ(サンプル)である説明変数と目的変数の組み合わせの集合を訓練データと呼ぶこととする。この訓練データに基づいてモデル(説明変数を利用して目的変数を出力する関数)を作成する技術として、機械学習が利用される。 Here, data that serves as a clue to prediction (for example, actual sales data or an executed sales technique) is referred to as an explanatory variable. In addition, data to be predicted (for example, sales of a product to be predicted or order status to be predicted) is referred to as an objective variable. Furthermore, a function that can obtain an objective variable (predicted value) by substituting (inputting) an explanatory variable (data) is called a model or a predicting function. Furthermore, a set of combinations of explanatory variables and objective variables that are past data (samples) is referred to as training data. Machine learning is used as a technique for creating a model (a function for outputting an objective variable using explanatory variables) based on the training data.
ところで、その機械学習に際し、訓練データにおける説明変数の一部が欠損している場合がある。具体的には、例えば、或る時間帯に商品Aが店に出されていなかった場合には、その時間帯における商品Aの売り上げが欠損することとなる。また、営業日報に記録することを忘れた日がある場合には、その忘れられた日のデータが欠損することとなる。このように説明変数の一部が欠損している訓練データに基づいてモデル(予測関数)を機械学習する際には、例えば、説明変数の平均値を、欠損している説明変数として利用する手法が採用される場合がある。また、他の説明変数に基づいて予測した値を、欠損している説明変数として利用することによってモデル(予測関数)を機械学習する手法もある。 By the way, in the machine learning, some explanatory variables in the training data may be missing. Specifically, for example, if the product A has not been put out in the store during a certain time zone, the sales of the product A in that time zone will be lost. In addition, when there is a day forgetting to record in the business daily report, the data for the forgotten day is lost. Thus, when machine learning a model (prediction function) based on training data in which some of the explanatory variables are missing, for example, a method of using the average value of the explanatory variables as the missing explanatory variables May be adopted. There is also a method of machine learning of a model (prediction function) by using a value predicted based on another explanatory variable as a missing explanatory variable.
しかしながら、そのような手法では、欠損している説明変数として使用した想定値(代替値)が本来の値から大きくずれていることがあるために、精度の良いモデルを作成できない虞がある。精度の良くないモデルを利用すると、予測の精度が落ちるという問題が生じる。 However, with such a method, an assumed value (substitute value) used as a missing explanatory variable may be greatly deviated from the original value, so that there is a possibility that a highly accurate model cannot be created. If an inaccurate model is used, there is a problem that the accuracy of prediction is lowered.
非特許文献1には、訓練データにおける説明変数の一部が欠損している場合にモデル(予測関数)を機械学習する手法が開示されている。この非特許文献1に表されている手法では、機械学習する装置(コンピュータ)は、訓練データにおいて、どの説明変数が欠損しているかを検知し、欠損している説明変数が同じであるサンプル(説明変数と目的変数の組み合わせである過去データ)に同じラベルを付与する。そして、当該装置は、同じラベルが付与されているサンプルの集合のみを訓練データとした機械学習を行うことにより、モデルを出力(生成)する。
Non-Patent
しかしながら、目的変数に対する関与が小さい説明変数が欠損している場合に、非特許文献1の手法を用いてモデルを生成してしまうと、そのモデルの精度が悪くなる虞がある。それというのは、非特許文献1の手法では、説明変数の欠損状態に基づいて訓練データを分割しており、目的変数に対する説明変数の関与の度合いが考慮されていないからである。
However, if an explanatory variable having a small contribution to the objective variable is missing, if the model is generated using the method of Non-Patent
本発明は上記課題を解決するためになされた。すなわち、本発明の主な目的は、訓練データ(過去データ)に含まれている説明変数の一部が欠損していても、精度の高い予測を可能にするモデル(予測関数)を生成できる機械学習に関わる技術を提供することである。 The present invention has been made to solve the above problems. That is, the main object of the present invention is to provide a machine that can generate a model (prediction function) that enables highly accurate prediction even if some of the explanatory variables included in the training data (past data) are missing. It is to provide technology related to learning.
上記目的を達成するために、本発明の予測モデル学習装置は、
目的変数と説明変数ベクトルとの組であるサンプルが集められている訓練データにおいて複数にグループ分けされた前記サンプルの各グループに対してそれぞれ設定された予測モデルを複数使用する出力対象のモデルを機械学習する場合に、前記説明変数ベクトルにおける成分の欠損状態を示す欠損パターンに対する前記出力対象のモデルを構成する前記各予測モデルの使用割合を、前記予測モデルの推定されたパラメータを利用して計算する使用割合計算部と、
前記欠損パターンに対する前記各予測モデルの使用割合を利用して、前記各予測モデルのパラメータを推定する推定部と、
前記使用割合計算部により計算された前記欠損パターンに対する前記各予測モデルの使用割合を利用して前記推定部が前記各予測モデルのパラメータを推定する処理と、当該推定部により推定された前記各予測モデルのパラメータを利用して前記欠損パターンに対する前記各予測モデルの使用割合を前記使用割合計算部が計算する処理とを交互に繰り返す処理を制御する指令部と
を備えている。
In order to achieve the above object, the predictive model learning device of the present invention provides:
An output target model that uses a plurality of prediction models respectively set for each group of the samples grouped into a plurality of groups in the training data in which samples that are pairs of objective variables and explanatory variable vectors are collected is a machine When learning, the usage rate of each prediction model constituting the output target model with respect to the missing pattern indicating the missing state of the component in the explanatory variable vector is calculated using the estimated parameter of the prediction model. Usage rate calculator,
An estimation unit that estimates a parameter of each prediction model using a use ratio of each prediction model with respect to the missing pattern;
The estimation unit estimates a parameter of each prediction model using the use rate of each prediction model for the missing pattern calculated by the use rate calculation unit, and each prediction estimated by the estimation unit A command unit that controls a process of alternately repeating the process of calculating the usage ratio of each prediction model with respect to the missing pattern using the model parameters.
また、本発明の予測モデル学習方法は、
目的変数と説明変数ベクトルとの組であるサンプルが集められている訓練データにおいて複数にグループ分けされた前記サンプルの各グループに対してそれぞれ設定された予測モデルを複数使用する出力対象のモデルを機械学習する場合に、前記説明変数ベクトルにおける成分の欠損状態を示す欠損パターンに対する前記出力対象のモデルを構成する前記各予測モデルの使用割合を、前記予測モデルの推定されたパラメータを利用してコンピュータが計算し、
前記欠損パターンに対する前記各予測モデルの使用割合を利用して、前記各予測モデルのパラメータをコンピュータが推定し、
前記各予測モデルのパラメータを推定する処理と、その推定された前記各予測モデルのパラメータを利用して前記欠損パターンに対する前記各予測モデルの使用割合を計算する処理とをコンピュータが交互に繰り返す。
The prediction model learning method of the present invention includes:
An output target model that uses a plurality of prediction models respectively set for each group of the samples grouped into a plurality of groups in the training data in which samples that are pairs of objective variables and explanatory variable vectors are collected is a machine When learning, the computer uses the estimated parameters of the prediction model to determine the usage ratio of each prediction model that constitutes the output target model with respect to the missing pattern indicating the missing state of the component in the explanatory variable vector. Calculate
Utilizing the usage rate of each prediction model for the missing pattern, the computer estimates the parameters of each prediction model,
The computer alternately repeats the process of estimating the parameters of each prediction model and the process of calculating the usage rate of each prediction model with respect to the missing pattern using the estimated parameters of each prediction model.
さらに、本発明のコンピュータプログラムは、
目的変数と説明変数ベクトルとの組であるサンプルが集められている訓練データにおいて複数にグループ分けされた前記サンプルの各グループに対してそれぞれ設定された予測モデルを複数使用する出力対象のモデルを機械学習する場合に、前記説明変数ベクトルにおける成分の欠損状態を示す欠損パターンに対する前記出力対象のモデルを構成する前記各予測モデルの使用割合を、前記予測モデルの推定されたパラメータを利用して計算する処理と、
前記欠損パターンに対する前記各予測モデルの使用割合を利用して、前記各予測モデルのパラメータを推定する処理と
をコンピュータに実行させる処理手順が示され、
さらに、前記各予測モデルのパラメータを推定する処理と、その推定された前記各予測モデルのパラメータを利用して前記欠損パターンに対する前記各予測モデルの使用割合を計算する処理とを交互に繰り返す処理をコンピュータに実行させる処理手順が示されている。
Furthermore, the computer program of the present invention is
An output target model that uses a plurality of prediction models respectively set for each group of the samples grouped into a plurality of groups in the training data in which samples that are pairs of objective variables and explanatory variable vectors are collected is a machine When learning, the usage rate of each prediction model constituting the output target model with respect to the missing pattern indicating the missing state of the component in the explanatory variable vector is calculated using the estimated parameter of the prediction model. Processing,
A processing procedure for causing a computer to execute a process of estimating a parameter of each prediction model using a use ratio of each prediction model with respect to the missing pattern is shown.
Furthermore, a process of alternately repeating the process of estimating the parameters of each prediction model and the process of calculating the usage ratio of each prediction model with respect to the missing pattern using the estimated parameters of each prediction model A processing procedure to be executed by the computer is shown.
なお、本発明の前記目的は、前記構成の本発明の予測モデル学習装置に対応する本発明の予測モデル学習方法によっても達成される。また、本発明の前記目的は、本発明の予測モデル学習装置および予測モデル学習方法をコンピュータによって実現するコンピュータプログラムおよびそれを記憶するコンピュータプログラム記憶媒体によっても達成される。 The object of the present invention is also achieved by the prediction model learning method of the present invention corresponding to the prediction model learning apparatus of the present invention having the above-described configuration. The object of the present invention is also achieved by a computer program for realizing the prediction model learning device and the prediction model learning method of the present invention by a computer and a computer program storage medium for storing the computer program.
本発明によれば、訓練データ(過去データ)に含まれている説明変数の一部が欠損していても、精度の高い予測を可能にするモデル(予測関数)を生成できる。 According to the present invention, it is possible to generate a model (prediction function) that enables highly accurate prediction even if some of the explanatory variables included in the training data (past data) are missing.
以下に、本発明に係る実施形態を図面を参照しつつ説明する。 Embodiments according to the present invention will be described below with reference to the drawings.
(第1実施形態)
図1は、本発明に係る第1実施形態の予測モデル学習装置の構成を簡略化して表すブロック図である。この第1実施形態の予測モデル学習装置10は、目的変数と説明変数ベクトルとの組であるサンプルが集められている訓練データに基づいて、次のようなモデルを機械学習する装置である。そのモデルとは、前記訓練データにおいて複数にグループ分けされた前記サンプルの各グループに対してそれぞれ設定された予測モデルを複数使用することにより構成されているモデル(予測関数)である。
(First embodiment)
FIG. 1 is a block diagram showing a simplified configuration of the prediction model learning apparatus according to the first embodiment of the present invention. The prediction
この第1実施形態の予測モデル学習装置10は、制御装置11と、記憶装置12とを備えている。記憶装置12には、制御装置11の動作を制御する制御手順が表されているコンピュータプログラム(以下、プログラムとも記す)16が格納されている。
The prediction
制御装置11は、例えばCPU(Central Processing Unit)を有し、当該制御装置(コンピュータ)11は、記憶装置12から読み出したプログラム16を実行することにより、次のような機能を持つことができる。すなわち、制御装置11は、機能部として、推定部13と使用割合計算部14と指令部15とを有している。
The
使用割合計算部14は、前記説明変数ベクトルにおける成分の欠損状態を示す欠損パターンに対する前記出力対象のモデルを構成する前記各予測モデルの使用割合を、前記予測モデルの推定されたパラメータを利用して計算する機能を備えている。
The usage
推定部13は、前記欠損パターンに対する前記各予測モデルの使用割合を利用して、前記各予測モデルのパラメータを推定する機能を備えている。
The
指令部15は、推定部13と使用割合計算部14を制御する機能を備えている。例えば、指令部15は、使用割合計算部14が前記欠損パターンに対する前記各予測モデルの使用割合を計算すると、その計算結果を推定部13に出力する。これにより、推定部13は、その計算結果である前記欠損パターンに対する前記各予測モデルの使用割合を利用して、前記各予測モデルのパラメータを推定する。指令部15は、この推定部13により推定された前記各予測モデルのパラメータを使用割合計算部14に出力する。これにより、使用割合計算部14は、その推定された前記各予測モデルのパラメータを利用して、前記同様に前記欠損パターンに対する前記各予測モデルの使用割合を計算する。このように、指令部15は、推定部13による処理と使用割合計算部14による処理とを交互に繰り返す処理を制御する機能を備えている。
The
この第1実施形態の予測モデル学習装置10は、欠損パターンを考慮してモデルを機械学習する構成を備えているので、訓練データ(過去データ)に含まれている説明変数ベクトルの一部の成分が欠損していても、精度の高い予測を可能にするモデルを生成できる。
Since the prediction
(第2実施形態)
以下に、本発明に係る第2実施形態を説明する。
(Second Embodiment)
The second embodiment according to the present invention will be described below.
図2は、第2実施形態の予測モデル学習装置の構成を簡略化して表すブロック図である。この予測モデル学習装置20は、大別すると、制御装置21と、記憶装置22とを備えている。記憶装置22は記憶媒体(図示せず)を有し、当該記憶媒体には、コンピュータプログラム(プログラム)30や各種データが格納されている。プログラム30には、予測モデル学習装置20の動作を制御する処理手順が表されている。
FIG. 2 is a block diagram illustrating a simplified configuration of the prediction model learning apparatus according to the second embodiment. The prediction
制御装置(コンピュータ)21は、例えば、CPU(Central Processing Unit)を備えている。当該制御装置21(CPU)は、記憶装置22から読み込んだプログラム30に従って動作することにより、次のような機能を持つことができる。すなわち、この第2実施形態では、制御装置21は、機能部として、クラスタリング部23と、補完部24と、指令部25と、使用割合計算部26と、推定部27と、設定部28とを有している。
The control device (computer) 21 includes, for example, a CPU (Central Processing Unit). The control device 21 (CPU) can have the following functions by operating according to the
クラスタリング部23は、与えられた訓練データ(過去データ)をデータ解析することによってクラスタリングする機能を備えている。訓練データとは、過去データ(実際のデータ)に基づいた目的変数と説明変数ベクトルとの組み合わせであるサンプルが集められたデータ群である。例えば、訓練データは、外部から予測モデル学習装置20に与えられる(入力される)。ここでは、説明変数ベクトルをxと表し、目的変数をyと表すとする。また、サンプル(目的変数と説明変数ベクトルとの組み合わせ)は、(xi,yi)と表すとする。なお、iは、1からNまでの正の整数とする。これにより、訓練データDは、
The
と表すことができる。 It can be expressed as.
この第2実施形態では、クラスタリング部23は、与えられた訓練データDの各サンプル(xi,yi)において、説明変数ベクトルxにおける成分の一部が欠損しているか否かを検知する機能を備えている。また、クラスタリング部23は、説明変数ベクトルxにおける成分の一部が欠損している場合には、その欠損状態を表す欠損パターンを検知(特定)する機能を備えている。さらに、クラスタリング部23は、その検知された欠損パターンに基づいて、説明変数ベクトルxの欠損パターンが同じ又は似ているサンプル同士に同じラベルを与える機能を備えている。ここでのクラスタリングとは、上記のようにサンプルを分類し、その後、ラベルを付与するまでの処理を表している。
In the second embodiment, the
なお、クラスタリングの手法には様々な手法が有る。ここでは、説明変数ベクトルxの成分の一部が欠損している場合に当該欠損パターンに基づいてサンプルを分類することができれば、何れの手法が採用されてもよいが、クラスタリング部23によるクラスタリングの一具体例を次に述べる。 There are various clustering methods. Here, when a part of the component of the explanatory variable vector x is missing, any method may be adopted as long as the sample can be classified based on the missing pattern. One specific example is described below.
この具体例では、訓練データに含まれているサンプル数は40とし、これらサンプルS1−S40における説明変数ベクトルxは、それぞれ、10個の成分X1−X10を有するとする。図3は、サンプルS1−S40において、説明変数ベクトルxの成分X1−X10における欠損状態を表す表である。図3では、欠損している成分に対応する位置に「NA」が表され、その他の成分の数値は省略されている。図3によれば、サンプルS1−S5においては、説明変数ベクトルxの全ての成分X1−X10は欠損していない。サンプルS6−S10においては、説明変数ベクトルxの成分X1−X5が欠損している。さらに、サンプルS11−S20においては、説明変数ベクトルxの成分X1−X6が欠損し、さらにまた、サンプルS21−S40においては、説明変数ベクトルxの成分X7−X10が欠損している。 In this specific example, it is assumed that the number of samples included in the training data is 40, and the explanatory variable vectors x in these samples S1 to S40 have 10 components X1 to X10, respectively. FIG. 3 is a table showing a missing state in the components X1-X10 of the explanatory variable vector x in the samples S1-S40. In FIG. 3, “NA” is shown at the position corresponding to the missing component, and the numerical values of the other components are omitted. According to FIG. 3, in the samples S1-S5, all the components X1-X10 of the explanatory variable vector x are not missing. In samples S6-S10, the components X1-X5 of the explanatory variable vector x are missing. Further, in the samples S11 to S20, the components X1 to X6 of the explanatory variable vector x are missing, and in the samples S21 to S40, the components X7 to X10 of the explanatory variable vector x are missing.
このような説明変数ベクトルxを含む訓練データに関し、クラスタリング部23は、各サンプルS1−S40の説明変数ベクトルxを他のサンプルS1−S40の説明変数ベクトルxに比較し、説明変数ベクトルxの類似度を算出する。ここで、比較している2つのサンプルにおける説明変数ベクトルxにおいて、共通に欠損している成分の数をMとし、当該2つの説明変数ベクトルxのうちの欠損している成分の数(欠損数)が多い方のサンプルに含まれている欠損数をNとする。クラスタリング部23は、例えば、類似度RをM÷Nの数式に従って算出する。なお、Mが零であり、Nも零である場合における類似度Rは1とする。
Regarding the training data including such an explanatory variable vector x, the
図4は、上記算出手法に基づいて算出された類似度Rを表す表である。例えば、サンプルS1−S5は、説明変数ベクトルxの全ての成分が欠損していないことから、各サンプルS1−S5がサンプルS1−S5と比較した結果による説明変数ベクトルxの類似度Rは、R=M÷N=0÷0=1である。また、各サンプルS1−S5がサンプルS6−S10,S21−S40と比較した結果による説明変数ベクトルxの類似度Rは、R=M÷N=0÷5=0である。さらに、各サンプルS1−S5がサンプルS11−S20と比較した結果による説明変数ベクトルxの類似度Rは、R=M÷N=0÷6=0である。 FIG. 4 is a table showing the similarity R calculated based on the above calculation method. For example, since all the components of the explanatory variable vector x are not missing in the samples S1-S5, the similarity R of the explanatory variable vectors x as a result of comparing each sample S1-S5 with the samples S1-S5 is R = M ÷ N = 0 ÷ 0 = 1. Further, the similarity R of the explanatory variable vector x based on the result of comparison of each sample S1-S5 with samples S6-S10, S21-S40 is R = M ÷ N = 0 ÷ 5 = 0. Further, the similarity R of the explanatory variable vector x resulting from the comparison of each sample S1-S5 with the samples S11-S20 is R = M ÷ N = 0 ÷ 6 = 0.
クラスタリング部23は、そのように算出された類似度Rが0.8以上であるサンプルの組に同じラベルを設定(付与)する。例えば、図4に表される類似度Rに基づいて、クラスタリング部23は、サンプルS1-S5にはそれぞれラベルC1を設定し、サンプルS6−S20にはそれぞれラベルC2を設定し、サンプルS21−S40にはそれぞれラベルC3を設定する。
The
クラスタリング部23は、上記のように、説明変数ベクトルxの欠損パターンに着目して複数のサンプルをクラスタリングする機能を備えている。
As described above, the
補完部24は、説明変数ベクトルxにおいて欠損している成分に代わるデータ(数値)を補完する機能を備えている。例えば、補完部24は、各サンプルS6−S40において、説明変数ベクトルxにおける欠損していない成分の平均値を、欠損している成分として代入する(補完する)。より具体的には、サンプルS6−S10においては、補完部24は、成分X6−X10の平均値を、欠損している成分X1−X5に代入(補完)する。また、サンプルS11−S20においては、補完部25は、成分X7−X10の平均値を、欠損している成分X1−X6に代入(補完)する。さらに、サンプルS21−S40においては、補完部24は、成分X1−X6の平均値を、欠損している成分X7−X10に代入(補完)する。
The
設定部28は、訓練データに基づいて予測モデルを設定する機能を備えている。例えば、設定部28は、説明変数ベクトルxの欠損していない成分の組み合わせ(パターン)に基づいて、訓練データのサンプルS1−S40を次のような4つのグループに分類する。つまり、訓練データが図3の表に表されるような欠損パターンを有するサンプルの集合である場合には、サンプルS1−S5は、全ての説明変数ベクトルxの成分X1−X10が欠損していないグループ(グループG1とする)である。サンプルS6−S10は、説明変数ベクトルxの成分X6−X10が欠損していないグループ(グループG2とする)である。サンプルS11−S20は、説明変数ベクトルxの成分X7−X10が欠損していないグループ(グループG3とする)である。サンプルS21−S40は、説明変数ベクトルxの成分X1−X6が欠損していないグループ(グループG4とする)である。設定部28は、このようにグループ分けされた各サンプルのグループにそれぞれ対応する予測モデルを設定する。
The setting
ここでは、各グループG1−G4に関連付けられる予測モデル(関数)は式(1)に表されるとする。
Here, it is assumed that the prediction model (function) associated with each group G1-G4 is represented by Expression (1).
なお、式(1)に表されるxは説明変数ベクトルであり、yは目的変数である。また、kは、予測モデルを識別する符号であり、1以上の整数(k=1,2,...,K)であるとする。ここでは、各予測モデルのkは、上記のようにグループ分けされたグループG1−G4にそれぞれ対応する数値が設定される。つまり、サンプルのグループG1に対応する予測モデルのkには1が設定され、サンプルのグループG2に対応する予測モデルのkには2が設定される。また、サンプルのグループG3に対応する予測モデルのkには3が設定され、サンプルのグループG4に対応する予測モデルのkには4が設定される。つまり、この場合には、K=4となる。 In addition, x represented by Formula (1) is an explanatory variable vector, and y is an objective variable. K is a code for identifying the prediction model, and is an integer of 1 or more (k = 1, 2,..., K). Here, k of each prediction model is set to a numerical value corresponding to each of the groups G1-G4 grouped as described above. That is, 1 is set to k of the prediction model corresponding to the sample group G1, and 2 is set to k of the prediction model corresponding to the group of samples G2. In addition, 3 is set to k of the prediction model corresponding to the group of samples G3, and 4 is set to k of the prediction model corresponding to the group of samples G4. That is, in this case, K = 4.
また、θ(k)は、予測モデルfkにおけるパラメータを表している。 Θ (k) represents a parameter in the prediction model f k .
ここで、クラスタリング部23のクラスタリング処理によりサンプルに付与されたラベルをc(xi)とした場合に、各ラベルに対する予測モデルの使用割合(モデル割り当て潜在変数)は、Zc(xi),kと表されるとする。この場合に、その使用割合を考慮した予測モデルは式(2)に表される。
Here, when the label given to the sample by the clustering process of the
より具体例を述べると、予測モデルとして、式(3)に表される確率密度関数族が設定(定義)されているとする。
More specifically, it is assumed that the probability density function family represented by Expression (3) is set (defined) as the prediction model.
なお、式(3)において、θ:=(β,σ2)とする(βは平均値(説明変数の線型関数で表す場合には重みともいう)を表し、σは分散を表す)。また、τ∈{1,2,・・・・}である。 In Equation (3), θ: = (β, σ 2 ) (β represents an average value (also referred to as a weight when represented by a linear function of explanatory variables), and σ represents variance). Further, τε {1, 2,...}.
式(3)に基づくと、各グループG1−G4に対応する予測モデルは、式(4)−式(7)のように表される(定義される)。
Based on Expression (3), the prediction model corresponding to each group G1-G4 is expressed (defined) as Expression (4) -Expression (7).
この第2実施形態では、モデルの機械学習とは、パラメータθ(k)および使用割合Zc(xi),kを機械学習することである。指令部25は、その機械学習のために、使用割合計算部26および推定部27の動作を制御する機能を備えている。例えば、指令部25は、訓練データを受け取ると、例えば制御装置21に備えられている記憶部33に予測モデルの使用割合Zc(xi),kの情報が格納されているか否かを判断し、格納されていないと判断した場合には、使用割合Zc(xi),kの初期値を設定(生成)する。具体例を挙げると、指令部25は、前記のようなグループG1−G4に対する予測モデルf1−f4が設定されている場合には、全ての予測モデルf1−f4における使用割合Zc,kとして同じ定数を設定する。つまり、使用割合Zc,kは0.25と設定される。また、この場合には、c=1,2,3であり、k=1,2,3,4である。
In the second embodiment, the machine learning of the model is machine learning of the parameter θ (k) and the usage ratio Z c (xi), k . The
指令部25は、使用割合Zc,kの情報を取得できた場合には、その使用割合c,kおよび訓練データを推定部27に出力する。これにより、推定部27が機能し始め、後述するように各予測モデルのパラメータθ(k)を推定する。指令部25は、推定部27により推定(算出)されたパラメータθ(k)を推定部27から受け取ると、当該パラメータθ(k)および訓練データを使用割合計算部28に出力する。これにより、使用割合計算部28が機能し始め、後述するように使用割合Zc,kを算出する。指令部25は、使用割合計算部28により算出された使用割合Zc,kを使用割合計算部28から受け取ると、当該使用割合Zc,kおよび訓練データを推定部27に出力する。
The
このように、指令部25は、推定部27と使用割合計算部28が交互に繰り返し機能するように制御することによって、パラメータθ(k)および使用割合Zc(xi),kの機械学習を進める。指令部25は、予め定められた停止条件が満たされるまで、そのような機械学習を継続して行う。停止条件としては、例えば、新たに算出されたパラメータθ(k)と、当該パラメータθ(k)が算出される1回前の計算により算出されたパラメータθ(k)との各成分の差分の二乗和が10−5以下であるという条件がある。
In this way, the
なお、上記例では、指令部25は、使用割合Zc(xi),kの初期値を設定した後に、推定部27と使用割合計算部28の繰り返し動作を制御している。これに代えて、指令部25は、パラメータθ(k)の初期値を設定(生成)し、この設定した初期値と訓練データを使用割合計算部28に出力することにより、上記のような推定部27と使用割合計算部28の繰り返し動作の開始を制御してもよい。
In the above example, the
推定部27は、訓練データと、各ラベルに対する予測モデルf1−f4の使用割合Zc(xi),kとに基づき、かつ、設定部28により設定された予測モデルの情報を適宜利用することにより、パラメータθを推定する機能を備えている。例えば、推定部27は、指令部25から出力された訓練データおよび使用割合の情報Zc(xi),kに基づいて、式(8)で表される対数尤度が大きくなるように各予測モデルf1−f4のパラメータθ(1)−θ(4)を計算する。なお、訓練データにおける説明変数ベクトルxの成分の一部が欠損している場合には、補完部24により補完されたデータ(数値)を利用する。
The
対数尤度が大きくなるようにパラメータθを算出する手法には様々な手法があり、推定部27は、それら手法の中から適宜な手法を採用してよい。例えば、推定部27は、計算の複雑化を防止するために、正則化の手法を利用してもよい。また、推定部27は、式(9)に表される連立方程式が解析的に解ける場合には、その計算結果を式(8)に代入することによって、パラメータθを算出(推定)することができる。また、式(9)の連立方程式が解析的に解けない場合には、推定部27は、ニュートン法などの数値計算を用いて、パラメータθを算出(推定)してもよい。
There are various methods for calculating the parameter θ so as to increase the log likelihood, and the
なお、式(9)における演算記号∇は、ベクトル微分演算子であるナブラを表す。 Note that the operation symbol に お け る in equation (9) represents a nabla which is a vector differential operator.
推定部27が、式(9)を利用してパラメータθ(θ=(β,σ2))を推定した結果は下記の通りである。
The result of the
なお、X(k),Y(k)は、次のように定義されているとする。
X (k) and Y (k) are defined as follows.
なお、上記列ベクトル中に表されているd(k)は、予測モデルfkに対応する当該列ベクトルを構成する成分の総数を表す。 Note that d (k) represented in the column vector represents the total number of components constituting the column vector corresponding to the prediction model f k .
推定部27は、推定したパラメータθに関する情報を指令部25に出力する機能と、当該パラメータθに関する情報を例えば制御装置21に備えられている記憶部33に登録する機能とを備えている。
The
使用割合計算部26は、指令部25から出力された訓練データおよびパラメータθの情報に基づき、かつ、設定部28により設定された予測モデルの情報を適宜利用することにより、予測モデルの使用割合Zc(xi),kを算出する機能を備えている。例えば、使用割合計算部26は、クラスタリング部23のクラスタリング処理による各ラベルのサンプルに対する確率が大きい予測モデルに対して、当該ラベルの予測モデルの使用割合が大きくなるように、当該予測モデルの使用割合を算出する。例えば、使用割合計算部26は、式(10)により表される予測モデルの尤度比に基づいて予測モデルの使用割合Zc(xi),kを算出する。
The usage
なお、pk(c)とτ(c)は、次のように定義されている。
Note that p k (c) and τ (c) are defined as follows.
使用割合計算部26は、算出した予測モデルの使用割合Zc(xi),kに関する情報を指令部25に出力する機能と、当該予測モデルの使用割合Zc(xi),kに関する情報を例えば制御装置21に備えられている記憶部33に登録する機能とを備えている。
The
以下に、第2実施形態の予測モデル学習装置20における予測モデル学習に関わる動作例を図5のフローチャートを参照しながら説明する。なお、図5は、第2実施形態の予測モデル学習装置20が実行する予測モデル学習に関わる動作のフローチャートであり、当該フローチャートは、予測モデル学習装置20の制御装置21(CPU)が実行するコンピュータプログラム30の処理手順を表している。
Hereinafter, an operation example related to prediction model learning in the prediction
例えば、制御装置21(クラスタリング部23)は、当該制御装置21の外部から訓練データを受け取ると、当該訓練データにおける各サンプルにおいて、説明変数ベクトルxの欠損状態を表す欠損パターンを特定する(ステップS101)。そして、クラスタリング部23は、その欠損パターンに基づいて、訓練データのサンプルを分類し、同じ分類のサンプルに同じラベルを付与する。換言すれば、制御装置21(クラスタリング部23)は、その欠損パターンに基づいて、訓練データをクラスタリングする(ステップS102)。
For example, when the control device 21 (clustering unit 23) receives the training data from the outside of the
然る後に、制御装置21(指令部25)は、予測モデルの使用割合Zc(xi),kの初期値を設定(生成)する(ステップS103)。なお、その予測モデルは、前記の如く制御装置21に与えられた訓練データに基づいて、設定部28により設定(定義)されたモデルである。
Thereafter, the control device 21 (command unit 25) sets (generates) an initial value of the use rate Z c (xi), k of the prediction model (step S103). The prediction model is a model set (defined) by the setting
その後、制御装置21は、訓練データにおける説明変数ベクトルxの一部の成分が欠損しているか否かを判断する(ステップS104)。これにより、欠損していると判断した場合には、制御装置21(補完部24)は、その欠損している成分を補完する(ステップS105)。
Thereafter, the
その補完処理の後に、あるいは、訓練データにおける説明変数ベクトルxの成分が欠損していない場合には、制御装置21(指令部25)は、停止条件を満たしているか否かを判断する(ステップS106)。そして、指令部25は、停止条件を満たしていないと判断した場合には、使用割合Zc(xi),kの初期値と訓練データ(補完済みデータ)を推定部27に出力する。これにより、推定部27は、機能を開始し、予測モデルのパラメータθを推定する(ステップS107)。この推定されたパラメータθの情報は、推定部27から指令部25に出力されると共に、記憶部33に登録される。
After the supplement processing or when the component of the explanatory variable vector x in the training data is not missing, the control device 21 (command unit 25) determines whether or not the stop condition is satisfied (step S106). ). When the
指令部25は、推定部27からパラメータθの情報と訓練データを受け取ると、これらの情報を使用割合計算部26に出力する。これにより、使用割合計算部26は、受け取った情報に基づいて、使用割合Zc(xi),kを計算する(ステップS108)。この算出された使用割合Zc(xi),kの情報は、指令部25に出力されると共に、記憶部33に登録される。
When the
その後、指令部25は、停止条件を満たしているか否かを判断し(ステップS106)、停止条件を満たしていないと判断した場合には、前記ステップS107以降の動作を繰り返す。指令部25は、停止条件を満たしていると判断した場合には、モデルの機械学習を終了する。
Thereafter, the
上記のような動作により、制御装置21は、訓練データに基づいてモデルを機械学習する。
With the above operation, the
この第2実施形態の予測モデル学習装置20は、上記のように、訓練データに含まれる説明変数ベクトルxの欠損パターンに対する予測モデルの使用割合(モデル割り当て潜在変数)を機械学習している。そして、予測モデル学習装置20は、その予測モデルの使用割合を考慮したモデルを機械学習している。つまり、予測モデル学習装置20は、目的変数に対する説明変数ベクトルxの欠損している成分の関与の度合いが考慮された機械学習を行うことができる。これにより、予測モデル学習装置20は、訓練データ(過去データ)に含まれている説明変数ベクトルxの成分の一部が欠損していても、精度の高い予測を可能にするモデル(予測関数)を生成できる。
As described above, the prediction
(その他の実施形態)
なお、本発明は第1や第2の実施形態に限定されず、様々な実施の形態を採り得る。例えば、第2実施形態では、設定部28は、訓練データにおいて説明変数ベクトルxの欠損していない成分のパターンに着目してグループ分けされたサンプルのグループにそれぞれ対応する予測モデルを設定(定義)している。これに代えて、例えば、設定部28は、訓練データにおける説明変数ベクトルxのパターン(欠損パターン)に着目してグループ分けされたサンプルのグループにそれぞれ対応する予測モデルを設定(定義)してもよい。あるいは、設定部28は、訓練データにおける各サンプルの欠損パターンに以外の着目事項に基づいて分けされたサンプルのグループにそれぞれ対応する予測モデルを設定(定義)してもよい。このように、予測モデルを設定(定義)する手法には様々な手法があり、ここでは、何れの手法を利用して予測モデルを設定(定義)してもよい。
(Other embodiments)
The present invention is not limited to the first and second embodiments, and various embodiments can be adopted. For example, in the second embodiment, the setting
10,20 予測モデル学習装置
13,27 推定部
14,26 使用割合計算部
15,25 指令部
23 クラスタリング部
24 補完部
10, 20 Prediction
Claims (7)
前記欠損パターンに対する前記各予測モデルの使用割合を利用して、前記各予測モデルのパラメータを推定する推定部と、
前記使用割合計算部により計算された前記欠損パターンに対する前記各予測モデルの使用割合を利用して前記推定部が前記各予測モデルのパラメータを推定する処理と、当該推定部により推定された前記各予測モデルのパラメータを利用して前記欠損パターンに対する前記各予測モデルの使用割合を前記使用割合計算部が計算する処理とを交互に繰り返す処理を制御する指令部と
を備えている予測モデル学習装置。 An output target model that uses a plurality of prediction models respectively set for each group of the samples grouped into a plurality of groups in the training data in which samples that are pairs of objective variables and explanatory variable vectors are collected is a machine When learning, the usage rate of each prediction model constituting the output target model with respect to the missing pattern indicating the missing state of the component in the explanatory variable vector is calculated using the estimated parameter of the prediction model. Usage rate calculator,
An estimation unit that estimates a parameter of each prediction model using a use ratio of each prediction model with respect to the missing pattern;
The estimation unit estimates a parameter of each prediction model using the use rate of each prediction model for the missing pattern calculated by the use rate calculation unit, and each prediction estimated by the estimation unit A prediction model learning apparatus comprising: a command unit that controls a process of alternately repeating a process in which the usage rate calculation unit calculates a usage rate of each prediction model with respect to the missing pattern using a model parameter.
前記使用割合計算部および前記推定部は、前記説明変数ベクトルにおける欠損している成分が前記補完部により補完された前記訓練データを利用する請求項1又は請求項2又は請求項3記載の予測モデル学習装置。 And further comprising a complement that complements the missing component in the explanatory variable vector,
The prediction model according to claim 1, wherein the use ratio calculation unit and the estimation unit use the training data in which a missing component in the explanatory variable vector is supplemented by the complement unit. Learning device.
前記使用割合計算部は、前記ラベル毎に、前記欠損パターンに対する前記各予測モデルの使用割合を計算する請求項1乃至請求項4の何れか一つに記載の予測モデル学習装置。 Classifying the sample of the training data based on the missing pattern, further comprising a clustering unit that assigns a label to each classification,
The prediction model learning device according to any one of claims 1 to 4, wherein the usage rate calculation unit calculates a usage rate of each prediction model with respect to the missing pattern for each label.
前記欠損パターンに対する前記各予測モデルの使用割合を利用して、前記各予測モデルのパラメータをコンピュータが推定し、
前記各予測モデルのパラメータを推定する処理と、その推定された前記各予測モデルのパラメータを利用して前記欠損パターンに対する前記各予測モデルの使用割合を計算する処理とをコンピュータが交互に繰り返す予測モデル学習方法。 An output target model that uses a plurality of prediction models respectively set for each group of the samples grouped into a plurality of groups in the training data in which samples that are pairs of objective variables and explanatory variable vectors are collected is a machine When learning, the computer uses the estimated parameters of the prediction model to determine the usage ratio of each prediction model that constitutes the output target model with respect to the missing pattern indicating the missing state of the component in the explanatory variable vector. Calculate
Utilizing the usage rate of each prediction model for the missing pattern, the computer estimates the parameters of each prediction model,
A prediction model in which the computer alternately repeats the process of estimating the parameters of each prediction model and the process of calculating the usage rate of each prediction model with respect to the missing pattern using the estimated parameters of each prediction model Learning method.
前記欠損パターンに対する前記各予測モデルの使用割合を利用して、前記各予測モデルのパラメータを推定する処理と
をコンピュータに実行させる処理手順が示され、
さらに、前記各予測モデルのパラメータを推定する処理と、その推定された前記各予測モデルのパラメータを利用して前記欠損パターンに対する前記各予測モデルの使用割合を計算する処理とを交互に繰り返す処理をコンピュータに実行させる処理手順が示されているコンピュータプログラム。 An output target model that uses a plurality of prediction models respectively set for each group of the samples grouped into a plurality of groups in the training data in which samples that are pairs of objective variables and explanatory variable vectors are collected is a machine When learning, the usage rate of each prediction model constituting the output target model with respect to the missing pattern indicating the missing state of the component in the explanatory variable vector is calculated using the estimated parameter of the prediction model. Processing,
A processing procedure for causing a computer to execute a process of estimating a parameter of each prediction model using a use ratio of each prediction model with respect to the missing pattern is shown.
Furthermore, a process of alternately repeating the process of estimating the parameters of each prediction model and the process of calculating the usage ratio of each prediction model with respect to the missing pattern using the estimated parameters of each prediction model A computer program showing the processing procedure to be executed by a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013191271A JP6201556B2 (en) | 2013-09-17 | 2013-09-17 | Prediction model learning device, prediction model learning method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013191271A JP6201556B2 (en) | 2013-09-17 | 2013-09-17 | Prediction model learning device, prediction model learning method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015060237A true JP2015060237A (en) | 2015-03-30 |
JP6201556B2 JP6201556B2 (en) | 2017-09-27 |
Family
ID=52817755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013191271A Active JP6201556B2 (en) | 2013-09-17 | 2013-09-17 | Prediction model learning device, prediction model learning method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6201556B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109739750A (en) * | 2018-12-17 | 2019-05-10 | 北京三快在线科技有限公司 | The determination method and apparatus of the quality prediction model of R&D team |
CN111445172A (en) * | 2019-01-16 | 2020-07-24 | 顺丰科技有限公司 | Method and system for generating warehouse collection list |
US11334813B2 (en) | 2016-06-22 | 2022-05-17 | Fujitsu Limited | Method and apparatus for managing machine learning process |
US11562275B2 (en) | 2019-03-20 | 2023-01-24 | Fujitsu Limited | Data complementing method, data complementing apparatus, and non-transitory computer-readable storage medium for storing data complementing program |
CN116467911A (en) * | 2023-04-13 | 2023-07-21 | 深圳职业技术学院 | Multi-working-condition information fusion-based evaporation process outlet solution concentration estimation method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007079971A (en) * | 2005-09-14 | 2007-03-29 | Fujitsu Ltd | Production data analysis method and production data analysis device |
JP2011118755A (en) * | 2009-12-04 | 2011-06-16 | Sony Corp | Learning device, learning method, and program |
WO2013125482A1 (en) * | 2012-02-24 | 2013-08-29 | 日本電気株式会社 | Document evaluation device, document evaluation method, and computer-readable recording medium |
-
2013
- 2013-09-17 JP JP2013191271A patent/JP6201556B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007079971A (en) * | 2005-09-14 | 2007-03-29 | Fujitsu Ltd | Production data analysis method and production data analysis device |
JP2011118755A (en) * | 2009-12-04 | 2011-06-16 | Sony Corp | Learning device, learning method, and program |
WO2013125482A1 (en) * | 2012-02-24 | 2013-08-29 | 日本電気株式会社 | Document evaluation device, document evaluation method, and computer-readable recording medium |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11334813B2 (en) | 2016-06-22 | 2022-05-17 | Fujitsu Limited | Method and apparatus for managing machine learning process |
CN109739750A (en) * | 2018-12-17 | 2019-05-10 | 北京三快在线科技有限公司 | The determination method and apparatus of the quality prediction model of R&D team |
CN111445172A (en) * | 2019-01-16 | 2020-07-24 | 顺丰科技有限公司 | Method and system for generating warehouse collection list |
CN111445172B (en) * | 2019-01-16 | 2023-07-28 | 顺丰科技有限公司 | Warehouse collection list generation method and system |
US11562275B2 (en) | 2019-03-20 | 2023-01-24 | Fujitsu Limited | Data complementing method, data complementing apparatus, and non-transitory computer-readable storage medium for storing data complementing program |
CN116467911A (en) * | 2023-04-13 | 2023-07-21 | 深圳职业技术学院 | Multi-working-condition information fusion-based evaporation process outlet solution concentration estimation method |
CN116467911B (en) * | 2023-04-13 | 2023-12-15 | 深圳职业技术学院 | Multi-working-condition information fusion-based evaporation process outlet solution concentration estimation method |
Also Published As
Publication number | Publication date |
---|---|
JP6201556B2 (en) | 2017-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6299759B2 (en) | Prediction function creation device, prediction function creation method, and program | |
JP6697159B2 (en) | Machine learning management program, machine learning management device, and machine learning management method | |
US10318874B1 (en) | Selecting forecasting models for time series using state space representations | |
Elloumi et al. | A hybrid rank-based evolutionary algorithm applied to multi-mode resource-constrained project scheduling problem | |
JP6201556B2 (en) | Prediction model learning device, prediction model learning method, and computer program | |
WO2013125482A1 (en) | Document evaluation device, document evaluation method, and computer-readable recording medium | |
CN111724867A (en) | Molecular property measurement method, molecular property measurement device, electronic apparatus, and storage medium | |
JP6707716B2 (en) | Abnormality information estimation device, abnormality information estimation method and program | |
JP7095599B2 (en) | Dictionary learning device, dictionary learning method, data recognition method and computer program | |
Zheng et al. | A self-adaptive temporal-spatial self-training algorithm for semisupervised fault diagnosis of industrial processes | |
JP2020187417A (en) | Physical property prediction device and physical property prediction method | |
JP7481902B2 (en) | Management computer, management program, and management method | |
Yang et al. | A pattern fusion model for multi-step-ahead CPU load prediction | |
JP2020194320A (en) | Information processing device, prediction discrimination system, and prediction discrimination method | |
JP5803469B2 (en) | Prediction method and prediction program | |
US20210319269A1 (en) | Apparatus for determining a classifier for identifying objects in an image, an apparatus for identifying objects in an image and corresponding methods | |
KR102070913B1 (en) | Method and apparatus for processing wafer data | |
WO2013179578A1 (en) | Parallel-allocation optimization device, parallel-allocation optimization method, and computer-readable recording medium | |
JP6029119B2 (en) | Method for obtaining the condition for dividing the category of important performance indicators, and computer and computer program therefor | |
JP4230890B2 (en) | Model identification device, model identification program, and method of operating model identification device | |
JP6317280B2 (en) | Same form file selection device, same form file selection method, and same form file selection program | |
Dzemyda et al. | Data science: new issues, challenges and applications | |
JPWO2020090076A1 (en) | Answer integration device, answer integration method and answer integration program | |
JP6217164B2 (en) | Data management device and data analysis device | |
JP7224263B2 (en) | MODEL GENERATION METHOD, MODEL GENERATION DEVICE AND PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160816 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170814 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6201556 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |