JP6708295B2 - Feature selection system, feature selection method, and feature selection program - Google Patents
Feature selection system, feature selection method, and feature selection program Download PDFInfo
- Publication number
- JP6708295B2 JP6708295B2 JP2019500917A JP2019500917A JP6708295B2 JP 6708295 B2 JP6708295 B2 JP 6708295B2 JP 2019500917 A JP2019500917 A JP 2019500917A JP 2019500917 A JP2019500917 A JP 2019500917A JP 6708295 B2 JP6708295 B2 JP 6708295B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- features
- variable
- feature set
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Development Economics (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、予測に用いる特徴を選択する特徴選択システム、特徴選択方法および特徴選択プログラムに関する。 The present invention relates to a feature selection system, a feature selection method, and a feature selection program for selecting features used for prediction.
予測モデルや判別モデルを構築する際、複数の特徴の中から意味のある特徴を選択する特徴選択(Feature selection )処理が一般に行われる。特徴選択を行うことで、観測データのうち、どの特徴が重要であり、それらがどのように関係しているかを表すことが可能になる。 When constructing a prediction model or a discriminant model, a feature selection process for selecting a meaningful feature from a plurality of features is generally performed. By performing feature selection, it becomes possible to represent which features of the observation data are important and how they are related.
例えば、特許文献1には、マルウェア判定に用いられる特徴を選択する特徴選択装置が記載されている。特許文献1に記載された特徴選択装置は、マルウェアの実行ファイル中に含まれる可読文字列をあらかじめ機械学習し、マルウェアでよく用いられる語を抽出する。また、特許文献1に記載された特徴選択装置は、特徴の候補群のうち、検証用データにおいて組で出現する特徴群についてはいずれかの特徴で代表させ、代表以外の特徴(冗長特徴)を削除する。
For example,
対象の予測ができれば、その予測に基づいて将来の最適化戦略を検討することが可能である。例えば、予測モデルが生成される場合、この予測モデルに基づく最適化をすることができる。予測モデルに基づく最適化とは、予測モデルで表される目的関数の値を最大にするように、その予測モデルに含まれる特徴を最適化することであると言える。このような最適化の例として、売上数の予測モデルを用いて価格を最適化することが挙げられる。 Once the target can be predicted, future optimization strategies can be considered based on that prediction. For example, when a prediction model is generated, optimization based on this prediction model can be performed. It can be said that the optimization based on the prediction model is to optimize the features included in the prediction model so as to maximize the value of the objective function represented by the prediction model. An example of such optimization is optimizing the price using a sales number prediction model.
過去のデータに基づく一般的な学習方法を用いることで、上述する予測モデルを構築することが可能である。その際、一般的な学習方法では、特許文献1にも記載されているように、冗長な特徴は予測モデルから除外され、選択されないことが一般的である。冗長な特徴を除外することで、予測精度に大きな悪影響を与えることなく、次元の呪いの効果を緩和したり、学習を高速化させたり、モデルの可読性を向上させたりできる。また、冗長な特徴を除外することは、過学習を防ぐ観点からも有益である。
It is possible to construct the above-mentioned prediction model by using a general learning method based on past data. At that time, in a general learning method, as described in
ここで、予測対象の最適化に用いられる一の特徴が、予測対象の予測に用いられる他の特徴の影響を受けている場合も存在する。言い換えると、一の特徴と他の特徴との間に因果関係が存在する場合も存在する。このような因果関係を考慮せずに特徴を選択した場合、予測精度には問題が生じなくとも、最適化において問題が生じる場合がある。以下、具体例を用いて、問題が生じる状況を説明する。 Here, there is a case where one feature used for optimization of the prediction target is influenced by another feature used for prediction of the prediction target. In other words, there may be a causal relationship between one feature and another feature. When a feature is selected without considering such a causal relationship, a problem may occur in optimization even if the prediction accuracy does not occur. Hereinafter, a situation where a problem occurs will be described using a specific example.
ここでは、傘の価格の最適化問題を考える。xが傘の価格、yが傘の売上数、zが天気を表す変数とし、売上数yを予測するとする。ここでx、zは、傘の売上数に影響を与えそうな特徴の一つである。過去のデータでは、雨の場合には傘の売上数が多いため、それを見越して店主が傘の価格を高く設定しており、逆に晴れの場合には傘の売上数が少ないため、それを見越して店主が傘の価格を低く設定しているとする。 Here we consider the problem of optimizing the price of an umbrella. It is assumed that x is the price of the umbrella, y is the number of sales of the umbrella, and z is a variable representing the weather, and the number of sales y is predicted. Here, x and z are one of the characteristics that are likely to affect the number of umbrella sales. In the past data, the number of umbrellas sold is high in the case of rain, so the store owners set the price of the umbrella high in anticipation of this, and on the contrary, when it is sunny, the number of umbrellas sold is low, In anticipation, the store owner sets the price of the umbrella low.
この状況を上記変数を用いて表すと、雨の日は、(x,y,z)=(“高い”,“多い”,“雨”)となり、晴れ日は、(x,y,z)=(“低い”,“少ない”,“晴”)となる。このとき、xとzとを用いてyが予測される。一方、xとzには強い相関があるため、このような状況でyを予測する場合、xだけでyを説明するのは十分なため(すなわち、x=高い、の場合、z=雨が常に成り立つため)、特徴選択処理によりzは冗長な特徴であるとみなされる。すなわち、zは特徴選択処理により除外される。したがって、予測において、p(y=多い|x=高い)=1という確率が成り立つ。 When this situation is expressed using the above variables, a rainy day is (x, y, z)=(“high”, “more”, “rain”), and a sunny day is (x, y, z). = (“Low”, “low”, “fine”). At this time, y is predicted using x and z. On the other hand, since there is a strong correlation between x and z, when predicting y in such a situation, it is sufficient to explain y only by x (that is, when x=high, z=rain Z is considered to be a redundant feature by the feature selection process. That is, z is excluded by the feature selection process. Therefore, in the prediction, the probability that p (y=high|x=high)=1 holds.
特徴であるzが選択されていないため、上記確率の式からは、xを高くすればyは多くなると言えるため、yを高くするための最適化の結果が「常に傘を高い値段で売る」と判断され得る。この結果は、晴れの日にも、傘を高い値段で売ったほうが売上数が増える、ということを意味しており、明らかに直感に反する。これは、最適化による介入をした結果と予測との違いであり、上記の例では、価格が高い時に自然に売れる量と、自ら価格を高くしたときに売れる量とは異なる。すなわち、介入を行って得られた値をdo(変数)と表すと、以下に示す式1の関係が成り立つ。
Since z, which is a feature, is not selected, it can be said from the above probability equation that y increases as x increases. Therefore, the optimization result for increasing y is “always sell umbrellas at a high price”. Can be judged. This result is counterintuitive, which means that even on sunny days, selling umbrellas at higher prices will increase the number of sales. This is the difference between the result of intervention by optimization and the prediction, and in the above example, the amount that can be sold naturally when the price is high and the amount that can be sold when the price itself is increased are different. That is, when the value obtained by performing the intervention is represented as do (variable), the relationship of the following
p(y=多い|x=高い)≠p(y=多い|do(x=高い)) (式1) p(y=many|x=high)≠p(y=many|do(x=high)) (Equation 1)
式1に例示する予測式p(y=多い|x=高い)は、過去データにおいて高い精度を有する。ただし、「晴れの日に傘を高い値段で売った」という実績データがないということに注意する必要がある。この場合、最適化器は、(x=高い、z=晴れ)という戦略の組み合わせが過去データに存在しないにもかかわらず、高い予測精度を元に最適化を行っていることになる。これは、特徴量選択によって、リスクの高い戦略であるという情報が入力されず、最適化器が適切に判断できない、という現象ととらえることができる。式1に示すような状況を考慮せず最適化を行ってしまうと、最適化の戦略として危ういものを選択してしまう可能性がある。すなわち、予測の場面においては、観測されない状況における予測精度は保証されない一方、最適化の場面においては、過去に観測されない状況も考慮される。
The prediction formula p (y=many|x=high) illustrated in Formula 1 has high accuracy in past data. However, it should be noted that there is no actual data that "sold an umbrella at a high price on a sunny day". In this case, the optimizer is performing optimization based on high prediction accuracy even though there is no combination of strategies (x=high, z=clear) in the past data. This can be understood as a phenomenon in which the information that the strategy is high-risk is not input by the feature amount selection, and the optimizer cannot appropriately judge. If optimization is performed without considering the situation shown in
予測の観点から適切な特徴選択、すなわち予測の観点から冗長な特徴を除外するような特徴選択を行い、選択された特徴のみを用いて学習された予測モデルがあるとする。この予測モデルは予測の目的に用いられる限り、良いパフォーマンスを発揮すると思われる。しかし、この予測モデルを最適化の目的に用いた場合、危うい戦略を選択しまう結果、適切な最適化ができない場合も存在する。予測の目的にのみ用いられる予測モデルを学習するために必要な特徴の集合と、予測に基づく最適化に用いられる予測モデルを学習するために必要な特徴の集合とは、必ずしも一致しない、ということを、本発明者は見出した。予測モデルに基づく最適化を行う際には、予測の目的では冗長である特徴であっても、適切な最適化に必要な特徴については漏れなく選択できることが好ましい。 It is assumed that there is a prediction model that is trained using only the selected features by performing appropriate feature selection from the perspective of prediction, that is, feature selection that excludes redundant features from the perspective of prediction. This predictive model appears to perform well as long as it is used for predictive purposes. However, when this predictive model is used for the purpose of optimization, there is a case where an appropriate optimization cannot be performed as a result of selecting a dangerous strategy. The set of features needed to learn a prediction model used only for prediction purposes and the set of features needed to learn a prediction model used for prediction-based optimization do not necessarily match. The present inventor has found out that When performing optimization based on a prediction model, it is preferable that features that are redundant for the purpose of prediction can be selected without omission for features that are necessary for proper optimization.
そこで、本発明では、予測モデルの学習に用いられる特徴を選択する際、その予測モデルを用いて行われる適切な最適化に必要な特徴を知ることができる特徴選択システム、特徴選択方法および特徴選択プログラムを提供することを目的とする。 Therefore, in the present invention, when selecting a feature used for learning a prediction model, a feature selection system, a feature selection method, and a feature selection that can know the feature required for appropriate optimization performed using the prediction model The purpose is to provide the program.
本発明による特徴選択システムは、予測モデルを用いて表される目的関数を制約条件の下で最適化するための操作変数を算出する場合におけるその予測モデルの学習に用いられる特徴を選択する特徴選択システムであって、予測対象の指定と、操作変数の指定とを受け付ける受付部と、予測対象に影響し得る特徴の集合から、その予測対象に影響する特徴の集合である第1特徴集合と、操作変数に影響する特徴の集合である第2特徴集合とを選択する特徴選択部と、第1特徴集合と第2特徴集合とを出力する出力部とを備え、特徴選択部が、操作変数として指定された特徴を第1特徴集合に含めるように選択することを特徴とする。 A feature selection system according to the present invention is a feature selection that selects a feature used for learning of a prediction model when calculating an operation variable for optimizing an objective function represented by using the prediction model under a constraint condition. In the system, a reception unit that receives designation of a prediction target and designation of an operation variable, a first feature set that is a set of features that affect the prediction target from a set of features that can affect the prediction target, a feature selecting unit for selecting a second feature set and a set of features that affect the operation variable, a first feature set and an output unit for outputting a second feature set, the feature selection unit, as the manipulated variable The selected feature is selected to be included in the first feature set .
本発明による特徴選択方法は、予測モデルを用いて表される目的関数を制約条件の下で最適化するための操作変数を算出する場合におけるその予測モデルの学習に用いられる特徴を選択する特徴選択方法であって、予測対象の指定と、操作変数の指定とを受け付け、予測対象に影響し得る特徴の集合から、その予測対象に影響する特徴の集合である第1特徴集合と、操作変数に影響する特徴の集合である第2特徴集合とを選択し、その選択の際、操作変数として指定された特徴を第1特徴集合に含めるように選択し、第1特徴集合と第2特徴集合とを出力することを特徴とする。 The feature selection method according to the present invention is a feature selection for selecting a feature used for learning of a prediction model when calculating an operation variable for optimizing an objective function represented by using the prediction model under a constraint condition. A method of accepting designation of a prediction target and designation of an operation variable, and selecting a first feature set, which is a set of features affecting the prediction target, and an operation variable from a set of features that may affect the prediction target. A second feature set, which is a set of influential features, is selected, and at the time of selection, a feature specified as an operation variable is selected to be included in the first feature set, and the first feature set and the second feature set are selected. Is output.
本発明による特徴選択プログラムは、予測モデルを用いて表される目的関数を制約条件の下で最適化するための操作変数を算出する場合におけるその予測モデルの学習に用いられる特徴を選択するコンピュータに適用される特徴選択プログラムであって、コンピュータに、予測対象の指定と、操作変数の指定とを受け付ける受付処理、予測対象に影響し得る特徴の集合から、その予測対象に影響する特徴の集合である第1特徴集合と、操作変数に影響する特徴の集合である第2特徴集合とを選択する特徴選択処理、および、第1特徴集合と第2特徴集合とを出力する出力処理を実行させ、特徴選択処理で、操作変数として指定された特徴を第1特徴集合に含めるように選択させることを特徴とする。 A feature selection program according to the present invention is a computer that selects a feature used for learning a prediction model when calculating an operation variable for optimizing an objective function represented by using the prediction model under a constraint condition. A feature selection program to be applied, which is a reception process for receiving specification of a prediction target and specification of an operation variable in a computer, and a set of features that affect the prediction target from a set of features that may affect the prediction target. A feature selection process of selecting a certain first feature set and a second feature set that is a set of features that affect the manipulated variables, and an output process of outputting the first feature set and the second feature set , In the feature selection process, the feature specified as the manipulated variable is selected to be included in the first feature set .
本発明によれば、予測モデルの学習に用いられる特徴を選択する際、その予測モデルを用いて行われる適切な最適化に必要な特徴を知ることができる。 According to the present invention, when a feature used for learning a prediction model is selected, it is possible to know the feature required for appropriate optimization performed using the prediction model.
まず初めに、本願発明について用いられる用語を説明する。本実施形態で特徴(Feature)とは、属性名の意味で用いられる。また、その属性が示す具体的な値のことを、属性の値と記す。属性の例は価格であり、この場合の属性の値の例は、500円である。なお、以下の説明で、「特徴」と記載した場合、その役割は限定されず、属性名の意味の他、後述する説明変数、予測対象、または、操作変数を意味することもある。 First, terms used in the present invention will be described. In the present embodiment, “feature” is used to mean an attribute name. A specific value indicated by the attribute will be referred to as an attribute value. An example of the attribute is price, and an example of the value of the attribute in this case is 500 yen. In the following description, when "feature" is described, its role is not limited and may mean an explanatory variable, a prediction target, or an operation variable described later, in addition to the meaning of the attribute name.
説明変数とは、予測対象に影響を与え得る変数を意味する。上述する傘の価格の最適化問題の例では、「午前に雨であるか否か」、「午後に雨であるか否か」、などの他、「月末であるか否か」などが説明変数に該当する。本実施形態では、特徴選択を行う際の入力として、説明変数の候補が入力される。すなわち、特徴選択では、説明変数の候補の中から予測対象に影響を与え得る説明変数が特徴として選択され、結果として出力される。言い換えると、特徴選択において選択された説明変数は、説明変数の候補の部分集合である。 The explanatory variable means a variable that can influence the prediction target. In the example of the umbrella price optimization problem described above, "whether it rains in the morning", "whether it rains in the afternoon", etc., and "whether it is the end of the month", etc. are explained. It corresponds to a variable. In this embodiment, a candidate for an explanatory variable is input as an input when performing feature selection. That is, in the feature selection, an explanatory variable that can influence the prediction target is selected as a feature from the explanatory variable candidates, and is output as a result. In other words, the explanatory variable selected in the feature selection is a subset of candidate explanatory variables.
予測対象は、機械学習の分野では、「目的変数」とも呼ばれる。なお、後述する最適化処理で一般的に用いられる「目的変数」との混同を避けるため、以下の説明では、予測対象を表す変数を被説明変数と記す。したがって、予測モデルは、被説明変数を1つ以上の説明変数を用いて表したモデルということができる。なお、本実施形態では、学習処理の結果得られるモデルのことを学習済モデルと記すこともある。本実施形態において、予測モデルは、学習済モデルの具体的態様である。 The prediction target is also called an “objective variable” in the field of machine learning. In addition, in order to avoid confusion with an “objective variable” generally used in an optimization process described later, a variable representing a prediction target is described as an explained variable in the following description. Therefore, it can be said that the prediction model is a model in which the explained variable is represented by using one or more explanatory variables. In the present embodiment, a model obtained as a result of the learning process may be referred to as a learned model. In the present embodiment, the prediction model is a specific aspect of the learned model.
操作変数とは、オペレーションの際に何らかの(例えば、人の)介入が入る変数を意味する。具体的には、最適化処理において最適化の対象になる変数のことを意味する。なお、操作変数は、最適化処理では一般に「目的変数」と呼ばれる変数であるが、上述するように、機械学習で用いられる目的変数との混同を避けるため、「目的変数」との用語を用いずに本願発明を説明する。上述する傘の価格の最適化問題の例では、「傘の価格」が操作変数に該当する。 The manipulated variable means a variable into which some (for example, human) intervention occurs during operation. Specifically, it means a variable to be optimized in the optimization process. Note that the manipulated variable is a variable that is generally called an "objective variable" in the optimization process, but as described above, the term "objective variable" is used to avoid confusion with the objective variable used in machine learning. Instead, the present invention will be described. In the example of the umbrella price optimization problem described above, "umbrella price" corresponds to the manipulated variable.
なお、操作変数は説明変数の一部である。以下の説明では、説明変数と操作変数とを区別する必要がない場合、単に説明変数と記載し、説明変数と操作変数とを区別する場合、説明変数は、操作変数以外の変数を意味する。また、説明変数と操作変数とを区別する場合、操作変数以外の説明変数を外部変数 と表現することもある。 The manipulated variable is a part of the explanatory variable. In the following description, when it is not necessary to distinguish between explanatory variables and manipulated variables, they are simply described as explanatory variables, and when distinguished between explanatory variables and manipulated variables, explanatory variables mean variables other than manipulated variables. When distinguishing between explanatory variables and manipulated variables, explanatory variables other than manipulated variables may be expressed as external variables.
目的関数は、最適化処理において、与えられた制約条件の下、操作変数を最適化することにより最大または最小の値を求める対象の関数を意味する。上述する傘の価格の最適化問題の例では、売上高(売上数×価格)を算出する関数が目的関数に該当する。 The objective function means a target function for obtaining a maximum or minimum value by optimizing an operation variable under given constraints in the optimization processing. In the example of the umbrella price optimization problem described above, the function that calculates the sales amount (number of sales x price) corresponds to the objective function.
以下、本発明の実施形態を図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明による価格最適化システムの一実施形態を示すブロック図である。本実施形態の価格最適化システム100は、予測に基づく最適化を行うシステムであり、受付部10と、特徴選択部20と、学習部30と、最適化部40と、出力部50とを備えている。なお、本実施形態の価格最適化システム100は、具体的態様として特徴選択を行うことから、価格最適化システム100のことを特徴選択システムということができる。
FIG. 1 is a block diagram showing an embodiment of a price optimization system according to the present invention. The
すなわち、本実施形態の価格最適化システムは、予測対象の予測に用いられる予測モデルを学習するシステムであり、また、その予測モデルを用いて表される目的関数を制約条件の下で最適化するための操作変数を算出するシステムである。ここで、予測モデルを用いて表される目的関数は、予測モデルを用いて予測される予測値を引数として定義される目的関数、および、予測モデルのパラメータを引数として定義される目的関数のいずれをも意味する。 That is, the price optimization system of the present embodiment is a system for learning a prediction model used for prediction of a prediction target, and optimizes an objective function represented by using the prediction model under constraint conditions. This is a system for calculating manipulated variables for. Here, the objective function represented by using the prediction model is either an objective function defined by using a prediction value predicted by using the prediction model as an argument, or an objective function defined by using a parameter of the prediction model as an argument. Also means.
受付部10は、予測対象(言い換えると、被説明変数)と、その予測対象に影響し得る特徴の集合(言い換えると、説明変数の候補)と、最適化の対象(言い換えると、操作変数)とを受け付ける。具体的には、受付部10は、どの特徴が被説明変数yであるのかの指定と、どの特徴が操作変数xであるのかの指定とを受け付ける。また、受付部10は、説明変数zの候補を受け付ける。なお、価格最適化システム100が予め説明変数zの候補を保持している場合、受付部10は、被説明変数yである予測対象の指定と、操作変数xの指定の2種類を受け付けてもよい。
The
上述するように、操作変数xは説明変数zの一部であることから、受付部10は、説明変数zの候補と、その説明変数zの中に含まれる操作変数xの識別子を受け付けてもよい。上述する傘の価格の最適化問題の場合、被説明変数yが傘の売上数を表わし、操作変数xが傘の価格を表わし、説明変数zが天気を表わす。また。受付部10は、後続の処理で必要になる各種パラメータも受け付ける。
As described above, since the manipulated variable x is a part of the explanatory variable z, the
特徴選択部20は、予測モデルの学習に用いられる特徴を選択する。具体的には、特徴選択部20は、受付部10が受け付けた予測対象に影響し得る特徴の集合から、予測対象に影響する特徴の集合を選択する。以下、予測対象に影響する特徴の集合を第1特徴集合と記す。例えば、上述する傘の価格の最適化問題の場合、予測対象である傘(商品)の売上数に影響し得る特徴の集合から、売上数に影響する集合(第1特徴集合)として、価格が選ばれる。このとき、予測対象を説明するために互いに冗長であるような特徴が複数存在する場合、冗長な特徴のうちいくつかは第1特徴集合からは除外される。上述した例では、予測対象(売上数)を説明するための特徴として価格と天気とは互いに冗長な特徴とみなされ、価格と天気とのうち片方が第1特徴集合から除外される。上述した例では、天気が除外される。
The
さらに、本実施形態の特徴選択部20は、受付部10が受け付けた予測対象に影響し得る特徴の集合から、操作変数に影響する特徴の集合を選択する。以下、操作変数に影響する特徴の集合を第2特徴集合と記す。例えば、上述する傘の価格の最適化問題の場合、操作変数である価格に影響する集合(第2特徴集合)として、天気が選ばれる。このとき、操作変数を説明するために互いに冗長であるような特徴が複数ある場合、冗長な特徴のうちいくつかは第2特徴集合からは除外される。
Further, the
このように、特徴選択部20は、予測対象である商品の売上数に影響し得る特徴の集合から、予測対象(売上数)に影響する第1特徴集合と、操作変数(商品の価格)に影響する第2特徴集合とを選択する。ここで、第1特徴集合は、予測の目的のみに用いる予測モデルを学習する際に必要十分な特徴集合である。第1特徴集合には含まれず且つ第2特徴集合に含まれる特徴は、予測の目的のみに用いる予測モデルを学習する際には必ずしも必要な特徴ではないが、予測に基づく最適化に用いられる予測モデルを学習する際には必要となる特徴である。なお、特徴選択部20は、操作変数自体は除外しないものとする(すなわち、操作変数が、必ず第1特徴集合と第2特徴集合のいずれかに残るようにする)。
In this way, the
上記では、具体例を用いて特徴が選択される場合を例示したが、特徴選択部20は、一般に知られた特徴選択技術を用いて第1特徴集合および第2特徴集合を選択すればよい。特徴選択技術として、例えば、L1正則化が挙げられる。ただし、特徴選択部20が特徴を選択する方法はL1正則化に限られない。
Although the case where the features are selected using a specific example has been described above, the
特徴選択には、例えば、matching orthogonal pursuit等の貪欲法的による特徴量選択や、様々な情報量基準による選択も含まれる。なお、正則化法は、多くの特徴量を選ぶごとにペナルティを加える方法である。貪欲法は、有力な特徴量から決められた数の特徴量を選択する方法である。情報量基準は、多くの特徴量を選ぶことによって生じる汎化誤差に基づくペナルティを課す方法である。L1正則化を用いた特徴選択の具体的な方法については、後述される。 The feature selection includes, for example, greedy feature selection such as matching orthogonal purchase, and selection based on various information amount criteria. The regularization method is a method in which a penalty is added every time a large number of feature quantities are selected. The greedy method is a method of selecting a predetermined number of feature amounts from influential feature amounts. The information amount criterion is a method of imposing a penalty based on a generalization error generated by selecting many feature amounts. A specific method of feature selection using L1 regularization will be described later.
学習部30は、第1特徴集合に含まれる特徴および第2特徴集合に含まれる特徴を説明変数とし、予測対象の特徴を被説明変数とする予測モデルを学習する。価格の例の場合、学習部30は、第1特徴集合に含まれる特徴および第2特徴集合に含まれる特徴を説明変数とし、売上数を予測対象とする予測モデルを学習する。その際、学習部30は、第2特徴集合には含まれるが第1特徴集合には含まれない少なくとも一つの特徴を説明変数として用いて、予測モデルを学習する。なお、学習部30は、第1特徴集合に含まれる特徴および第2特徴集合に含まれる特徴の全ての特徴を説明変数とすることが好ましい。
The
一般的な特徴選択では、第2特徴集合に含まれる特徴が選択されないため、後述する最適化処理に影響するような特徴を含めた学習をすることは困難である。一方、本実施形態では、学習部30が第2特徴集合には含まれるが第1特徴集合には含まれない特徴を説明変数としてモデルを学習するため、後処理である最適化処理を考慮したモデルを生成できる。
In general feature selection, since features included in the second feature set are not selected, it is difficult to perform learning including features that affect optimization processing described later. On the other hand, in the present embodiment, since the
最適化部40は、学習部30によって生成された予測モデルを引数として定義される被説明変数の関数を最大化または最小化するように操作変数の値を最適化するする。売上の例の場合、最適化部40は、予測モデルを引数として定義される売上高が高くなるように、制約条件の下で商品の価格を最適化する。より具体的には、最適化部40は、予測モデルを用いて予測される売上数を引数として定義される売上高が高くなるように、制約条件の下で商品の価格を最適化する。
The
予測モデルを用いて最適化する際、最適化部40に予測誤差の分布を表す情報を入力し、それに基づく最適化を行うことができる。つまり、予測誤差が大きい戦略に対してペナルティを課すことで、リスクの高い戦略を避けるような最適化ができる。これは、予測誤差を用いない最適化と対比して、ロバスト最適化、確率最適化などと呼ばれる。例えば、予測モデルがy=a1x1+bで表される場合、予測誤差の分布は、a1およびbに関する分布である。予測誤差の分布とは、例えば、分散共分散行列である。ここで入力される予測誤差の分布は、予測モデルの内容、より具体的には、第2特徴集合には含まれるが第1特徴集合には含まれない特徴に依存する。When optimizing using the prediction model, it is possible to input information indicating the distribution of the prediction error to the optimizing
例えば、操作変数をx1、説明変数であって第1特徴集合に含まれる特徴をz1、説明変数であって第2特徴集合には含まれるが第1特徴集合には含まれない特徴をz2、被説明変数をyとする。第2特徴集合には含まれるが第1特徴集合には含まれない特徴(すなわち、z2)を考慮しないような一般的な特徴選択が行われる場合、例えば、以下の式2に示す予測モデルが生成される。For example, the manipulated variable is x 1 , a feature that is an explanatory variable and is included in the first feature set is z 1 , and a feature that is an explanatory variable that is included in the second feature set but is not included in the first feature set is Let z 2 be y and the explained variable be y. When general feature selection is performed that does not consider features (that is, z 2 ) that are included in the second feature set but not included in the first feature set, for example, the prediction model shown in
y=a1x1+a2z1+b (式2)y=a 1 x 1 +a 2 z 1 +b (Formula 2)
一方、本実施形態のように、z2を考慮した特徴選択が行われる場合、例えば、以下の式3に示す予測モデルが生成される。On the other hand, when the feature selection considering z 2 is performed as in the present embodiment, for example, the prediction model shown in the following
y=a1x1+a2z1+a3z2+b (式3)y=a 1 x 1 +a 2 z 1 +a 3 z 2 +b (Formula 3)
このように予測モデルの生成には必ずしも必要がない特徴(z2)であっても、予測モデルに含めるように特徴選択が行われているため、より適切な予測誤差の分布を最適化部40に入力できる。As described above, even if the feature (z 2 ) is not necessarily required to generate the prediction model, the features are selected so as to be included in the prediction model. Therefore, a more appropriate prediction error distribution is optimized by the
上述する傘の価格の最適化問題では、上記式2は、天気に関する特徴量zが選択されなかった場合に対応し、上記式3は、天気に関する特徴量zが選択された場合に対応する。上記式2は、予測誤差の分布は、価格が高いときも低いときも予測精度が高いことを示す。一方、上記式3は、雨で価格が高い場合の予測精度はよいが、晴れで価格が高い場合の予測精度は低い、という情報を表す予測誤差分布を含む。よって、式3に示すような状況を踏まえて最適化を行うことにより、特徴量選択が原因でリスクの高い戦略が選択されてしまうという状況を避けることができる。
In the problem of optimizing the price of the umbrella described above, the
最適化部40が最適化処理を行う方法は任意であり、一般的な最適化問題を解く方法を用いて操作変数(価格)を最適化すればよい。
The optimizing
出力部50は、最適化結果を出力する。例えば、売上高を高くするように価格最適化を行った場合、出力部50は、最適な価格と、その時の売上高を出力してもよい。
The
また、出力部50は、最適化結果だけでなく、特徴選択部20が選択した第1特徴集合と第2特徴集合を出力してもよい。このとき、出力部50は、第1特徴集合に含まれる特徴と、第2特徴集合には含まれるが第1特徴集合には含まれない特徴とを、区別し得る態様で出力してもよい。区別し得る態様で出力する方法の例として、第2特徴集合には含まれるが第1特徴集合には含まれない特徴の色を変える方法、強調表示する方法、大きさを変える方法、斜体で表示する方法などが挙げられる。また、出力部50の出力先は任意であり、例えば、価格最適化システム100が備えるディスプレイ装置などの表示装置(図示せず)であってもよい。
The
第1特徴集合は一般的な特徴選択処理で選択された特徴であり、第2特徴集合は後処理である最適化処理を考慮して選択された特徴であって一般的な特徴選択処理では現れない特徴である。このような特徴を区別して表示することで、最適化処理を実行する際に用いる適切な特徴をユーザが把握し、選択することが可能になる。その結果、ユーザは表示された情報を閲覧し、ドメイン知識を生かした特徴の調整も可能になる。 The first feature set is a feature selected by a general feature selection process, and the second feature set is a feature selected in consideration of an optimization process which is a post-process, and appears in a general feature selection process. There is no feature. By displaying such features separately, it becomes possible for the user to grasp and select the appropriate features used when executing the optimization processing. As a result, the user can browse the displayed information and adjust the characteristics by utilizing the domain knowledge.
受付部10と、特徴選択部20と、学習部30と、最適化部40と、出力部50とは、プログラム(価格最適化プログラム、特徴選択プログラム)に従って動作するコンピュータのCPUによって実現される。
The receiving
例えば、プログラムは、価格最適化システム100が備える記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、受付部10と、特徴選択部20と、学習部30と、最適化部40とおよび出力部50として動作してもよい。
For example, the program is stored in a storage unit (not shown) included in the
また、受付部10と、特徴選択部20と、学習部30と、最適化部40と、出力部50とは、それぞれが専用のハードウェアで実現されていてもよい。
Further, each of the
次に、本実施形態の価格最適化システム100の動作例を説明する。図2は、価格最適化システム100が価格最適化を行う場合の動作例を示すフローチャートである。
Next, an operation example of the
特徴選択部20は、商品の売上数に影響し得る特徴の集合(すなわち、説明変数zの候補)から、売上数(すなわち、被説明変数y)に影響する第1特徴集合を選択する(ステップS11)。さらに、特徴選択部20は、商品の売上数に影響し得る特徴の集合から、商品の価格(すなわち、操作変数x)に影響する第2特徴集合を選択する(ステップS12)。
The
学習部30は、第1特徴集合と第2特徴集合に含まれる特徴を説明変数とし、売上数を予測対象とする予測モデルを学習する。その際、学習部30は、第2特徴集合には含まれるが第1特徴集合に含まれない少なくとも1つの特徴を説明変数とする予測モデルを学習する(ステップS13)。
The
最適化部40は、予測モデルを引数として定義される売上高が高くなるように、制約条件の下で商品の価格を最適化する(ステップS14)。
The optimizing
また、図3は、価格最適化システム100が予測対象と操作変数の指定に応じて特徴を選択する処理の例を示すフローチャートである。
Further, FIG. 3 is a flowchart showing an example of a process in which the
受付部10は、予測対象(すなわち、被説明変数y)の指定と、操作変数(すなわち、操作変数x)の指定とを受け付ける(ステップS21)。特徴選択部20は、予測対象に影響し得る特徴の集合(すなわち、説明変数zの候補)から、その予測対象に影響する第1特徴集合と、操作変数に影響する第2特徴集合とを選択する(ステップS22)。特徴選択部20は、選択した第1特徴集合および第2特徴集合を学習部30に入力してもよい。
The
出力部50は、第1特徴集合と第2特徴集合とを出力する(ステップS23)。このとき、出力部50は、第1特徴集合に含まれる特徴と、第2特徴集合には含まれるが第1特徴集合には含まれない特徴とを、区別し得る態様にて出力してもよい。
The
以上のように、本実施形態では、特徴選択部20が、商品の売上数に影響し得る特徴の集合から、売上数に影響する第1特徴集合と、商品の価格に影響する第2特徴集合とを選択し、学習部30が、第1特徴集合と第2特徴集合に含まれる特徴を説明変数とし、売上数を予測対象とする予測モデルを学習し、最適化部40が、予測モデルを引数として定義される売上高が高くなるように、制約条件の下で商品の価格を最適化する。その際、学習部30は、第2特徴集合には含まれるが第1特徴集合に含まれない少なくとも1つの特徴を説明変数とする予測モデルを学習する。
As described above, in the present embodiment, the
よって、予測に基づいて価格を最適化する場合において、危うい戦略を回避できるように価格の最適化を行うための特徴を選択できる。 Therefore, when optimizing the price based on the prediction, it is possible to select a feature for optimizing the price so as to avoid a dangerous strategy.
また、本実施形態では、受付部10が予測対象の指定と、操作変数の指定とを受け付け、特徴選択部20が、予測対象に影響し得る特徴の集合から、その予測対象に影響する第1特徴集合と、操作変数に影響する第2特徴集合とを選択して、出力部50が出力する。
Further, in the present embodiment, the
よって、予測モデルの学習に用いられる特徴を選択する際、その予測モデルを用いて行われる適切な最適化に必要な特徴を知ることができる。 Therefore, when selecting the features used for learning the prediction model, it is possible to know the features required for appropriate optimization performed using the prediction model.
次に、本実施形態の価格最適化システム100が特徴を選択する処理を、L1正則化の具体例を用いて説明する。前述した通り、L1正則化は数ある特徴選択技術の一具体例に過ぎず、本発明に用いることができる特徴選択技術はL1正則化には限定されない。ここでは、雨の日の午後に傘が売れる、という例を考える。操作変数xが傘の価格を表わし、被説明変数yが傘の売上数を表わし、説明変数z1〜z3が、それぞれ「午前に雨であるか」、「午後に雨であるか」、「月末(15日以降)」であるか、を0−1変数で表すものとする。ここで、真の売上数yが、以下の式4として生成されているとする。Next, the process in which the
y=−7z1+14z2−x/50+15+ノイズ (式4)y=−7z 1 +14z 2 −x/50+15+noise (Equation 4)
式4では、午後に雨(すなわち、z2=1)である場合には売り上げが伸びるが、午前に雨が降っていると(例えば、顧客が午前にすでに傘を買っているため)、売上が落ちる、というモデルを想定している。また、説明変数z3は、説明変数の候補ではあるが、売上に関係しない変数であるといえる。なお、ノイズは、説明を簡略化するため、(0,1,2)の値をランダムにとるものとする。In
一方で、雨の日に傘が売れることを知っている店主は、以下に示す式5に基づいて傘の値段を設定しているものとする。
On the other hand, it is assumed that the shop owner who knows that the umbrella can be sold on a rainy day sets the price of the umbrella based on the following
x=−100z1+200z2+500 (式5) x = -100z 1 + 200z 2 +500 ( Equation 5)
図4は、データベースに記録された店舗の売上記録の例を示す説明図である。図4に示す例では、Idで識別される集計単位ごとに価格x、その集計時の午後の売上数y、および、その集計時の特徴の有無が記録されていることを示す。例えば、Id=1で識別される売上記録は、午前および午後のいずれも雨が降っていない月末に、価格を500円に設定した場合、午後の傘の売上数が6本であったことを示す。 FIG. 4 is an explanatory diagram showing an example of the sales record of the store recorded in the database. In the example shown in FIG. 4, the price x, the number of sales y in the afternoon at the time of aggregation, and the presence or absence of characteristics at the time of aggregation are recorded for each aggregation unit identified by Id. For example, the sales record identified by Id=1 indicates that when the price was set to 500 yen at the end of the month when neither morning nor afternoon was raining, there were 6 umbrellas sold in the afternoon. Show.
このようなデータに基づき、予測のための特徴選択が行われるとする。以下の説明では、特徴選択部20は、L1正則化(Lasso)を用いて、以下に示す式6を最小化する非ゼロのwiを選択することにより、特徴選択を行う。なお、式6において、Lassoのペナルティの係数を、後述する説明を簡易にするため、1/10としている。It is assumed that feature selection for prediction is performed based on such data. In the following description, the
十分なデータが得られているとの前提のもと、以下の式7または式8に示す関係を満たすwi(および、適切に選ばれたc)と、それらの線形結合(a×(式7に示すwi)+(1−a)×(式8に示すwi))とは、同様によくデータを説明し、式6における第一項が最小になる。しかし、式6における第二項のスパース性に対する制約から、式7に示すwiの組が得られる。これは、式7に示すwiの組では第二項から算出されるペナルティが1/200であるのに対し、式8に示すwiの組では第二項から算出されるペナルティが1.5になるためである。したがって、特徴としてxが選択される。Assuming that sufficient data are obtained, w i (and appropriately selected c) satisfying the relationship shown in the following Equation 7 or
w0=1/20,w1=w2=w3=0 (式7)
w0=0,w1=−5,w2=10,w3=0 (式8)w 0 =1/20, w 1 =w 2 =w 3 =0 (Equation 7)
w 0 =0, w 1 =−5, w 2 =10, w 3 =0 (Equation 8)
なお、本具体例では、理想的なw0が明らかに小さい場合を例示しているが、w0が大きい場合にも、特徴選択の設定においてw0を必ず選ぶと指定することにより、同様の現象を観測できる。この設定は、特に、後処理の最適化を想定した場合で、価格を示す特徴に残ってほしい、と想定した場合になされる。In this specific example, the case where the ideal w 0 is obviously small is illustrated. However, even when w 0 is large, the same is obtained by designating that w 0 is always selected in the feature selection setting. You can observe the phenomenon. This setting is made especially when the post-processing optimization is assumed and it is assumed that the price indicating feature should remain.
さらに、特徴選択部20は、式6に基づいて選択された特徴に加え、xを説明する特徴もさらに選択する。具体的には、特徴選択部20は、以下に示す式9を最小化する非ゼロのw´iを選択することにより、特徴選択を行う。Further, the
w´1=−100,w´2=−200のとき、式9における第一項が最小になる。例えば、5日に一度は午前および午後が独立に雨である、といったような雨の日の頻度が十分高い場合、第一項を最小化する効果は、第二項のペナルティに比べて十分大きくなる。結果して、w´1=−100,w´2=−200が解になるため、特徴としてz1およびz2が選択される。以上、本実施形態にかかる発明を、L1正則化を用いて実行した具体例について説明した。本発明に用いることができる特徴選択技術は、L1正則化には限定されず、他の特徴選択技術を用いることも可能である。When w′ 1 =−100 and w′ 2 =−200, the first term in
以上の特徴選択処理により、すなわち、予測対象を説明する特徴に加えて、操作変数を説明する特徴もさらに選択する特徴選択処理により、x,z1およびz2が特徴として選択される。言い換えると、最適化部40は、最適化に必要な特徴としてx,z1およびz2を認識できることから、最適化には天気を考慮すべきと判断できるため、例えば、「晴れの日に傘を高い値段で売る」という、危うい戦略を選択することを回避できる。By the above-described feature selection process, that is, by the feature selection process that further selects the feature that describes the manipulated variable in addition to the feature that describes the prediction target, x, z 1 and z 2 are selected as features. In other words, since the
ここで、上述する危うい戦略を選択することを回避できる理由を、より詳細に説明する。特徴x,z1およびz2が正しく選択されたとして、以下の式10で示す予測式を作成し、w0ハット、w1ハットおよびw2ハット(ハットは、上付き^)を推定により得ることを考える。Here, the reason why it is possible to avoid selecting the above-mentioned dangerous strategy will be described in more detail. Assuming that the features x, z 1 and z 2 are correctly selected, the prediction formula shown in the following
xベクトルおよびwハットベクトルを以下の式11で表すと、yハットは、以下の式12で表される。 When the x vector and the w hat vector are represented by the following equation 11, the y hat is represented by the following equation 12.
過去の戦略xは、上記式5に基づき、以下の式13のように生成されたとする。
It is assumed that the past strategy x is generated as in the following Expression 13 based on the
x=−100z1+200z2+500+ε2 (式13)x=−100z 1 +200z 2 +500+ε 2 (Equation 13)
なお、式10および式13において、ε1〜N(0,σ1 2)、ε2〜N(0,σ2 2)で、σ2 2はσ1 2およびデータ数nに比べて十分に小さいとする。なお、N(0,σ2)は、平均0、分散σ2の正規分布を表す。In the
ここで、ベクトルv1、v2、v3を規定する。まず、v1を以下の式14のように規定する。v1は、上記式13を満たす(x z1 z2)に対して、以下の式15を満たす。Here, the vectors v 1 , v 2 , and v 3 are defined. First, v 1 is defined as in Expression 14 below. v 1 satisfies the following
推定法として、最小二乗法が用いられるとする。このとき、真の係数w*T=(−1/50 −7 14 15)として、推定値は、近似的に以下の式16に示す確率分布に従う。ここでは、説明の簡略化のため、式17に示す近似式を想定する。It is assumed that the least squares method is used as the estimation method. At this time, assuming that the true coefficient w *T =(-1/50-71415), the estimated value approximately follows the probability distribution shown in Expression 16 below. Here, for simplification of description, the approximate expression shown in Expression 17 is assumed.
式17において、σ2´=0(σ2)であり、γ2,γ3,γ4は定数である。また、v2,v3,v4はv1も含めて互いに直交な規格化されたベクトルである。In Expression 17, σ 2 ′=0 (σ 2 ) and γ 2 , γ 3 and γ 4 are constants. Further, v 2 , v 3 , and v 4 are standardized vectors that are orthogonal to each other including v 1 .
最適化の際、z1,z2の実現値チルダz1,チルダz2(チルダは上付き〜)が得られたとする。このとき、以下の式18に示す楕円状の不確実性領域におけるロバスト最適化法を考える。During optimization,
式18において、推定値wベクトルハットと、その予測誤差の分散共分散行列Σが得られていると仮定する。Σもその推定値で置き換えられてもよい。また、λは、適切に選ばれた正のパラメータである。このとき、以下に示す式19が成り立つ。 In Equation 18, it is assumed that the estimated value w vector hat and the variance-covariance matrix Σ of its prediction error are obtained. Σ may also be replaced by the estimated value. Also, λ is a properly selected positive parameter. At this time, the following Expression 19 is established.
いま、1/σ2´がσ1/√nに比べ十分に大きいことから、上記式15を満たさない価格戦略xは、上記式18において、大きなペナルティをうける。よって、以下に示す式20を満たす価格が選ばれやすい。Now, since 1/σ 2 ′ is sufficiently larger than σ 1 /√n, the price strategy x that does not satisfy the
上記式20は、上記式13を満たすことと等価である。よって、上記具体例では、「晴れの日には低い価格をつける」ということに相当する。
以上の内容は、以下のように一般化される。真のパラメータθ*に対する戦略xの最適化問題を以下に示す式21で定義する。The above contents are generalized as follows. The optimization problem of the strategy x with respect to the true parameter θ * is defined by Equation 21 shown below.
式21において、Xはドメイン、vは関数である。ここで、θ*の代わりにその推定値θハットと誤差分布が得られた場合のロバスト最適化問題を考える。誤差に正規性を仮定すると、典型的には、誤差の分散共分散行列Σを用いて、以下の式22が定義される。なお、式22にとは異なる方法でロバスト最適化法を用いてもよい。式22では、第2項が、予測分散が大きい戦略に対するペナルティとして働く。In Expression 21, X is a domain and v is a function. Here, consider a robust optimization problem when the estimated value θ hat and the error distribution are obtained instead of θ * . If the error is assumed to be normal, the following equation 22 is typically defined using the error covariance matrix Σ. Note that the robust optimization method may be used by a method different from Expression 22. In Equation 22, the second term acts as a penalty for strategies with large prediction variances.
以上、危うい戦略を選択することを回避できる理由を説明した。また、本実施形態の説明から、以下のことも説明される。上記式1に示すように、p(y=多い|x=高い)とp(y=多い|do(x=高い))とは等しくない。一方で、介入を行って得られた値(do(x=高い))が用いられる場合であっても、予測対象yを説明できる特徴量だけでなく、操作変数xを説明できる特徴量を残せばよい。これは、以下の式23で表す内容を意味する。
So far, I explained why you can avoid choosing a dangerous strategy. The following will also be described from the description of the present embodiment. As shown in
p(y=多い|x=高い,z=雨)=p(y=多い|do(x=高い),z=雨)
(式23)p (y=many|x=high, z=rain)=p(y=many|do(x=high), z=rain)
(Equation 23)
次に、本発明の概要を説明する。図5は、本発明による特徴選択システムの概要を示すブロック図である。本発明による特徴選択システム90は、ユーザによる外部からのデータ(より具体的には、特徴の集合)の入力を受け付ける。図6は、図5に例示する特徴選択システムがユーザにより外部から受け付けるデータの具体例を示す説明図である。図6に例示するデータは、日ごとの傘の価格および傘の売上数、並びに、その日の状況(例えば、天気、最高気温、広告を出したか否か、祝日か否か、など)を示すデータである。
Next, the outline of the present invention will be described. FIG. 5 is a block diagram showing an outline of the feature selection system according to the present invention. The
本発明による特徴選択システム90は、予測モデルを用いて表される目的関数を制約条件の下で最適化するための操作変数(例えば、操作変数x)を算出する場合におけるその予測モデルの学習に用いられる特徴を選択する特徴選択システムであって、予測対象(例えば、被説明変数y)の指定と、操作変数の指定とを受け付ける受付部91(例えば、受付部10)と、予測対象に影響し得る特徴(例えば、説明変数zの候補)の集合から、その予測対象に影響する特徴の集合である第1特徴集合と、操作変数に影響する特徴の集合である第2特徴集合とを選択する特徴選択部92(例えば、特徴選択部20)と、第1特徴集合と第2特徴集合とを出力する出力部93(例えば、出力部50)とを備えている。
The
そのような構成により、予測モデルの学習に用いられる特徴を選択する際、その予測モデルを用いて行われる適切な最適化に必要な特徴を知ることができる With such a configuration, when a feature used for learning the prediction model is selected, it is possible to know the feature required for proper optimization performed using the prediction model.
例えば、傘の価格の最適化問題の場合、図6に示す例では、特徴選択システム90(より具体的には、受付部91)は、予測対象(被説明変数y)の指定に傘の売上数を受け付け、操作変数(操作変数x)の指定に傘の価格を受け付ける。また、特徴選択システム90(より具体的には、受付部91)は、予測対象に影響し得る特徴(説明変数zの候補)の集合の指定に、その日の状況(例えば、天気、最高気温、広告を出したか否か、祝日か否か、など)を受け付ける。なお、特徴選択システム90は、特徴の集合として、傘の価格およびその日の状況を受け付け、その特徴のうち、傘の価格が操作変数である旨の識別情報(それ以外は、説明変数zの候補である旨の情報)を併せて受け付けてもよい。
For example, in the case of the umbrella price optimization problem, in the example shown in FIG. 6, the feature selection system 90 (more specifically, the reception unit 91) specifies the umbrella sales to the prediction target (explained variable y). The number of the umbrellas is accepted, and the price of the umbrella is accepted to specify the manipulated variable (the manipulated variable x). Further, the feature selection system 90 (more specifically, the reception unit 91) designates a set of features (candidates for the explanatory variable z) that can influence the prediction target, by specifying the situation of the day (for example, weather, maximum temperature, Whether or not an advertisement has been placed, whether or not it is a holiday, etc.) are accepted. Note that the
また、特徴選択システム90は、第2特徴集合には含まれるが第1特徴集合に含まれない少なくとも1つの特徴を説明変数とする予測モデルを学習する学習部(例えば、学習部30)を備えていてもよい。
The
そして、学習部は、第1特徴集合に含まれる特徴および第2特徴集合に含まれる特徴の全てを説明変数とし、予測対象である特徴を被説明変数とするモデルを学習してもよい。そのような構成により、最適化処理の入力として用いられる予測モデルを、後処理である最適化処理をも考慮して適切に学習することができる。 Then, the learning unit may learn a model in which all the features included in the first feature set and the features included in the second feature set are used as explanatory variables, and the feature that is the prediction target is used as the explained variable. With such a configuration, the prediction model used as the input of the optimization process can be appropriately learned in consideration of the optimization process that is the post-process.
また、出力部93は、第1特徴集合に含まれる特徴と、第2特徴集合には含まれるが第1特徴集合には含まれない特徴とを、区別し得る態様にて表示装置に表示してもよい。そのような構成により、予測に特化した場合に選択される特徴と、後処理である最適化処理を考慮した場合にはじめて選択される特徴とを区別することができる。
The
また、特徴選択部92は、予測対象に影響し得る特徴の集合から、予測対象を被説明変数として特徴選択処理を行うことで第1特徴集合を取得し、予測対象に影響し得る特徴の集合から、操作変数を被説明変数として特徴選択処理を行うことで第2特徴集合を取得してもよい。そして、出力部93は、取得された第1特徴集合と第2特徴集合との和集合を出力してもよい。
Further, the
なお、特徴選択部92は、操作変数として指定された特徴を第1特徴集合に含めるように選択する。このように、操作変数として指定された特徴を必ず残すことにより、後処理である最適化処理が可能になる。
The
特徴選択システム90は、例えば予測に基づく最適化に用いられる予測モデルを学習するための特徴選択機能を備えた、パッケージソフトウェアやAPI(Application Program Interface )として実装されてもよい。このような特徴選択機能がSaaS(Software as a Service)形式で提供されても良い。
The
図7は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。コンピュータ1000は、CPU1001、主記憶装置1002、補助記憶装置1003、インタフェース1004を備える。
FIG. 7 is a schematic block diagram showing the configuration of a computer according to at least one embodiment. The
上述の情報処理システムは、コンピュータ1000に実装される。そして、上述した各処理部の動作は、プログラム(特徴選択プログラム)の形式で補助記憶装置1003に記憶されている。CPU1001は、プログラムを補助記憶装置1003から読み出して主記憶装置1002に展開し、当該プログラムに従って上記処理を実行する。
The information processing system described above is implemented in the
なお、少なくとも1つの実施形態において、補助記憶装置1003は、一時的でない有形の媒体の一例である。一時的でない有形の媒体の他の例としては、インタフェース1004を介して接続される磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等が挙げられる。また、このプログラムが通信回線によってコンピュータ1000に配信される場合、配信を受けたコンピュータ1000が当該プログラムを主記憶装置1002に展開し、上記処理を実行しても良い。
Note that in at least one embodiment, the
また、当該プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、当該プログラムは、前述した機能を補助記憶装置1003に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the program may be for realizing some of the functions described above. Further, the program may be a so-called difference file (difference program) that realizes the function described above in combination with another program already stored in the
本発明は、予測に用いる特徴を選択する特徴選択システムに好適に適用される。例えば、本発明をホテルの価格を最適化に用いられる特徴を選択するようなシステムにも好適に適用される。また、本発明は、例えば、データベースと結合され、予測に基づいて最適化した結果(最適解)を出力するシステムに好適に適用される。この場合、例えば、特徴量の選択処理とそれ踏まえた最適化処理とを一まとめに行うシステムとして提供されてもよい。 INDUSTRIAL APPLICABILITY The present invention is suitably applied to a feature selection system that selects features used for prediction. For example, the present invention is preferably applied to a system for selecting a feature used for optimizing a hotel price. Further, the present invention is preferably applied to, for example, a system that is connected to a database and outputs a result (optimal solution) optimized based on prediction. In this case, for example, it may be provided as a system for collectively performing the feature amount selection process and the optimization process based on the feature amount selection process.
10 受付部
20 特徴選択部
30 学習部
40 最適化部
50 出力部
100 価格最適化システム10
Claims (9)
予測対象の指定と、前記操作変数の指定とを受け付ける受付部と、
前記予測対象に影響し得る特徴の集合から、当該予測対象に影響する特徴の集合である第1特徴集合と、前記操作変数に影響する特徴の集合である第2特徴集合とを選択する特徴選択部と、
前記第1特徴集合と第2特徴集合とを出力する出力部とを備え、
前記特徴選択部は、前記操作変数として指定された特徴を前記第1特徴集合に含めるように選択する
ことを特徴とする特徴選択システム。 A feature selection system for selecting a feature used for learning of a prediction model when calculating an operation variable for optimizing an objective function represented using a prediction model under a constraint condition,
A receiving unit that receives the designation of the prediction target and the designation of the manipulated variable;
Feature selection for selecting, from a set of features that can affect the prediction target, a first feature set that is a set of features that affect the prediction target and a second feature set that is a set of features that affect the operation variable Department,
An output unit that outputs the first feature set and the second feature set ,
The feature selecting system, wherein the feature selecting unit selects a feature designated as the manipulated variable so as to be included in the first feature set .
請求項1記載の特徴選択システム。 The feature selection system according to claim 1, further comprising: a learning unit that learns a prediction model having at least one feature included in the second feature set but not included in the first feature set as an explanatory variable.
請求項2記載の特徴選択システム。 The feature selection according to claim 2, wherein the learning unit learns a model in which all the features included in the first feature set and the features included in the second feature set are used as explanatory variables, and the feature that is the prediction target is used as the explained variable. system.
請求項1から請求項3のうちのいずれか1項に記載の特徴選択システム。 The output unit displays on the display device a feature included in the first feature set and a feature included in the second feature set but not included in the first feature set in a distinguishable manner. To the feature selection system according to claim 3.
出力部は、取得された前記第1特徴集合と前記第2特徴集合との和集合を出力する
請求項1から請求項4のうちのいずれか1項に記載の特徴選択システム。 The feature selection unit obtains a first feature set from the set of features that may affect the prediction target by performing feature selection processing using the prediction target as the explained variable, and operates from the set of features that may affect the prediction target. A second feature set is obtained by performing feature selection processing using the variable as the explained variable,
The feature selection system according to any one of claims 1 to 4, wherein the output unit outputs a set of the acquired first feature set and the acquired second feature set.
予測対象の指定と、前記操作変数の指定とを受け付け、
前記予測対象に影響し得る特徴の集合から、当該予測対象に影響する特徴の集合である第1特徴集合と、前記操作変数に影響する特徴の集合である第2特徴集合とを選択し、
前記選択の際、前記操作変数として指定された特徴を前記第1特徴集合に含めるように選択し、
前記第1特徴集合と第2特徴集合とを出力する
ことを特徴とする特徴選択方法。 A feature selection method for selecting a feature used for learning of the prediction model when calculating an operation variable for optimizing an objective function represented by using the prediction model under a constraint condition,
Accept the prediction target specification and the operation variable specification,
From the set of features that can affect the prediction target, select a first feature set that is a set of features that affect the prediction target and a second feature set that is a set of features that affect the manipulated variable,
At the time of the selection, a feature specified as the manipulated variable is selected to be included in the first feature set,
A feature selection method comprising outputting the first feature set and the second feature set.
請求項6記載の特徴選択方法。 The feature selection method according to claim 6 , wherein a prediction model having at least one feature included in the second feature set but not included in the first feature set as an explanatory variable is learned.
前記コンピュータに、
予測対象の指定と、前記操作変数の指定とを受け付ける受付処理、
前記予測対象に影響し得る特徴の集合から、当該予測対象に影響する特徴の集合である第1特徴集合と、前記操作変数に影響する特徴の集合である第2特徴集合とを選択する特徴選択処理、および、
前記第1特徴集合と第2特徴集合とを出力する出力処理を実行させ、
前記特徴選択処理で、前記操作変数として指定された特徴を前記第1特徴集合に含めるように選択させる
ための特徴選択プログラム。 It is a feature selection program applied to a computer that selects features used for learning of a prediction model when calculating an operation variable for optimizing an objective function represented by the prediction model under constraint conditions. hand,
On the computer,
Acceptance process for accepting the designation of the prediction target and the designation of the manipulated variable,
Feature selection for selecting, from a set of features that can affect the prediction target, a first feature set that is a set of features that affect the prediction target and a second feature set that is a set of features that affect the operation variable Processing, and
Output processing for outputting the first feature set and the second feature set ,
A feature selection program for causing the feature selection process to select a feature specified as the manipulated variable to be included in the first feature set .
第2特徴集合には含まれるが第1特徴集合に含まれない少なくとも1つの特徴を説明変数とする予測モデルを学習する学習処理を実行させる
請求項8記載の特徴選択プログラム。 On the computer,
The feature selection program according to claim 8, which executes a learning process of learning a prediction model having at least one feature included in the second feature set but not included in the first feature set as an explanatory variable.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/006647 WO2018154663A1 (en) | 2017-02-22 | 2017-02-22 | Feature selection system, feature selection method, and feature selection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018154663A1 JPWO2018154663A1 (en) | 2019-06-27 |
JP6708295B2 true JP6708295B2 (en) | 2020-06-10 |
Family
ID=63253628
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019500917A Active JP6708295B2 (en) | 2017-02-22 | 2017-02-22 | Feature selection system, feature selection method, and feature selection program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6708295B2 (en) |
WO (1) | WO2018154663A1 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IN2014CH00257A (en) * | 2014-01-21 | 2015-07-31 | Yokogawa Electric Corp | |
EP3200038A4 (en) * | 2014-09-26 | 2018-06-13 | Nec Corporation | Model evaluation device, model evaluation method, and program recording medium |
-
2017
- 2017-02-22 JP JP2019500917A patent/JP6708295B2/en active Active
- 2017-02-22 WO PCT/JP2017/006647 patent/WO2018154663A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2018154663A1 (en) | 2018-08-30 |
JPWO2018154663A1 (en) | 2019-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20160364783A1 (en) | Systems and methods for vehicle purchase recommendations | |
US11537847B2 (en) | Time series forecasting to determine relative causal impact | |
US20180075360A1 (en) | Accuracy-estimating-model generating system and accuracy estimating system | |
Gallego et al. | Online learning | |
US20150363865A1 (en) | Systems and methods for vehicle purchase recommendations | |
JP6459968B2 (en) | Product recommendation device, product recommendation method, and program | |
JPWO2017094207A1 (en) | Information processing system, information processing method, and information processing program | |
JP6125627B2 (en) | Consumer decision tree generation system | |
US20190332957A1 (en) | Causality for machine learning systems | |
JPWO2016151618A1 (en) | Prediction model update system, prediction model update method, and prediction model update program | |
CN112365283B (en) | Coupon issuing method and device, terminal equipment and storage medium | |
KR102264540B1 (en) | System for selling goods using correlation analysis network and method therof | |
US20180240037A1 (en) | Training and estimation of selection behavior of target | |
WO2017056367A1 (en) | Information processing system, information processing method, and information processing program | |
JP6879357B2 (en) | Price optimization system, price optimization method and price optimization program | |
US20190385178A1 (en) | Prediction system and prediction method | |
WO2017056366A1 (en) | Optimization system, optimization method, and optimization program | |
JP2015114988A (en) | Processing device, processing method, and program | |
US20220351051A1 (en) | Analysis system, apparatus, control method, and program | |
JP6708295B2 (en) | Feature selection system, feature selection method, and feature selection program | |
US20220027760A1 (en) | Learning device and learning method | |
Crönert et al. | Inverse optimization of integer programming games for parameter estimation arising from competitive retail location selection | |
JP7464115B2 (en) | Learning device, learning method, and learning program | |
JP2015114987A (en) | Processing device, processing method, and program | |
JP6601888B1 (en) | Information processing apparatus, information processing method, and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200218 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200403 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200421 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200504 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6708295 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |