JP6708295B2 - Feature selection system, feature selection method, and feature selection program - Google Patents

Feature selection system, feature selection method, and feature selection program Download PDF

Info

Publication number
JP6708295B2
JP6708295B2 JP2019500917A JP2019500917A JP6708295B2 JP 6708295 B2 JP6708295 B2 JP 6708295B2 JP 2019500917 A JP2019500917 A JP 2019500917A JP 2019500917 A JP2019500917 A JP 2019500917A JP 6708295 B2 JP6708295 B2 JP 6708295B2
Authority
JP
Japan
Prior art keywords
feature
features
variable
feature set
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019500917A
Other languages
Japanese (ja)
Other versions
JPWO2018154663A1 (en
Inventor
顕大 矢部
顕大 矢部
遼平 藤巻
遼平 藤巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2018154663A1 publication Critical patent/JPWO2018154663A1/en
Application granted granted Critical
Publication of JP6708295B2 publication Critical patent/JP6708295B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、予測に用いる特徴を選択する特徴選択システム、特徴選択方法および特徴選択プログラムに関する。 The present invention relates to a feature selection system, a feature selection method, and a feature selection program for selecting features used for prediction.

予測モデルや判別モデルを構築する際、複数の特徴の中から意味のある特徴を選択する特徴選択(Feature selection )処理が一般に行われる。特徴選択を行うことで、観測データのうち、どの特徴が重要であり、それらがどのように関係しているかを表すことが可能になる。 When constructing a prediction model or a discriminant model, a feature selection process for selecting a meaningful feature from a plurality of features is generally performed. By performing feature selection, it becomes possible to represent which features of the observation data are important and how they are related.

例えば、特許文献1には、マルウェア判定に用いられる特徴を選択する特徴選択装置が記載されている。特許文献1に記載された特徴選択装置は、マルウェアの実行ファイル中に含まれる可読文字列をあらかじめ機械学習し、マルウェアでよく用いられる語を抽出する。また、特許文献1に記載された特徴選択装置は、特徴の候補群のうち、検証用データにおいて組で出現する特徴群についてはいずれかの特徴で代表させ、代表以外の特徴(冗長特徴)を削除する。 For example, Patent Literature 1 describes a feature selection device that selects a feature used for malware determination. The feature selection device described in Patent Document 1 performs machine learning in advance on a readable character string included in an executable file of malware to extract words often used in malware. Further, in the feature selection device described in Patent Document 1, of the feature candidate groups, a feature group appearing in a set in the verification data is represented by any feature, and a feature other than the representative (redundant feature) is represented. delete.

特開2016−31629号公報JP, 2016-31629, A

対象の予測ができれば、その予測に基づいて将来の最適化戦略を検討することが可能である。例えば、予測モデルが生成される場合、この予測モデルに基づく最適化をすることができる。予測モデルに基づく最適化とは、予測モデルで表される目的関数の値を最大にするように、その予測モデルに含まれる特徴を最適化することであると言える。このような最適化の例として、売上数の予測モデルを用いて価格を最適化することが挙げられる。 Once the target can be predicted, future optimization strategies can be considered based on that prediction. For example, when a prediction model is generated, optimization based on this prediction model can be performed. It can be said that the optimization based on the prediction model is to optimize the features included in the prediction model so as to maximize the value of the objective function represented by the prediction model. An example of such optimization is optimizing the price using a sales number prediction model.

過去のデータに基づく一般的な学習方法を用いることで、上述する予測モデルを構築することが可能である。その際、一般的な学習方法では、特許文献1にも記載されているように、冗長な特徴は予測モデルから除外され、選択されないことが一般的である。冗長な特徴を除外することで、予測精度に大きな悪影響を与えることなく、次元の呪いの効果を緩和したり、学習を高速化させたり、モデルの可読性を向上させたりできる。また、冗長な特徴を除外することは、過学習を防ぐ観点からも有益である。 It is possible to construct the above-mentioned prediction model by using a general learning method based on past data. At that time, in a general learning method, as described in Patent Document 1, redundant features are generally excluded from the prediction model and not selected. By eliminating redundant features, you can mitigate the effects of dimension curses, speed up learning, and improve model readability without significantly affecting prediction accuracy. Excluding redundant features is also useful from the viewpoint of preventing overlearning.

ここで、予測対象の最適化に用いられる一の特徴が、予測対象の予測に用いられる他の特徴の影響を受けている場合も存在する。言い換えると、一の特徴と他の特徴との間に因果関係が存在する場合も存在する。このような因果関係を考慮せずに特徴を選択した場合、予測精度には問題が生じなくとも、最適化において問題が生じる場合がある。以下、具体例を用いて、問題が生じる状況を説明する。 Here, there is a case where one feature used for optimization of the prediction target is influenced by another feature used for prediction of the prediction target. In other words, there may be a causal relationship between one feature and another feature. When a feature is selected without considering such a causal relationship, a problem may occur in optimization even if the prediction accuracy does not occur. Hereinafter, a situation where a problem occurs will be described using a specific example.

ここでは、傘の価格の最適化問題を考える。xが傘の価格、yが傘の売上数、zが天気を表す変数とし、売上数yを予測するとする。ここでx、zは、傘の売上数に影響を与えそうな特徴の一つである。過去のデータでは、雨の場合には傘の売上数が多いため、それを見越して店主が傘の価格を高く設定しており、逆に晴れの場合には傘の売上数が少ないため、それを見越して店主が傘の価格を低く設定しているとする。 Here we consider the problem of optimizing the price of an umbrella. It is assumed that x is the price of the umbrella, y is the number of sales of the umbrella, and z is a variable representing the weather, and the number of sales y is predicted. Here, x and z are one of the characteristics that are likely to affect the number of umbrella sales. In the past data, the number of umbrellas sold is high in the case of rain, so the store owners set the price of the umbrella high in anticipation of this, and on the contrary, when it is sunny, the number of umbrellas sold is low, In anticipation, the store owner sets the price of the umbrella low.

この状況を上記変数を用いて表すと、雨の日は、(x,y,z)=(“高い”,“多い”,“雨”)となり、晴れ日は、(x,y,z)=(“低い”,“少ない”,“晴”)となる。このとき、xとzとを用いてyが予測される。一方、xとzには強い相関があるため、このような状況でyを予測する場合、xだけでyを説明するのは十分なため(すなわち、x=高い、の場合、z=雨が常に成り立つため)、特徴選択処理によりzは冗長な特徴であるとみなされる。すなわち、zは特徴選択処理により除外される。したがって、予測において、p(y=多い|x=高い)=1という確率が成り立つ。 When this situation is expressed using the above variables, a rainy day is (x, y, z)=(“high”, “more”, “rain”), and a sunny day is (x, y, z). = (“Low”, “low”, “fine”). At this time, y is predicted using x and z. On the other hand, since there is a strong correlation between x and z, when predicting y in such a situation, it is sufficient to explain y only by x (that is, when x=high, z=rain Z is considered to be a redundant feature by the feature selection process. That is, z is excluded by the feature selection process. Therefore, in the prediction, the probability that p (y=high|x=high)=1 holds.

特徴であるzが選択されていないため、上記確率の式からは、xを高くすればyは多くなると言えるため、yを高くするための最適化の結果が「常に傘を高い値段で売る」と判断され得る。この結果は、晴れの日にも、傘を高い値段で売ったほうが売上数が増える、ということを意味しており、明らかに直感に反する。これは、最適化による介入をした結果と予測との違いであり、上記の例では、価格が高い時に自然に売れる量と、自ら価格を高くしたときに売れる量とは異なる。すなわち、介入を行って得られた値をdo(変数)と表すと、以下に示す式1の関係が成り立つ。 Since z, which is a feature, is not selected, it can be said from the above probability equation that y increases as x increases. Therefore, the optimization result for increasing y is “always sell umbrellas at a high price”. Can be judged. This result is counterintuitive, which means that even on sunny days, selling umbrellas at higher prices will increase the number of sales. This is the difference between the result of intervention by optimization and the prediction, and in the above example, the amount that can be sold naturally when the price is high and the amount that can be sold when the price itself is increased are different. That is, when the value obtained by performing the intervention is represented as do (variable), the relationship of the following Expression 1 is established.

p(y=多い|x=高い)≠p(y=多い|do(x=高い)) (式1) p(y=many|x=high)≠p(y=many|do(x=high)) (Equation 1)

式1に例示する予測式p(y=多い|x=高い)は、過去データにおいて高い精度を有する。ただし、「晴れの日に傘を高い値段で売った」という実績データがないということに注意する必要がある。この場合、最適化器は、(x=高い、z=晴れ)という戦略の組み合わせが過去データに存在しないにもかかわらず、高い予測精度を元に最適化を行っていることになる。これは、特徴量選択によって、リスクの高い戦略であるという情報が入力されず、最適化器が適切に判断できない、という現象ととらえることができる。式1に示すような状況を考慮せず最適化を行ってしまうと、最適化の戦略として危ういものを選択してしまう可能性がある。すなわち、予測の場面においては、観測されない状況における予測精度は保証されない一方、最適化の場面においては、過去に観測されない状況も考慮される。 The prediction formula p (y=many|x=high) illustrated in Formula 1 has high accuracy in past data. However, it should be noted that there is no actual data that "sold an umbrella at a high price on a sunny day". In this case, the optimizer is performing optimization based on high prediction accuracy even though there is no combination of strategies (x=high, z=clear) in the past data. This can be understood as a phenomenon in which the information that the strategy is high-risk is not input by the feature amount selection, and the optimizer cannot appropriately judge. If optimization is performed without considering the situation shown in Expression 1, there is a possibility that a dangerous strategy may be selected as an optimization strategy. That is, in the prediction scene, the prediction accuracy in the unobserved situation is not guaranteed, while in the optimization scene, the situation not observed in the past is also taken into consideration.

予測の観点から適切な特徴選択、すなわち予測の観点から冗長な特徴を除外するような特徴選択を行い、選択された特徴のみを用いて学習された予測モデルがあるとする。この予測モデルは予測の目的に用いられる限り、良いパフォーマンスを発揮すると思われる。しかし、この予測モデルを最適化の目的に用いた場合、危うい戦略を選択しまう結果、適切な最適化ができない場合も存在する。予測の目的にのみ用いられる予測モデルを学習するために必要な特徴の集合と、予測に基づく最適化に用いられる予測モデルを学習するために必要な特徴の集合とは、必ずしも一致しない、ということを、本発明者は見出した。予測モデルに基づく最適化を行う際には、予測の目的では冗長である特徴であっても、適切な最適化に必要な特徴については漏れなく選択できることが好ましい。 It is assumed that there is a prediction model that is trained using only the selected features by performing appropriate feature selection from the perspective of prediction, that is, feature selection that excludes redundant features from the perspective of prediction. This predictive model appears to perform well as long as it is used for predictive purposes. However, when this predictive model is used for the purpose of optimization, there is a case where an appropriate optimization cannot be performed as a result of selecting a dangerous strategy. The set of features needed to learn a prediction model used only for prediction purposes and the set of features needed to learn a prediction model used for prediction-based optimization do not necessarily match. The present inventor has found out that When performing optimization based on a prediction model, it is preferable that features that are redundant for the purpose of prediction can be selected without omission for features that are necessary for proper optimization.

そこで、本発明では、予測モデルの学習に用いられる特徴を選択する際、その予測モデルを用いて行われる適切な最適化に必要な特徴を知ることができる特徴選択システム、特徴選択方法および特徴選択プログラムを提供することを目的とする。 Therefore, in the present invention, when selecting a feature used for learning a prediction model, a feature selection system, a feature selection method, and a feature selection that can know the feature required for appropriate optimization performed using the prediction model The purpose is to provide the program.

本発明による特徴選択システムは、予測モデルを用いて表される目的関数を制約条件の下で最適化するための操作変数を算出する場合におけるその予測モデルの学習に用いられる特徴を選択する特徴選択システムであって、予測対象の指定と、操作変数の指定とを受け付ける受付部と、予測対象に影響し得る特徴の集合から、その予測対象に影響する特徴の集合である第1特徴集合と、操作変数に影響する特徴の集合である第2特徴集合とを選択する特徴選択部と、第1特徴集合と第2特徴集合とを出力する出力部とを備え、特徴選択部が、操作変数として指定された特徴を第1特徴集合に含めるように選択することを特徴とする。 A feature selection system according to the present invention is a feature selection that selects a feature used for learning of a prediction model when calculating an operation variable for optimizing an objective function represented by using the prediction model under a constraint condition. In the system, a reception unit that receives designation of a prediction target and designation of an operation variable, a first feature set that is a set of features that affect the prediction target from a set of features that can affect the prediction target, a feature selecting unit for selecting a second feature set and a set of features that affect the operation variable, a first feature set and an output unit for outputting a second feature set, the feature selection unit, as the manipulated variable The selected feature is selected to be included in the first feature set .

本発明による特徴選択方法は、予測モデルを用いて表される目的関数を制約条件の下で最適化するための操作変数を算出する場合におけるその予測モデルの学習に用いられる特徴を選択する特徴選択方法であって、予測対象の指定と、操作変数の指定とを受け付け、予測対象に影響し得る特徴の集合から、その予測対象に影響する特徴の集合である第1特徴集合と、操作変数に影響する特徴の集合である第2特徴集合とを選択し、その選択の際、操作変数として指定された特徴を第1特徴集合に含めるように選択し、第1特徴集合と第2特徴集合とを出力することを特徴とする。 The feature selection method according to the present invention is a feature selection for selecting a feature used for learning of a prediction model when calculating an operation variable for optimizing an objective function represented by using the prediction model under a constraint condition. A method of accepting designation of a prediction target and designation of an operation variable, and selecting a first feature set, which is a set of features affecting the prediction target, and an operation variable from a set of features that may affect the prediction target. A second feature set, which is a set of influential features, is selected, and at the time of selection, a feature specified as an operation variable is selected to be included in the first feature set, and the first feature set and the second feature set are selected. Is output.

本発明による特徴選択プログラムは、予測モデルを用いて表される目的関数を制約条件の下で最適化するための操作変数を算出する場合におけるその予測モデルの学習に用いられる特徴を選択するコンピュータに適用される特徴選択プログラムであって、コンピュータに、予測対象の指定と、操作変数の指定とを受け付ける受付処理、予測対象に影響し得る特徴の集合から、その予測対象に影響する特徴の集合である第1特徴集合と、操作変数に影響する特徴の集合である第2特徴集合とを選択する特徴選択処理、および、第1特徴集合と第2特徴集合とを出力する出力処理を実行させ、特徴選択処理で、操作変数として指定された特徴を第1特徴集合に含めるように選択させることを特徴とする。 A feature selection program according to the present invention is a computer that selects a feature used for learning a prediction model when calculating an operation variable for optimizing an objective function represented by using the prediction model under a constraint condition. A feature selection program to be applied, which is a reception process for receiving specification of a prediction target and specification of an operation variable in a computer, and a set of features that affect the prediction target from a set of features that may affect the prediction target. A feature selection process of selecting a certain first feature set and a second feature set that is a set of features that affect the manipulated variables, and an output process of outputting the first feature set and the second feature set , In the feature selection process, the feature specified as the manipulated variable is selected to be included in the first feature set .

本発明によれば、予測モデルの学習に用いられる特徴を選択する際、その予測モデルを用いて行われる適切な最適化に必要な特徴を知ることができる。 According to the present invention, when a feature used for learning a prediction model is selected, it is possible to know the feature required for appropriate optimization performed using the prediction model.

本発明による価格最適化システムの一実施形態を示すブロック図である。1 is a block diagram showing an embodiment of a price optimization system according to the present invention. 価格最適化システムが価格最適化を行う場合の動作例を示すフローチャートである。It is a flow chart which shows an example of operation when a price optimization system performs price optimization. 価格最適化システムが予測対象と操作変数の指定に応じて特徴を選択する処理の例を示すフローチャートである。It is a flow chart which shows an example of processing in which a price optimizing system selects a feature according to specification of a prediction object and an operation variable. データベースに記録された店舗の売上記録の例を示す説明図である。It is explanatory drawing which shows the example of the sales record of the store recorded on the database. 本発明による特徴選択システムの概要を示すブロック図である。It is a block diagram which shows the outline|summary of the feature selection system by this invention. 本発明による特徴選択システムに入力されるデータの一具体例を示す説明図である。It is explanatory drawing which shows a specific example of the data input into the feature selection system by this invention. 少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the computer which concerns on at least 1 embodiment.

まず初めに、本願発明について用いられる用語を説明する。本実施形態で特徴(Feature)とは、属性名の意味で用いられる。また、その属性が示す具体的な値のことを、属性の値と記す。属性の例は価格であり、この場合の属性の値の例は、500円である。なお、以下の説明で、「特徴」と記載した場合、その役割は限定されず、属性名の意味の他、後述する説明変数、予測対象、または、操作変数を意味することもある。 First, terms used in the present invention will be described. In the present embodiment, “feature” is used to mean an attribute name. A specific value indicated by the attribute will be referred to as an attribute value. An example of the attribute is price, and an example of the value of the attribute in this case is 500 yen. In the following description, when "feature" is described, its role is not limited and may mean an explanatory variable, a prediction target, or an operation variable described later, in addition to the meaning of the attribute name.

説明変数とは、予測対象に影響を与え得る変数を意味する。上述する傘の価格の最適化問題の例では、「午前に雨であるか否か」、「午後に雨であるか否か」、などの他、「月末であるか否か」などが説明変数に該当する。本実施形態では、特徴選択を行う際の入力として、説明変数の候補が入力される。すなわち、特徴選択では、説明変数の候補の中から予測対象に影響を与え得る説明変数が特徴として選択され、結果として出力される。言い換えると、特徴選択において選択された説明変数は、説明変数の候補の部分集合である。 The explanatory variable means a variable that can influence the prediction target. In the example of the umbrella price optimization problem described above, "whether it rains in the morning", "whether it rains in the afternoon", etc., and "whether it is the end of the month", etc. are explained. It corresponds to a variable. In this embodiment, a candidate for an explanatory variable is input as an input when performing feature selection. That is, in the feature selection, an explanatory variable that can influence the prediction target is selected as a feature from the explanatory variable candidates, and is output as a result. In other words, the explanatory variable selected in the feature selection is a subset of candidate explanatory variables.

予測対象は、機械学習の分野では、「目的変数」とも呼ばれる。なお、後述する最適化処理で一般的に用いられる「目的変数」との混同を避けるため、以下の説明では、予測対象を表す変数を被説明変数と記す。したがって、予測モデルは、被説明変数を1つ以上の説明変数を用いて表したモデルということができる。なお、本実施形態では、学習処理の結果得られるモデルのことを学習済モデルと記すこともある。本実施形態において、予測モデルは、学習済モデルの具体的態様である。 The prediction target is also called an “objective variable” in the field of machine learning. In addition, in order to avoid confusion with an “objective variable” generally used in an optimization process described later, a variable representing a prediction target is described as an explained variable in the following description. Therefore, it can be said that the prediction model is a model in which the explained variable is represented by using one or more explanatory variables. In the present embodiment, a model obtained as a result of the learning process may be referred to as a learned model. In the present embodiment, the prediction model is a specific aspect of the learned model.

操作変数とは、オペレーションの際に何らかの(例えば、人の)介入が入る変数を意味する。具体的には、最適化処理において最適化の対象になる変数のことを意味する。なお、操作変数は、最適化処理では一般に「目的変数」と呼ばれる変数であるが、上述するように、機械学習で用いられる目的変数との混同を避けるため、「目的変数」との用語を用いずに本願発明を説明する。上述する傘の価格の最適化問題の例では、「傘の価格」が操作変数に該当する。 The manipulated variable means a variable into which some (for example, human) intervention occurs during operation. Specifically, it means a variable to be optimized in the optimization process. Note that the manipulated variable is a variable that is generally called an "objective variable" in the optimization process, but as described above, the term "objective variable" is used to avoid confusion with the objective variable used in machine learning. Instead, the present invention will be described. In the example of the umbrella price optimization problem described above, "umbrella price" corresponds to the manipulated variable.

なお、操作変数は説明変数の一部である。以下の説明では、説明変数と操作変数とを区別する必要がない場合、単に説明変数と記載し、説明変数と操作変数とを区別する場合、説明変数は、操作変数以外の変数を意味する。また、説明変数と操作変数とを区別する場合、操作変数以外の説明変数を外部変数 と表現することもある。 The manipulated variable is a part of the explanatory variable. In the following description, when it is not necessary to distinguish between explanatory variables and manipulated variables, they are simply described as explanatory variables, and when distinguished between explanatory variables and manipulated variables, explanatory variables mean variables other than manipulated variables. When distinguishing between explanatory variables and manipulated variables, explanatory variables other than manipulated variables may be expressed as external variables.

目的関数は、最適化処理において、与えられた制約条件の下、操作変数を最適化することにより最大または最小の値を求める対象の関数を意味する。上述する傘の価格の最適化問題の例では、売上高(売上数×価格)を算出する関数が目的関数に該当する。 The objective function means a target function for obtaining a maximum or minimum value by optimizing an operation variable under given constraints in the optimization processing. In the example of the umbrella price optimization problem described above, the function that calculates the sales amount (number of sales x price) corresponds to the objective function.

以下、本発明の実施形態を図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明による価格最適化システムの一実施形態を示すブロック図である。本実施形態の価格最適化システム100は、予測に基づく最適化を行うシステムであり、受付部10と、特徴選択部20と、学習部30と、最適化部40と、出力部50とを備えている。なお、本実施形態の価格最適化システム100は、具体的態様として特徴選択を行うことから、価格最適化システム100のことを特徴選択システムということができる。 FIG. 1 is a block diagram showing an embodiment of a price optimization system according to the present invention. The price optimization system 100 according to the present embodiment is a system that performs prediction-based optimization, and includes a reception unit 10, a feature selection unit 20, a learning unit 30, an optimization unit 40, and an output unit 50. ing. Since the price optimizing system 100 of the present embodiment performs feature selection as a specific mode, the price optimizing system 100 can be called a feature selecting system.

すなわち、本実施形態の価格最適化システムは、予測対象の予測に用いられる予測モデルを学習するシステムであり、また、その予測モデルを用いて表される目的関数を制約条件の下で最適化するための操作変数を算出するシステムである。ここで、予測モデルを用いて表される目的関数は、予測モデルを用いて予測される予測値を引数として定義される目的関数、および、予測モデルのパラメータを引数として定義される目的関数のいずれをも意味する。 That is, the price optimization system of the present embodiment is a system for learning a prediction model used for prediction of a prediction target, and optimizes an objective function represented by using the prediction model under constraint conditions. This is a system for calculating manipulated variables for. Here, the objective function represented by using the prediction model is either an objective function defined by using a prediction value predicted by using the prediction model as an argument, or an objective function defined by using a parameter of the prediction model as an argument. Also means.

受付部10は、予測対象(言い換えると、被説明変数)と、その予測対象に影響し得る特徴の集合(言い換えると、説明変数の候補)と、最適化の対象(言い換えると、操作変数)とを受け付ける。具体的には、受付部10は、どの特徴が被説明変数yであるのかの指定と、どの特徴が操作変数xであるのかの指定とを受け付ける。また、受付部10は、説明変数zの候補を受け付ける。なお、価格最適化システム100が予め説明変数zの候補を保持している場合、受付部10は、被説明変数yである予測対象の指定と、操作変数xの指定の2種類を受け付けてもよい。 The reception unit 10 receives a prediction target (in other words, an explained variable), a set of features that can affect the prediction target (in other words, an explanatory variable candidate), and an optimization target (in other words, an operation variable). Accept. Specifically, the receiving unit 10 receives designation of which feature is the explained variable y and designation of which feature is the operation variable x. The reception unit 10 also receives candidates for the explanatory variable z. In addition, when the price optimization system 100 holds the candidate for the explanatory variable z in advance, the reception unit 10 may receive two types of specification of the prediction target which is the explained variable y and specification of the operation variable x. Good.

上述するように、操作変数xは説明変数zの一部であることから、受付部10は、説明変数zの候補と、その説明変数zの中に含まれる操作変数xの識別子を受け付けてもよい。上述する傘の価格の最適化問題の場合、被説明変数yが傘の売上数を表わし、操作変数xが傘の価格を表わし、説明変数zが天気を表わす。また。受付部10は、後続の処理で必要になる各種パラメータも受け付ける。 As described above, since the manipulated variable x is a part of the explanatory variable z, the reception unit 10 receives the candidate for the explained variable z and the identifier of the manipulated variable x included in the explained variable z. Good. In the case of the umbrella price optimization problem described above, the explained variable y represents the number of umbrella sales, the manipulated variable x represents the umbrella price, and the explanatory variable z represents the weather. Also. The receiving unit 10 also receives various parameters required for the subsequent processing.

特徴選択部20は、予測モデルの学習に用いられる特徴を選択する。具体的には、特徴選択部20は、受付部10が受け付けた予測対象に影響し得る特徴の集合から、予測対象に影響する特徴の集合を選択する。以下、予測対象に影響する特徴の集合を第1特徴集合と記す。例えば、上述する傘の価格の最適化問題の場合、予測対象である傘(商品)の売上数に影響し得る特徴の集合から、売上数に影響する集合(第1特徴集合)として、価格が選ばれる。このとき、予測対象を説明するために互いに冗長であるような特徴が複数存在する場合、冗長な特徴のうちいくつかは第1特徴集合からは除外される。上述した例では、予測対象(売上数)を説明するための特徴として価格と天気とは互いに冗長な特徴とみなされ、価格と天気とのうち片方が第1特徴集合から除外される。上述した例では、天気が除外される。 The feature selection unit 20 selects a feature used for learning the prediction model. Specifically, the feature selection unit 20 selects a set of features that affect the prediction target from the set of features that the reception unit 10 has received that may affect the prediction target. Hereinafter, the set of features that affect the prediction target is referred to as a first feature set. For example, in the case of the umbrella price optimization problem described above, the price is calculated as a set (first feature set) that influences the number of sales from the set of features that can affect the number of sales of the umbrella (product) that is the prediction target. To be elected. At this time, when there are a plurality of features that are redundant to each other for explaining the prediction target, some of the redundant features are excluded from the first feature set. In the above-mentioned example, the price and the weather are regarded as mutually redundant features as the features for explaining the prediction target (the number of sales), and one of the price and the weather is excluded from the first feature set. In the above example, the weather is excluded.

さらに、本実施形態の特徴選択部20は、受付部10が受け付けた予測対象に影響し得る特徴の集合から、操作変数に影響する特徴の集合を選択する。以下、操作変数に影響する特徴の集合を第2特徴集合と記す。例えば、上述する傘の価格の最適化問題の場合、操作変数である価格に影響する集合(第2特徴集合)として、天気が選ばれる。このとき、操作変数を説明するために互いに冗長であるような特徴が複数ある場合、冗長な特徴のうちいくつかは第2特徴集合からは除外される。 Further, the feature selection unit 20 of the present embodiment selects a set of features that affect the manipulated variable from the set of features that can affect the prediction target received by the reception unit 10. Hereinafter, the set of features that affect the manipulated variable will be referred to as the second feature set. For example, in the case of the umbrella price optimization problem described above, weather is selected as a set (second feature set) that affects the price, which is an operation variable. At this time, when there are a plurality of features that are redundant to explain the manipulated variable, some of the redundant features are excluded from the second feature set.

このように、特徴選択部20は、予測対象である商品の売上数に影響し得る特徴の集合から、予測対象(売上数)に影響する第1特徴集合と、操作変数(商品の価格)に影響する第2特徴集合とを選択する。ここで、第1特徴集合は、予測の目的のみに用いる予測モデルを学習する際に必要十分な特徴集合である。第1特徴集合には含まれず且つ第2特徴集合に含まれる特徴は、予測の目的のみに用いる予測モデルを学習する際には必ずしも必要な特徴ではないが、予測に基づく最適化に用いられる予測モデルを学習する際には必要となる特徴である。なお、特徴選択部20は、操作変数自体は除外しないものとする(すなわち、操作変数が、必ず第1特徴集合と第2特徴集合のいずれかに残るようにする)。 In this way, the feature selection unit 20 determines from the set of features that can affect the number of sales of the product that is the prediction target to the first feature set that affects the prediction target (the number of sales) and the operation variable (the price of the product). Select a second feature set to influence. Here, the first feature set is a necessary and sufficient feature set when learning the prediction model used only for the purpose of prediction. The features that are not included in the first feature set and that are included in the second feature set are not necessarily required when learning a prediction model used only for the purpose of prediction, but are used for prediction-based optimization. This is a necessary feature when learning a model. The feature selection unit 20 does not exclude the manipulated variable itself (that is, the manipulated variable always remains in either the first feature set or the second feature set).

上記では、具体例を用いて特徴が選択される場合を例示したが、特徴選択部20は、一般に知られた特徴選択技術を用いて第1特徴集合および第2特徴集合を選択すればよい。特徴選択技術として、例えば、L1正則化が挙げられる。ただし、特徴選択部20が特徴を選択する方法はL1正則化に限られない。 Although the case where the features are selected using a specific example has been described above, the feature selection unit 20 may select the first feature set and the second feature set using a generally known feature selection technique. An example of the feature selection technique is L1 regularization. However, the method by which the feature selection unit 20 selects a feature is not limited to L1 regularization.

特徴選択には、例えば、matching orthogonal pursuit等の貪欲法的による特徴量選択や、様々な情報量基準による選択も含まれる。なお、正則化法は、多くの特徴量を選ぶごとにペナルティを加える方法である。貪欲法は、有力な特徴量から決められた数の特徴量を選択する方法である。情報量基準は、多くの特徴量を選ぶことによって生じる汎化誤差に基づくペナルティを課す方法である。L1正則化を用いた特徴選択の具体的な方法については、後述される。 The feature selection includes, for example, greedy feature selection such as matching orthogonal purchase, and selection based on various information amount criteria. The regularization method is a method in which a penalty is added every time a large number of feature quantities are selected. The greedy method is a method of selecting a predetermined number of feature amounts from influential feature amounts. The information amount criterion is a method of imposing a penalty based on a generalization error generated by selecting many feature amounts. A specific method of feature selection using L1 regularization will be described later.

学習部30は、第1特徴集合に含まれる特徴および第2特徴集合に含まれる特徴を説明変数とし、予測対象の特徴を被説明変数とする予測モデルを学習する。価格の例の場合、学習部30は、第1特徴集合に含まれる特徴および第2特徴集合に含まれる特徴を説明変数とし、売上数を予測対象とする予測モデルを学習する。その際、学習部30は、第2特徴集合には含まれるが第1特徴集合には含まれない少なくとも一つの特徴を説明変数として用いて、予測モデルを学習する。なお、学習部30は、第1特徴集合に含まれる特徴および第2特徴集合に含まれる特徴の全ての特徴を説明変数とすることが好ましい。 The learning unit 30 learns a prediction model in which the features included in the first feature set and the features included in the second feature set are used as explanatory variables, and the feature of the prediction target is used as the explained variable. In the case of the price example, the learning unit 30 learns a prediction model in which the number of sales is a prediction target with the features included in the first feature set and the features included in the second feature set as explanatory variables. At that time, the learning unit 30 learns the prediction model using at least one feature included in the second feature set but not included in the first feature set as an explanatory variable. In addition, it is preferable that the learning unit 30 sets all the features included in the first feature set and the features included in the second feature set as explanatory variables.

一般的な特徴選択では、第2特徴集合に含まれる特徴が選択されないため、後述する最適化処理に影響するような特徴を含めた学習をすることは困難である。一方、本実施形態では、学習部30が第2特徴集合には含まれるが第1特徴集合には含まれない特徴を説明変数としてモデルを学習するため、後処理である最適化処理を考慮したモデルを生成できる。 In general feature selection, since features included in the second feature set are not selected, it is difficult to perform learning including features that affect optimization processing described later. On the other hand, in the present embodiment, since the learning unit 30 learns the model by using the features included in the second feature set but not included in the first feature set as explanatory variables, the optimization process that is the post-process is considered. Can generate models.

最適化部40は、学習部30によって生成された予測モデルを引数として定義される被説明変数の関数を最大化または最小化するように操作変数の値を最適化するする。売上の例の場合、最適化部40は、予測モデルを引数として定義される売上高が高くなるように、制約条件の下で商品の価格を最適化する。より具体的には、最適化部40は、予測モデルを用いて予測される売上数を引数として定義される売上高が高くなるように、制約条件の下で商品の価格を最適化する。 The optimization unit 40 optimizes the value of the manipulated variable so as to maximize or minimize the function of the explained variable defined by using the prediction model generated by the learning unit 30 as an argument. In the case of the sales example, the optimization unit 40 optimizes the price of the product under the constraint condition so that the sales amount defined by using the prediction model as an argument is high. More specifically, the optimizing unit 40 optimizes the price of the product under the constraint condition so that the sales amount defined by using the sales number predicted using the prediction model as an argument becomes high.

予測モデルを用いて最適化する際、最適化部40に予測誤差の分布を表す情報を入力し、それに基づく最適化を行うことができる。つまり、予測誤差が大きい戦略に対してペナルティを課すことで、リスクの高い戦略を避けるような最適化ができる。これは、予測誤差を用いない最適化と対比して、ロバスト最適化、確率最適化などと呼ばれる。例えば、予測モデルがy=a+bで表される場合、予測誤差の分布は、aおよびbに関する分布である。予測誤差の分布とは、例えば、分散共分散行列である。ここで入力される予測誤差の分布は、予測モデルの内容、より具体的には、第2特徴集合には含まれるが第1特徴集合には含まれない特徴に依存する。When optimizing using the prediction model, it is possible to input information indicating the distribution of the prediction error to the optimizing unit 40 and perform the optimization based on the information. In other words, by imposing a penalty on a strategy with a large prediction error, optimization that avoids a risky strategy can be performed. This is called robust optimization, stochastic optimization, etc., as opposed to optimization that does not use prediction errors. For example, if the prediction model is represented by y=a 1 x 1 +b, the distribution of prediction errors is the distribution for a 1 and b. The distribution of prediction errors is, for example, a variance-covariance matrix. The distribution of the prediction error input here depends on the content of the prediction model, more specifically, on the features included in the second feature set but not included in the first feature set.

例えば、操作変数をx、説明変数であって第1特徴集合に含まれる特徴をz、説明変数であって第2特徴集合には含まれるが第1特徴集合には含まれない特徴をz、被説明変数をyとする。第2特徴集合には含まれるが第1特徴集合には含まれない特徴(すなわち、z)を考慮しないような一般的な特徴選択が行われる場合、例えば、以下の式2に示す予測モデルが生成される。For example, the manipulated variable is x 1 , a feature that is an explanatory variable and is included in the first feature set is z 1 , and a feature that is an explanatory variable that is included in the second feature set but is not included in the first feature set is Let z 2 be y and the explained variable be y. When general feature selection is performed that does not consider features (that is, z 2 ) that are included in the second feature set but not included in the first feature set, for example, the prediction model shown in Equation 2 below. Is generated.

y=a+a+b (式2)y=a 1 x 1 +a 2 z 1 +b (Formula 2)

一方、本実施形態のように、zを考慮した特徴選択が行われる場合、例えば、以下の式3に示す予測モデルが生成される。On the other hand, when the feature selection considering z 2 is performed as in the present embodiment, for example, the prediction model shown in the following Expression 3 is generated.

y=a+a+a+b (式3)y=a 1 x 1 +a 2 z 1 +a 3 z 2 +b (Formula 3)

このように予測モデルの生成には必ずしも必要がない特徴(z)であっても、予測モデルに含めるように特徴選択が行われているため、より適切な予測誤差の分布を最適化部40に入力できる。As described above, even if the feature (z 2 ) is not necessarily required to generate the prediction model, the features are selected so as to be included in the prediction model. Therefore, a more appropriate prediction error distribution is optimized by the optimization unit 40. Can be entered in.

上述する傘の価格の最適化問題では、上記式2は、天気に関する特徴量zが選択されなかった場合に対応し、上記式3は、天気に関する特徴量zが選択された場合に対応する。上記式2は、予測誤差の分布は、価格が高いときも低いときも予測精度が高いことを示す。一方、上記式3は、雨で価格が高い場合の予測精度はよいが、晴れで価格が高い場合の予測精度は低い、という情報を表す予測誤差分布を含む。よって、式3に示すような状況を踏まえて最適化を行うことにより、特徴量選択が原因でリスクの高い戦略が選択されてしまうという状況を避けることができる。 In the problem of optimizing the price of the umbrella described above, the above expression 2 corresponds to the case where the feature quantity z related to the weather is not selected, and the above expression 3 corresponds to the case where the feature quantity z related to the weather is selected. The above expression 2 shows that the prediction error distribution has high prediction accuracy both when the price is high and when the price is low. On the other hand, the above expression 3 includes a prediction error distribution indicating that the prediction accuracy is good when the price is high due to rain, but the prediction accuracy is low when the price is sunny and the price is high. Therefore, by performing optimization in consideration of the situation as shown in Expression 3, it is possible to avoid a situation in which a high-risk strategy is selected due to the feature amount selection.

最適化部40が最適化処理を行う方法は任意であり、一般的な最適化問題を解く方法を用いて操作変数(価格)を最適化すればよい。 The optimizing unit 40 may perform any optimization method, and the operation variable (price) may be optimized using a method for solving a general optimization problem.

出力部50は、最適化結果を出力する。例えば、売上高を高くするように価格最適化を行った場合、出力部50は、最適な価格と、その時の売上高を出力してもよい。 The output unit 50 outputs the optimization result. For example, when the price optimization is performed so as to increase the sales amount, the output unit 50 may output the optimum price and the sales amount at that time.

また、出力部50は、最適化結果だけでなく、特徴選択部20が選択した第1特徴集合と第2特徴集合を出力してもよい。このとき、出力部50は、第1特徴集合に含まれる特徴と、第2特徴集合には含まれるが第1特徴集合には含まれない特徴とを、区別し得る態様で出力してもよい。区別し得る態様で出力する方法の例として、第2特徴集合には含まれるが第1特徴集合には含まれない特徴の色を変える方法、強調表示する方法、大きさを変える方法、斜体で表示する方法などが挙げられる。また、出力部50の出力先は任意であり、例えば、価格最適化システム100が備えるディスプレイ装置などの表示装置(図示せず)であってもよい。 The output unit 50 may output not only the optimization result but also the first feature set and the second feature set selected by the feature selection unit 20. At this time, the output unit 50 may output the features included in the first feature set and the features included in the second feature set but not included in the first feature set in a distinguishable manner. .. As an example of the method of outputting in a distinguishable manner, a method of changing the color of a feature included in the second feature set but not included in the first feature set, a method of highlighting, a method of changing the size, and italics Examples include a method of displaying. The output destination of the output unit 50 is arbitrary, and may be, for example, a display device (not shown) such as a display device included in the price optimization system 100.

第1特徴集合は一般的な特徴選択処理で選択された特徴であり、第2特徴集合は後処理である最適化処理を考慮して選択された特徴であって一般的な特徴選択処理では現れない特徴である。このような特徴を区別して表示することで、最適化処理を実行する際に用いる適切な特徴をユーザが把握し、選択することが可能になる。その結果、ユーザは表示された情報を閲覧し、ドメイン知識を生かした特徴の調整も可能になる。 The first feature set is a feature selected by a general feature selection process, and the second feature set is a feature selected in consideration of an optimization process which is a post-process, and appears in a general feature selection process. There is no feature. By displaying such features separately, it becomes possible for the user to grasp and select the appropriate features used when executing the optimization processing. As a result, the user can browse the displayed information and adjust the characteristics by utilizing the domain knowledge.

受付部10と、特徴選択部20と、学習部30と、最適化部40と、出力部50とは、プログラム(価格最適化プログラム、特徴選択プログラム)に従って動作するコンピュータのCPUによって実現される。 The receiving unit 10, the feature selecting unit 20, the learning unit 30, the optimizing unit 40, and the output unit 50 are realized by a CPU of a computer that operates according to a program (price optimizing program, feature selecting program).

例えば、プログラムは、価格最適化システム100が備える記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、受付部10と、特徴選択部20と、学習部30と、最適化部40とおよび出力部50として動作してもよい。 For example, the program is stored in a storage unit (not shown) included in the price optimization system 100, the CPU reads the program, and in accordance with the program, the reception unit 10, the feature selection unit 20, the learning unit 30, and the It may operate as the optimization unit 40 and the output unit 50.

また、受付部10と、特徴選択部20と、学習部30と、最適化部40と、出力部50とは、それぞれが専用のハードウェアで実現されていてもよい。 Further, each of the reception unit 10, the feature selection unit 20, the learning unit 30, the optimization unit 40, and the output unit 50 may be realized by dedicated hardware.

次に、本実施形態の価格最適化システム100の動作例を説明する。図2は、価格最適化システム100が価格最適化を行う場合の動作例を示すフローチャートである。 Next, an operation example of the price optimization system 100 of this embodiment will be described. FIG. 2 is a flowchart showing an operation example when the price optimization system 100 performs price optimization.

特徴選択部20は、商品の売上数に影響し得る特徴の集合(すなわち、説明変数zの候補)から、売上数(すなわち、被説明変数y)に影響する第1特徴集合を選択する(ステップS11)。さらに、特徴選択部20は、商品の売上数に影響し得る特徴の集合から、商品の価格(すなわち、操作変数x)に影響する第2特徴集合を選択する(ステップS12)。 The feature selection unit 20 selects the first feature set that affects the number of sales (that is, the explained variable y) from the set of features that can affect the number of sales of the product (that is, the candidate for the explanatory variable z) (step S11). Further, the feature selecting unit 20 selects the second feature set that affects the price of the product (that is, the operation variable x) from the set of features that can affect the number of sales of the product (step S12).

学習部30は、第1特徴集合と第2特徴集合に含まれる特徴を説明変数とし、売上数を予測対象とする予測モデルを学習する。その際、学習部30は、第2特徴集合には含まれるが第1特徴集合に含まれない少なくとも1つの特徴を説明変数とする予測モデルを学習する(ステップS13)。 The learning unit 30 learns a prediction model in which the number of sales is a prediction target using the features included in the first feature set and the second feature set as explanatory variables. At that time, the learning unit 30 learns a prediction model having at least one feature included in the second feature set but not included in the first feature set as an explanatory variable (step S13).

最適化部40は、予測モデルを引数として定義される売上高が高くなるように、制約条件の下で商品の価格を最適化する(ステップS14)。 The optimizing unit 40 optimizes the price of the product under the constraint condition so that the sales defined by using the prediction model as an argument are high (step S14).

また、図3は、価格最適化システム100が予測対象と操作変数の指定に応じて特徴を選択する処理の例を示すフローチャートである。 Further, FIG. 3 is a flowchart showing an example of a process in which the price optimizing system 100 selects a feature in accordance with the designation of the prediction target and the operation variable.

受付部10は、予測対象(すなわち、被説明変数y)の指定と、操作変数(すなわち、操作変数x)の指定とを受け付ける(ステップS21)。特徴選択部20は、予測対象に影響し得る特徴の集合(すなわち、説明変数zの候補)から、その予測対象に影響する第1特徴集合と、操作変数に影響する第2特徴集合とを選択する(ステップS22)。特徴選択部20は、選択した第1特徴集合および第2特徴集合を学習部30に入力してもよい。 The reception unit 10 receives the designation of the prediction target (that is, the explained variable y) and the designation of the manipulated variable (that is, the manipulated variable x) (step S21). The feature selecting unit 20 selects a first feature set that affects the prediction target and a second feature set that affects the operation variable from the set of features that can affect the prediction target (that is, the candidate for the explanatory variable z). Yes (step S22). The feature selection unit 20 may input the selected first feature set and second feature set to the learning unit 30.

出力部50は、第1特徴集合と第2特徴集合とを出力する(ステップS23)。このとき、出力部50は、第1特徴集合に含まれる特徴と、第2特徴集合には含まれるが第1特徴集合には含まれない特徴とを、区別し得る態様にて出力してもよい。 The output unit 50 outputs the first feature set and the second feature set (step S23). At this time, the output unit 50 outputs the features included in the first feature set and the features included in the second feature set but not included in the first feature set in a distinguishable manner. Good.

以上のように、本実施形態では、特徴選択部20が、商品の売上数に影響し得る特徴の集合から、売上数に影響する第1特徴集合と、商品の価格に影響する第2特徴集合とを選択し、学習部30が、第1特徴集合と第2特徴集合に含まれる特徴を説明変数とし、売上数を予測対象とする予測モデルを学習し、最適化部40が、予測モデルを引数として定義される売上高が高くなるように、制約条件の下で商品の価格を最適化する。その際、学習部30は、第2特徴集合には含まれるが第1特徴集合に含まれない少なくとも1つの特徴を説明変数とする予測モデルを学習する。 As described above, in the present embodiment, the feature selection unit 20 selects the first feature set that influences the number of sales and the second feature set that influences the price of the product from the set of features that can influence the number of sales of the product. Is selected, the learning unit 30 learns a prediction model in which the features included in the first feature set and the second feature set are used as explanatory variables, and the number of sales is a prediction target, and the optimization unit 40 selects the prediction model. The price of the product is optimized under the constraint condition so that the sales defined as an argument becomes high. At that time, the learning unit 30 learns a prediction model having at least one feature included in the second feature set but not included in the first feature set as an explanatory variable.

よって、予測に基づいて価格を最適化する場合において、危うい戦略を回避できるように価格の最適化を行うための特徴を選択できる。 Therefore, when optimizing the price based on the prediction, it is possible to select a feature for optimizing the price so as to avoid a dangerous strategy.

また、本実施形態では、受付部10が予測対象の指定と、操作変数の指定とを受け付け、特徴選択部20が、予測対象に影響し得る特徴の集合から、その予測対象に影響する第1特徴集合と、操作変数に影響する第2特徴集合とを選択して、出力部50が出力する。 Further, in the present embodiment, the reception unit 10 receives the designation of the prediction target and the designation of the operation variable, and the feature selection unit 20 selects the first feature that influences the prediction target from the set of features that can affect the prediction target. The output unit 50 outputs the feature set and the second feature set that affects the manipulated variable.

よって、予測モデルの学習に用いられる特徴を選択する際、その予測モデルを用いて行われる適切な最適化に必要な特徴を知ることができる。 Therefore, when selecting the features used for learning the prediction model, it is possible to know the features required for appropriate optimization performed using the prediction model.

次に、本実施形態の価格最適化システム100が特徴を選択する処理を、L1正則化の具体例を用いて説明する。前述した通り、L1正則化は数ある特徴選択技術の一具体例に過ぎず、本発明に用いることができる特徴選択技術はL1正則化には限定されない。ここでは、雨の日の午後に傘が売れる、という例を考える。操作変数xが傘の価格を表わし、被説明変数yが傘の売上数を表わし、説明変数z〜zが、それぞれ「午前に雨であるか」、「午後に雨であるか」、「月末(15日以降)」であるか、を0−1変数で表すものとする。ここで、真の売上数yが、以下の式4として生成されているとする。Next, the process in which the price optimization system 100 of the present embodiment selects a feature will be described using a specific example of L1 regularization. As described above, the L1 regularization is only one specific example of many feature selection techniques, and the feature selection technique that can be used in the present invention is not limited to the L1 regularization. Here, let's consider an example in which an umbrella sells on a rainy afternoon. The manipulated variable x represents the price of the umbrella, the dependent variable y represents the number of sales of the umbrella, and the explanatory variables z 1 to z 3 are “rain in the morning” and “rain in the afternoon”, respectively. Whether it is “the end of the month (15th or later)” is represented by a 0-1 variable. Here, it is assumed that the true sales number y is generated as the following Expression 4.

y=−7z+14z−x/50+15+ノイズ (式4)y=−7z 1 +14z 2 −x/50+15+noise (Equation 4)

式4では、午後に雨(すなわち、z=1)である場合には売り上げが伸びるが、午前に雨が降っていると(例えば、顧客が午前にすでに傘を買っているため)、売上が落ちる、というモデルを想定している。また、説明変数zは、説明変数の候補ではあるが、売上に関係しない変数であるといえる。なお、ノイズは、説明を簡略化するため、(0,1,2)の値をランダムにとるものとする。In Equation 4, sales increase when it is raining in the afternoon (ie, z 2 =1), but if it rains in the morning (for example, because the customer already bought an umbrella in the morning), the sales It is assumed that the model will fall. The explanatory variable z 3 is a candidate for the explanatory variable, but can be said to be a variable not related to sales. It should be noted that noise has a random value of (0, 1, 2) in order to simplify the description.

一方で、雨の日に傘が売れることを知っている店主は、以下に示す式5に基づいて傘の値段を設定しているものとする。 On the other hand, it is assumed that the shop owner who knows that the umbrella can be sold on a rainy day sets the price of the umbrella based on the following Expression 5.

x=−100z+200z+500 (式5) x = -100z 1 + 200z 2 +500 ( Equation 5)

図4は、データベースに記録された店舗の売上記録の例を示す説明図である。図4に示す例では、Idで識別される集計単位ごとに価格x、その集計時の午後の売上数y、および、その集計時の特徴の有無が記録されていることを示す。例えば、Id=1で識別される売上記録は、午前および午後のいずれも雨が降っていない月末に、価格を500円に設定した場合、午後の傘の売上数が6本であったことを示す。 FIG. 4 is an explanatory diagram showing an example of the sales record of the store recorded in the database. In the example shown in FIG. 4, the price x, the number of sales y in the afternoon at the time of aggregation, and the presence or absence of characteristics at the time of aggregation are recorded for each aggregation unit identified by Id. For example, the sales record identified by Id=1 indicates that when the price was set to 500 yen at the end of the month when neither morning nor afternoon was raining, there were 6 umbrellas sold in the afternoon. Show.

このようなデータに基づき、予測のための特徴選択が行われるとする。以下の説明では、特徴選択部20は、L1正則化(Lasso)を用いて、以下に示す式6を最小化する非ゼロのwを選択することにより、特徴選択を行う。なお、式6において、Lassoのペナルティの係数を、後述する説明を簡易にするため、1/10としている。It is assumed that feature selection for prediction is performed based on such data. In the following description, the feature selection unit 20 performs feature selection by using L1 regularization (Lasso) to select a non-zero w i that minimizes Equation 6 below. In Expression 6, the coefficient of the Lasso penalty is set to 1/10 in order to simplify the description below.

Figure 0006708295
Figure 0006708295

十分なデータが得られているとの前提のもと、以下の式7または式8に示す関係を満たすw(および、適切に選ばれたc)と、それらの線形結合(a×(式7に示すw)+(1−a)×(式8に示すw))とは、同様によくデータを説明し、式6における第一項が最小になる。しかし、式6における第二項のスパース性に対する制約から、式7に示すwの組が得られる。これは、式7に示すwの組では第二項から算出されるペナルティが1/200であるのに対し、式8に示すwの組では第二項から算出されるペナルティが1.5になるためである。したがって、特徴としてxが選択される。Assuming that sufficient data are obtained, w i (and appropriately selected c) satisfying the relationship shown in the following Equation 7 or Equation 8 and their linear combination (a×(equation Similarly, the data of w i )+(1−a)×(w i shown in Expression 8) described in FIG. 7 explains the data well, and the first term in Expression 6 becomes the minimum. However, the constraint on the sparsity of the second term in Equation 6 yields the set of w i shown in Equation 7. This means that the penalty calculated from the second term is 1/200 in the set of w i shown in Expression 7, while the penalty calculated from the second term is 1.20 in the set of w i shown in Expression 8. This is because it becomes 5. Therefore, x is selected as the feature.

=1/20,w=w=w=0 (式7)
=0,w=−5,w=10,w=0 (式8)
w 0 =1/20, w 1 =w 2 =w 3 =0 (Equation 7)
w 0 =0, w 1 =−5, w 2 =10, w 3 =0 (Equation 8)

なお、本具体例では、理想的なwが明らかに小さい場合を例示しているが、wが大きい場合にも、特徴選択の設定においてwを必ず選ぶと指定することにより、同様の現象を観測できる。この設定は、特に、後処理の最適化を想定した場合で、価格を示す特徴に残ってほしい、と想定した場合になされる。In this specific example, the case where the ideal w 0 is obviously small is illustrated. However, even when w 0 is large, the same is obtained by designating that w 0 is always selected in the feature selection setting. You can observe the phenomenon. This setting is made especially when the post-processing optimization is assumed and it is assumed that the price indicating feature should remain.

さらに、特徴選択部20は、式6に基づいて選択された特徴に加え、xを説明する特徴もさらに選択する。具体的には、特徴選択部20は、以下に示す式9を最小化する非ゼロのw´を選択することにより、特徴選択を行う。Further, the feature selection unit 20 further selects the feature that explains x in addition to the feature selected based on Expression 6. Specifically, the feature selection unit 20 performs feature selection by selecting a non-zero w′ i that minimizes Equation 9 below.

Figure 0006708295
Figure 0006708295

w´=−100,w´=−200のとき、式9における第一項が最小になる。例えば、5日に一度は午前および午後が独立に雨である、といったような雨の日の頻度が十分高い場合、第一項を最小化する効果は、第二項のペナルティに比べて十分大きくなる。結果して、w´=−100,w´=−200が解になるため、特徴としてzおよびzが選択される。以上、本実施形態にかかる発明を、L1正則化を用いて実行した具体例について説明した。本発明に用いることができる特徴選択技術は、L1正則化には限定されず、他の特徴選択技術を用いることも可能である。When w′ 1 =−100 and w′ 2 =−200, the first term in Expression 9 becomes the minimum. If the frequency of rainy days is high enough, for example, that there is independent rain in the morning and afternoon once every five days, the effect of minimizing the first term is sufficiently larger than the penalty of the second term. Become. As a result, since w′ 1 =−100 and w′ 2 =−200 are solutions, z 1 and z 2 are selected as features. Heretofore, the invention according to the present embodiment has been described with respect to a specific example executed by using the L1 regularization. The feature selection technique that can be used in the present invention is not limited to L1 regularization, and other feature selection techniques can also be used.

以上の特徴選択処理により、すなわち、予測対象を説明する特徴に加えて、操作変数を説明する特徴もさらに選択する特徴選択処理により、x,zおよびzが特徴として選択される。言い換えると、最適化部40は、最適化に必要な特徴としてx,zおよびzを認識できることから、最適化には天気を考慮すべきと判断できるため、例えば、「晴れの日に傘を高い値段で売る」という、危うい戦略を選択することを回避できる。By the above-described feature selection process, that is, by the feature selection process that further selects the feature that describes the manipulated variable in addition to the feature that describes the prediction target, x, z 1 and z 2 are selected as features. In other words, since the optimization unit 40 can recognize x, z 1 and z 2 as features required for optimization, it can determine that the weather should be taken into consideration for optimization. You can avoid choosing dangerous strategies such as "selling at a high price."

ここで、上述する危うい戦略を選択することを回避できる理由を、より詳細に説明する。特徴x,zおよびzが正しく選択されたとして、以下の式10で示す予測式を作成し、wハット、wハットおよびwハット(ハットは、上付き^)を推定により得ることを考える。Here, the reason why it is possible to avoid selecting the above-mentioned dangerous strategy will be described in more detail. Assuming that the features x, z 1 and z 2 are correctly selected, the prediction formula shown in the following Formula 10 is created, and w 0 hat, w 1 hat and w 2 hat (hat is superscript ^) are obtained by estimation. Think about it.

Figure 0006708295
Figure 0006708295

xベクトルおよびwハットベクトルを以下の式11で表すと、yハットは、以下の式12で表される。 When the x vector and the w hat vector are represented by the following equation 11, the y hat is represented by the following equation 12.

Figure 0006708295
Figure 0006708295

過去の戦略xは、上記式5に基づき、以下の式13のように生成されたとする。 It is assumed that the past strategy x is generated as in the following Expression 13 based on the above Expression 5.

x=−100z+200z+500+ε (式13)x=−100z 1 +200z 2 +500+ε 2 (Equation 13)

なお、式10および式13において、ε〜N(0,σ )、ε〜N(0,σ )で、σ はσ およびデータ数nに比べて十分に小さいとする。なお、N(0,σ)は、平均0、分散σの正規分布を表す。In the equation 10 and equation 13, ε 1 ~N (0, σ 1 2), ε 2 ~N (0, σ 2 2) in, sigma 2 2 is sufficiently than the sigma 1 2 and the data number n Suppose it is small. Note that N(0, σ 2 ) represents a normal distribution with mean 0 and variance σ 2 .

ここで、ベクトルv、v、vを規定する。まず、vを以下の式14のように規定する。vは、上記式13を満たす(x z)に対して、以下の式15を満たす。Here, the vectors v 1 , v 2 , and v 3 are defined. First, v 1 is defined as in Expression 14 below. v 1 satisfies the following formula 15 while (x z 1 z 2 ) satisfies the above formula 13.

Figure 0006708295
Figure 0006708295

推定法として、最小二乗法が用いられるとする。このとき、真の係数w*T=(−1/50 −7 14 15)として、推定値は、近似的に以下の式16に示す確率分布に従う。ここでは、説明の簡略化のため、式17に示す近似式を想定する。It is assumed that the least squares method is used as the estimation method. At this time, assuming that the true coefficient w *T =(-1/50-71415), the estimated value approximately follows the probability distribution shown in Expression 16 below. Here, for simplification of description, the approximate expression shown in Expression 17 is assumed.

Figure 0006708295
Figure 0006708295

式17において、σ´=0(σ)であり、γ,γ,γは定数である。また、v,v,vはvも含めて互いに直交な規格化されたベクトルである。In Expression 17, σ 2 ′=0 (σ 2 ) and γ 2 , γ 3 and γ 4 are constants. Further, v 2 , v 3 , and v 4 are standardized vectors that are orthogonal to each other including v 1 .

最適化の際、z,zの実現値チルダz,チルダz(チルダは上付き〜)が得られたとする。このとき、以下の式18に示す楕円状の不確実性領域におけるロバスト最適化法を考える。During optimization, z 1, realizations tilde z 1 of z 2, tilde z 2 (tilde ~ superscripts) and was obtained. At this time, consider the robust optimization method in the elliptical uncertainty region shown in the following Expression 18.

Figure 0006708295
Figure 0006708295

式18において、推定値wベクトルハットと、その予測誤差の分散共分散行列Σが得られていると仮定する。Σもその推定値で置き換えられてもよい。また、λは、適切に選ばれた正のパラメータである。このとき、以下に示す式19が成り立つ。 In Equation 18, it is assumed that the estimated value w vector hat and the variance-covariance matrix Σ of its prediction error are obtained. Σ may also be replaced by the estimated value. Also, λ is a properly selected positive parameter. At this time, the following Expression 19 is established.

Figure 0006708295
Figure 0006708295

いま、1/σ´がσ/√nに比べ十分に大きいことから、上記式15を満たさない価格戦略xは、上記式18において、大きなペナルティをうける。よって、以下に示す式20を満たす価格が選ばれやすい。Now, since 1/σ 2 ′ is sufficiently larger than σ 1 /√n, the price strategy x that does not satisfy the above expression 15 suffers a large penalty in the above expression 18. Therefore, it is easy to select a price that satisfies the following Expression 20.

Figure 0006708295
Figure 0006708295

上記式20は、上記式13を満たすことと等価である。よって、上記具体例では、「晴れの日には低い価格をつける」ということに相当する。 Expression 20 above is equivalent to satisfying Expression 13 above. Therefore, in the above specific example, it corresponds to "putting a low price on a sunny day".

以上の内容は、以下のように一般化される。真のパラメータθに対する戦略xの最適化問題を以下に示す式21で定義する。The above contents are generalized as follows. The optimization problem of the strategy x with respect to the true parameter θ * is defined by Equation 21 shown below.

Figure 0006708295
Figure 0006708295

式21において、Xはドメイン、vは関数である。ここで、θの代わりにその推定値θハットと誤差分布が得られた場合のロバスト最適化問題を考える。誤差に正規性を仮定すると、典型的には、誤差の分散共分散行列Σを用いて、以下の式22が定義される。なお、式22にとは異なる方法でロバスト最適化法を用いてもよい。式22では、第2項が、予測分散が大きい戦略に対するペナルティとして働く。In Expression 21, X is a domain and v is a function. Here, consider a robust optimization problem when the estimated value θ hat and the error distribution are obtained instead of θ * . If the error is assumed to be normal, the following equation 22 is typically defined using the error covariance matrix Σ. Note that the robust optimization method may be used by a method different from Expression 22. In Equation 22, the second term acts as a penalty for strategies with large prediction variances.

Figure 0006708295
Figure 0006708295

以上、危うい戦略を選択することを回避できる理由を説明した。また、本実施形態の説明から、以下のことも説明される。上記式1に示すように、p(y=多い|x=高い)とp(y=多い|do(x=高い))とは等しくない。一方で、介入を行って得られた値(do(x=高い))が用いられる場合であっても、予測対象yを説明できる特徴量だけでなく、操作変数xを説明できる特徴量を残せばよい。これは、以下の式23で表す内容を意味する。 So far, I explained why you can avoid choosing a dangerous strategy. The following will also be described from the description of the present embodiment. As shown in Equation 1 above, p (y=many|x=high) and p(y=many|do(x=high)) are not equal. On the other hand, even when the value (do (x=high)) obtained by performing the intervention is used, not only the feature amount that can explain the prediction target y but also the feature amount that can explain the manipulated variable x should be left. Good. This means the content represented by the following Expression 23.

p(y=多い|x=高い,z=雨)=p(y=多い|do(x=高い),z=雨)
(式23)
p (y=many|x=high, z=rain)=p(y=many|do(x=high), z=rain)
(Equation 23)

次に、本発明の概要を説明する。図5は、本発明による特徴選択システムの概要を示すブロック図である。本発明による特徴選択システム90は、ユーザによる外部からのデータ(より具体的には、特徴の集合)の入力を受け付ける。図6は、図5に例示する特徴選択システムがユーザにより外部から受け付けるデータの具体例を示す説明図である。図6に例示するデータは、日ごとの傘の価格および傘の売上数、並びに、その日の状況(例えば、天気、最高気温、広告を出したか否か、祝日か否か、など)を示すデータである。 Next, the outline of the present invention will be described. FIG. 5 is a block diagram showing an outline of the feature selection system according to the present invention. The feature selection system 90 according to the present invention receives input of data (more specifically, a set of features) from the outside by the user. FIG. 6 is an explanatory diagram showing a specific example of data that the feature selection system illustrated in FIG. 5 receives from the outside by the user. The data illustrated in FIG. 6 is data indicating the price of the umbrella and the number of sales of the umbrella for each day, and the situation of the day (for example, weather, maximum temperature, whether an advertisement is placed, whether it is a holiday, etc.). Is.

本発明による特徴選択システム90は、予測モデルを用いて表される目的関数を制約条件の下で最適化するための操作変数(例えば、操作変数x)を算出する場合におけるその予測モデルの学習に用いられる特徴を選択する特徴選択システムであって、予測対象(例えば、被説明変数y)の指定と、操作変数の指定とを受け付ける受付部91(例えば、受付部10)と、予測対象に影響し得る特徴(例えば、説明変数zの候補)の集合から、その予測対象に影響する特徴の集合である第1特徴集合と、操作変数に影響する特徴の集合である第2特徴集合とを選択する特徴選択部92(例えば、特徴選択部20)と、第1特徴集合と第2特徴集合とを出力する出力部93(例えば、出力部50)とを備えている。 The feature selection system 90 according to the present invention is used for learning a prediction model when calculating an operation variable (for example, an operation variable x) for optimizing an objective function represented by using the prediction model under a constraint condition. A feature selection system for selecting a feature to be used, which receives a designation of a prediction target (for example, an explained variable y) and a designation of an operation variable, and an influence on the prediction target. From a set of possible features (for example, candidates for the explanatory variable z), a first feature set, which is a set of features that affect the prediction target, and a second feature set, which is a set of features that affect the operation variable, are selected. The feature selection unit 92 (for example, the feature selection unit 20) and the output unit 93 (for example, the output unit 50) that outputs the first feature set and the second feature set.

そのような構成により、予測モデルの学習に用いられる特徴を選択する際、その予測モデルを用いて行われる適切な最適化に必要な特徴を知ることができる With such a configuration, when a feature used for learning the prediction model is selected, it is possible to know the feature required for proper optimization performed using the prediction model.

例えば、傘の価格の最適化問題の場合、図6に示す例では、特徴選択システム90(より具体的には、受付部91)は、予測対象(被説明変数y)の指定に傘の売上数を受け付け、操作変数(操作変数x)の指定に傘の価格を受け付ける。また、特徴選択システム90(より具体的には、受付部91)は、予測対象に影響し得る特徴(説明変数zの候補)の集合の指定に、その日の状況(例えば、天気、最高気温、広告を出したか否か、祝日か否か、など)を受け付ける。なお、特徴選択システム90は、特徴の集合として、傘の価格およびその日の状況を受け付け、その特徴のうち、傘の価格が操作変数である旨の識別情報(それ以外は、説明変数zの候補である旨の情報)を併せて受け付けてもよい。 For example, in the case of the umbrella price optimization problem, in the example shown in FIG. 6, the feature selection system 90 (more specifically, the reception unit 91) specifies the umbrella sales to the prediction target (explained variable y). The number of the umbrellas is accepted, and the price of the umbrella is accepted to specify the manipulated variable (the manipulated variable x). Further, the feature selection system 90 (more specifically, the reception unit 91) designates a set of features (candidates for the explanatory variable z) that can influence the prediction target, by specifying the situation of the day (for example, weather, maximum temperature, Whether or not an advertisement has been placed, whether or not it is a holiday, etc.) are accepted. Note that the feature selection system 90 receives the price of the umbrella and the situation of the day as a set of features, and among the features, identification information indicating that the price of the umbrella is an operation variable (other than that, candidates for the explanatory variable z). (Information indicating that) is also accepted.

また、特徴選択システム90は、第2特徴集合には含まれるが第1特徴集合に含まれない少なくとも1つの特徴を説明変数とする予測モデルを学習する学習部(例えば、学習部30)を備えていてもよい。 The feature selection system 90 also includes a learning unit (for example, the learning unit 30) that learns a prediction model having at least one feature included in the second feature set but not included in the first feature set as an explanatory variable. May be.

そして、学習部は、第1特徴集合に含まれる特徴および第2特徴集合に含まれる特徴の全てを説明変数とし、予測対象である特徴を被説明変数とするモデルを学習してもよい。そのような構成により、最適化処理の入力として用いられる予測モデルを、後処理である最適化処理をも考慮して適切に学習することができる。 Then, the learning unit may learn a model in which all the features included in the first feature set and the features included in the second feature set are used as explanatory variables, and the feature that is the prediction target is used as the explained variable. With such a configuration, the prediction model used as the input of the optimization process can be appropriately learned in consideration of the optimization process that is the post-process.

また、出力部93は、第1特徴集合に含まれる特徴と、第2特徴集合には含まれるが第1特徴集合には含まれない特徴とを、区別し得る態様にて表示装置に表示してもよい。そのような構成により、予測に特化した場合に選択される特徴と、後処理である最適化処理を考慮した場合にはじめて選択される特徴とを区別することができる。 The output unit 93 also displays the features included in the first feature set and the features included in the second feature set but not included in the first feature set on the display device in a distinguishable manner. May be. With such a configuration, it is possible to distinguish between a feature selected in the case of specializing in prediction and a feature first selected in the case of considering an optimization process that is a post-process.

また、特徴選択部92は、予測対象に影響し得る特徴の集合から、予測対象を被説明変数として特徴選択処理を行うことで第1特徴集合を取得し、予測対象に影響し得る特徴の集合から、操作変数を被説明変数として特徴選択処理を行うことで第2特徴集合を取得してもよい。そして、出力部93は、取得された第1特徴集合と第2特徴集合との和集合を出力してもよい。 Further, the feature selecting unit 92 obtains the first feature set from the set of features that may affect the prediction target by performing the feature selection process with the prediction target as the explained variable, and sets of features that may affect the prediction target. Therefore, the second feature set may be acquired by performing the feature selection process using the manipulated variable as the explained variable. Then, the output unit 93 may output the union set of the acquired first feature set and second feature set.

なお、特徴選択部92は、操作変数として指定された特徴を第1特徴集合に含めるように選択する。このように、操作変数として指定された特徴を必ず残すことにより、後処理である最適化処理が可能になる。 The feature selecting unit 92 selects the feature designated as the operation variable so as to be included in the first feature set. In this way, by always leaving the feature designated as the manipulated variable, the post-processing optimization processing becomes possible.

特徴選択システム90は、例えば予測に基づく最適化に用いられる予測モデルを学習するための特徴選択機能を備えた、パッケージソフトウェアやAPI(Application Program Interface )として実装されてもよい。このような特徴選択機能がSaaS(Software as a Service)形式で提供されても良い。 The feature selection system 90 may be implemented as, for example, package software or an API (Application Program Interface) having a feature selection function for learning a prediction model used for optimization based on prediction. Such a feature selection function may be provided in the SaaS (Software as a Service) format.

図7は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。コンピュータ1000は、CPU1001、主記憶装置1002、補助記憶装置1003、インタフェース1004を備える。 FIG. 7 is a schematic block diagram showing the configuration of a computer according to at least one embodiment. The computer 1000 includes a CPU 1001, a main storage device 1002, an auxiliary storage device 1003, and an interface 1004.

上述の情報処理システムは、コンピュータ1000に実装される。そして、上述した各処理部の動作は、プログラム(特徴選択プログラム)の形式で補助記憶装置1003に記憶されている。CPU1001は、プログラムを補助記憶装置1003から読み出して主記憶装置1002に展開し、当該プログラムに従って上記処理を実行する。 The information processing system described above is implemented in the computer 1000. The operation of each processing unit described above is stored in the auxiliary storage device 1003 in the form of a program (feature selection program). The CPU 1001 reads the program from the auxiliary storage device 1003, expands it in the main storage device 1002, and executes the above-described processing according to the program.

なお、少なくとも1つの実施形態において、補助記憶装置1003は、一時的でない有形の媒体の一例である。一時的でない有形の媒体の他の例としては、インタフェース1004を介して接続される磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等が挙げられる。また、このプログラムが通信回線によってコンピュータ1000に配信される場合、配信を受けたコンピュータ1000が当該プログラムを主記憶装置1002に展開し、上記処理を実行しても良い。 Note that in at least one embodiment, the auxiliary storage device 1003 is an example of a non-transitory tangible medium. Other examples of non-transitory tangible media include magnetic disks, magneto-optical disks, CD-ROMs, DVD-ROMs, semiconductor memories, etc., connected through the interface 1004. Further, when this program is distributed to the computer 1000 via a communication line, the computer 1000 that has received the distribution may expand the program in the main storage device 1002 and execute the above processing.

また、当該プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、当該プログラムは、前述した機能を補助記憶装置1003に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the program may be for realizing some of the functions described above. Further, the program may be a so-called difference file (difference program) that realizes the function described above in combination with another program already stored in the auxiliary storage device 1003.

本発明は、予測に用いる特徴を選択する特徴選択システムに好適に適用される。例えば、本発明をホテルの価格を最適化に用いられる特徴を選択するようなシステムにも好適に適用される。また、本発明は、例えば、データベースと結合され、予測に基づいて最適化した結果(最適解)を出力するシステムに好適に適用される。この場合、例えば、特徴量の選択処理とそれ踏まえた最適化処理とを一まとめに行うシステムとして提供されてもよい。 INDUSTRIAL APPLICABILITY The present invention is suitably applied to a feature selection system that selects features used for prediction. For example, the present invention is preferably applied to a system for selecting a feature used for optimizing a hotel price. Further, the present invention is preferably applied to, for example, a system that is connected to a database and outputs a result (optimal solution) optimized based on prediction. In this case, for example, it may be provided as a system for collectively performing the feature amount selection process and the optimization process based on the feature amount selection process.

10 受付部
20 特徴選択部
30 学習部
40 最適化部
50 出力部
100 価格最適化システム
10 reception unit 20 feature selection unit 30 learning unit 40 optimization unit 50 output unit 100 price optimization system

Claims (9)

予測モデルを用いて表される目的関数を制約条件の下で最適化するための操作変数を算出する場合における当該予測モデルの学習に用いられる特徴を選択する特徴選択システムであって、
予測対象の指定と、前記操作変数の指定とを受け付ける受付部と、
前記予測対象に影響し得る特徴の集合から、当該予測対象に影響する特徴の集合である第1特徴集合と、前記操作変数に影響する特徴の集合である第2特徴集合とを選択する特徴選択部と、
前記第1特徴集合と第2特徴集合とを出力する出力部とを備え
前記特徴選択部は、前記操作変数として指定された特徴を前記第1特徴集合に含めるように選択する
ことを特徴とする特徴選択システム。
A feature selection system for selecting a feature used for learning of a prediction model when calculating an operation variable for optimizing an objective function represented using a prediction model under a constraint condition,
A receiving unit that receives the designation of the prediction target and the designation of the manipulated variable;
Feature selection for selecting, from a set of features that can affect the prediction target, a first feature set that is a set of features that affect the prediction target and a second feature set that is a set of features that affect the operation variable Department,
An output unit that outputs the first feature set and the second feature set ,
The feature selecting system, wherein the feature selecting unit selects a feature designated as the manipulated variable so as to be included in the first feature set .
第2特徴集合には含まれるが第1特徴集合に含まれない少なくとも1つの特徴を説明変数とする予測モデルを学習する学習部を備えた
請求項1記載の特徴選択システム。
The feature selection system according to claim 1, further comprising: a learning unit that learns a prediction model having at least one feature included in the second feature set but not included in the first feature set as an explanatory variable.
学習部は、第1特徴集合に含まれる特徴および第2特徴集合に含まれる特徴の全てを説明変数とし、予測対象である特徴を被説明変数とするモデルを学習する
請求項2記載の特徴選択システム。
The feature selection according to claim 2, wherein the learning unit learns a model in which all the features included in the first feature set and the features included in the second feature set are used as explanatory variables, and the feature that is the prediction target is used as the explained variable. system.
出力部は、第1特徴集合に含まれる特徴と、第2特徴集合には含まれるが第1特徴集合には含まれない特徴とを、区別し得る態様にて表示装置に表示する
請求項1から請求項3のうちのいずれか1項に記載の特徴選択システム。
The output unit displays on the display device a feature included in the first feature set and a feature included in the second feature set but not included in the first feature set in a distinguishable manner. To the feature selection system according to claim 3.
特徴選択部は、予測対象に影響し得る特徴の集合から、予測対象を被説明変数として特徴選択処理を行うことで第1特徴集合を取得し、予測対象に影響し得る特徴の集合から、操作変数を被説明変数として特徴選択処理を行うことで第2特徴集合を取得し、
出力部は、取得された前記第1特徴集合と前記第2特徴集合との和集合を出力する
請求項1から請求項4のうちのいずれか1項に記載の特徴選択システム。
The feature selection unit obtains a first feature set from the set of features that may affect the prediction target by performing feature selection processing using the prediction target as the explained variable, and operates from the set of features that may affect the prediction target. A second feature set is obtained by performing feature selection processing using the variable as the explained variable,
The feature selection system according to any one of claims 1 to 4, wherein the output unit outputs a set of the acquired first feature set and the acquired second feature set.
予測モデルを用いて表される目的関数を制約条件の下で最適化するための操作変数を算出する場合における当該予測モデルの学習に用いられる特徴を選択する特徴選択方法であって、
予測対象の指定と、前記操作変数の指定とを受け付け、
前記予測対象に影響し得る特徴の集合から、当該予測対象に影響する特徴の集合である第1特徴集合と、前記操作変数に影響する特徴の集合である第2特徴集合とを選択し、
前記選択の際、前記操作変数として指定された特徴を前記第1特徴集合に含めるように選択し、
前記第1特徴集合と第2特徴集合とを出力する
ことを特徴とする特徴選択方法。
A feature selection method for selecting a feature used for learning of the prediction model when calculating an operation variable for optimizing an objective function represented by using the prediction model under a constraint condition,
Accept the prediction target specification and the operation variable specification,
From the set of features that can affect the prediction target, select a first feature set that is a set of features that affect the prediction target and a second feature set that is a set of features that affect the manipulated variable,
At the time of the selection, a feature specified as the manipulated variable is selected to be included in the first feature set,
A feature selection method comprising outputting the first feature set and the second feature set.
第2特徴集合には含まれるが第1特徴集合に含まれない少なくとも1つの特徴を説明変数とする予測モデルを学習する
請求項記載の特徴選択方法。
The feature selection method according to claim 6 , wherein a prediction model having at least one feature included in the second feature set but not included in the first feature set as an explanatory variable is learned.
予測モデルを用いて表される目的関数を制約条件の下で最適化するための操作変数を算出する場合における当該予測モデルの学習に用いられる特徴を選択するコンピュータに適用される特徴選択プログラムであって、
前記コンピュータに、
予測対象の指定と、前記操作変数の指定とを受け付ける受付処理、
前記予測対象に影響し得る特徴の集合から、当該予測対象に影響する特徴の集合である第1特徴集合と、前記操作変数に影響する特徴の集合である第2特徴集合とを選択する特徴選択処理、および、
前記第1特徴集合と第2特徴集合とを出力する出力処理を実行させ
前記特徴選択処理で、前記操作変数として指定された特徴を前記第1特徴集合に含めるように選択させる
ための特徴選択プログラム。
It is a feature selection program applied to a computer that selects features used for learning of a prediction model when calculating an operation variable for optimizing an objective function represented by the prediction model under constraint conditions. hand,
On the computer,
Acceptance process for accepting the designation of the prediction target and the designation of the manipulated variable,
Feature selection for selecting, from a set of features that can affect the prediction target, a first feature set that is a set of features that affect the prediction target and a second feature set that is a set of features that affect the operation variable Processing, and
Output processing for outputting the first feature set and the second feature set ,
A feature selection program for causing the feature selection process to select a feature specified as the manipulated variable to be included in the first feature set .
コンピュータに、
第2特徴集合には含まれるが第1特徴集合に含まれない少なくとも1つの特徴を説明変数とする予測モデルを学習する学習処理を実行させる
請求項記載の特徴選択プログラム。
On the computer,
The feature selection program according to claim 8, which executes a learning process of learning a prediction model having at least one feature included in the second feature set but not included in the first feature set as an explanatory variable.
JP2019500917A 2017-02-22 2017-02-22 Feature selection system, feature selection method, and feature selection program Active JP6708295B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/006647 WO2018154663A1 (en) 2017-02-22 2017-02-22 Feature selection system, feature selection method, and feature selection program

Publications (2)

Publication Number Publication Date
JPWO2018154663A1 JPWO2018154663A1 (en) 2019-06-27
JP6708295B2 true JP6708295B2 (en) 2020-06-10

Family

ID=63253628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019500917A Active JP6708295B2 (en) 2017-02-22 2017-02-22 Feature selection system, feature selection method, and feature selection program

Country Status (2)

Country Link
JP (1) JP6708295B2 (en)
WO (1) WO2018154663A1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IN2014CH00257A (en) * 2014-01-21 2015-07-31 Yokogawa Electric Corp
EP3200038A4 (en) * 2014-09-26 2018-06-13 Nec Corporation Model evaluation device, model evaluation method, and program recording medium

Also Published As

Publication number Publication date
WO2018154663A1 (en) 2018-08-30
JPWO2018154663A1 (en) 2019-06-27

Similar Documents

Publication Publication Date Title
US20160364783A1 (en) Systems and methods for vehicle purchase recommendations
US11537847B2 (en) Time series forecasting to determine relative causal impact
US20180075360A1 (en) Accuracy-estimating-model generating system and accuracy estimating system
Gallego et al. Online learning
US20150363865A1 (en) Systems and methods for vehicle purchase recommendations
JP6459968B2 (en) Product recommendation device, product recommendation method, and program
JPWO2017094207A1 (en) Information processing system, information processing method, and information processing program
JP6125627B2 (en) Consumer decision tree generation system
US20190332957A1 (en) Causality for machine learning systems
JPWO2016151618A1 (en) Prediction model update system, prediction model update method, and prediction model update program
CN112365283B (en) Coupon issuing method and device, terminal equipment and storage medium
KR102264540B1 (en) System for selling goods using correlation analysis network and method therof
US20180240037A1 (en) Training and estimation of selection behavior of target
WO2017056367A1 (en) Information processing system, information processing method, and information processing program
JP6879357B2 (en) Price optimization system, price optimization method and price optimization program
US20190385178A1 (en) Prediction system and prediction method
WO2017056366A1 (en) Optimization system, optimization method, and optimization program
JP2015114988A (en) Processing device, processing method, and program
US20220351051A1 (en) Analysis system, apparatus, control method, and program
JP6708295B2 (en) Feature selection system, feature selection method, and feature selection program
US20220027760A1 (en) Learning device and learning method
Crönert et al. Inverse optimization of integer programming games for parameter estimation arising from competitive retail location selection
JP7464115B2 (en) Learning device, learning method, and learning program
JP2015114987A (en) Processing device, processing method, and program
JP6601888B1 (en) Information processing apparatus, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200504

R150 Certificate of patent or registration of utility model

Ref document number: 6708295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150