WO2019189016A1 - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
WO2019189016A1
WO2019189016A1 PCT/JP2019/012569 JP2019012569W WO2019189016A1 WO 2019189016 A1 WO2019189016 A1 WO 2019189016A1 JP 2019012569 W JP2019012569 W JP 2019012569W WO 2019189016 A1 WO2019189016 A1 WO 2019189016A1
Authority
WO
WIPO (PCT)
Prior art keywords
attribute
model
information processing
attributes
generated
Prior art date
Application number
PCT/JP2019/012569
Other languages
English (en)
French (fr)
Inventor
白木 孝
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US17/041,667 priority Critical patent/US20210012247A1/en
Priority to JP2020510819A priority patent/JP7081661B2/ja
Publication of WO2019189016A1 publication Critical patent/WO2019189016A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Definitions

  • the present invention relates to an information processing apparatus, an information processing method, and a program for generating a model.
  • heterogeneous mixed learning As a method for generating a model based on data composed of a plurality of attributes.
  • Heterogeneous mixed learning generates a prediction model of a decision tree structure.
  • a leaf node located at the lowest hierarchy of the decision tree includes a prediction equation represented by a regression equation, and is an internal node that is a node other than a leaf node.
  • a node includes a branch condition for selecting a prediction formula. Note that a node including a branch condition located in the highest hierarchy is referred to as a root node.
  • each attribute is included in the prediction formula and the branch condition. For this reason, by performing heterogeneous mixed learning, it is possible to know the influence of each attribute on each model.
  • a plurality of models can be generated by a plurality of repetitions called multi-start. Then, the plurality of generated models are evaluated, and the best model is selected.
  • examples of performing heterogeneous mixed learning include building power demand prediction and store sales prediction.
  • the data attributes include power and sales as objective variables, weather, temperature, date, time, etc. as explanatory variables.
  • an object of the present invention is to provide an information processing apparatus, an information processing method, and a program that can solve the above-described problem that the influence of attributes on a generated model cannot be appropriately examined. There is.
  • Model generation means for generating a model using the attribute based on data consisting of a plurality of attributes;
  • An attribute changing means for changing the attribute used for model generation based on the generated model;
  • the model generation unit generates a new model based on the data including the changed attribute.
  • An information processing method includes: Based on data consisting of multiple attributes, generate a model using the attributes, Based on the generated model, change the attribute used for model generation, Furthermore, a new model is generated based on the data consisting of the changed attribute.
  • the configuration is as follows.
  • a program which is one embodiment of the present invention is In the information processing device, Based on data consisting of multiple attributes, generate a model using the attributes, Based on the generated model, change the attribute used for model generation, Furthermore, a new model is generated based on the data consisting of the changed attribute. To execute the process, The configuration is as follows.
  • the present invention is configured as described above, so that the influence of every attribute on the generated model can be appropriately examined.
  • FIG. 3 It is a figure which shows an example of the data used for model generation. It is a figure which shows an example of the produced
  • FIG. 1 is a diagram illustrating an example of data to be analyzed
  • FIG. 2 is a diagram illustrating an example of a generated model
  • FIG. 3 is a block diagram showing the configuration of the information processing apparatus
  • FIG. 4 is a flowchart showing the operation of the information processing apparatus.
  • FIG. 5 to FIG. 9 are diagrams for explaining how the model is generated.
  • the information processing apparatus of the present invention generates a model from data to be analyzed.
  • data having attributes such as y, x 1 , x 2 , x 3 ,...
  • FIG. 1 data having attributes such as y, x 1 , x 2 , x 3 ,...
  • FIG. 1 data having attributes such as y, x 1 , x 2 , x 3 ,...
  • FIG. 1 data having attributes such as y, x 1 , x 2 , x 3 ,...
  • FIG. 1 data having attributes such as y, x 1 , x 2 , x 3 ,...
  • FIG. 1 data having attributes such as y, x 1 , x 2 , x 3 ,...
  • FIG. 1 data having attributes such as y, x 1 , x 2 , x 3 ,...
  • FIG. 1 data having attributes such as y, x 1 , x 2 , x 3 ,...
  • the information processing apparatus 1 is composed of one or a plurality of information processing apparatuses including an arithmetic device and a storage device. As illustrated in FIG. 3, the information processing apparatus 1 includes an attribute selection unit 11, a model generation unit 12, and an attribute score calculation unit 13 that are constructed by an arithmetic device executing a program. In addition, the information processing apparatus 1 includes a data storage unit 15 and a model storage unit 16 that are formed in a storage device.
  • a detailed configuration and operation of the information processing apparatus 1 will be described.
  • the data storage unit 15 stores data to be analyzed as shown in FIG.
  • the data to be analyzed includes, for example, data of attributes such as y, x 1 , x 2 , x 3 ,..., For example, each attribute includes building power, weather, temperature, date, Time, number of people working, etc. are listed. However, the data may be any data. Note that No indicates a data number, and the attribute value having the same number is a value observed simultaneously.
  • the model storage unit 16 stores a model generated by learning data as will be described later.
  • the stored model includes, for example, a decision tree including a branch condition and a regression equation as shown in FIG.
  • the model may have any structure.
  • the attribute selection unit 11 first extracts and reads learning data used to create a model from the data stored in the data storage unit 15 (step S1 in FIG. 4). For example, the attribute selection unit 11 reads data numbers 1 to n among the data shown in FIG. 1 as learning data. The remaining data is, for example, test data for verifying the generated model.
  • the attribute selection unit 11 selects an attribute to be used for model generation from the read learning data.
  • all the attributes of the data as shown in FIG. 1 are used for model generation.
  • the attribute y is selected as the objective variable
  • other attributes are selected as explanatory variable candidates.
  • a plurality of attributes x 1 to x n used as explanatory variables are selected.
  • the objective variable y is the power of the building
  • the explanatory variables x 1 to x n are the weather, temperature, date, time, number of people working, etc.
  • the attribute selection by the attribute selection unit 11 is automatically performed based on a preset criterion.
  • the attribute selection unit 11 is not limited to selecting only some attributes included in the data as objective variables and explanatory variables, and may select and use all attributes as objective variables and explanatory variables.
  • the model generation unit 12 performs heterogeneous mixed learning using the attribute values selected as the objective variable and the explanatory variable by the attribute selection unit 11, and generates a prediction model having a decision tree structure as shown in FIG. (Step S3 in FIG. 4).
  • the node represented by the regression equation located at the bottom is called a leaf node.
  • the leaf node of the decision tree includes the prediction formula C1 represented by the regression expression including the attribute
  • the internal node that is a node other than the leaf node is for selecting the prediction formula and includes the branch condition including the attribute. including.
  • the model generation unit 12 generates a plurality of models by a so-called multi-start technique.
  • a plurality of models can be generated by changing a learning method such as changing an explanatory variable used in a root node of a branch condition.
  • another learning is performed by 30 multi-starts, and 30 models are generated as shown in FIG.
  • the number of models to be generated is not limited to the number described above.
  • the attribute score calculation unit 13 calculates the score of each attribute used in the model based on the model generated as described above (step S4 in FIG. 4).
  • the attribute score is calculated to be a value that is considered to represent the degree of influence of the attribute on the generated model or models, for example. A specific attribute score calculation method will be described later.
  • the attribute selection unit 11 changes the attribute used for model generation performed again later from the attribute score calculated based on the model generated as described above. That is, the attribute score calculation unit 13 and the attribute selection unit 11 function as an attribute changing unit that changes an attribute used for generating a model.
  • an attribute to be deleted is determined from the attributes used when generating the immediately preceding model, and the attribute to be used next is changed by deleting the attribute (step S5 in FIG. 4). No, step S6).
  • the information processing apparatus 1 determines an attribute that is considered to have a high degree of influence on the generated model as an attribute to be deleted. For this reason, the usage status of each attribute in the generated model is scored.
  • the higher the number of attributes used in the generated models the higher the score is calculated. Specifically, in all the generated models, for each attribute, the higher the number contained in the branch condition and the regression equation, the higher the score. Then, the attribute having the highest score is determined as the attribute to be deleted. In the example of FIG. 5, since the appearance many attributes x 2 to regression and branch condition, the score of the attribute x 2 is calculated higher as determined as an attribute the attribute x 2 is deleted. In the above, the branch condition in all models and the number of attributes appearing in the regression equation are added to calculate the score, but the number of attributes in any one of the multiple models is added together. A score may be calculated, or the score may be calculated based on the number of attributes in one model.
  • a value based on the number of attributes that appear only in one of the branch condition or regression equation in the model may be used as the score, and a value based on the number of models in which a certain attribute appears may be used as the score of the attribute.
  • the weights are added to the number of attributes in the model according to the contents of the model, such as the prediction accuracy evaluation value for each model. The score may be calculated based on this. Moreover, it is good also as a score of the said attribute based on the number of the attributes which appear in a model on other criteria.
  • the model evaluation method is not limited to the holdout method, and other methods such as cross-validation (Cross Validation) can be used.
  • the accuracy index is not limited to the average absolute error, but the average absolute error rate, RSME, etc. Other indicators can be used and are not limited to the methods described above.
  • weights can be given to a plurality of models based on the evaluation results of the models calculated as described above. For example, when 30 models are created by 30 multi-starts, they are arranged in the descending order of prediction accuracy in the evaluation method, the weight is 30 for the first model, the weight 29 for the second model,. , The 30th model is given a weight of 1, and even if the same attribute appears in each model, a difference may be given by the weight. It is also possible to add a weight according to the prediction accuracy value. For example, after the above sorting, a weight of 1/100 is set for a model with an error number of 100, a weight of 1/120 is set for a model of an error number of 120,. It is also possible to do.
  • the information processing apparatus 1 calculates a higher score for an attribute that is closer to the root node of the decision tree among attributes used in the generated plurality of models.
  • “distance from the root node” means the depth of the hierarchy from the root node located in the highest hierarchy of the decision tree.
  • the attribute having the highest score is determined as the attribute to be deleted.
  • the attribute x 3 is located in the branch condition of the root node of model 1 and is located in the branch condition one layer below the root node of model 2.
  • the score of the attribute x 3 is calculated high, and the attribute x 3 is calculated.
  • the method for determining the attribute to be deleted based on the distance from the root node is not limited to the method described above. For example, only the attribute located in the branch condition of the root node may be deleted, or the attribute to be deleted may be determined based on other criteria.
  • the information processing apparatus 1 calculates a higher score of the attribute as the coefficient of each attribute in the generated regression equation of the plurality of models is larger. Then, the attribute having the highest score is determined as the attribute to be deleted. For example, in the example of FIG. 7, the total value of the coefficient a of attributes x 1 in the regression equation for each model is calculated as a score of the attribute x 1.
  • the magnitude of the coefficient of the attribute in the regression equation may be determined by a numerical value including positive and negative, or may be determined by an absolute value excluding positive and negative.
  • the score based on the coefficient of the attribute in the regression equation may be the total value of the coefficient for each attribute, and the score based on the coefficient is calculated by other methods such as using the maximum value as the score. May be.
  • the information processing apparatus 1 when the information processing apparatus 1 generates a model including a decision tree, the more data used to generate the branch condition or regression equation, the more the attribute included in the branch condition or regression equation. Score high. Then, the attribute having the highest score is determined as the attribute to be deleted.
  • a decision tree when a decision tree is generated, a lot of data is used to generate a route including a conditional branch and a regression equation surrounded by a dotted ellipse in the decision tree of model 2, that is, When the number of data passing through the route is large, the score of the attribute included in the route is calculated high. In this case, for example, scores of attributes x 2 the number of data is included in the path enclosed by frequent ellipse through which When the calculated high is determined as the attribute to remove such attributes x 2.
  • the information processing apparatus 1 examines the degree of association between a plurality of attributes used in the generated model, and calculates an attribute score from the degree of association. Then, the attribute having the highest score is determined as the attribute to be deleted. For example, in the example of FIG. 9, in the decision tree of model 2, it is determined that the attributes x 2 and x 4 included in the conditional branch located in the mutually continuous hierarchy are attributes having a high degree of association with each other. The score of each of these attributes is calculated high. Then, both or one of the attributes x 2 and x 4 is determined as an attribute to be deleted. When determining one of the attributes to be deleted, another criterion such as selecting an attribute closer to the root node may be used.
  • the information processing apparatus 1 calculates a high score of an attribute that is set in advance as an uncontrollable attribute among attributes used in the generated model, and deletes the attribute. Determine as. For example, in the above-described example, when the objective variable is the power of the building, among the explanatory variables, “the number of people going to work” can be controlled, but “weather” cannot be controlled. The score of such an uncontrollable attribute is calculated high.
  • the example of deleting the attribute with the highest score is illustrated as an example, but the present invention is not necessarily limited to deleting the attribute with the highest score.
  • the attribute to be deleted may be determined under any condition based on the score, and may be determined as an attribute to delete one or a plurality of attributes.
  • the information processing apparatus 1 may use one of the attribute score calculation methods described above, or may combine several methods.
  • the score calculation method is not limited to the method described above, and any method may be used.
  • the attribute selection unit 11 removes the attribute determined to be deleted as described above from the explanation variable candidates used for model generation, sets the remaining attributes as the explanation variable candidates, and uses them for model generation. It selects as an attribute (step S2 of FIG. 4). That is, an attribute is selected in step S2 of FIG. 4 from the remaining attributes from which the attribute determined to be deleted in step S6 of FIG. 4 is deleted.
  • the model generation unit 12 performs heterogeneous mixed learning in the same manner as described above using the attribute value selected by the attribute selection unit 11 to generate a decision tree structure prediction model (step S3 in FIG. 4). . Also at this time, the model generation unit 12 generates a plurality of models by a so-called multi-start technique.
  • the model generation unit 12 stores the generated model in the model storage unit 16 and outputs it to the user (FIG. 4 step S7).
  • a model is generated using a plurality of attributes, and based on the generated model, it is determined to delete an attribute that affects the model. Then, the model is generated again using the remaining attributes excluding the attribute determined to be deleted. Repeat attribute deletion and model generation as needed. Thereby, the model generated again can eliminate the influence of the deleted attribute. As a result, it is possible to generate a model in which the influence of an attribute different from the deleted attribute is taken into account, and to appropriately investigate the influence of various attributes in the data.
  • the present invention uses an attribute that has been changed to add another attribute that is not used for model generation based on the generated model.
  • the model may be generated again. In this case, the influence of the added attribute can be examined.
  • the attribute used for model generation may be deleted, and the model generation may be performed again using an attribute that has been changed to add another attribute. Note that the attribute used for model generation may be changed by any method.
  • FIG. 10 is a block diagram illustrating a configuration of the information processing apparatus according to the second embodiment.
  • an outline of the configuration of the information processing apparatus described in the first embodiment is shown.
  • Model generation means 110 for generating a model using the attribute based on data consisting of a plurality of attributes;
  • An attribute changing unit 120 that changes the attribute used for model generation based on the generated model;
  • the model generation unit 110 generates a new model based on the data including the changed attribute.
  • the configuration is as follows.
  • the model generation unit 110 and the attribute change unit 120 are realized by the information processing apparatus executing a program.
  • the information processing apparatus 100 configured as described above Based on data consisting of multiple attributes, generate a model using the attributes, Based on the generated model, change the attribute used for model generation, Furthermore, a new model is generated based on the data consisting of the changed attribute. It operates to execute the process.
  • a model is first generated using a plurality of attributes, the attributes are changed based on the generated model, and model generation is performed again using the changed model. For this reason, it is possible to generate a model that takes into account the influence of the changed attribute, and as a result, it is possible to appropriately investigate the influence of various attributes in the data.
  • Model generation means for generating a model using the attribute based on data consisting of a plurality of attributes;
  • An attribute changing means for changing the attribute used for model generation based on the generated model;
  • the model generation unit generates a new model based on the data including the changed attribute.
  • (Appendix 2) An information processing apparatus according to attachment 1, wherein The attribute changing means deletes at least one attribute among the attributes used in the model based on the generated model, The model generation means generates a new model based on data composed of other attributes different from the deleted attributes. Information processing device.
  • appendix 3 An information processing apparatus according to appendix 1 or 2, The attribute changing means determines the attribute to be deleted based on the usage status of the attribute in the generated model and deletes the attribute. Information processing device.
  • Appendix 5 An information processing apparatus according to appendix 3 or 4, wherein The model generation means generates the model a plurality of times based on data consisting of the same attribute, The attribute changing unit determines the attribute to be deleted based on the number of the attributes used for the plurality of generated models. Information processing device.
  • the model generation means generates the model including a decision tree
  • the attribute changing unit determines the attribute to be deleted based on a distance from a root node in the attribute determination tree used for the generated model.
  • Information processing device
  • the model generation means generates the model including a decision tree whose leaf node is a regression equation including the attribute,
  • the attribute changing means determines the attribute to be deleted based on a coefficient of the attribute in the regression equation of the generated model.
  • the model generation means generates the model including a decision tree in which a leaf node is a regression expression including the attribute, and a node other than the leaf node is a branch condition including the attribute,
  • the attribute changing unit determines the attribute to be deleted based on the branch condition and / or the number of data used for generating the regression equation in the generated decision tree of the model.
  • the attribute changing means deletes at least one of the plurality of attributes based on a degree of association between the plurality of attributes used in the generated model.
  • Information processing device An information processing apparatus according to any one of appendices 3 to 8, The attribute changing means deletes at least one of the plurality of attributes based on a degree of association between the plurality of attributes used in the generated model.
  • Appendix 10 An information processing apparatus according to any one of appendices 2 to 9, The attribute changing unit deletes the attribute that cannot be controlled according to a preset criterion. Information processing device.
  • the model generation means generates a plurality of models using the attribute
  • the attribute changing means determines the attribute to be deleted based on the usage status of the attribute in the generated plurality of models, and deletes the attribute.
  • Information processing device An information processing apparatus according to any one of appendices 1 to 10,
  • the model generation means generates a plurality of models using the attribute
  • the attribute changing means determines the attribute to be deleted based on the usage status of the attribute in the generated plurality of models, and deletes the attribute.
  • the information processing device evaluates the generated plurality of models by a preset method, sets a weight according to the evaluation result of each model, and uses the attribute in each model. Based on the situation and the weight set for each model, determine the attribute to be deleted and delete the attribute, Information processing device.
  • Appendix 11.5 An information processing method according to any one of appendices 11.2 to 11.4, When generating the model, generating the model consisting of a decision tree, Determining the attribute to be deleted based on the distance from the root node in the attribute decision tree used for the generated model; Information processing method.
  • Appendix 11.6 An information processing method according to any one of appendices 11.2 to 11.5, When generating the model, generating the model consisting of a decision tree whose leaf nodes are regression equations including the attributes, Determining the attribute to be deleted based on the coefficient of the attribute in the regression equation of the generated model; Information processing method.
  • the leaf node is a regression expression including the attribute
  • the model including a decision tree in which nodes other than the leaf node are branch conditions including the attribute, Determining the attribute to be deleted based on the branch condition in the generated decision tree of the model and / or the number of data used for generating the regression equation; Information processing device.
  • Appendix 11.8 An information processing method according to any one of appendices 11.2 to 11.7, Deleting at least one of the plurality of attributes based on the degree of association between the plurality of attributes used in the generated model; Information processing method.
  • Appendix 11.9 An information processing method according to any one of appendices 11.1 to 11.8, Delete the attribute that cannot be controlled by preset criteria; Information processing method.
  • Non-transitory computer readable media include various types of tangible storage media (tangible storage medium).
  • Examples of non-transitory computer-readable media include magnetic recording media (eg flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable ROM), flash ROM, RAM (Random Access Memory)) are included.
  • the program may also be supplied to the computer by various types of temporary computer-readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本発明の情報処理装置100は、複数の属性からなるデータに基づいて、属性を利用したモデルを生成するモデル生成手段110と、生成したモデルに基づいて、モデル生成に利用する属性を変更する属性変更手段120と、を備え、さらに、上記モデル生成手段110は、変更された属性からなるデータに基づいて、新たなモデルを生成する、という構成をとる。

Description

情報処理装置、情報処理方法、プログラム
 本発明は、モデルを生成する情報処理装置、情報処理方法、プログラムに関する。
 データ分析においては、多種多様なデータに混在するデータ同士の関連性から、特定の規則性を発見することが行われている。例えば、複数の属性からなるデータに基づいてモデルを生成する方法として、異種混合学習がある。異種混合学習は、決定木構造の予測モデルを生成するものであり、決定木の最下位階層に位置する葉ノードには回帰式で表される予測式を含み、葉ノード以外のノードである内部節点には予測式を選択するための分岐条件を含む。なお、最上位階層に位置する分岐条件からなるノードを、根ノードと呼ぶこととする。このとき、予測式と分岐条件には、それぞれ属性が含まれることとなる。このため、異種混合学習を行うことで、各モデルに対する各属性の影響を知ることができる。
 ここで、異種混合学習の一例を説明する。例えば、図1に示すように、y,x,x,x,・・・といった属性のデータにおいて、x,x,x,・・・を説明変数とし、yを目的変数とした場合に、図2に示すような決定木とその葉ノードにおける予測式からなるモデルが得られる。つまり、この場合、多数の属性からなる説明変数の候補から選択された説明変数を用いて各内部接点の分岐条件が設定され、分岐により分割された葉ノード毎に説明変数を用いた線形回帰式で表される予測式を得ることができる。このとき、異種混合学習は結果に再現性がないため、マルチスタートと呼ぶ複数回の繰り返しによって、複数のモデルを生成することができる。そして、生成された複数のモデルの評価を行い、最善のモデルを選択する、ことが行われる。例えば、異種混合学習を行う事例としては、ビルの電力需要予測や店舗の売上げ予測、などがある。この場合、データの属性としては、目的変数となる電力や売上げ、説明変数となる天気、気温、月日、時刻、などが挙げられる。
特開2016-91343号公報
 しかしながら、上述したようなモデル生成では、必ずしも所望のモデルを得ることができるとは限らない。例えば、異種混合学習では、最善のモデルを抽出することを目的としているため、生成したモデルによっては、当該モデルに影響する属性が少数しか抽出されず、また属性が偏ってしまう場合がある。換言すると、モデルに含まれていなかったり、含まれていてもわずかしか使用されていない属性については、強い属性に隠れ、モデルに対する影響を適切に表しているとは言えない。その結果、モデルは洗練された少数の属性を反映するのみで、それに準ずる他の属性の影響を適切に調べることはできない、という問題が生じる。
 ここで、異種混合モデルを生成する方法の一例として、特許文献1に記載の方法がある。この文献では、モデルの精度を高めるべく、選択する属性の削除や追加といった変更を行い、モデルを生成している。しかしながら、かかる方法では、単にモデルの生成に用いる属性を任意に直接的に変更しているため、膨大な数の選択肢があり、また選択された属性は異種混合によって洗練されたものとは言えない。従って、依然として異種混合学習による選択で洗練された属性、かつ少数に限らない属性の影響を適切に調べることができない、という問題がある。そして、かかる問題は、異種混合学習に限らず、あらゆる方法によるモデルの生成においても生じうる。
 このため、本発明の目的は、上述した課題である、生成するモデルに対する属性の影響を適切に調べることができない、という問題を解決することができる情報処理装置、情報処理方法、プログラムを提供することにある。
 本発明の一形態である情報処理装置は、
 複数の属性からなるデータに基づいて、前記属性を利用したモデルを生成するモデル生成手段と、
 生成した前記モデルに基づいて、モデル生成に利用する前記属性を変更する属性変更手段と、を備え、
 前記モデル生成手段は、変更された前記属性からなるデータに基づいて、新たなモデルを生成する、
という構成をとる。
 また、本発明の一形態である情報処理方法は、
 複数の属性からなるデータに基づいて、前記属性を利用したモデルを生成し、
 生成した前記モデルに基づいて、モデル生成に使用する前記属性を変更し、
 さらに、変更された前記属性からなるデータに基づいて、新たなモデルを生成する、
という構成をとる。
 また、本発明の一形態であるプログラムは、
 情報処理装置に、
 複数の属性からなるデータに基づいて、前記属性を利用したモデルを生成し、
 生成した前記モデルに基づいて、モデル生成に使用する前記属性を変更し、
 さらに、変更された前記属性からなるデータに基づいて、新たなモデルを生成する、
処理を実行させる、
という構成をとる。
 本発明は、以上のように構成されることにより、生成するモデルに対するあらゆる属性の影響を適切に調べることができる。
モデル生成に使用するデータの一例を示す図である。 生成したモデルの一例を示す図である。 本発明の実施形態1における情報処理装置の構成を示すブロック図である。 図3に開示した情報処理装置の動作を示すフローチャートである。 本発明において削除する属性を決定するときの様子を説明するための図である。 本発明において削除する属性を決定するときの様子を説明するための図である。 本発明において削除する属性を決定するときの様子を説明するための図である。 本発明において削除する属性を決定するときの様子を説明するための図である。 本発明において削除する属性を決定するときの様子を説明するための図である。 本発明の実施形態2における情報処理装置の構成を示すブロック図である。
 <実施形態1>
 本発明の第1の実施形態を、図1乃至図9を参照して説明する。図1は、分析対象となるデータの一例を示す図であり、図2は、生成したモデルの一例を示す図である。図3は、情報処理装置の構成を示すブロック図であり、図4は、情報処理装置の動作を示すフローチャートである。図5乃至図9は、モデル生成時の様子を説明するための図である。
 まず、本発明の情報処理装置は、分析対象となるデータからモデルを生成するものである。例えば、本実施形態では、図1に示すようなy,x,x,x,・・・といった属性のデータを分析対象とし、かかるデータから図2に示すような決定木からなる複数のモデルを生成する異種混合学習を行う場合を説明する。但し、本発明は、異種混合学習に限らず、あらゆる方法によるモデル生成の場合にも適用可能である。
 情報処理装置1は、演算装置や記憶装置を備えた、1台又は複数台の情報処理装置にて構成されている。そして、情報処理装置1は、図3に示すように、演算装置がプログラムを実行することで構築された、属性選択部11、モデル生成部12、属性スコア算出部13、を備えている。また、情報処理装置1は、記憶装置に形成された、データ記憶部15、モデル記憶部16、を備えている。以下、情報処理装置1の詳細な構成と動作について説明する。
 上記データ記憶部15は、上述した図1に示すような分析対象となるデータを記憶する。分析対象となるデータは、例えば、y,x,x,x,・・・といった属性のデータがあることとし、一例として、各属性は、ビルの電力、天気、気温、月日、時刻、出勤人数などが挙げられる。但し、データは、いかなるデータであってもよい。なお、Noは、データの番号を示しており、同一番号の属性の値は、同時に観測された値である。
 上記モデル記憶部16は、後述するようにデータを学習することによって生成したモデルを記憶する。記憶されるモデルは、例えば、図2に示すような分岐条件と回帰式とを含む決定木からなる。但し、モデルはいかなる構造であってもよい。
 上記属性選択部11は、まず、データ記憶部15に記憶されているデータのうち、モデルを作成するために用いる学習データを抽出して読み込む(図4のステップS1)。例えば、属性選択部11は、図1に示すデータのうち、データ番号が1~n番までを学習データとして読み込む。なお、残りのデータは、例えば、生成したモデルを検証するテストデータとなる。
 続いて、属性選択部11は、読み込んだ学習データから、モデルの生成に使用する属性を選択する。本実施形態では、図1に示すようなデータの全ての属性をモデル生成に用いるが、このうち、目的変数として属性yを選択し、他の属性を説明変数の候補として、かかる候補の中から説明変数として用いる複数の属性x~xを選択する。一例として、目的変数yはビルの電力であり、説明変数x~xは天気、気温、月日、時刻、出勤人数、などである。なお、属性選択部11による属性の選択は、事前に設定されている基準に基づいて自動的に行われる。但し、属性選択部11は、データに含まれる一部の属性のみを目的変数や説明変数として選択することに限定されず、全ての属性を目的変数や説明変数として選択して用いてもよい。
 上記モデル生成部12は、上記属性選択部11によって目的変数及び説明変数として選択された属性の値を用いて異種混合学習を行い、図2に示すような、決定木構造の予測モデルを生成する(図4のステップS3)。ここで、本実施形態では、図2に示すような決定木構造において、最上位階層に位置する分岐条件からなるノードを根ノードと呼び(例えば、図2のモデル1における点線丸印で示す「x=α」の分岐条件)、最下段に位置する回帰式で表されるノードを葉ノードと呼ぶ。そして、決定木の葉ノードには、属性を含む回帰式で表される予測式C1を含み、葉ノード以外のノードである内部節点には、予測式を選択するためであり属性が含まれた分岐条件を含む。
 このとき、モデル生成部12は、いわゆるマルチスタートといった手法で、複数のモデルを生成する。例えば、マルチスタートでは、分岐条件の根ノードで用いられる説明変数が変更されるなど学習方法が変更されることで、複数のモデルを生成することができる。なお、本実施形態では、30回のマルチスタートによってそれぞれ別の学習を行い、図2に示すように30個のモデルを生成することとする。但し、生成するモデルの数は上述した数に限定されない。
 続いて、上記属性スコア算出部13は、上述したように生成したモデルに基づいて、当該モデルに使用されている各属性のスコアを算出する(図4のステップS4)。属性のスコアは、例えば、生成された1つ又は複数のモデルに対する属性の影響度合いを表すと考えられる値となるように算出する。なお、具体的な属性のスコアの算出方法については後述する。
 そして、上記属性選択部11は、上述したように生成したモデルに基づいて算出した属性のスコアから、後に再度行われるモデル生成に使用する属性の変更を行う。つまり、上記属性スコア算出部13と属性選択部11とは、モデルの生成に使用する属性の変更を行う属性変更手段として機能する。特に、本実施形態では、直前のモデルを生成する際に使用された属性の中から、削除する属性を決定し、かかる属性を削除して次に使用する属性を変更する(図4のステップS5でNo、ステップS6)。
 ここで、モデルに使用されている各属性のスコアの算出方法、及び、削除する属性の決定方法について説明する。上述したように、本実施形態では、情報処理装置1は、生成したモデルに対する影響度合いが高いと考えられる属性を、削除する属性として決定する。このため、生成したモデルにおける各属性の利用状況をスコア化する。
 一例として、生成した複数のモデルに使用される属性の数が多いほど、スコアを高く算出する。具体的に、生成した複数の全てのモデルにおいて、属性毎に、分岐条件と回帰式に含まれる数が多いほど、スコアが高くなるよう算出する。そして、スコアが最も高い属性を削除する属性として決定する。図5の例では、分岐条件と回帰式に属性xが多く出現しているため、当該属性xのスコアが高く算出され、当該属性xが削除される属性として決定される。なお、上記では、全てのモデルにおける分岐条件と回帰式に出現する属性の数を足し合わせてスコアとして算出しているが、全モデルのうちいずれか複数のモデル内の属性の数を足し合わせてスコアを算出してもよく、1つのモデル内の属性の数に基づいてスコアを算出してもよい。また、モデル内の分岐条件や回帰式の一方だけに出現する属性の数に基づく値をスコアとしてもよく、ある属性が出現するモデルの数に基づく値を当該属性のスコアとしてもよい。なお、複数のモデルに出現する属性の数をモデル間で足し合わせる際には、モデル毎の予測精度の評価値などモデルの内容に応じて当該モデル内の属性の数に重みを付けて足し合わせ、これに基づいてスコアを算出してもよい。また、その他の基準でモデル内に出現する属性の数に基づいて当該属性のスコアとしてもよい。
 ここで、上述したモデルの評価値を算出する方法の一例を説明する。例えば、ホールドアウト法を用いれば、図1に示すデータを学習データ、評価データに分割し、学習データでモデルを作成し、そのモデルを評価データに対して適応した時に得られる平均絶対誤差の精度が得られ、かかる精度に基づく値をモデルの予測精度の評価値とすることができる。なお、モデルの評価方法は、ホールドアウト法に限らず、交差検定(Cross Validation)など他の方法を用いることも可能であり、精度指標も平均絶対誤差に限らず平均絶対誤差率やRSMEなどの他の指標を用いることができ、上述した方法に限定されない。
 そして、上述したように算出した各モデルの評価結果に基づいて、複数のモデル間でも重みを付けることができる。例えば、30回のマルチスタートで30のモデルが作成された時に、上記評価方法での予測精度の高い順に並べ、1位のモデルには重み30、2位のモデルには重み29,・・・,30位のモデルには重み1を与えることで、それぞれのモデルに同様の属性の出現があった場合でも、重みで差を付けることもあり得る。また、予測精度の値により重みを付けることも可能である。例えば、上記ソートを行った後、誤差数100のモデルには重み1/100,誤差数120のモデルには重み1/120,・・・誤差数538のモデルには重み1/538などを設定することも可能である。
 他の例として、情報処理装置1は、生成した複数のモデルにおいて使用される属性のうち、決定木の根ノードからの距離が近い属性ほどスコアを高く算出する。ここで、「根ノードからの距離」とは、決定木の最上位階層に位置する根ノードからの階層の深さ、を意味する。そして、スコアが最も高い属性を削除する属性として決定する。図6の例では、属性xが、モデル1の根ノードの分岐条件に位置し、モデル2の根ノードから1階層下の分岐条件に位置している。このように、属性xが、モデル1では根ノードそのものに位置し、また、モデル2では根ノードから最も近くに位置しているため、当該属性xのスコアが高く算出され、当該属性xが削除される属性として決定される。但し、根ノードからの距離に基づいて削除する属性を決定する方法は、上述した方法に限定されない。例えば、根ノードの分岐条件に位置する属性だけを削除する対象としてもよく、他の基準で削除する属性を決定してもよい。
 他の例として、情報処理装置1は、生成した複数のモデルの回帰式における各属性の係数が大きいほど、かかる属性のスコアを高く算出する。そして、スコアが最も高い属性を削除する属性として決定する。例えば、図7の例では、各モデルの回帰式内の属性xの係数aの合計値が当該属性xのスコアとして算出される。このとき、回帰式内の属性の係数の大きさは、正負を含めた数値で判断してもよく、正負を排除して絶対値で判断してもよい。また、回帰式内の属性の係数に基づくスコアは、上述したように、属性毎の係数の合計値をスコアとしてもよく、最大値をスコアとするなど、他の方法で係数に基づくスコアを算出してもよい。
 他の例として、情報処理装置1は、決定木からなるモデルを生成する際に、分岐条件や回帰式の生成に使用されたデータの数が多いほど、当該分岐条件や回帰式に含まれる属性のスコアを高く算出する。そして、スコアが最も高い属性を削除する属性として決定する。例えば、図8の例では、決定木の生成の際に、モデル2の決定木のうち点線の楕円で囲んだ条件分岐と回帰式を含む経路の生成に多くのデータが使用された場合、つまり、かかる経路を通るデータの数が多かった場合に、かかる経路に含まれる属性のスコアを高く算出する。この場合、例えば、通るデータの数が多かった楕円で囲まれる経路に含まれる属性xのスコアが高く算出されたとすると、かかる属性xを削除する属性として決定する。
 他の例として、情報処理装置1は、生成したモデルに利用される複数の属性同士の関連度合いを調べ、かかる関連度合いから属性のスコアを算出する。そして、スコアが最も高い属性を削除する属性として決定する。例えば、図9の例では、モデル2の決定木において、相互に連続する階層に位置する条件分岐に含まれる属性同士x,xを相互に関連度合いが高い属性であると判定して、これら属性のスコアをそれぞれ高く算出する。そして、属性x,xの両方あるいは一方を削除する属性として決定する。なお、一方を削除する属性と決定する場合には、より根ノードに近い属性を選択するなど、さらに別の基準を用いてもよい。
 他の例として、情報処理装置1は、生成したモデルに利用される属性のうち、予め制御不可能な性質のものであると設定された属性のスコアを高く算出し、かかる属性を削除する属性として決定する。例えば、上述した例では、目的変数がビルの電力である場合に、説明変数のうち「出勤人数」は制御可能であるが、「天気」は制御不可能である。このような制御不可能な属性のスコアを高く算出する。
 なお、上記では、一例として、スコアが最も高い属性を削除することを例示したが、必ずしもスコアが最も高い属性を削除することに限定されない。削除する属性は、スコアに基づいていかなる条件で決定してもよく、1つあるいは複数の属性を削除する属性として決定してもよい。また、情報処理装置1は、上述した属性のスコアの算出方法のうち、1つの方法を用いてもよく、いくつかを組み合わせてもよい。また、スコアの算出方法は上述した方法に限定されず、いかなる方法であってもよい。
 そして、上記属性選択部11は、上述したように削除すると決定された属性を、モデル生成に用いる説明変数の候補から外し、残りの属性を説明変数の候補とし、その中から、モデル生成に用いる属性として選択する(図4のステップS2)。つまり、図4のステップS6で削除すると決定された属性を削除した残りの属性から、図4のステップS2で属性を選択する。
 その後、上記モデル生成部12は、上記属性選択部11によって選択された属性の値を用いて、上述同様に異種混合学習を行い、決定木構造の予測モデルを生成する(図4のステップS3)。このときも、モデル生成部12は、いわゆるマルチスタートといった手法で、複数のモデルを生成する。
 その後はさらに、上述したように、生成したモデルに基づいて属性のスコアを算出してある属性を削除し、残りの属性を用いて再度モデルを生成してもよい。一方で、何らかの基準によりモデル生成が終了されると(図4のステップS5でYes)、モデル生成部12は、生成したモデルをモデル記憶部16に記憶すると共に、ユーザに対して出力する(図4のステップS7)。
 以上のように、本発明では、まず複数の属性を用いてモデルを生成し、かかる生成したモデルに基づいて、当該モデルに影響があるような属性を削除することを決定する。そして、削除すると決定した属性を除いた残りの属性を用いて、再度モデルを生成する。必要に応じて、属性の削除とモデルの生成を繰り返す。これにより、再度生成したモデルは、削除した属性の影響を排除することができる。その結果、削除した属性とは異なる属性の影響を考慮したモデルも生成することができ、データにおける様々な属性の影響を適切に調べることができる。
 なお、上記では、モデル生成に利用した属性を削除する場合を例示したが、本発明では、生成したモデルに基づいてかかるモデル生成に利用していない他の属性を追加するよう変更した属性を用いて、再度モデル生成を行ってもよい。この場合には、追加した属性の影響を調べることができる。また、本発明では、生成したモデルに基づいて、モデル生成に利用した属性を削除すると共に、新たに別の属性を追加するよう変更した属性を用いて、再度モデル生成を行ってもよい。なお、モデル生成に利用する属性は、いかなる方法で変更されてもよい。
 <実施形態2>
 次に、本発明の第2の実施形態を、図10を参照して説明する。図10は、実施形態2における情報処理装置の構成を示すブロック図である。なお、本実施形態では、実施形態1で説明した情報処理装置の構成の概略を示している。
 図10に示すように、本実施形態における情報処理装置100は、
 複数の属性からなるデータに基づいて、前記属性を利用したモデルを生成するモデル生成手段110と、
 生成した前記モデルに基づいて、モデル生成に利用する前記属性を変更する属性変更手段120と、を備え、
 前記モデル生成手段110は、変更された前記属性からなるデータに基づいて、新たなモデルを生成する、
という構成をとる。
 なお、上記モデル生成手段110と属性変更手段120とは、情報処理装置がプログラムを実行することで実現されるものである。
 そして、上記構成の情報処理装置100は、
 複数の属性からなるデータに基づいて、前記属性を利用したモデルを生成し、
 生成した前記モデルに基づいて、モデル生成に使用する前記属性を変更し、
 さらに、変更された前記属性からなるデータに基づいて、新たなモデルを生成する、
という処理を実行するよう作動する。
 上記発明によると、まず複数の属性を用いてモデルを生成し、かかる生成したモデルに基づいて属性が変更され、変更されたモデルを用いて、再度モデル生成を行う。このため、変更した属性の影響を考慮したモデルも生成することができ、その結果、データにおける様々な属性の影響を適切に調べることができる。
 <付記>
 上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における情報処理装置、情報処理方法、プログラムの構成の概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
 複数の属性からなるデータに基づいて、前記属性を利用したモデルを生成するモデル生成手段と、
 生成した前記モデルに基づいて、モデル生成に利用する前記属性を変更する属性変更手段と、を備え、
 前記モデル生成手段は、変更された前記属性からなるデータに基づいて、新たなモデルを生成する、
情報処理装置。
(付記2)
 付記1に記載の情報処理装置であって、
 前記属性変更手段は、生成した前記モデルに基づいて、当該モデルに利用されている前記属性のうち少なくとも1つの属性を削除し、
 前記モデル生成手段は、削除された前記属性とは異なる他の前記属性からなるデータに基づいて、新たなモデルを生成する、
情報処理装置。
(付記3)
 付記1又は2に記載の情報処理装置であって、
 前記属性変更手段は、生成した前記モデルにおける前記属性の利用状況に基づいて、削除する前記属性を決定して当該属性を削除する、
情報処理装置。
(付記4)
 付記3に記載の情報処理装置であって、
 前記属性変更手段は、生成した前記モデルにおける前記属性の利用状況に基づいて前記モデルに対する予め設定された基準による前記属性の影響度合いを算出し、当該影響度合いが高い前記属性を削除する、
情報処理装置。
(付記5)
 付記3又は4に記載の情報処理装置であって、
 前記モデル生成手段は、同一の前記属性からなるデータに基づいて、前記モデルを複数回生成し、
 前記属性変更手段は、生成した複数の前記モデルに利用される前記属性の数に基づいて、削除する前記属性を決定する、
情報処理装置。
(付記6)
 付記3乃至5のいずれかに記載の情報処理装置であって、
 前記モデル生成手段は、決定木からなる前記モデルを生成し、
 前記属性変更手段は、生成した前記モデルに利用される前記属性の決定木における根ノードからの距離に基づいて、削除する前記属性を決定する、
情報処理装置。
(付記7)
 付記3乃至6のいずれかに記載の情報処理装置であって、
 前記モデル生成手段は、葉ノードが前記属性を含む回帰式である決定木からなる前記モデルを生成し、
 前記属性変更手段は、生成した前記モデルの前記回帰式における前記属性の係数に基づいて、削除する前記属性を決定する、
情報処理装置。
(付記8)
 付記3乃至6のいずれかに記載の情報処理装置であって、
 前記モデル生成手段は、葉ノードが前記属性を含む回帰式であり、前記葉ノード以外のノードが前記属性を含む分岐条件である決定木からなる前記モデルを生成し、
 前記属性変更手段は、生成した前記モデルの決定木における前記分岐条件及び/又は回帰式の生成に用いられた前記データの数に基づいて、削除する前記属性を決定する、
情報処理装置。
(付記9)
 付記3乃至8のいずれかに記載の情報処理装置であって、
 前記属性変更手段は、生成した前記モデルに利用される複数の前記属性同士の関連度合いに基づいて、前記複数の属性のうち少なくとも1つを削除する、
情報処理装置。
(付記10)
 付記2乃至9のいずれかに記載の情報処理装置であって、
 前記属性変更手段は、予め設定された基準により制御不可能な前記属性を削除する、
情報処理装置。
(付記10.1)
 付記1乃至10のいずれかに記載の情報処理装置であって、
 前記モデル生成手段は、前記属性を利用したモデルを複数生成し、
 前記属性変更手段は、生成した複数の前記モデルにおける前記属性の利用状況に基づいて、削除する前記属性を決定して当該属性を削除する、
情報処理装置。
(付記10.2)
 請求項10.1に記載の情報処理装置であって、
 前記属性変更手段は、生成した複数の前記モデルをそれぞれ予め設定された方法で評価し、当該各モデルの評価結果に応じた重みを当該各モデルに設定して、当該各モデルにおける前記属性の利用状況と当該各モデルに設定された前記重みとに基づいて、削除する前記属性を決定して当該属性を削除する、
情報処理装置。
(付記11)
 複数の属性からなるデータに基づいて、前記属性を利用したモデルを生成し、
 生成した前記モデルに基づいて、モデル生成に使用する前記属性を変更し、
 さらに、変更された前記属性からなるデータに基づいて、新たなモデルを生成する、
情報処理方法。
(付記11.1)
 付記11に記載の情報処理方法であって、
 生成した前記モデルに基づいて、当該モデルに利用されている前記属性のうち少なくとも1つの属性を削除し、
 削除された前記属性とは異なる他の前記属性からなるデータに基づいて、新たなモデルを生成する、
情報処理方法。
(付記11.2)
 付記11又は11.1に記載の情報処理方法であって、
 生成した前記モデルにおける前記属性の利用状況に基づいて、削除する前記属性を決定して当該属性を削除する、
情報処理装置。
(付記11.3)
 付記11.2に記載の情報処理方法であって、
 生成した前記モデルにおける前記属性の利用状況に基づいて前記モデルに対する予め設定された基準による前記属性の影響度合いを算出し、当該影響度合いが高い前記属性を削除する、
情報処理方法。
(付記11.4)
 付記11.2又は11.3に記載の情報処理方法であって、
 前記モデルを生成する際に、同一の前記属性からなるデータに基づいて、前記モデルを複数回生成し、
 生成した複数の前記モデルに利用される前記属性の数に基づいて、削除する前記属性を決定する、
情報処理装置。
(付記11.5)
 付記11.2乃至11.4のいずれかに記載の情報処理方法であって、
 前記モデルを生成する際に、決定木からなる前記モデルを生成し、
 生成した前記モデルに利用される前記属性の決定木における根ノードからの距離に基づいて、削除する前記属性を決定する、
情報処理方法。
(付記11.6)
 付記11.2乃至11.5のいずれかに記載の情報処理方法であって、
 前記モデルを生成する際に、葉ノードが前記属性を含む回帰式である決定木からなる前記モデルを生成し、
 生成した前記モデルの前記回帰式における前記属性の係数に基づいて、削除する前記属性を決定する、
情報処理方法。
(付記11.7)
 付記11.2乃至11.6のいずれかに記載の情報処理装置であって、
 前記モデルを生成する際に、葉ノードが前記属性を含む回帰式であり、前記葉ノード以外のノードが前記属性を含む分岐条件である決定木からなる前記モデルを生成し、
 生成した前記モデルの決定木における前記分岐条件及び/又は回帰式の生成に用いられた前記データの数に基づいて、削除する前記属性を決定する、
情報処理装置。
(付記11.8)
 付記11.2乃至11.7のいずれかに記載の情報処理方法であって、
 生成した前記モデルに利用される複数の前記属性同士の関連度合いに基づいて、前記複数の属性のうち少なくとも1つを削除する、
情報処理方法。
(付記11.9)
 付記11.1乃至11.8のいずれかに記載の情報処理方法であって、
 予め設定された基準により制御不可能な前記属性を削除する、
情報処理方法。
(付記12)
 情報処理装置に、
 複数の属性からなるデータに基づいて、前記属性を利用したモデルを生成し、
 生成した前記モデルに基づいて、モデル生成に使用する前記属性を変更し、
 さらに、変更された前記属性からなるデータに基づいて、新たなモデルを生成する、
処理を実行させるためのプログラム。
 なお、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 以上、上記実施形態等を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。
 なお、本発明は、日本国にて2018年3月28日に特許出願された特願2018-062093の特許出願に基づく優先権主張の利益を享受するものであり、当該特許出願に記載された内容は、全て本明細書に含まれるものとする。
10 情報処理装置
11 属性選択部
12 モデル生成部
13 属性スコア算出部
15 データ記憶部
16 モデル記憶部
100 情報処理装置
110 モデル生成手段
120 属性変更手段
 

Claims (23)

  1.  複数の属性からなるデータに基づいて、前記属性を利用したモデルを生成するモデル生成手段と、
     生成した前記モデルに基づいて、モデル生成に利用する前記属性を変更する属性変更手段と、を備え、
     前記モデル生成手段は、変更された前記属性からなるデータに基づいて、新たなモデルを生成する、
    情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記属性変更手段は、生成した前記モデルに基づいて、当該モデルに利用されている前記属性のうち少なくとも1つの属性を削除し、
     前記モデル生成手段は、削除された前記属性とは異なる他の前記属性からなるデータに基づいて、新たなモデルを生成する、
    情報処理装置。
  3.  請求項1又は2に記載の情報処理装置であって、
     前記属性変更手段は、生成した前記モデルにおける前記属性の利用状況に基づいて、削除する前記属性を決定して当該属性を削除する、
    情報処理装置。
  4.  請求項3に記載の情報処理装置であって、
     前記属性変更手段は、生成した前記モデルにおける前記属性の利用状況に基づいて前記モデルに対する予め設定された基準による前記属性の影響度合いを算出し、当該影響度合いが高い前記属性を削除する、
    情報処理装置。
  5.  請求項3又は4に記載の情報処理装置であって、
     前記モデル生成手段は、同一の前記属性からなるデータに基づいて、前記モデルを複数回生成し、
     前記属性変更手段は、生成した複数の前記モデルに利用される前記属性の数に基づいて、削除する前記属性を決定する、
    情報処理装置。
  6.  請求項3乃至5のいずれかに記載の情報処理装置であって、
     前記モデル生成手段は、決定木からなる前記モデルを生成し、
     前記属性変更手段は、生成した前記モデルに利用される前記属性の決定木における根ノードからの距離に基づいて、削除する前記属性を決定する、
    情報処理装置。
  7.  請求項3乃至6のいずれかに記載の情報処理装置であって、
     前記モデル生成手段は、葉ノードが前記属性を含む回帰式である決定木からなる前記モデルを生成し、
     前記属性変更手段は、生成した前記モデルの前記回帰式における前記属性の係数に基づいて、削除する前記属性を決定する、
    情報処理装置。
  8.  請求項3乃至6のいずれかに記載の情報処理装置であって、
     前記モデル生成手段は、葉ノードが前記属性を含む回帰式であり、前記葉ノード以外のノードが前記属性を含む分岐条件である決定木からなる前記モデルを生成し、
     前記属性変更手段は、生成した前記モデルの決定木における前記分岐条件及び/又は回帰式の生成に用いられた前記データの数に基づいて、削除する前記属性を決定する、
    情報処理装置。
  9.  請求項3乃至8のいずれかに記載の情報処理装置であって、
     前記属性変更手段は、生成した前記モデルに利用される複数の前記属性同士の関連度合いに基づいて、前記複数の属性のうち少なくとも1つを削除する、
    情報処理装置。
  10.  請求項2乃至9のいずれかに記載の情報処理装置であって、
     前記属性変更手段は、予め設定された基準により制御不可能な前記属性を削除する、
    情報処理装置。
  11.  請求項1乃至10のいずれかに記載の情報処理装置であって、
     前記モデル生成手段は、前記属性を利用したモデルを複数生成し、
     前記属性変更手段は、生成した複数の前記モデルにおける前記属性の利用状況に基づいて、削除する前記属性を決定して当該属性を削除する、
    情報処理装置。
  12.  請求項11に記載の情報処理装置であって、
     前記属性変更手段は、生成した複数の前記モデルをそれぞれ予め設定された方法で評価し、当該各モデルの評価結果に応じた重みを当該各モデルに設定して、当該各モデルにおける前記属性の利用状況と当該各モデルに設定された前記重みとに基づいて、削除する前記属性を決定して当該属性を削除する、
    情報処理装置。
  13.  複数の属性からなるデータに基づいて、前記属性を利用したモデルを生成し、
     生成した前記モデルに基づいて、モデル生成に使用する前記属性を変更し、
     さらに、変更された前記属性からなるデータに基づいて、新たなモデルを生成する、
    情報処理方法。
  14.  請求項13に記載の情報処理方法であって、
     生成した前記モデルに基づいて、当該モデルに利用されている前記属性のうち少なくとも1つの属性を削除し、
     削除された前記属性とは異なる他の前記属性からなるデータに基づいて、新たなモデルを生成する、
    情報処理方法。
  15.  請求項13又は14に記載の情報処理方法であって、
     生成した前記モデルにおける前記属性の利用状況に基づいて、削除する前記属性を決定して当該属性を削除する、
    情報処理装置。
  16.  請求項15に記載の情報処理方法であって、
     生成した前記モデルにおける前記属性の利用状況に基づいて前記モデルに対する予め設定された基準による前記属性の影響度合いを算出し、当該影響度合いが高い前記属性を削除する、
    情報処理方法。
  17.  請求項15又は16に記載の情報処理方法であって、
     前記モデルを生成する際に、同一の前記属性からなるデータに基づいて、前記モデルを複数回生成し、
     生成した複数の前記モデルに利用される前記属性の数に基づいて、削除する前記属性を決定する、
    情報処理装置。
  18.  請求項15乃至17のいずれかに記載の情報処理方法であって、
     前記モデルを生成する際に、決定木からなる前記モデルを生成し、
     生成した前記モデルに利用される前記属性の決定木における根ノードからの距離に基づいて、削除する前記属性を決定する、
    情報処理方法。
  19.  請求項15乃至18のいずれかに記載の情報処理方法であって、
     前記モデルを生成する際に、葉ノードが前記属性を含む回帰式である決定木からなる前記モデルを生成し、
     生成した前記モデルの前記回帰式における前記属性の係数に基づいて、削除する前記属性を決定する、
    情報処理方法。
  20.  請求項15乃至19のいずれかに記載の情報処理装置であって、
     前記モデルを生成する際に、葉ノードが前記属性を含む回帰式であり、前記葉ノード以外のノードが前記属性を含む分岐条件である決定木からなる前記モデルを生成し、
     生成した前記モデルの決定木における前記分岐条件及び/又は回帰式の生成に用いられた前記データの数に基づいて、削除する前記属性を決定する、
    情報処理装置。
  21.  請求項15乃至20のいずれかに記載の情報処理方法であって、
     生成した前記モデルに利用される複数の前記属性同士の関連度合いに基づいて、前記複数の属性のうち少なくとも1つを削除する、
    情報処理方法。
  22.  請求項14乃至21のいずれかに記載の情報処理方法であって、
     予め設定された基準により制御不可能な前記属性を削除する、
    情報処理方法。
  23.  情報処理装置に、
     複数の属性からなるデータに基づいて、前記属性を利用したモデルを生成し、
     生成した前記モデルに基づいて、モデル生成に使用する前記属性を変更し、
     さらに、変更された前記属性からなるデータに基づいて、新たなモデルを生成する、
    処理を実行させるためのプログラム。
     
PCT/JP2019/012569 2018-03-28 2019-03-25 情報処理装置、情報処理方法、プログラム WO2019189016A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/041,667 US20210012247A1 (en) 2018-03-28 2019-03-25 Information processing apparatus, information processing method, and program
JP2020510819A JP7081661B2 (ja) 2018-03-28 2019-03-25 情報処理装置、情報処理方法、プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018062093 2018-03-28
JP2018-062093 2018-03-28

Publications (1)

Publication Number Publication Date
WO2019189016A1 true WO2019189016A1 (ja) 2019-10-03

Family

ID=68058161

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/012569 WO2019189016A1 (ja) 2018-03-28 2019-03-25 情報処理装置、情報処理方法、プログラム

Country Status (3)

Country Link
US (1) US20210012247A1 (ja)
JP (1) JP7081661B2 (ja)
WO (1) WO2019189016A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023025801A (ja) * 2021-08-11 2023-02-24 三菱重工業株式会社 予測装置、予測方法およびプログラム
JP7463075B2 (ja) 2019-10-23 2024-04-08 株式会社東芝 末端圧力制御支援装置、末端圧力制御支援方法及びコンピュータプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11928208B2 (en) * 2018-10-02 2024-03-12 Nippon Telegraph And Telephone Corporation Calculation device, calculation method, and calculation program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017168458A1 (ja) * 2016-03-28 2017-10-05 日本電気株式会社 予測モデル選択システム、予測モデル選択方法および予測モデル選択プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8844031B1 (en) * 2010-12-30 2014-09-23 Eventbrite, Inc. Detecting spam events in event management systems
US10830747B2 (en) * 2016-10-26 2020-11-10 Northwestern University System and method for predicting fatigue strength of alloys

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017168458A1 (ja) * 2016-03-28 2017-10-05 日本電気株式会社 予測モデル選択システム、予測モデル選択方法および予測モデル選択プログラム

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ETO, R. ET AL.: "Fully-automatic bayesian piecewise sparse linear models", PROCEEDINGS OF MACHINE LEARNING RESEARCH, vol. 33, 25 April 2014 (2014-04-25), pages 238 - 246, XP055137253, Retrieved from the Internet <URL:http://proceedings.mlr.press/v33/etol4.pdf> [retrieved on 20190422] *
FUJIMAKI, R.: "Piecewise sparse linear classification via factorized asymptotic bayesian inference", JOURNAL OF THE JAPANESE SOCIETY FOR ARTIFICIAL INTELLIGENCE, vol. 32, no. 1, 1 January 2017 (2017-01-01), pages 30 - 38, XP055638564, ISSN: 2188-2266 *
IWUNDU, M. P. ET AL.: "On the adequacy of variable selection techniques on model building", ASIAN JOURNAL OF MATHEMATICS AND STATISTICS, vol. 8, no. 1, 2015, pages 19 - 34, XP055638558, ISSN: 1994-5418, Retrieved from the Internet <URL:http://docsdrive.com/pdfs/ansinet/ajms/2015/19-34.pdf> [retrieved on 20190424] *
KHARKAR, P ., BACKWARD ELIMINATION FOR MULTIPLE LINEAR REGRESSION, 14 February 2018 (2018-02-14), pages 1 - 28, Retrieved from the Internet <URL:http://www.thejavageek.com/2018/02/14/backward-elimination-multiple-linear-regression> [retrieved on 20190424] *
YONEYA, M.: "Intensive course in seven days! An introduction to Excel statistics", 25 August 2016 (2016-08-25), pages 165 - 196, ISBN: 978-4-274-21888-0 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7463075B2 (ja) 2019-10-23 2024-04-08 株式会社東芝 末端圧力制御支援装置、末端圧力制御支援方法及びコンピュータプログラム
JP2023025801A (ja) * 2021-08-11 2023-02-24 三菱重工業株式会社 予測装置、予測方法およびプログラム

Also Published As

Publication number Publication date
US20210012247A1 (en) 2021-01-14
JPWO2019189016A1 (ja) 2021-02-25
JP7081661B2 (ja) 2022-06-07

Similar Documents

Publication Publication Date Title
WO2019189016A1 (ja) 情報処理装置、情報処理方法、プログラム
CN104679743B (zh) 一种确定用户的偏好模式的方法及装置
CN108344812A (zh) 一种变压器故障诊断方法、装置及存储介质
KR20120039480A (ko) 비즈니스 프로세스 관리 모델 최적화
KR101976689B1 (ko) 데이터 모델링을 위한 변수 자동생성방법 및 그 장치
KR102090239B1 (ko) 계층융합통계정보를 활용한 고속이상탐지방법 및 그 시스템
Shreyas et al. Predicting popularity of online articles using random forest regression
CN110705045A (zh) 一种利用网络拓扑特性构建加权网络的链路预测方法
CN109409592A (zh) 动态环境下移动机器人的最优策略解决方法
Ghosh et al. A user-guided innovization-based evolutionary algorithm framework for practical multi-objective optimization problems
JPWO2010058785A1 (ja) 経路計算順決定方法、プログラムおよび計算装置
WO2022036515A1 (zh) 生产过程的建模和仿真方法及装置
JP6616889B2 (ja) ウインドウ評価方法および分析装置
binti Oseman et al. Data mining in churn analysis model for telecommunication industry
CN107392220A (zh) 数据流的聚类方法和装置
Kajornrit A comparative study of optimization methods for improving artificial neural network performance
JP6547575B2 (ja) 経路探索装置及び経路探索方法
Wang et al. A multi-objective genetic programming approach to uncover explicit and implicit equations from data
CN109242534A (zh) 一种基于用户评论动态分析的用户评分预测方法
Martin et al. An adaptive sequential decision making flow for FPGAs using machine learning
CN112686337B (zh) 一种基于深度优先算法的跨平台信用信息融合方法
WO2019171992A1 (ja) 情報処理装置、情報処理方法、プログラム
JP5509952B2 (ja) シミュレーション方法、シミュレーション装置、プログラム、及び記憶媒体
Shelokar et al. A multiobjective variant of the Subdue graph mining algorithm based on the NSGA-II selection mechanism
Sudjianto et al. Single-index model tree

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19777413

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020510819

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19777413

Country of ref document: EP

Kind code of ref document: A1